‘Nvidia RTX 5060 Ti heeft 16GB GDDR7-vram; RTX 5060 krijgt 8GB'

De Nvidia RTX 5060 Ti krijgt 16GB aan GDDR7-geheugen. Dat claimt Wccftech. De RTX 5060 zou dan weer 8GB GDDR7-geheugen krijgen. Beide videokaarten zouden een 128bit-geheugenbus en een geheugenbandbreedte van 448GB/s hebben. De gpu's zouden eind februari te koop zijn.

Zowel de Nvidia RTX 5060 Ti als de reguliere RTX 5060 zouden naar verluidt op de GB206-gpu gebaseerd zijn. De GDDR7-geheugenchips van beide kaarten kunnen volgens Wccftech een snelheid van 28Gbit/s aan. Bij de RTX 5060 zou de snelheid van de GDDR7-modules naar verluidt bijgesteld kunnen worden om stroomverbruik te beperken.

Als de nieuwe geruchten kloppen, krijgt de Nvidia RTX 5060 een even grote hoeveelheid vram mee als de RTX 4060. Deze desktopvideokaart werd in mei 2023 geïntroduceerd. Tweakers schreef in de zomer van dat jaar een review over de gpu. Het gaat bij de nieuwe Blackwell-videokaart dan wel om GDDR7-geheugen, met een snelheid van 28Gbit/s. Bij de RTX 4060 ging het om GDDR6-geheugen, met een snelheid van 17Gbit/s. De geheugenbus van de twee kaarten zou met 128bit ook even groot zijn. De geheugenbandbreedte van de RTX 4070 bedraagt 448GB/s.

Er zijn al langer geruchten over de aankomende Nvidia RTX50-videokaarten. Het Amerikaanse bedrijf zou de nieuwe gpu's willen introduceren tijdens de eerstvolgende Consumer Electronics Show in Las Vegas. Ceo Jensen Huang houdt op dinsdag 7 januari 2025 een keynote tijdens de CES. Tweakers meldde al op basis van bronnen dat de RTX50-videokaarten in het begin van 2025 op de markt zouden verschijnen.

Videokaart Nvidia RTX 4060 Nvidia RTX 5060
(volgens geruchten)
Nvidia RTX 4060 Ti Nvidia RTX 5060 TI
(volgens geruchten)
Architectuur Ada Lovelace Blackwell Ada Lovelace Blackwell
CUDA-cores 3072 Nog niet bekend 4352 Nog niet bekend
Geheugen 8GB GDDR6 8GB GDDR7 8GB GDDR6 16GB GDDR7
Geheugensnelheid 17Gbit/s 28Gbit/s 18Gbit/s 28Gbit/s
Geheugenbus 128bit 128bit 128bit 128bit
Geheugenbandbreedte 272GB/s 448GB/s 288GB/s 448GB/s
Release Voorjaar 2023 Voorjaar 2025 Voorjaar 2023 Voorjaar 2025

Door Jay Stout

Redacteur

16-12-2024 • 13:16

255

Lees meer

Reacties (255)

255
248
74
4
0
125
Wijzig sortering
Belachelijke planned obsolescence d.m.v. VRAM-tekort. Typisch Nvidia. Met 8GB ben je in 2025 en beyond echt nergens meer.
Je weet perfect wat je koopt en wat de mogelijkheden van de kaart zijn. Dit is dus geen planned obsolescence daar er alternatieven zijn die mogelijks beter bij je passen als je meer geheugen wenst.

Dat de kaart ongetwijfeld voor een te hoge prijs verkocht zal worden die niet in verhouding staat tot specs, dat is een andere zaak.
Wij weten dat, maar de gemiddelde consument weet dat niet. Die denken de nieuwste videokaart te kopen en kunnen er al vrij snel niets meer mee. 8GB vram is nu al te weinig, dat blijkt uit alle reviews. Een kaart in de middeklasse uitbrengen met 8GB is naar mijn mening belachelijk. Deze kaart gaat met bakken verkocht worden in middeklasse gaming desktops en er gaan heel veel mensen teleurgesteld zijn in de prestaties omdat hun nieuwe gaming desktop niet eens een game van 2 jaar oud op hoge texture settings kan draaien.
Het is daarbij wel de vraag of je dit soort kaarten nog moet zien als middenklasse. Immers is Nvidia (en AMD in iets mindere mate) al tijden bezig om chips die 'vroeger' op zijn best een plekje zouden krijgen aan de onderkant van de markt te verkopen als 60/600 klasse kaarten, wat vroeger natuurlijk de midrange was van beide merken.

Tegenwoordig verkopen beide merken echter niets later meer dan een x060 (Nvidia) of een x600 (AMD), ik zie deze 'klasse' dus eigenlijk al langere tijd opgeschoven worden naar de lowend en dat zie je dus ook in de specs, vaak weinig midrange meer aan, maar vrij minimaal. Ik zou het zelf dus eigenlijk ook geen midrange meer willen noemen, al zouden de fabrikanten het natuurlijk wel fijn vinden als iedereen dat blijft doen.
Een 4060 zit om en nabij de 330 euro. Een 5060 zal daar nog een eind boven zitten. Een instap videokaart is een RTX3050 of A380 van minder dan 200 euro. Het maakt niet uit wat Nvidia ervan wilt maken, maar een 5060 wordt geen instapkaart. Er zal altijd een markt zijn voor videokaarten die minder dan 400 euro kosten anders wordt het verschil met gameconsoles wel zo enorm dat er bijna geen reden meer is om een pc te bouwen voor mensen met een beperkt budget.
Dat de 4060 te duur is ben ik met je eens. Maar dat is een proces wat je ook al langer ziet. De ranges schuiven simpel weg op (en voor de consument niet de goede kant op). Waar je vroeger (nog niet eens zo heel lang geleden, echt 'vroeger' lagen de prijzen nog een stuk lager) een 'low end' had tot +-€250, een 'midrange' van €250 tot €500 en dan een high end van €500 tot zo gek als je het wilde maken. Terwijl nu eigenlijk pas de low end van deze fabrikanten begint bij €250 tot €300 voor het instap model binnen de huidige generatie en oploopt tot €400+, en dat je pas 'mid range' waardige prestaties krijgt in de huidige generatie kaarten wanneer je meer dan €500 uitgeeft bij Nvidia of richting de €500 bij AMD.

Immers zie je dat nu de onderkant van de meest recente product ranges van Nvidia, AMD en Intel begingen rond de €300 voor Nvidia (Met de 4060, er is immers geen 4050 meer, wat nu de 4060 heet had de 4050 moeten zijn), en AMD met €259 voor de 7600 en Intel zal daar vermoedelijk ook zo rond die prijs gaan landen voor de B570. En inderdaad, ik hou de mogelijkheid ook zeker open dat Nvidia de prijs voor de onderkant van de 5000 range (vermoedelijk de 5060) nog weer wat verder gaat oprekken, net als de rest van de range, zodat men straks ook daar pas weer midrange prestaties krijgt wanneer er €500+ betaald gaan worden voor een kaart.

Dat de 4060 geen instap kaart zou zijn zie ik ook niet direct, tuurlijk Nvidia zal liever niet zien dat men het zo noemt, maar ze proberen je een 4050 klasse chip te verkopen als 4060, daarnaast is de 4060 simpelweg het laagste gepositioneerde model in de range, dat is eigen per definitie al een 'instapper', en ik heb niet het idee dat dit bij de 5000 serie gaat veranderen. Het zou me weinig verbazen als straks relatief gezien gekeken naar bijvoorbeeld de games die de volgende jaren gaan komen de 5060 een nog slechtere propositie is dan de 4060 geweest is deze generatie.

[Reactie gewijzigd door Dennism op 16 december 2024 15:18]

Ik ben het met je eens, echter beschouw je de goedkoopste kaart van nvidia in de huidige lineup (4060) als instapkaart, terwijl dat geen instapkaart is. De 3050 is met een reden nogsteeds te koop. Nvidia vond het niet nodig deze te vervangen en dit is dus ook het instapmodel van de huidige generatie. Als Intel zo doorgaat zal ook Nvidia een antwoord moeten hebben in de 200 euro prijsklasse, de nieuwe intel kaarten zijn scherp geprijsd voor wat je krijgt. Een 5050 is niet ondenkbaar, maar dit zal niet veel meer worden dan een die-shrink/optimalisatie en rebrand van een 4060. Maar los daarvan, instapvideokaarten zijn nog altijd rond de 200 euro, alleen wil nvidia daar niet aan meedoen. De toekomst zal uitwijzen of dat een verstandige keus van ze is. Al denk ik dat nvidia zo onmogelijk veel geld verdient aan AI chips dat over niet al te lange tijd de consumentenmarkt helemaal niet relevant meer voor ze is.
De 3050 is een kaart uit de vorige generatie (de 3000 serie) waar alweer 4+ jaar geleden de eerste kaarten van uitkwamen. Dat is dus geen kaart uit de huidige generatie, ook al is deze nog te koop. Als straks de komende generatie (5000 serie) uit is, en de 5000 serie de huidige generatie is, en de 4060 is nog te koop dat is dat op dat moment ook gewoon een kaart uit de vorige generatie en niet meer uit de huidige generatie.

Daarnaast is de 3050 zo'n zelfde trucje, dat was een 30 klasse chip die ze 3050 hebben genoemd zodat ze de instap wat hoger op konden rekken, immers bij de 1000 series waren er nog 10 klasse, 30 klasse en 50 klasse kaarten aan de onderkant van range. Bij de turing generatie waren dat nog de 30 klasse en 50 klasse kaarten (1630 en 1650), en bij Ampere ineens nog maar enkel de 50 klasse, en bij Ada was de 50 klasse ook weg.

In +- 6-7 zeer is Nvidia's lineup aan de onderkant dus geërodeerd van een range waarbij de low end bestond uit de 10, 30 en 50 klasse tot een range die die eigenlijk geen traditioneel low end meer heeft en waar de low end dus nu bestaat uit wat niet al te lang geleden gewoon mid range was. Je krijgt nu dus low end specificaties / prestaties voor prijzen waar je als consument eigenlijk midrange verwacht, met een naamgeving die ook aan midrange doet denken (daar verwacht de consument immers de 60/600 en 70/700 klasse kaarten). Men krijgt nu echter een 50 klasse chip, met een 50 klasse performance, met een 60 klasse naamgeving voor een prijs die je verwacht bij een goede mid range kaart.

En ik zou graag zien dat ook Nvidia de onderkant van de markt beter zal bedienen met lager gepositioneerde Sku's in de stack. Maar tot nu lijken alle geruchten erop te duiden dat de 5060 het laagste mogelijke model gaat zijn voor de desktop range om in te stappen in de 5000 serie, wat het dus nogmaals, per definitie een instapmodel maakt (ook al gaat het waarschijnlijk veel te duur zijn voor wat je gaat krijgen).

[Reactie gewijzigd door Dennism op 16 december 2024 16:57]

Het klopt helemaal dat de 3050 4+ jaar oud is, maar nvidia heeft die kaart behouden als "instap". Ja ze hadden hem ook kunnen rebranden naar een 4030 of 4040 oid, maar als de 3050 goed verkoopt is daar geen reden voor vanuit een zakelijk oogpunt. Dat de 5060 straks prestaties gaat leveren die wij bij een instapkaart vinden passen maakt het nogsteeds geen instapkaart als hij 400 euro is. Enkel als AMD en Intel gelijkwaardige prestaties gaan leveren voor 400 euro en niets onder die prijs aan gaan bieden kan je het instap kaarten gaan noemen, maar op dit moment hoef je geen 400 euro uit te geven om een videokaart te kopen. Voor 250 euro heb je een B570 van intel, niet snel, maar geen 400 euro.
Maar wat AMD en Intel aanbieden als instappunt voor hun generaties heeft toch geen invloed op wat de minimale instap bij Nvidia is voor een bepaalde generatie. Als iemand straks een Nvidia 5000 series kaart wil kan deze, als de geruchten kloppen, pas instappen vanaf de 5060, met de prijs die daar bij hoort.

Dan kan Intel een kaart hebben voor €250, maar degene die een Nvidia 5000 series kaart wil hebben omdat Nvidia bijvoorbeeld weer launched met 'feature X als exclusive' (bijv. Framegen in de 4000 serie) heeft daar straks niets aan, die kan alleen instappen op het door Nvidia bepaalde prijspunt, ook al is dat flink meer dan bij de concurrentie. Ik kijk dus ook niet alleen naar de prijs om een segment te bepalen, maar dus ook naar de positionering in de stack van de fabrikant. Als Nvidia als laagste model in de 5000 serie dan een 5060 heeft, dan is dat de 'instapper' voor die serie ook al kost deze €350, €400 of welk anders prijskaartje Nvidia uit de hoge hoed gaat toveren (Moet eigenlijk <€250 zijn, want meer mag je toch eigenlijk echt niet vragen voor een 8GB kaart in 2025, maar dat zal wel niet uitkomen)

[Reactie gewijzigd door Dennism op 16 december 2024 17:26]

Dat gaat compleet voorbij aan de discussie. Het enige dat ik zeg is dat een 5060 geen instap videokaart is, het is wellicht de instap voor de 5000 serie, maar het is geen instap videokaart voor een gamer met een beperkt budget. Een 3050 is dat wel, want deze is goedkoper, een b570 is dat ook. Dat de 3050 al 4 jaar oud is maakt niets uit, hij is verkrijgbaar en hij is goedkoper dus dat is het instapmodel. Heel simpel.
Ik denk dat we beide met een andere definitie bezig zijn, die elkaar niet uitsluiten. Immers een 3050 is ook zeker een instapmodel als je er (enkel) budget georiënteerd er naar kijkt.

Echter hoeft een instap model in een reeks geen budget model te zijn, terwijl een budget model eigenlijk altijd ook een instap model is.

De 3050 is dus een / het instap model als je naar de hele product stack van Nvidia kijkt, kijk je echter naar alleen de 4000 serie (of straks alleen de 5000 serie) omdat je een specifieke feature wil van die generatie bijvoorbeeld die eerste generaties of de concurrentie niet heeft, dan is de 4060 het instapmodel, of straks waarschijnlijk de 5060.

[Reactie gewijzigd door Dennism op 16 december 2024 19:32]

Tegelijk is het best wel triest met de markt gesteld als je dan gedurende 4 jaar niets meer kan innoveren op de 3050 aldus NVidia, en als de 50 serie daar niet aan veranderd, uiteindelijk zes jaar. Dat voor een bedrijf waar het geld tegen de plinten klotst. Ik hoop dat Intel ze in dat segment tot 300 euro kan wakkerschudden. Wat er nu met Battlemage aankomt is heel scherp prijs/kwaliteit, dus het kan wel, enkel NVidia wilde niet. Heel gevaarlijk zulke monopolisten.
Zeker, de innovatie aan de onderkant van de stack is eigenlijk al even helemaal weg inderdaad.

Al moet nog maar blijken of Intel met Battlemage bewijst dat het kan. Eerst maar eens zien of die kaarten in volume beschikbaar worden op het MSRP. Er gaan immers ook genoeg geruchten dat Intel moet bijleggen op die kaarten en dus aan het subsidiëren is en deze kaarten nooit in volume op MSRP beschikbaar gaan komen. En dat Intel die kaarten eigenlijk alleen released omdat ze nog prepaid wafer allocaties hebben bij TSMC gekocht in de hoogtij dagen tijdens corona. Waar daar van klopt weten we natuurlijk niet, dus moeten we de markt de komende tijd goed in de gaten houden om te zien of de komende kwartalen Intels marktaandeel significant gaat stijgen in dGPU (is nu <1%) en de kaarten ook daadwerkelijk op voorraad gaan komen bij de webshops voor de correcte prijzen. Of dat het allemaal maar mondjes maat blijft komen tegen te hoge prijzen.

En dat is iets dat Intel mogelijk nodig heeft om de markt in de komen, maar Nvidia en in mindere mate AMD vermoed ik niet zo snel willen doen. Die willen, vermoed ik althans, gewoon gezonde marges draaien op dit soort kaarten en anders fabben ze wel wat anders waar ze meer marge op kunnen maken met hun wafer allocaties.
Azerty kan binnen 2-3 dagen leveren vanuit leverancier voorraad 10 stuks, met best een leuke koeler zo te zien. Heb je 12GB VRAM. Ik zie het probleem niet.
uitvoering: ASRock Intel Arc B580 Steel Legend 12GB OC

Het lijkt er alleen voor onze situatie hier op dat ie niet heel veel anders presteert dan de RTX2080 die al in de tweede game pc zit. Wel wat meer VRAM en zou met gesloten beurs prima een ruil overwegen, maar dit is niet in alle opzichten een upgrade, dus om daar geld op toe te leggen en tijd aan een verkoop te spenderen voelt zonde. Wie weet, of Intel nog weer iets later net dat segmentje hoger ook meepakt.

[Reactie gewijzigd door OruBLMsFrl op 16 december 2024 23:52]

Daarom zei ik ook 'op MSRP', als je Intels $249 MSRP omrekent naar euro's inclusief BTW zit je op 286 euro. Die kaart is dus al €44 'te duur' en laat dat nu net een bekend trucje zijn om meer marge te maken. Kondig aan op een laag MSRP, maar daarna is er geen kaart voor die prijzen te krijgen en zijn ze quasi allemaal duurder. Daarnaast is een volume van 10 kaarten 'bij de leverancier' natuurlijk niet heel veel, en kun je niet direct 'in volume beschikbaar' noemen nog. Eerst dus maar eens zien of ze voor (en dan geef ik Intel nog 3 euro) voor €289 (of minder) breed beschikbaar komen.

De eerste de beste 4060 die ik willekeurig aanklik zijn er 120 van op locatie in voorraad en 815 bij de leverancier: https://azerty.nl/product...-hdmi-2-1-dp-1-4a/6781557 dan praat je over hele andere aantallen en volumes.

[Reactie gewijzigd door Dennism op 16 december 2024 23:59]

Ben benieuwd of Tweakers inspiratie heeft getrokken uit onze discussie hier, ze komen er hier in ieder geval op terug: review: GeForce RTX 4060 - De Nvidia-instapper voor 1080p
echt 'vroeger' lagen de prijzen nog een stuk lager) een 'low end' had tot +-€250, een 'midrange' van €250 tot €500 en dan een high end van €500 tot zo gek als je het wilde maken.
Stop met prijzen van vroeger te vergelijken. Inflatie over 15 jaar bedraagt minstens 30%. Een kaart die destijds 500 EUR kostte, die was in verhouding met vandaag ook 700 EUR waard, koopkrachtgewijs. En dan heb ik het nog niet over de prestatietoename.
Even corrigeren, de inflatie over de laatste 10 jaar was 32%.
Over 15 jaar is 45% en 20 jaar is 57%.

Mensen lijken echt niet te snappen hoe hard het gaat.
Verklaar de rest van de verhoging dan ook gelijk even, ik luister.
Voor duurder highend: Grotere chips, met een veel hogere kostprijs. Hoger opgenomen vermogen vereist veel betere stroomvoorziening en koeling, maar dat kost daarom ook veel meer. En waar 15 jaar geleden SLI gebruikt werd, kan dat nu met 1 videokaart.

Voor ontbrekende lowend: APU's zijn meer steeds meer geschikt om die plaats in te nemen van de lowend videokaarten.
Dual card was inderdaad de standaard waardoor kaarten principieel het dubbel kostten. Dat detail vergeten velen.
Fuck AMD, dat ze geen competetieve kaarten kunnen aanbieden. Waarom zie ik geen gelijkwaardige kaarten aan significant lagere prijs dan die van Nvidia. Moet toch simpel zijn marktaandeel van Nvdia af te snoepen bij dergelijke prijszetting.
Eens, en met de aanvulling dat de 8 GB voor deze kaart ook nog eens een bottleneck zal gaan vormen. De GPU zal waarschijnlijk niet heel denderend presteren, maar dit wordt nog eens vergergerd door het tekort aan VRAM met swappen naar het systeem-RAM als gevolg en daardoor nog lagere prestaties. Erg zonde!

[Reactie gewijzigd door Degrader op 16 december 2024 16:56]

Dat gebeurde al met de GTX 680, de GTX 660 chip bleek zo goed te zijn dat het uiteindelijk als GTX 680 is verkocht.
De prijs van een kaart bepaald niet wat een low range, mid range of een high end kaart is.

De performance bepaald dat. Een low end kaart zal later (10 jaar ofzo) gewoon 800 euro gaan kosten. En dan is het nog steeds low end.
En dat baseer je waarop precies? Instap kaarten zijn in prijs gestegen van ca 100 euro 15 jaar geleden naar ca 200 euro nu. Waar baseer jij 800 euro over 10 jaar op? En de prijs bepaalt 100% of een kaart een instapmodel is of niet. Nvidia kan ervoor kiezen kaarten op de markt te brengen voor 400 euro met prestaties van een instap model, maar als amd en nvidia een gelijkwaardig presterende kaart voor 200 euro minder aanbieden dan wordt de nvidia kaart gewoon vergeleken met de middeklasse. Of een kaart instap of middeklasse is ligt aan wat de concurentie aanbiedt en een 5060 gaat simpelweg geen instapmodel zijn aangezien er goedkopere kaarten op de markt zijn.
De 800 euro is meer een voorbeeld prijs dan een voorspelling.

Ik ben het echt totaal oneens met het idee dat een prijs de klasse van de kaart bepaald.

Low range kaarten zijn altijd kaarten geweest die qua performance gewoon onderaan de generatie staan. Dat staat los van prijs. Dat is feitelijk altijd zo geweest. Een kaart die alleen 60 FPS op 1080p kan draaien word niet opeens een high end kaart als die bijvoorbeeld voor 1200 euro geprijsd staat. Dan blijft het nog steeds een low end kaart.

[Reactie gewijzigd door Ricco02 op 16 december 2024 15:15]

Kaarten worden net zo goed gerangschikt op prijs als kwaliteit, dat is altijd zo geweest.

Je snapt toch zelf ook wel dat een kaart die 60 FPS op 1080p draait nooit voor 1200 euro geprijst gaat worden.... Een kaart is goedkoop omdat de specs laag zijn of een kaart is duurder omdat de specs hoger zijn dan die daarvoor.

Heb jij ooit een rtx 60 kaart gezien dan die beter en duurder is dan een rtx 80 kaart binnen dezelfde generatie? Raar voorbeeld als je het mij vraagt, de prijs geeft zeker wel aan of een kaart beter is dan de ander.
Ik zeg letterlijk “bijvoorbeeld”. Ik zeg toch niet dat een low end kaart voor 1200 euro over de toonbank gaat?

Het was een voorbeeld dat een hoge prijs niet opeens een low range kaart high end maakt. Omdat de klasse van de kaart los staat van de prijs.
15 jaar geleden kon je met een GPU van 100 euro ook al niks.
1024mb geheugen was toen al te krap om een game om medium te spelen.
Zelfs de GT 530 was met 140,- eigenlijk niks.
Beetje video kaart was je al snel het dubbele kwijt, mid-tier specs.
Daar kon je mee op high spelen, maar vaak nog niet alles up ultra.
Klopt, maar dat is niet de discussie. Het gaat erom dat een 5060 geen instapkaart is.
Niet mee een. De gtx 460, als je ff een jaartje wachtte was hij van 210e naar 150e, en kon je prima games mee spelen.
15 jaar geleden had je voor 100 euro een HD5670, wat een prima budget-kaartje was, en voor 110-120 euro had je een instap-mid-range HD5750, die voor gaming echt prima was. En 1GB was toen doodnormaal. Met mijn HD4850 512MB zat ik vaak op high, en echt nooit op low, ook niet in crysis of andere zware games.

Je noemt met "15 jaar geleden" dus net een tijd dat je voor een appel en een ei een videokaart kon krijgen. :p

[Reactie gewijzigd door bwerg op 16 december 2024 22:57]

Dit had ik eigenlijk al met mijn 3070 ti sinds de aanschaf. 8GB is gewoon te weinig voor 1440p. Maar goed, ik was toch van plan om komend jaar te upgraden, en aangezien Nvidia nog steeds deze fratsen uithaald vallen zij al af.
Ik speelde vroeger alleen CS, en had genoeg met de midrange modellen.
8800GT, GTX 460, 1060 6GB OC en nu 3060 ti. En ik was er altijd wel blij mee.
Maar nu ben ik bijna genoodzaakt om hoger te gaan als ik dezelfde prestaties zou willen.

jammer wel

[Reactie gewijzigd door pakkiwakki op 16 december 2024 15:54]

Heeft die 1060 met 4GB een gouden handtekening van Jensen :+ ? Volgens mij zijn er alleen 3GB en 6GB modellen, en destijds was de 3GB versie al een slechte koop omdat deze met een aantal spellen significant trager was dan het 6GB model en vergelijkbare kaarten van AMD.
6GB was het dan :) Is natuurlijk even geleden
Was wel een top kaart. Was even groot als mijn RTX 3060 ti.
Ik speelde vroeger alleen CS, en had genoeg met de midrange modellen.
8800GT, GTX 460, 1060 6GB OC en nu 3060 ti. En ik was er altijd wel blij mee.
Maar nu ben ik bijna genoodzaakt om hoger te gaan als ik dezelfde prestaties zou willen.

jammer wel
Je vergist je volgens mij in de tijd die tussen de kaarten zit. Tussen de 8800GT (2007) en de GTX 460 (2010) zat nog een GTX 260. Tussen de GTX 460 (2010) en de 1060 (2016) zaten nog veel meer kaarten, namelijk de GTX 560 (refresh), de GTX 660, de GTX 760 (refresh) en de GTX 960.

Wanneer je een vergelijkbaar timeframe aanhoudt verwacht ik niet dat je persé duurder hoeft te gaan shoppen dan je 3060 Ti (die tegen de 500 euro aan zat bij launch).
Het is toch aan jezelf om onderzoek te doen? Zeker als je een kaart van 500+ euro koopt.

"Dat weet de gemiddelde consument niet"

Is dat dan het probleem van Nvidia?
Ja ze maken het met opzet onnodig ingewikkeld, anti-consumentenpraktijken. Een gemiddelde consument ziet nummertjes, maar heeft geen idee wat ze betekenen. Hoger is vast beter. Oh dan is 5060 beter dan 4070, want hoger.
Tja, met een beetje research ben je er al. Je hoeft letterlijk maar op google in te typen is card XXXX better than card XXXX en je krijgt een filmpje met benchmarks.
Jij hebt een veel te hoge pet op van de gemiddelde consument.
Als ze dat al niet kunnen, weten ze uberhaubt niet wat ze kopen. Er is niks ingewikkeld aan, eerste twee cijfers= generatie, laatste 2 cijfers=klasse. Ik kan niet zo 123 een makkelijker te begrijpen naming scheme verzinnen dan dit
Ja luister je hoeft ons tweakers daarover echt niet te overtuigen, maar dit is echt niet iets wat uberhaupt opkomt in de gedachtestroom van de meeste mensen die uiteindelijk gebruiker zullen worden van een xx60 kaart. Dit zijn de kinderen, broertjes, ouders, bedrijven die net iets sterkers nodig hebben dan een iGPU, etc.. Er zijn toch genoeg gebruiksproducten (zo zien niet-tweakers computers) waarvan je je nooit afvraagt of je wel waar voor je geld hebt gekregen of niet. Lucovitaal vgm kruidvat huismerk zalfjes ofzo, zoek jij dat op? Welke handzeep het fijnst is? Genoeg groepen die jouw weer gek vinden omdat jij niet je verdiept in hun 'specialiteit' gebruiksproduct. Op tweakers zit je echt in een ongelofelijke tech-bubbel, dat is niet erg, maar dat moet je wel relativeren. En ja, ik ben het helemaal mee eens dat eigen schuld dikke bult, maar we zijn het er toch ook over eens dat 8gb VRAM op zijn minst opmerkelijk is voor een kaart met zoveel compute-kracht als een 5060 waarschijnlijk zal hebben.
Dat is het ook vaak, mensen doen geen research. Om dan Nvidia te verwijten dat ze aan anti-consumentenpraktijken doen is natuurlijk wat hooggegrepen imo.

Als consument zou je natuurlijk wat onderzoek moeten doen voordat je iets (duurs?) koopt. Of je nu een Tweaker bent of niet, dat doet er niet toe. Als ik iets ga kopen voor de tuin, dan ga ik ook eerst op zoek naar informatie.
Iemand die een losse videokaart koopt en er zo weinig moeite in steken zal denk ik toch niet snappen tegen welke beperkende factor aanlopen. Dan is het gewoon een kwestie van "high" aanpassen naar "medium" en verder.
Dit wordt gekocht door mensen die een "knalaanbieding" van een gaming desktop bij de mediamarkt zien staan "Core i7, 16GB en een Nvidia 5060 videokaart!", kopuuuh!
Mensen die dat kopen doen geen verder onderzoek, maar die geven straks 800 euro uit aan een gamepc die de nieuwste games amper fatsoenlijk kan draaien. Ja die met Ti achter de 5060 bij coolblue is 150 euro duurder, zal wel niet zo veel uitmaken, kom we kopen deze. Of je kijkt een review; "de 5060 is het beste sinds gesneden brood! Ohja, deze video is gesponsored door nvidia".
Waar moet een consument beginnen met zoeken? Voor ons is het gesneden koek, maar voor 99% van de bevolking niet.
Ikzelf kan geen betere naming convention bedenken dan de XX generatie en XX versie. Hoe zou je anders nieuwe kaarten willen benoemen?

Als je iets duurs koopt, doe je er onderzoek naar of vraag je een van je handige kennissen om het voor je uit te zoeken of nog beter, je het te leren.

Je kan niet alleen maar de schuld afschuiven naar grote bedrijven. Een consument hoort ook gewoon verantwoordelijke te consumeren. En doe je dat niet? Dan zit je op de blaren en dan leer je er van?
En dan ga je er nog vanuit dat ze het zelf gewoon zomaar kopen, i.p.v. nog een praatje met bijv. een verkoper in de winkel, waar je haarfijn kan uitleggen welke spelletjes je wil spelen. Dan legt die verkoper je uit welke je moet hebben.

Ik weet toch ook geen bal van auto onderdelen, dan ga ik dit ook uitzoeken of ik vraag er naar.

Ik zie in de naming convention iig niks anti-consumer maar wel in de prijzen van tegenwoordig.
Wat is nu t probleem dan precies? Die draaien de games dan op medium ipv high en zijn waarschijnlijk gewoon tevreden. Als je alles op (ultra) wil spelen moet je simpelweg meer geld uitgeven.
Hier ben ik het niet helemaal mee eens. Ik heb zelf pas een jaar of vijf geleden voor het eerst mijn eigen pc samengesteld. Tot dan toe heb ik enkel laptops gehad, en speelde ik alleen games op consoles. Ik ben als een complete leek erin gerold. Toch was het voor mij niet heel moeilijk om informatie te vinden over welke componenten er op dat moment de beste prijs/kwaliteitverhouding hadden. Vorig jaar heb ik het proces nog eens overgedaan, omdat ik wilde upgraden. Opnieuw was het allemaal niet heel ingewikkeld om uit te zoeken, maar je moet het natuurlijk wel willen. Volgens mij is dat het grootste probleem met de '99%' waar jij op doelt, al betwijfel ik of het daadwerkelijk zo'n groot deel van de potentiële consumenten bedraagt.

Ik ben overigens beide keren niet bij Nvidia beland, ik probeer hier dan ook zeker niet het beleid van Nvidia te verdedigen.
Als je een paar honderd euro uitgeeft zonder de moeite te doen om even wat op te zoeken... tja, dan verdien je het :)

Misschien is dat wel het probleem van de huidige generatie: ze geven veel geld uit en ze weten eigenlijk niet goed aan wat. Dat is niet zo positief.
ik vind dit toch wel beetje heel erg de schuld in de schoenen van nvidia leggen, terwijl er niks vreemds is aan die benaming. als je als gebruiker blindelings 300 euro aan een videokaart uitgeef zonder verder te kijken dan een nummer mag je dat jezelf als consument aanrekenen, en niet in de schoenen van de fabrikant schuiven.

misschien zit ik in een kring van mensen die echt bijster slim zijn maar ik ken ook werkelijk niemand die gewoon op die manier een vorm van hardware koopt.
Wie zegt dat ze een kaart kopen?
Misschien kopen ze een prebuild? Of is het een kado van de ouders?

Is het dan het probleem van Nvidia? Nee.
Is het achterbaks en anti-consument? Ja.
als ze een prebuild kopen met een 5060 zal deze allicht rond de 1000 euro uitkomen. als ze dan geen onderzoek gedaan hebben en blindelings even 1000 euro uitgeven voor iets wat voor hun gebruik te weinig is, is dat niks achterbaks van nvidia, maar gewoon dikke stomme pech van de consument.

daarnaast vraag ik me ook beetje af hoe verwend we met zn allen willen worden. onze kinderen spelen met een 2070 en de ander een 1660 super. ze gamen op FHD, en hun zijn gewoon echt dolgelukkig met hun pc en games die ze spelen. we willen volgens mij zo langzamerhand 30+ gb aan geheugen op een kaart, met een prijskaartje van 500 euro. |:(
Misschien is het niet voor een kind maar voor een puber or jong volwassene. Of een partner etc.

We hadden eenzelfde situatie in de jaren 00s, waar kaarten los met namen speelde en ze beter klonken dan kaarten die echt beter waren.

Moeten ze meer onderzoek doen? Ja, ik zie het al voor me, mn oma gaat lekker LinusTechTips kijken voor 3-4u or 10 paginas aan specs vergelijken.

[Reactie gewijzigd door Gunneh op 17 december 2024 16:35]

Wat wil je dan dat nvidia en amd doen? En ja bij alle hardware heb je dit probleem. Zowel bij cpu als bij gpu als bij moederbord chipset.

Nvidia geeft heel duidelijke specificaties van alle producten, als je daarna nog steeds niet snap dat een 4060 langzamer is dan een 3080 dan kan elke fabrikant daar weinig aan toevoegen om dat wel te laten begrijpen.

Ik snap echt niet wat men wil. Een instapkaart van de 5000 serie die sneller is dan een 4070 ti super is gewoon niet realistisch.
Is dat dan het probleem van Nvidia?
Naja dat is voor de toekomst om te vertellen. Ik denk dat de oude leiding van intel 'ja' als antwoord gaat zeggen want zij hebben ook hun marktpositie destijds misbruikt. Ik geef ze geen ongelijk, welke ondernemer wil niet méér winst maken, maar het is gewoon een spelletje om te spelen. De vraag is inderdaad of het zo veel uit gaat maken. Ik zeg ja, jij dus nee.
Ben het hiermee eens. Ik geloof ook absoluut niet dat de gemiddelde consument hier een probleem van maakt. Dit is altijd hetzelfde liedje met mensen 'met verstand van zaken' die proberen op te komen voor een andere groep mensen waarvan we niet eens weten wat ze ervan vinden. Ik begrijp waar het vandaan komt, ik was ooit ook zo. Het is nutteloos om je hier druk om te maken. De kaarten zijn prima in prijs gesegmenteerd en je krijgt waar je voor betaald. Ben je het niet eens met de prestaties, dan ruil je het product om voor iets anders. Dit is niet aan ons om ons druk om te maken. Als de gemiddelde consument nVidia te duur vind en de prestaties zijn ondermaats dan verkoopt nVidia vanzelf minder kaarten en worden ze mogelijk ook weer wat goedkoper. Stem met je portemonnee en stop met denken voor een ander.

[Reactie gewijzigd door BruT@LysT op 16 december 2024 16:48]

Beetje kort door de bocht, nietwaar? De consument heeft nog altijd een onderzoeksplicht en dient zich voorafgaand te informeren over een product, dienst of transactie.
Daarom is het ook niet illegaal ofzo, maar netjes is het zeker niet.

En je kan onderzoek doen wat je wilt, maar boven de 16gb ga je niet uit komen met deze nieuwe kaarten, je hebt dus keus tussen "net ok" en "simpelweg ondermaats"
Vrij kort door de bocht? Die onderzoekplicht is vrij basic. Dat kan zelfs zo basic zijn als werkt de rtx 5060 icm met mijn r5 3600? Ja? Mooi dan neem ik hem mee. De gemiddelde consument en verkoper weet er bar weinig vanaf en al helemaal als je in de toekomst gaat kijken. Tevens draaien de games nog steeds op een rtx 5060 met 8gb. Alleen merk je met 1% lows dat hij gewoon tekort komt.
De gemiddelde consument zal ook eerder neigen naar een prebuilt systeem. En daar kun je meestal wel navragen welke games zon systeem aankan.

Mijn maten zijn "De gemidelde consument" en ik ben de computer kerel in de groep. Of ze komen bij mij voor vragen, of ze kopen een console (veruit de meeste)

[Reactie gewijzigd door JacOwns7 op 16 december 2024 16:14]

kunnen er al vrij snel niets meer mee
Sorry maar dat is klinklare onzin.
Zelfs al zou 8gb niet genoeg zijn dan is het 1 zaak een beetje naar beneden halen (wat je waarschijnlijk zelf niet zal merken) en je kan verder doen.
Is dat ook te weinig voor 1080p of 1440p?

Ik heb zelf een 2080 met 8GB, maar eigenlijk draai ik de meeste games in 1080p, zelfs op een 4k scherm.
Dat ligt toch ook wel aan je eisen en wensen, ik speel zelf op 1080p en daarvoor volstaat m'n 8GB 4060 Ti prima. Ik verwacht ook echt niet dat die kaart 4K gaat doen. Ik had met een 16GB model de levensduur misschien wat kunnen rekken, maarja, budget. Mijn CPU (i5-8600K) is momenteel mijn bottleneck.
Je weet perfect wat je koopt en wat de mogelijkheden van de kaart zijn
Jij en ik wel, de gemiddelde gebruiker niet: die ziet nVidia, die ziet een xx60 kaart, en die ziet ongetwijfeld een afgrijselijk hoog prijskaartje (het zou met verbazen mocht de 5060 onder de 400 euro op de markt komen), dus die neemt aan dat die kaart nog zeker 5 jaar mee kan. Met de 4060 heeft nVidia echter al bewezen dat ze maar al te graag zulke klanten oplichten.

[Reactie gewijzigd door kiang op 16 december 2024 14:50]

Hoe is de 4060 dan wel "oplichting"?
Als je een serieus antwoord wilt: ik gebruik het woord hier als hyperbool voor 'misleiden van klanten'.

En misleid nVidia klanten met de 4060? Als je het mij vraagt is het antwoord daarop volmondig ja, gebaseerd op de data.

Je kunt hierop natuurlijk zeggen dat het gewone klanten niet boeit hoe groot een chip is, zij het in absolute of relatieve termen, maar ook als je relatieve performance bekijkt, zowel inter- als intragenerationeel, is de 4060 geen xx60 kaart:
Intergenerationeel:
De GTX 1060 was ongeveer even snel als een GTX980
De RTX 2060 was ongeveer even snel als een GTX1080
De RTX 3060 was ongeveer even snel als een GTX 2070 Super
De RTX 4060? Die zit tussen de RTX 3060 en RTX 3060 Ti in.

Intragenerationeel:
De GTX 1060 was ongeveer 60% zo snel als de GTX1080
De RTX 2060 was ongeveer 65% zo snel als een RTX 2080
De RTX 3060 was ongeveer 55% zo snel als een RTX 3080
De RTX 4060? Die is ongeveer 50% zo snel als een RTX 4080

(En eigenlijk sla ik de bal u al mis door enkel naar de xx80 kaarten te kijken, en niet simpelweg naar de beste kaart van dezelfde generatie, welke de 1080 Ti, 2080 Ti, 3090, en 4090 zijn, maar ik heb gene tijd om nog meer data te doorspitten nu).

Als ik al deze cijfers bekijk kan ik niet anders dan concluderen dat wat nVidia nu een 4060 noemt eerder een xx50 kaart was geweest.
Is dat dan misleiding? Tenslotte mag nvidia natuurlijk kaarten noemen zoals ze wil: als ze bij de 50 serie beslist om neit de 5090, 5080, 5070 en 5060 uit te brengen, maar de 50-fire, 50-ice, 50-wind, en 50-earth als namen zal gebruiken is dat hun goed recht natuurlijk. Maar met een naamgeving die historisch best wel rechtlijnig was volgens meerdere metrieken schep je in mijn ogen wel degelijk bepaalde verwachtingen.

Door een naar die metrieken noemenswaardig slechtere kaart uit te brengen onder dezelfde naam, met alsnog een hogere prijs, en door markettingmateriaal volledig te vervuilen met benchmarks die de daadwerkelijke rekenkracht verbergen (FPS zonder interpolatie vergelijken naar FPS met interpolatie), voldoet nVidia met de 4060 in mijn ogen ruimschoots aan de vereisten om over 'misleiding' te praten. En hyperbool maak ik daar wel eens oplichterij van.
Dat is toch compleet absurd? Je negeert gewoon zaken zoals verbruik, prijs,RT, dlss,... Je kijkt enkel naar een heel beperkte benchmarks die toevallig aansluiten bij je argument dat er weeral "een groot evil bedrijf is die de mensen beliegt en bedriegt"

Je doet alsof mensen te dom zijn en louter naar een naam kijken en dat kopen .
Als je de mindset hebt dat elk bedrijf er louter is om mensne op te lcihten zal je dat overal terugzien.
Ik kijk naar
  • relatieve prestaties tussen generaties
  • relatieve prestaties binnen dezelfde generatie
  • relatief chipoppervlak
  • absoluut chipoppervlak
  • prijs
Op al deze vlakken is de RTX 4060 in lijn met wat normaal een xx50 kaart is.. behalve de prijs.

Natuurlijk kan ik ook naar stroomverbruik kijken, en ook daar valt de RTX 4060 in lijn met de RTX 3050 en 1660 (geen xx60 klasse kaart, eerder een xx50 ti, gezien de 1660 onder de 2060 stond gepositioneerd), niet bepaald iets waarmee jij jouw punt kracht bijzet.

Mijns inziens kijk ik naar voldoende datapunten om mijn standpunt te onderbouwen. Als jij meer datapunten kan geven (en dan heb ik het over data, niet gewoon features noemen), doe gerust.
Je doet alsof mensen te dom zijn en louter naar een naam kijken en dat kopen .
Dat is daadwerkelijk wat het merendeel van de consumenten doet. Mensen die meerdere reviews lezen zijn de uitzondering, dat is al jaren zo. Daarom is het net belangrijk dat bedrijven duidelijke, klantvriendelijke naamgeving toepassen. Dat doen ze helaas niet: zowel nVidia, AMD, en Intel passen klantonvriendelijke tactieken toe die er puur op gericht zijn ongeïnformeerde klanten te misleiden.

[Reactie gewijzigd door kiang op 16 december 2024 20:37]

Ja je doet er alles aan om niet naar de prestaties in games te kijken om ergens een absurde argument te maken dat de kaart eigenlijk een 4050 had moeten zijn en dan nvidia dus mensen oplicht omdat dit een 4060 is.

Raar genoeg kunnen zowel intel als amd niet beter doen, bijna alsof steeds 50 tot 100% winst per generatie niet te halen is. raar want elke nieuwe CPU generatie geeft natuurlijk 50% of meer performantie /s
Dat is daadwerkelijk wat het merendeel van de consumenten doet.
Ok jij denkt dat dat zowat iedereen buiten jou dom is, daar zit hem gewoon het probleem.

In de realiteit is voor de meeste gamers de 4060 gewoon een goede kaart: 300 euro en je hebt een kaart die de meeste games in 1440p en zelfs 4k aankan.
je doet er alles aan om niet naar de prestaties in games te kijken
Ik heb het letterlijk over zowel intergenerationele prestaties als intragenerationele prestaties.

Sorry als je heel boos wordt van data, maar meer kan ik er niet van maken. Het gesprek houdt op als je simpelweg gaat liegen, fijne avond!
Boos? LOL nope het is gewoon grappig dat omdat de 4090 zo snel is en de 4060 zo weinig verbruikt je nvidia beticht van liegen en bedriegen omdat jij zowat als enigste de domme gebruikers moet behouden voor een miskoop.
Oh arme gebruikers ze hebben een zuinige maar snelle GPU gekocht . :+
1) jij bent hier de enige die mensen dom noemt. Ik benoem simpelweg het feit dat je oprecht niet kan verwachten van gewone gebruikers dat ze over elk onderdeel van hun PC reviews gaan lezen. Niet omdat mensen daarvoor te dom zijn, maar omdat ze wel wat beters te doen hebben.
2) Wederom sta je te liegen:
omdat jij zowat als enigste de domme gebruikers moet behouden voor een miskoop.
Quote uit de Tweakers review:
Dat de RTX 4060 gemiddeld een RTX 2080 kan evenaren, klinkt wellicht indrukwekkend, maar verbleekt bij de prestatiewinsten die we bij eerdere generaties hebben gezien. Zo kon de GTX 1060 zich bij introductie meten met de GTX 980, de RTX 2060 komt gemiddeld gelijk uit met de GTX 1080 en de RTX 3060 weet in ieder geval nog de RTX 2070 te verslaan. Bij dat laatste voorbeeld is al te zien dat de vaart er voor x60-reeksvideokaarten tegenover de vorige generatie uit begint te raken. Bij de RTX 4060 is dit nog erger, met prestaties die gelijk zijn aan een x80-kaart van niet een, maar twee generaties terug. Omdat de RTX 4060 zelfs de RTX 3060 Ti niet evenaart wat prestaties betreft, mag duidelijk zijn dat de kleine AD107-gpu van de nieuwe GeForce eigenlijk niet capabel genoeg is om het x60-label te dragen.
Wat is zeg is totaal niet controversieel. Dat was sowieso al duidelijk omdat ik je alle data gaf waarop ik mijn standpunt baseer, en op data boos zijn is een beetje gek
Maar nu geef ik je er ook gewoon de review van Tweakers bij, want je bent duidelijk dit stukje uit de conclusie vergeten, of je hebt hem niet gelezen (wat je niet dom maakt ;)).
Iedereen die een beetje is ingelezen zag dit beginnen in de 3000 serie en ziet het erger worden in de 4000 serie. Jij bent hier de enige die er heel erg boos over wordt, met inmiddels 26 reacties en negatief karma in dit topic waar je iedereen aanvalt die kritiek heeft op nVidia.
Does rustig man.

[Reactie gewijzigd door kiang op 16 december 2024 21:24]

Je weet perfect wat je koopt en wat de mogelijkheden van de kaart zijn. Dit is dus geen planned obsolescence daar er alternatieven zijn die mogelijks beter bij je passen als je meer geheugen wenst.
Ja. Als Tweaker zijnde, sure. Al de rest? Ouders die voor hun kind een PC willen kopen, of heck, gewoon volwassenen die een gaming PC willen kopen? Zeer zeker niet. Zelfs hier op Tweakers zal belange na niet iedereen mee zijn met of 8 GB VRAM nu veel of weinig is voor moderne games.
Je weet perfect wat je koopt en wat de mogelijkheden van de kaart zijn.
Dat is het probleem, dat is voor veel mensen niet het geval. Tweakers zijn de 10% van PC gamers die weten hoe en wat, de meeste mensen hebben geen idee
De gemiddelde consument weet juist helemaal niet wat je koopt en wat de mogelijkheden zijn van welk product dan ook. Stel je voor dat je paardenshampoo moet kopen voor je dochtertje, dan verwacht je toch gewoon dat als iets wordt gemarket als algemene paardenshampoo goed voor elk gemiddeld paard ook wel een beetje zo is. Of gaan we nou het spelletje spelen dat het dan wéér aan de consument ligt om onderzoek te doen.. komop..
Gemiddelde consument vraagt vriend of kennis ;)

De tijd van blindelings geloven is toch voorbij.ik luister niet eens naar de verkoper in de winkel :)
9 van de 10 keer is het een verkoop praatje
De gemiddelde consument koopt gewoon een OEM-pc. Die krijgt misschien wat specs mee qua geheugen, opslag, cpu en nummer van de gpu. En dat zijn dan degene die iemand kennen of zich er in verdiept hebben.
Precies, de gemiddelde consument koopt geen losse GPU's.
Echt niet, dat overschat je zeker immens, je loopt echt een stuk voor op gemiddeld publiek als je al rondvraagt bij vriend of kennis. Daarvoor moet je al iemand hebben die know-how heeft, dat is één, én je moet ze vertrouwen in hun mening, en uberhaupt de moeite doen om ernaar te vragen. Ik zie links rechts om mij heen vrienden en familie €1000+ technologieproducten kopen (dysons, roombas, laptops, telefoons) zonder zich er ook maar enigszins in te verdiepen. En dan bij het kerstdiner krijg je het verhaal te horen dat zus en zo toch weer tegenvalt.
De consument die niet weet wat hij koopt is niet de consument die zelf een PC in elkaar gaat zitten schroeven.

Het zal ongetwijfeld wel een zeer populair kaartje worden onder de prebuilds. En voor mensen die in dat segment shoppen is het waarschijnlijk belangrijker van welk merk de GPU is, dan wat deze daadwerkelijk kan. Dat is altijd als zo geweest en heeft jaren nodig om er uit te slijten (zie AMD vs Intel bij CPU's).

Dus als het gros van de onwetende consumenten enkel van Nvidia gehoord heeft en daar dus naar vraagt, zal de verkoper ook zeker sneller naar zo'n kaart grijpen, klant is immers koning. En de koning heb je liever wat eerder weer over de vloer voor een nieuw product, dan later.

En ja, je mag van consumenten verwachten dat ze in ieder geval de basis van commercie begrijpen. We leven niet meer in de jaren '80 waar je de witgoedzaak op de hoek kon vertrouwen omdat hij afhankelijk was van de goodwill van het dorp. En van de Saturns/Mediamarkten is ook toch wel vrij bekend dat men daar adviseert naar eigen interesses, niet die van de klant.

Juist daardoor krijg je dus die verhalen over tegenvallende aankopen, zoals je die zelf al aanhaalt :)
Ik denk echt dat je geen besef hebt hoe ongelofelijk veel meer de minstwetende tweaker al weet over een computer dan zelfs de gemiddelde masterstudent informatica. Ik ken persoonlijk twee goede vrienden die nu bij de UvA MSc Computational Science doen in de richting van high performance computing, dit zijn mensen die weten hoe of wat, maar voor spelletjes en alledaagse nutten zouden ze niet zoals jij en ik kunnen inschatten wat ze nodig hebben. Net zoals gemiddelde tweaker wederom niet weet wat voor paardenshampoo ze moeten gebruiken (en die vergelijking ligt mij persoonlijk want ik heb jarenlang in een 'jaren 80 achtige familiezaak' dierenspeciaalzaak gewerkt en zelfs 19 op de 20 paardenmeisjes wisten de nuances er nog niet van af). Maar weetje, mij hoef je het niet te vertellen, maar je gaat me echt niet overtuigen dat de 'gemiddelde consument' (die wel zelf nog een computer wilt bouwen, dat is juist weer best wel in naar mijn oog) zo ingewijd is als jij denkt.
Mensen die een computer zelf in elkaar steken hebben echt wel voldoende kennis van onderdelen.

Mensen die zelf maar wat in elkaar gooien, die zullen dat niet hebben. Maar dat is hun eigen schuld.

Mensen die helemaal nergens verstand van hebben kopen idd een prebuilt.
Maar met een prebuilt vergaat het probleem van de vram toch ook helemaal niet? Ik snap het onderscheid niet? Het is gewoon een kaart die kwa compute kracht echt appeltje eitje 1440p kan draaien, maar op VRAM niveau simpelweg bij al genoeg hedendaagse titels tegen een muur aan loopt. Oké je gaat altijd ergens een bottleneck hebben hoedanook, maar 8gb VRAM op een kaart die zekers sneller is dan een 1080ti is gewoon artificieel het terughouden (IMO). Of gddr7 is magie, wie weet.
Hier ben ik het wel mee eens ja.

Ik ben nu zelf aan het kijken voor een nieuwe PC en je wil niet weten hoe veel "high end krachtpatser!" Ik tegenkom met een 4060 videokaart...

Tuurlijk, je mag verwachten dat een consument daar doorheen prikt, maar dat wordt op deze manier wel lastig gemaakt door verkopers.

Dus die tegenvallende aankopen, daar kan ik ook helemaal inkomen.
Als hij maximaal €200 gaat kosten is er niets mis mee. Je weet wat je koopt. Ik denk dat het met de Nvidia Tax erbij al gauw een verdubbeling qua prijs is.
Ik denk vooral om de kosten te drukken. Vergeet niet dat dit het 1080p segment is, wat nog altijd de populairste resolutie is, en 8GB daarvoor nog steeds voldoende is in verreweg de meeste games.

De RTX 4060 wist op dezelfde manier een betere prijs/prestatieverhouding neer te zetten dan de 7600XT. Die heeft twee keer zoveel VRAM, maar daardoor is de kaart wel duurder. En in de meeste benchmarks maakt dat niet uit.

Kortom, als Nvidia hier 16GB in zou zetten zou de kaart duurder zijn dan AMD's 1080p kaart en dit is het enige segment waar dat écht het verschil maakt. Kijk je naar 1440p dan gaat ie inderdaad slecht scoren maar 1080p is nog altijd 55% van de markt.

[Reactie gewijzigd door Wolfos op 16 december 2024 13:56]

Maar keer op keer laat tijd zien dat in de werkelijkheid de 1% lows vaak stukken lager liggen bij de kaarten die mensen aanwijzen als te weinig VRAM, en dat probleem wordt meestal ook alleen maar erger met de tijd. Ik merk dit al met mijn 3080 (10gb) vgm mijn broertje die een 7800xt heeft (16gb), ookal is de 7800xt slechter in avg fps, heeft hij veel minder gekke stutters hier en daar. En dat gaat met nieuwere, grotere games met nog meer textures alleen maar erger worden.

En je moet natuurlijk al helemaal niet beginnen over alles naast games, daarvoor is VRAM al helemaal nodig, zeker in het tijdperk van machine learning waar alles naar VRAM wordt geschreven. Sure, CUDA is koning vooralsnog, maar zo achterlijk ver lopen beide intel en AMD niet achter in mijn mening.
Is dat ook dezelfde CPU? 1% low is meestal een CPU spike.
En je moet natuurlijk al helemaal niet beginnen over alles naast games, daarvoor is VRAM al helemaal nodig
Dat klopt. Daar is deze kaart totaal ongeschikt voor.
De 1% low is naast cpu vaak een teken dat je te weinig geheugen hebt. Zie anders de vele reviews van HardwareUnboxed die dit onderzoeken.
Het hangt heel erg van de game en game engine af, sommige games laten gewoon textures van lagere kwaliteit zien terwijl je in de settings ultra texture detail aan hebt staan.
Beter nog, hij heeft een i5 12000 serie nogiets (sorry weet niet uit mijn hoofd maar niet eens een overclockbare) en ik heb juist een 5950x met 64gb 4200mhz ddr4 ram. Je ziet ook aan VRAM gebruik dat het echt daaraan ligt, hij is ook degene die meer meuk op de achtergrond open heeft staan tussen ons twee. Maarja het is niet een wereld van verschil maar je merkt het wel.
Dat klopt. Daar is deze kaart totaal ongeschikt voor.
En dit is dus naar mijn mening artificieel. Zeker voor LLM nut is VRAM de leidende factor dus als ze het 'gewoon' een 16gb kaart hadden gemaakt dan ineens is die wel geschikt voor 'production workloads'. Tuurlijk je gaat geen supercomputer verslaan maar het maakt wel het verschil tussen constant errors krijgen als je een beetje resolutie foto wilt genereren of vlekkeloos het doen.
dat werd van de 4060 8gb ook gezegd die kaart draait nog de recente spelen (indiana jones, alan wake 2) zonder problemen hoor.
Dit dus. Ik heb er zo een en echt nooit problemen. Je moet kopen wat je nodig hebt en voor mij voldoet dit. Onnodig meer uit te geven dus.
Met 8GB ben je in 2025 en beyond echt nergens meer.
Hangt er volledig van af of jij recente games speelt of niet toch .. :)

Enorm veel mensen spelen helemaal geen recente games, maar enkel oudere games. Maar toch moeten ook deze mensen met momenten een nieuwe computer aanschaffen en dat komt natuurlijk met een nieuwe OS en de nieuwste hardware.

En waarom zou je een GPU met 16GB vram nodig hebben om op een 1080p24" scherm 15 jaar oude games te spelen ?


.. voor alles is een publiek .. ;)
Tja maar als je het zo gaat spelen dan is uiteraard het antwoord altijd: open marktplaats en koop een tweedehands kaart. Voor een product die je nieuw koopt is het toch niet gek om te verwachten dat hij even mee mag gaan met de tijd? En de tijd laat zien dat VRAM verbruik mega snel toeneemt de laatste tijd, mede door machine learning taken, mede doordat 1440p/4k steeds goedkoper worden. Hoe dan ook in de praktijk is de doelgroep die dit soort midrange (maar toch al best dure) kaarten nieuw gaat kopen juist het type persoon die iets wilt dat 'gewoon werkt' en dan voor minstens de garantieperiode van twee jaar. En met een 8GB kaart die effectief gericht is op 1440p (want laten we eerlijk zijn, een 4060 is al overkill voor 1080p), is dat toch wel heeeeeeeeel nauw ingeschat.
Tja maar als je het zo gaat spelen dan is uiteraard het antwoord altijd: open marktplaats en koop een tweedehands kaart. Voor een product die je nieuw koopt is het toch niet gek om te verwachten dat hij even mee mag gaan met de tijd?
"Een tweedehands kaart (die vervolgens niet werkt of het nog maar maar enkele maanden uitzingt) op marktplaats aankopen (als je al niet wordt opgelicht)"

Nee, dank u .. 8)7

Mensen van middelbare leeftijd die werken of gepensioneerden kopen meestal nieuw.
Zeker als je een nieuwe PC gaat aankopen of samenstellen, daar steek je dan ook gewoon een nieuwe GPU in en al zeker niks tweedehands. Waarom zou je ook ?

Hij gaat ook mee met zijn tijd, die werkt met de nieuwste hardware & software, dan kunnen die mensen er weer tegenaan .. ;)
Ha, wat gaat er juist kapot aan die kaarten joh? De koeler? Heb zoveel tweedehands kaarten door mijn handen gehad persoonlijk. Maar oké ervaringen kunnen verschillen, persoonlijk genoeg ervaring ermee dat ik juist niet zo'n slecht beeld in ogen heb over tweedehands technologie.

Maar voor de rest toch juist helemaal met je eens. Je zegt zelf wat ik zeg: Jan alleman koopt het gewoon nieuw en wil dat het plug en play lekker werkt en dat de nieuwste kaart gelijk de nieuwste games op de beste settings soepel speelt. En hoe gaat 8gb nou weer mee met de tijd als het al vandaag de dag moeite heeft met 1440p?
Sorry, alles wat jij hier zegt beweer ik helemaal nergens .. |:( ..
...e zegt zelf wat ik zeg: Jan alleman koopt het gewoon nieuw en wil dat het plug en play lekker werkt en dat de nieuwste kaart gelijk de nieuwste games op de beste settings soepel speelt. En hoe gaat 8gb nou weer mee met de tijd als het al vandaag de dag moeite heeft met 1440p?
Ik spreek hier net over 15 jaar oude games en gamen op een 1080p 24" scherm
.. software .. nieuwe Windows, office en tal van programma's buiten games.

Dus waarom zou je een GPU met 16GB vram nodig hebben om op een 1080p24" scherm 15 jaar oude games te spelen ?
Niet? Maar waarom zou je uberhaupt upgraden? Kaarten vallen over het algemeen echt niet zo snel dood neer, en aangezien een 4060 al even duur is als een hele 1080p-pc van 15 jaar geleden zal dit ook niet een heel aantrekkelijke vervanger zijn. Denk dat we vooral langs elkaar heen praten, ik zie niet echt in hoezo iemand die 15 jaar oude games speelt niet gewoon zijn computer zou houden? Buiten tweakers om upgraden mensen alleen als een upgrade nodig is, en dit zeg je wel zelf, een upgrade is niet nodig in jouw scenario. Dus wat is het probleem inderdaad? Waarom hebben we het uberhaupt nog over de 5060 als de oplossing de gtx 760 is die nog in je oude pc prima draait? Nu mijn beurt 8)7
Ja, tuurlijk. Je houd je 10 tot 15 jaar oude computer met Windows 7 of Windows 8 waar geen enkel modern programma meer op werkt. Steam of eender welk platform start niet meer op, dus ook geen games meer van daar uit je library. Je krijgt geen ondersteuning meer en je bent niet meer beveiligd. Hoe ga je de recentste programma's gebruiken als je niet minstens Windows 10 gebruikt en niet kunt upgraden naar Windows 11 omdat je een computer met recente hardware nodig hebt. Inloggen bij de bank gaat je ook niet meer lukken, maar als je niet meer beveiligd bent kun je dat natuurlijk best niet proberen.

Het is niet zo heel moeilijk te begrijpen waarom mensen een nieuwe PC aankopen of samenstellen en dat is niet omdat de oude niet meer werkt ..
Je zegt eerst dat je use case is om enkel oude spelletjes te spelen en nu maak je je druk over nieuwere spellen? Wat is het nou? Steam start gewoon op windows, ik draai steam zelfs nog op linux WINE met windows XP emulatie en alle games als age of empires tot en met cities skylines draaien prima, dus beetje over de top hoor met 0 software support. Vindt je het nou echt niet jammer dat als je dus nu wilt upgraden maar niet het nut in ziet van een 1440p monitor dat je gewoon moet kiezen tussen óf een super-overkill kaart voor 1080p nieuw kopen, óf toch maar de tweedehands markt op om dat waar voor je geld te krijgen. De mooiste oplossing hier is een 5050 die ze tegelijk uitbrengen, maar dat doen ze niet want ze hopen natuurlijk lekker dat mensen de duurdere en hogere marge 5060 kopen.
Niet mijn use case .. :D .. ik game al in 4K sinds 2019

Ik spreek hier over nieuwe programma's, ik zeg nergens nieuwe games.

of zijn office, foto- (ACDsee) en muziekbewerkingprograms geen programma's volgens jou ?
tal van mensen gebruiken deze
en die werken enkel op Windows 10 of Windows 11
mensen willen dus upgraden naar Windows 11
maar hun PC laat dit niet toe (omdat die te verouderd is)
dus komen zij naar de PCshop
en bestellen een nieuwe PC of laten deze samenstellen
dan komt de RTX5060 8GB naar voor als budgetvriendelijke GPU
Hoe zijn dat niet precies de mensen die het meeste baat en hebben aan juist een iGPU of een 7600xt/B580 ipv een 5060. Je weet gewoon al dat deze €350+ gaat kosten en minder VRAM heeft waardoor je in de toekomst echt weer gepakt gaat worden. En als dit de mensen zijn die 10 jaar vast houden aan hun pc zijn dit ook de mensen die het meest baat erbij hebben dat een kaart bestend is tegen de toekomst? En bovendien voor wat linea create en fotobewerking, office etc kan je met een NUC of laptop echt al zo makkelijk wegkomen, meeste mensen die de use case die jij verzint hebben zullen dat toch kiezen. Die bouwen echt geen computers als de grootste zorg is of age of empires en office 24 werken. En die worden op hun beurt het hardst gepest door nvidia die hun maar al te graag een kaart verkoopt die echt zo super achterlijk overkill is voor hen.
Hoe zijn dat niet precies de mensen die het meeste baat en hebben aan juist een iGPU of een 7600xt/B580 ipv een 5060. Je weet gewoon al dat deze €350+ gaat kosten en minder VRAM heeft waardoor je in de toekomst echt weer gepakt gaat worden. En als dit de mensen zijn die 10 jaar vast houden aan hun pc zijn dit ook de mensen die het meest baat erbij hebben dat een kaart bestend is tegen de toekomst? En bovendien voor wat linea create en fotobewerking, office etc kan je met een NUC of laptop echt al zo makkelijk wegkomen, meeste mensen die de use case die jij verzint hebben zullen dat toch kiezen. Die bouwen echt geen computers als de grootste zorg is of age of empires en office 24 werken. En die worden op hun beurt het hardst gepest door nvidia die hun maar al te graag een kaart verkoopt die echt zo super achterlijk overkill is voor hen.
Helemaal mis, zulke mensen kopen helemaal geen laptop voor main use.
Ik spreek hier over mensen die in de jaren '60 tot '70 geboren zijn, diegene die prille tieners, twintigers en dertigers waren gedurende de jaren '90. Zij zijn opgegroeid met 80486 systemen, met een CRT-monitor voor hun neus met apart keyboard, diegenen die toen de Pentium systemen hun intrede maakten de eersten waren die zelf gamebuilds begonnen samenstellen. Die personen die nog steeds jaren '90 games spelen en van rond de milleniumwissel en kort daarna.. en af en toe kopen zij eens een paar 10 jaar oude games voor een prijsje of in een steambundel om deze eens uit te testen. De oudere gamers man .. ;) die kennis van hun systeem hebben, nog steeds met regelmaat gamen in 1080p. Dat is het publiek waarover ik spreek, die komen steevast hun hardware nog in de PCshop kopen omdat ze het online niet allemaal vertrouwen en een aanspreekpunt willen.
Die willen helemaal geen laptop.
De RTX5060 met 8GB vram is voor deze mensen de perfecte GPU aangezien zij steevast blijven vasthouden aan een 1080p scherm en niet over willen gaan naar een QHDscherm.
Ook kopen deze mensen geen overkill CPU of RAM, maar stellen of laten een midrange systeem samenstellen waarvan ze de volgende 5 tot 7 jaar kunnen genieten op hun 1080p waarop ze als meest recente games "10 jaar oude games" spelen .. dat is momenteel in het straatje van Assassin's Creed: Unity en over 2 jaar AC: Origins. Bekijk de specs van die games eens als je alles op max zet, dan is die RTX5060 8GB op 1080p meer dan welkom. Volgens mij heb jij trouwens geen idee hoeveel vram je wel nodig hebt voor foto- en videobewerking, hoe meer hoe beter natuurlijk, maar 8GB vram is wel het minimum voor de volgende jaren.

Nergens vermeld Nvidia prijzen, dus jij weet helemaal niet of deze €350 of €250 gaat kosten.
Reken maar dat deze kaart men een mooie promo deal eens beschikbaar wordt voor rond de €220
Volgens mij heb jij trouwens geen idee hoeveel vram je wel nodig hebt voor foto- en videobewerking, hoe meer hoe beter natuurlijk, maar 8GB vram is wel het minimum voor de volgende jaren.
Haha, man, ik snap je echt niet. Je bent nu echt full circle gekomen. Eerst beargumenteer je TEGEN het standpunt met '8GB kom je nergens na 2025' en nu zit je mij te vertellen dat 8GB het minimum is voor simpele dingen als fotobewerking (overigens echt helemaal niet mee eens ik kan prima photoshop basic taken doen op mijn ouders laptop met een ryzen 5000 APU en 8gb ram). Kijk juist naar benchmarks van AC unity en origins en je ziet al dat door de waardeloze ubisoft optimization dat origins even goed draait op een 1080ti als een 4060 terwijl de 4060 een 15TFLOP gpu is vgm de 1080ti een 11TFLOP gpu. Kwa compute loopt de 4060 dus gewoon ruim voor en dit zie je ook terug in elke games die compute nodig hebben ipv een grote buffer voor mega textures die dit soort open world games gebruiken. De conclusie is dus dat 8GB vram je al terughoudt op een game uit 2017, laat staan op moderne grote games. En ja, dit is gewoon op 1080p al.

Mijn ouders zijn in de jaren 60-70 geboren. Dit is in mijn ervaring juist de generatie die het minst af weet van huidige technologie. Oprecht bravo dat je er zo veel over weet (dit bedoel ik oprecht niet sarcastisch), en waarschijnlijk leef je in een bubbel waar je veel mensen om je heen kent die ook jouw leeftijd zijn en veel over computers kennen, maar ik ga ff eerlijk zijn ik leef niet onder een steen en ik kan je met zekerheid vertellen dat misschien 1% van de bevolking ook maar enig idee heeft wat geheugen in een computer is en 1% van die 1% goed kan inschatten hoeveel VRAM ze nodig hebben. Dat we hier zo lang over kunnen praten op een website dat letterlijk de definitie is van de nederlandse tech-bubbel is op een ironische manier precies het bewijs daarvoor. Jij en ik behoren al tot die 1% van de 1% en daarvaan weten zelfs jij en ik nog niet doorslaggevend ook maar iets. Het enige wat we weten is wat we al zien, en dat is dus dat zelfs een 7 jaar oude game als origins al baat heeft bij meer dan 8GB vram.

En ik weet inderdaad niet of deze 350 of 250 gaat kosten maar ik wil er wel op wedden hoor. 220 misschien als de 6000 series uitkomt. De dichtstbijzijnde concurrentie is de B580 en die gaat nu voor €320 weg en dit is letterlijk dé beste kwaliteit voor prijs GPU op de markt, punt. Aangezien nvidia nvidia is en ze een van de meest waardevolle beursgenoteerde bedrijven zijn zullen ze niet ineens voor de lol minder marge gaan pakken. Maar koop lekker een 4060, ieder zijn ding en geen reden om er boos om te worden, 'tis maar een stom stukje techniek, ik koop hem lekker niet :) In mijn ogen is de perfecte upgrade GPU al op de markt, de B580. En als je oud vertrouwd wilt, neem je een 7600xt of 7700xt.

[Reactie gewijzigd door SpaghettiCake op 18 december 2024 18:46]

Kijk juist naar benchmarks van AC unity en origins en je ziet al dat door de waardeloze ubisoft optimization dat origins even goed draait op een 1080ti als een 4060 terwijl de 4060 een 15TFLOP gpu is vgm de 1080ti een 11TFLOP gpu. Kwa compute loopt de 4060 dus gewoon ruim voor en dit zie je ook terug in elke games die compute nodig hebben ipv een grote buffer voor mega textures die dit soort open world games gebruiken.
Dat is appels met peren vergelijken ..
aangezien de RTX4060 hardwarematig raytracing ondersteund met RT-cores en ook Tensor cores heeft.
Wat de RTX1080Ti beiden dus niet heeft.

Zonder raytracing en gebruik van tensor cores is een GTX1080Ti
nog steeds sneller dan een gewone RTX4060
(met raytracing natuurlijk niet, aangezien de GTX1080Ti helemaal geen RT-cores heeft)

Een RTX4060Ti is dan wel weer sneller dan een GTX1080Ti
.. :Y)
Maar koop lekker een 4060, ieder zijn ding en geen reden om er boos om te worden, 'tis maar een stom stukje techniek, ik koop hem lekker niet :) In mijn ogen is de perfecte upgrade GPU al op de markt, de B580. En als je oud vertrouwd wilt, neem je een 7600xt of 7700xt.
Het gaat hier over de RTX5060 .. ;) ..
En ik koop hem trouwens ook niet aangezien ik al sinds 2019 in 4K game.
Kan ik dus helemaal niks mee, is voor een ander publiek.
Dat is appels met peren vergelijken ..
aangezien de RTX4060 hardwarematig raytracing ondersteund met RT-cores en ook Tensor cores heeft.
Wat de RTX1080Ti beiden dus niet heeft.
Gebruikt origins raytracing? Ik gebruik expres het voorbeeld waar jij mee komt. En een 4060ti is weer sneller dan een 1080ti, en weetje wat een 4060ti heeft? Meer dan 8gb vram. Tensor cores staan niet eens aan bij rasterization performance, dat maakt helemaal geen ene barst uit voor rasterization performance, effectief (natuurlijk iets genuanceerder dan dit) enkel de hoeveelheid VRAM en TFLOPs van rasterization performance. Als je de tensor cores meeneemt zou de 4060 3x zoveel compute moeten hebben als een 1080ti en dus al helemaal stukken beter moeten zijn dan een 1080ti. Dus alles werkt in het nadeel van jouw eigen argument. Dit zijn specs die op de pagina van nvidia staan en benchmarks die je zelf op kan zoeken. Games die geen grote buffer nodig hebben is de 4060 ongeveer 30% sneller dan een 1080ti, games die wel een grote buffer nodig hebben zie je het verschil krimpen soms zelfs richting 0% zoals bij origins, wederom jij noemde origins als eerst. En laat het verschil tussen 11 en 15TFLOPS nou 15-11/15 = 26.6% zijn. Oh, het is net alsof TFLOPs toch een goede indicatie zijn voor compute performance. Wederom, die 11 en 15 getallen komen van niks anders dan nvidia.com. Zoek maar zelf op, ik link het niet eens want dan zal de link wel onbetrouwbaar zijn ofzo.

Dus, om terug te komen op jouw eigen stelling; is 8gb nou nog steeds genoeg voor 2025 voorwaarts?
Nee hoor nieuwe games 1080p is een 4060 echt geen overkill.
In mijn mening is 60fps halen op elke game die bestaat met ultra settings, hoogstens hier en daar iets als MSAA niet op volle 8x of andere minder veel uitmakende settings een tikje lager echt flinke overkill. Zeker voor de casual games waar de meeste mensen een gaming computer voor kopen, spul als CS2, LoL, Valorant zijn echt al een grap voor de 4060. Maar als je het pas overkill vindt bij 120fps ultra cyberpunk dan óke, ieder zijn mening. Ironisch omdat je me uitlacht op je andere comment dat ik niet weet waarom settings in games bestaan want ik ben iemand die geen enkele game op maxed out settings zal spelen omdat het verschil tussen maxed out en bijna maxed out bijna altijd niet te herkennen is én toch wel vaak 20-30% meer frames oplevert. Maar dat hoef ik jou niet te vertellen, de ene comment zeg je dat een 4060 meer dan genoeg is voor 1080p en de ander is het echt geen overkill. Snap ook niet de steek naar mij, ik probeer hier alleen maar te relativeren joh, wij staan aan dezelfde kant maar ik snap niet hoe jullie niet inzien dat voor de gemiddelde gamer een kaart als de rtx 4060 (zoals je zelf letterlijk zegt) echt prima mee gaat en je niet meer nodig hebt voor 1080p. Dan verschilt jouw en mijn definitie van overkill, poe poe, het punt komt toch nogsteeds over.. maar whatever i did my part deze draad is gewoon invechten aan het worden..
En zelfs met recente games is 8GB nog voldoende op 1080p. Op 1080p hoef je vaak ook textures niet op super-ultra te zetten want dat verschil zie je niet op die resolutie, dus ook niet super-ultra veel VRAM nodig.
Voor mij de reden om de tegenpartijen te steunen. Koop al een tijdje geen Nvidia meer, ook al zijn ze de betere hardware boer met betrekking tot de snelheid. Ik betaal liever wat minder bij de concurrent voor een mindere kaart met wel een voldoende aantal GB's.
AMD is per prijspunt doorgaans de betere keuze voor de gemiddelde gamer. Ik snap dit soort opmerkingen dan ook niet waarin AMD als minderwaardig product gezien wordt.
Rasterization performance is AMD gemiddeld gezien net een paar % hoger dan Nvidia, enkel op raytracing heeft nvidia een grote voorsprong, maar raytracing heeft een aantal grote problemen waaronder
A. in de meeste gevallen is het niet een directe vooruitgang in beeldkwaliteit.
B. op hoge resolutie is het zelfs voor de nvidia kaarten doorgaans niet te doen om een goed speelbare FPS te halen tenzij je naar de 80super of 90 serie gaat kijken.

Ten slotte hebben AMD kaarten over het algemeen veel meer Vram waardoor ze meer future proof zijn dan de nvidia tegenhanger.

Mijn mening is als volgt: tenzij je de absoluut beste prestaties wilt en dus voor de 4090 kiest krijg je bij AMD gemiddeld gezien meer performance voor hetzelfde geld, of zelfde performance voor minder geld
Is gewoon dezelfde tactiek als Apple. Gewoon lagere klasse onaantrekkelijk maken. Dat krijg je alleen met slechte concurrentie.
En die lagere klasse presteert net als bij Apple gewoon heel goed.
Eens, dit is inderdaad geplande veroudering door functie. Ik heb nu de 4070 Super, een snelle GPU met 12GB VRAM, wat momenteel voldoende is. Echter, deze kaart had eigenlijk minimaal 16GB moeten hebben. Over een paar jaar krijg je dezelfde situatie als bij de 3070: deze kaart is nog steeds erg snel, maar wordt enorm belemmerd door zijn 8GB VRAM. Dit was destijds de reden dat ik voor de 4070S koos; de 4070 TI was mij iets te gortig. Hierdoor wordt AMD steeds interessanter. Nvidia is compleet naast zijn schoenen gaan lopen sinds de AI-golf.
Ligt ook wel aan de resolutie en games.
Dat is licht overdreven. Je zal alles nog kunnen spelen, maar wel compromissen in beeldkwaliteit moeten sluiten die ik met de prijzen waarvoor nvidia de kaarten verkoopt niet zou accepteren.
Ik vind het net zo erg, maar ik geloof niet dat dit planned obsolescence is. Nvidia heeft twee markten te bedienen, waarbij ze vooral willen dat de AI markt weinig betaalbare/goedkope opties heeft. Nvidia wil gewoon niet dat de gamingkaarten gebruikt gaan worden voor AI, dus zullen ze er alles aan doen, om de game-prestaties hoog genoeg te houden dat het voor gamers interesant blijft, en ondertussen zorgen dat de kaarten kreupel zijn voor AI.

Voor het trainen en gebruiken van een LLM heb je flink wat RAM nodig, en op dit moment kom je dan al snel uit op kaarten van tienduizenden euro's, terwijl de RAM an sich geen drol kost. Voor AI zou bijvoorbeeld een recente gamerskaart, maar dan met 64 GB VRAM niet veel duurder te produceren zijn maar wel een fantastische budget videokaart voor een LLM. Maar precies om die reden maken ze die nu niet.

Ik denk dat de komende tijd hierdoor snelle iGPU's met goede toegang tot RAM (zoals Apple M4) interessant gaan worden voor gebruik met LLM's. En pas als er wijdverspreide goede alternatieven zijn, zal Nvidia kaarten uitbrengen die de hobby LLM'er kan gebruiken.
Met 8GB ben je in 2025 en beyond echt nergens meer.
misschien dat je nog een kaartje met 4 of 6GB kan vinden, want meer dan 8GB is echt waardeloos :+

je bedoelt "below"
2025 en beyond
Betekent "2025 en verder". Dus in 2025 en later. Dus zijn zin klopt prima en hij/zij bedoelt niet below
Ik heb een RTX 3060 Ti en ik game bijna alle spellen nog op high graphics 1080p. Ik begrijp dat meer VRAM gewenst is, en hopelijk wordt nVidia afgestraft met sales van AMD kaarten, welke doorgaans veel meer VRAM op hun kaarten heeft. Echter, 'nergens meer zijn' met 8GB VRAM is overdreven.
'Tis meer dat zeker vanaf de 4060 de kaarten al makkelijk 1440p aankunnen kwa compute maar dus niet VRAM. Dus om dit wéér te zien gebeuren is gewoon jammer. (Mijn) Mediamarkt.nl geeft als de twee ''meest relevante' monitoren een 3440x1440p en 1440p monitor aan en daarna pas 1080p. Dus 1080p is simpelweg langzaam grond aan het verliezen tegenover 1440p en 4k omdat deze de laatste 2 jaar ineens betaalbaar zijn geworden. Het is dus jammer dat ze niet een 'echte' 5050 gelijk zullen uitbrengen (durf ik wel geld op te zetten) die werkelijk gericht is op de 1080p markt voor mensen die een leuke plug en play vervanger willen, maar dat ze expres de consument pesten door de 5060 in een limbo tussen compleet overkill voor 1080p en net te weinig vram voor echt alles lekker op 1440p te kunnen spelen te zetten.
Men kan ook gewoon AMD kopen. Doe ik ook. Ben benieuwd hoeveel ram die kaarten gaan krijgen volgend jaar.

[Reactie gewijzigd door petermetroid op 16 december 2024 15:13]

8GB voor 1080p60 lijkt me geen issue.
Inderdaad.

De belangrijkste setting met meeste impact op hoe goed het er uit ziet in games, is textures. Daar hoog kunnen gaan doet het meeste en is buiten VRAM ook niet duur want het heeft heel weinig impact op fps zolang er maar genoeg VRAM is daarvoor.

Dat de budget- en midden opties van kaarten niet veel moeten verwachten van games met de duurste opties zoals ray- en pathtracing te draaien, is nog normaal. Maar ze ook voor textures gehandicapt maken, is helemaal expres van Nvidia.

Beste advies dat ik dan ook ga kunnen geven aan mensen die een GPU gaan willen kopen in het midden- of budgetsegment is in de eerste plaats naar VRAM kijken en ernstig te overwegen voor de Intel opties te gaan of misschien een tweedehands exemplaar met wel voldoende VRAM te overwegen.

En dan heb ik het nog niet gehad over de andere toepassingen van die kaarten zoals videobewerking en AI waar VRAM helemaal king is. Daar zijn deze kaarten gewoon slecht voor.
Ligt aan de resolutie vram hype is groot.
Belachelijke planned obsolescence d.m.v. VRAM-tekort. Typisch Nvidia. Met 8GB ben je in 2025 en beyond echt nergens meer.
In 2025 ga je nog altijd prima kunnen gamen met 8 GB Vram. PC gaming heeft al jaar en dag in elke game een texture detail setting waarmee je het VRAM gebruik van je game afstemt op de beschikbare hoeveelheid VRAM. Ultra ga je natuurlijk niet kunnen draaien, maar dat lijkt me niet heel vreemd gezien de positionering van de kaart.

Planned obsolescence gaat echt niet op. Zelfs met 4GB vram ga je nog elke game kunnen spelen. Gelukkig maar want mijn laptop heeft een RTX 3050 met 4 GB vram...
Textures renderen vergt niet bepaald veel van de GPU, vooral VRAM, dus waarom je jezelf qua graphics op dat vlak wilt belemmeren snap ik niet zo, dan liever een vergelijkwaardige GPU met meer VRAM.
Bij een gelijkwaardige gpu zou ik inderdaad ook altijd gaan voor de GPU met meer VRAM. Echter in de praktijk is die keuze meestal niet zo simpel. Zo zijn bij Nvidia de modellen met meer VRAM een stuk duurder, dan betaal je zomaar 100-150 euro voor een iets betere texture setting.

De nieuwe B580 kaart van Intel met 12GB voor 250 dollar is wat dat betreft wel interessant. Maar zelf zal ik hem niet kopen omdat ik al een RTX 4070 heb welke natuurlijk een stuk sneller is en over dezelfde hoeveelheid VRAM beschikt. Een maat van mij heeft begin dit jaar een 4060 Ti 8GB aangeschaft en ik verwacht niet dat hij daar spijt van gaat krijgen. Hij heeft het al die tijd het uitgehouden met een 1060 6GB. Dat zal wel loslopen dus.
Denk wel dat veel mensen voor die B580 gaan kiezen i.p.v. de 5060, gewoon meer waar voor je geld zou ik zeggen.
En wat dacht je van 128-bit bus voor je 16GB, dat beperkt het aantal tokens per seconde voor je LLM. How nice.

Designed so that the buyer longs for an upgrade next up in the range.
Nvidia heeft deze kaart niet op de markt gebracht voor AI. Dat is klagen over Porsche en geen caravan kunnen trekken - dan mis je het punt.
Dat is klagen over Porsche en geen caravan kunnen trekken
https://www.airstream.com...-travel-trailer-overview/

[Reactie gewijzigd door djwice op 17 december 2024 13:21]

Van alle smerige dingen die nvidia doet, zou ik dit daar niet eens onder rekenen.
AMD heeft gewoon als strategie om alle kaarten in dezelfde klasse meer ram te geven dan nvidia voor het hogere getalletje.
8GB begint bij een instapkaart wel aan de krappe kant te worden, maar is ook niet weerzinwekkend weinig.
De 5060 is bedoelt is voor mensen die 1080p spelen of esport titles of andere zaken zoals fotoshop te kunnen gebruiken.
Is er op het moment een enkele game die je op 1080p niet normaal kunt draaien op 8GB gram?
Nu kun je het door te prijs geen instapkaart noemen, maar dat is het in de lineup wel.
De hele stack is omhoog geschoven nummers. De 50 is de oude 30, die je alleen koopt als je de codecs of aansluitingen nodig hebt.
60 is 50, etc.
Doordat de prijzen zo gestegen zijn, is de perceptie er dat de 5060 een midrange kaart is.
Ja en nee, meeste mensen die de goedkoopste kaart uit een reeks kopen hebben een 1080p scherm en vinden het prima om op medium settings te spelen.
Als Nvidia de 5060 te snel maakt koopt niemand meer een 5070
8 GB VRAM voor de RTX 5060? Dat is toch na de aankondiging van de Intel B580 niet meer serieus te nemen?

Edit: ter verduidelijking: de B580 heeft 12 GB.

[Reactie gewijzigd door Redbiertje op 16 december 2024 13:19]

Hiermee krijg je de bizarre situatie dat een spel mogelijk beter loopt op een 3060 met 12GB geheugen.
Sterker nog.. ik heb nog een 1080ti in mijn machine zitten (ja ik weet, ik moet binnenkort eens upgraden)
uitvoering: MSI GeForce GTX 1080 Ti Gaming X Trio

Maar die is uit 2017 en heeft al 11 GB geheugen. Nu is dat natuurlijk niet hetzelfde type geheugen, maar je snapt me, 8GB geheugen is gewoon echt bizar weinig voor een 2025 kaart.
Valt mee.
Met 8GB kan je vrijwel alle spellen op 1080p nog goed mee spelen. (Tenzij ze compleet unoptimized zijn)
Sterker nog, 1440p spellen maken die 8GB ook niet altijd vol. Er zijn maar een paar uitschieters die dat wel doen.

Dus low to mid-range kaarten gedijen nog prima met 8GB en voor laptops is dit ook vaak nog wel 'ok'.
Probleem is dat men vaak 4K texture packs en alles wilt/eist terwijl het niets toevoegd als je zelf op een FullHD schermpje speelt.
Mensen denk dat ze met een XX60 8GB kaart op 4K kunnen gamen |:(

5070 Ti is voor 1440p120, en alles daarboven word een 5080 of 5090, best simpel eingelijk.
Er is weinig mis met je 1080TI, monsterlijke kaarten zijn het met meer dan zat performance voor een gross van de games. Alleen op 4K begint het wat lastig te worden.
Bethesda begs to differ sadly
1080ti was high end, dit is low end.
MIjn punt was dat in 2017 dus al meer dan 8gb op kaarten werd gezet omdat we destijds al tegen de limieten van 8GB RAM liepen. Dat is bijna 8 jaar geleden. Waarom zou 8GB dan nu genoeg zijn.
Ik game op 3440x1440 en de 1080ti heeft soms al moeite om dit netjes te krijgen.
Op high end kaarten die 4k gericht waren. Budget kaarten kregen toen 2-3GB van veeeeeel tragere vram.
Lees nou even wat ik schrijf. Het gaat niet om budget vs high-end. Het gaat om het geheugen plaatsing. Dat men 8 jaar geleden al begon met meer dan 8gb toevoegen.. Ergo je kan dus nu een 1080ti aanschaffen, tweedehands met meer geheugen dan een gloednieuwe videokaart. Waarom zou je dan nu een nieuwe budget kaart kopen met minder geheugen?
Ik lees wat je schrijft maar je bent verkeerd.
VRAM is maar een onderdeel van een grafische kaart.

Je kan nu bijvoorbeeld een A770 kopen met 16GB vram
volgens jou de "betere" koop dan een 4060 met 8gb.

Echter is in 1080/1440p de 4060 sneller. Enkel in 4k is de A770 iets sneller (dankzij dat gehugen) echter is het dan gemiddelde(tweakers review 4060) 40fps vs 42fps.
Bij een 4060 kan je dan dlss qaulity & FG aanzetten en naar de 60fps gaan zonder verlies , kan je met een A770 niet.

Of om jouw vergelijking te nemen :
YouTube: GTX 1080 Ti vs RTX 4060 - Test in 13 New Games (1080p)
YouTube: RTX 4060 vs GTX 1080 Ti - Test in 8 Games | 1440p

De 4060 is altijd sneller en tegen dat je aan 4k zit dat vram uitmaakt kunnen beide kaarten dat native niet meer aan.

En dan negeer ik nog dat die kleiner is, minder verbruikt, minder lawaai ,...
Omdat die een HEEL stuk efficiënter is. En meer features heeft? Dus in de long run goedkoper? En de discussie van nieuw vs 2de hands kan je wel op elke productgroep loslaten. En dan wint 2de hands het bijna altijd van nieuw....

Tevens zijn deze gerucht een stuk beter als de vorige geruchten daar zou de rtx 5070 nog 12gb hebben. Dat zal dus nu ook verhoogd moeten worden. Nu 1 stap lager meer vram heeft.
Lees nou even wat ik schrijf. Het gaat niet om budget vs high-end. Het gaat om het geheugen plaatsing. Dat men 8 jaar geleden al begon met meer dan 8gb toevoegen..
Die plaatsing heeft eerder te maken met hoe geheugenbandbreedte werkt. Per chip heb je een X snelheid. Om Y totale bandbreedte te halen heb je dus minimaal een aantal chips nodig. In geval van de 1080 Ti hadden ze dus 11 chips van 1GB nodig om de gewenste bandbreedte te behalen. Overigens had een 1060 in die generatie 3GB of 6GB, dus 8GB was toen nog niet normaal. Het was de 1070 die met 8 GB kwam.
Ergo je kan dus nu een 1080ti aanschaffen, tweedehands met meer geheugen dan een gloednieuwe videokaart. Waarom zou je dan nu een nieuwe budget kaart kopen met minder geheugen?
Omdat een 1080 Ti tegenwoordig zelfs op 1080p niet meer volstaat. Je gaat dan een gemiddelde fps zien van bijvoorbeeld 37 in een game als Alan Wake 2. Een 4060 (ti) gaat daar flink overheen, helemaal wanneer je gebruik maakt van DLSS. Dat zal voor deze 5060 Ti niet anders zijn.

[Reactie gewijzigd door sdk1985 op 16 december 2024 18:59]

Je kan natuurlijk niet een high end kaart van 8 jaar geleden vergelijken met een low end kaart. Als je je 1080 ti kocht en kan kan al niet de grootste texture pack gebruiken gaat er iets goed mis. Als je met je 5060 niet de grootste kan gebruiken is er niet veel aan hand.
Low-end waren eigenlijk altijd de 64/92-bit kaarten. Maar goed, daar valt geen eer aan te behalen, dan kan je net zo goed meteen je Steam Deck aan een Dock hangen.

Dit is het klassieke midrange segment wat vroeger. Die 8GB versie zou ik me niet aan branden, dat klinkt als een lokkertje waar je jezelf snel mee in de voet schiet. Zeker wanneer de geheugenbandbreedte bijna 80% toeneemt t.o.v. de 4060, wil je niet dat je framebuffer de beperkende factor is.

De 1080ti is natuurlijk niet echt een goed vergelijk, dat was een halo-model net zoals de 4090 dat is. Maar kijk je naar de RX480 uit datzelfde tijdpunt, dan was 8GB daar ook reeds gangbaar, het zij achteraf gezien enigszins overbemeten. Maar dat was een hoge-midrange kaart, in vergelijk met een lagere midrange van nu wat de 5060 voor moet stellen.
Het probleem blijft daar altijd hetzelfde: de GPU is er niet op voorzien .
Een 1080 ti is nu trager in 1080p & 1440p dan een 4060 zelfs met 8gb vram.
een 4060 is sneller dan een A770 met 16gb vram, enkel op 4k veranderd dat wat maar dan zit je al ver onder de 60fps in de meeste games.

Tel daarbij zaken zoals minder verbuik, dlss,... en die 4060 is zelfs aan de hogere prijs gewoon een betere koop omdat je meer games tegen betere kwaliteit en hogere fps kan gamen. Zelfs met die "beperking" van 8gb.

Dus ja met een 5060 zal die spanning tussen wat de GPU kan en waar de bottleneck zit toenemen en als die hogere bandbreedte onvoldoende is voor mogelijk nieuwe games die meer VRAm vragen dan kan die daar idd in die games een issue optreden waar je settings zal moeten aanpassen.

Maar ik hoor datzelfde verhaal als sinds de 3000 series en tot dusver is 8gb voor budget(of low midrange) voldoende voor 1080p & zelfs 1440p gaming.
Het probleem is dat de sweet spot voor kaarten met een dergelijke GPU ergens ligt tussen de 8 en de 16GB. De enige manier waarop je een tussenvorm kunt bieden, is door er een andere hoeveelheid chips op te plakken, wat dan weer van invloed is op je bandbreedte en de complexiteit (dus kostprijs) van de kaart in het algemeen.

Voor 10GB zit je vast aan een 160bit bus, voor, 12GB ga je naar een 192bit bus.

8GB voor een 5060 is gewoon beperkt houdbaar. 4GB is al afgeschreven, 8GB was de vorige generatie al het absolute minimum voor kaarten in dit prijssegment. De 5060 schat ik in als een kaart die dus wél baat heeft bij meer dan 8GB VRAM. Ja, het is een verhaal wat je nu al drie generaties hoort. Maar tegelijkertijd komt het wel steeds vaker terug als een issue.

Dat is nu dus niet te vergelijken met een RX480 die 8GB meekreeg terwijl 4GB eigenlijk (achteraf gezien) de logische optie was. Dat is eerder te vergelijken als had men de RX470, het goedkopere broertje, als 2GB kaart uitgebracht. En ook op 1440p is het fijn de hoogste kwaliteit textures te kunnen kiezen.

Die 5060 met 8GB zal het vast goed doen in OEMs, maar ik zou hem niemand aanbevelen.
"het komt steeds vaker terug"
Ik ken 2 mensen met een 4060 8gb en die hebben voor zover ik weet nog nooit last ermee gehad.
Waar dat terug komt is in de comments van mensen die zeggen dat het zo is.

maar als ik naar recenste games kijk: alan wake 2 & indiana jones is die 8gb geen bottleneck.

Voor iemand die een kaart van 300-350 euro zoekt voor 1080p(of zelfs 1440p) gaming is die 5060 perfect zou ik denken, net zoals de 4060 de beste kaart daar nu is.
Individuele anekdotes op basis van het verleden zijn slechte raadgevers voor de toekomst.

Het is de vraag of je bereid bent van meets af aan de texture settings niet op de hoogste stand te kunnen zetten voor een net nieuw gekochte GPU van 300€+ of niet. Dat er een markt is voor een 8GB versie, dat geloof ik zeker. Maar dat het voor een midrange kaart karig is, behoeft echt geen discussie. Voorbeelden te over waar men tegen problemen aan is gelopen de afgelopen jaren.

Nu kan je natuurlijk zeggen "ja maar die zijn gefixt" of "luie devs", maar je hebt er wel mee te maken. Feit is dat je niet met een gerust hart je games day 1 kunt kopen met de wetenschap dat je met je nieuwe GPU de meest impactvolle setting, textures, gewoon op max kunt zetten.

Voor iemand die tzt in de markt is, zou ik zeggen "spaar even door voor de 16GB versie". Vergeet niet dat het advies toen de 4060 uitkwam was "koop een 3060". (Ja, kerel chargeert het, maar we zijn inmiddels wel weer anderhalf jaar verder)
Sowieso zijn er nu al games waarbij 8GB niet genoeg is, Hogwarts Legacy en Ratchet & Clank zijn er twee van waar per direct 10GB VRAM wordt ingenomen, waarvan zo'n 1GB door het OS op de 1080Ti, dan is welke GPU dan ook ondanks dat ze sneller zijn dan de 1080Ti zoals een 4060 Ti of 5060 met 8GB gewoon aan het swappen met geheugen wat dus een inconsistentere ervaring zal zorgen zoals framepacing en dergelijke.

Wat dat betreft is een hoger dan high-end niveau performance (t.a.v. 1080Ti bijvoorbeeld) op de core van de GPU met zulk beperkt framebuffer gewoon gevalletje 'koekkoek'.
Hogwarts Legacy had memory leaks, nudat die opgelost zijn zit het een 7-8GB vram op 1080p high
YouTube: RTX 4060 vs GTX 1080 Ti - Test in 8 Games

een 4060 doet het dan ook beter dan een 1080ti zelfs mlet maar 8gb
Nee want dat is per direct na het inladen van het spel.
Dat maakt weinig uit, ingame beelden en FPS is wat telt en je ziet duidelijk dat de 1080ti trager is dan zelfs de 4060 8gb . Als dit echt zo beperkende is als sommigen al jaren beweren dan was dit niet het geval geweest.

Een ander voorbeeld de 3060 12gb vs de 4060 8gb in 1440p ultra
Indien 8 gb echt zo slecht was zou de performance in elkaar zakken.
Dat maakt weinig uit, ingame beelden en FPS is wat telt
Ik denk dat je m'n woord framepacing over het hoofd hebt gezien, iets wat normaliter een probleem vormt zodra je VRAM vol zit en er geswapt moet worden met geheugen, dat veroorzaakt irritante stutters, dat is natuurlijk spel afhankelijk.

Komt er nog bij kijken dat bij het inladen van textures als je boven dat limiet zit gaat zorgen voor texture-pop-ins wat enorm afleidend is, dat is geen fijne ervaring dus.

Komt er nog eens bij dat de GTX 1000 series nooit ReBar hebben ondersteund die alle reviewers wel standaard hebben ingeschakeld dus dat betekent dat zonder ReBar de 4060 nog lager komt te staan, en eigenlijk alle RTX GPUs.

Omdat de RTX 4060 ook maar 8x PCI-E lanes heeft beperkt dat ook zijn inzet als het een PCI-E 2.0 of 3.0 machine betreft want dat betekent per direct dat deze op PCI-E 4.0 4x snelheden zou lopen onder PCI-E 3.0 8x omdat hij de helft van de bus maar kan gebruiken.

Tevens heeft de GPU maar 272GB/s aan geheugen bandbreedte door zijn beperkte bus, de 1080Ti heeft met zijn 384 bits een bandbreedte van 484GB/s en met het VRAM overklokt naar 6000Mhz (11Gbps naar 12Gbps) krijg je 528GB/s aan bandbreedte beschikbaar.

Die bandbreedte is zeer bruikbaar voor hogere resoluties waaronder 1440P en 4K om de min-fps dips in te perken en de framerate stabieler te houden in die scenario's, zeker bij 4K zal de RTX 4060 sneller achter gaan lopen door zijn beperkte bandbreedte.

Je kan hier ook duidelijk zien dat de 1% lows hier ook duidelijker er harder inhappen op de RTX 4060 versus de 1080Ti met zijn overvloed aan bandbreedte en grotere VRAM buffer.
YouTube: The Best Gaming GPU Ever Released, Nvidia GeForce GTX 1080 Ti, 2024 ...

Dat wordt onder anderen ook aangehaald bij The Last of Us Part 1:
YouTube: The Best Gaming GPU Ever Released, Nvidia GeForce GTX 1080 Ti, 2024 ...

Dit kan je ook terug zien in de recentere review van GamersNexus, net zo goed dat op 4K het zeker meer gaat uitmaken hoeveel brute kracht zo'n kaart heeft.
YouTube: The Greatest GPU of All Time: NVIDIA GTX 1080 Ti & GTX 1080 2024 Rev...
YouTube: The Greatest GPU of All Time: NVIDIA GTX 1080 Ti & GTX 1080 2024 Rev...
YouTube: The Greatest GPU of All Time: NVIDIA GTX 1080 Ti & GTX 1080 2024 Rev...

En beperkt gaat het VRAM in de nabije toekomst zeer zeker zijn, het is ergens ook belachelijk dat een GPU die op dat punt vrijwel 8 jaar oud is een stabielere ervaring zou neerzetten vanwege zijn grotere VRAM capaciteit, mijn inziens dienen die spellen dan ook op dergelijk hoge instellingen vergeleken te worden juist omdat de GPU kracht zelf vaak sneller is dan die van de oudere kaarten, het zijn de andere aspecten die roet in het eten gooien waardoor je minder bewegingsvrijheid hebt om te kunnen doen wat je wilt met die GPU kracht.

Tijden veranderen en dat zouden de GPUs ook moeten doen op dat vlak, jaren geleden zag je al aardig wat lager gepositioneerde kaarten met 8GB VRAM, ik weet nog ten tijde van de 980Ti dat het modden van Skyrim op 1080P zelfs al 6GB opvrat, en dat is een aspect dat velen lijken te vergeten dat ook zeker die hoge kwaliteit texture packs e.d. terwijl dat niet eens echt GPU kracht vergt, vooral veel geheugen inneemt. En omdat je een beperkte VRAM buffer hebt wordt multi-tasken ook steeds lastiger omdat allerlei applicaties in de achtergrond je VRAM budget aan het wegvreten zijn.

In deze review kan je ook duidelijk zien dat 8GB echt enorm achterhaald is:
https://www.techspot.com/...-how-much-vram-pc-gaming/
M'n bronnen bewijzen wel degelijk m'n argumenten, maar ik ga hier niet verder op in want dit is een gebed zonder einde omdat je de andere kant van de feiten niet wilt accepteren. ;)
Sorry dat doen ze niet
Je kan hier ook duidelijk zien dat de 1% lows hier ook duidelijker er harder inhappen op de RTX 4060 versus de 1080Ti met zijn overvloed aan bandbreedte en grotere VRAM buffer.
Je bron : CP 2077
1080 ti : 70/79 fps
4060 : 69/78 fps
spiderman 105/119 vs 135/149
...
Dit is ook altijd ultra/very high die microstutters werk je dan weg door naar high te gaan en je zal amper/geen verschil merken EN je FPS is 20% hoger (of als je met RT upsclaing & FG begint tot 300% hoger)
Wat dus ook mijn punt was. Met 8GB kon je dus bij release enkel wachten en hopen dat het opgelost zou worden. Met een groter VRAM buffer was er niks aan de hand.

Je haalde zelf Indiana Jones al aan: https://www.digitaltrends...jones-8gb-graphics-cards/

Zelfs op 1080p is 8GB te krap om meer dan medium shadow maps / medium textures te draaien. Is de game onspeelbaar? Nee. Sluit het aan bij de verwachtingen die je wellicht mag hebben bij een GPU in deze prijsklasse, nee.

Overigens moet daarbij gezegd worden dat Indiana Jones een vreemde eend in de bijt is. Het is immers op ID Tech gebaseerd, niet op Unreal Engine 4/5. Wat de laatste betreft, we bevinden ons nu in een transitie naar UE5. Ook daarvoor geldt dus dat in het verleden behaalde resultaten geen garantie bieden voor de toekomst.

Wees vrij je eigen keuze er in te maken, zoals gezegd is er een markt voor. Maar laten we de 8GB kaart wel gewoon noemen wat het is: Een lokkertje in een prijssegment waar dergelijke compromissen zich wat lastig te verantwoorden vallen.
Sorry maar je geeft zelf anekdotisch bewijs maar komt dan af met ' zijn slechte raadgevers voor de toekomst.' ?
Het is de vraag of je bereid bent van meets af aan de texture settings niet op de hoogste stand te kunnen zetten voor een net nieuw gekochte GPU van 300€+ of niet.
Dat is onzin, nogmaals nieuwe games nu hebben op 1080p geen nood aan 8+GB aan vram.
Path of Exile 2 zit 1080p high aan 6-7GB VRAM
Black ops 6 zelfde
Zezlfs console ports zoals silent hill2 remake zit onder de 8gb VRAM op 1080p high.

En dat zijn de grafische intensieve nieuwe games, al de rest zit daar nog onder.

Diegene die een 3060 gekocht heeft had dus al die tijd slechtere FPS en is nog steeds aan het wachten wanneer zijn 3060 nu zal opbrengen.
Lees mijn reactie ook maar eens, het is gewoon niet afdoende meer tegenwoordig, en dat ga je nu heel snel bij veel titels zien.
Dit is het klassieke midrange segment wat vroeger. Die 8GB versie zou ik me niet aan branden, dat klinkt als een lokkertje waar je jezelf snel mee in de voet schiet. Zeker wanneer de geheugenbandbreedte bijna 80% toeneemt t.o.v. de 4060, wil je niet dat je framebuffer de beperkende factor is.
Ik mis even de logica achter het verband dat jij ziet tussen geheugenbandbreedte en frame buffer. Al jaar en dag kun je met budget kaarten die over extra VRAM beschikken, maar niet snel genoeg zijn om ultra te renderen, vaak wel ultra textures gebruiken. Dit heeft geen performance impact terwijl je game er wel beter uit ziet. Het omgekeerde is ook waar. De geheugen bandreedte is puur iets dat nodig is om de fps te halen. Als ze het halen met 8 GB dan is dat niet iets om je zorgen over te maken. Je hebt dan niet ineens 16GB nodig om gebruik te maken van de hogere bandbreedte.

[Reactie gewijzigd door sdk1985 op 16 december 2024 19:03]

Ja fair enough. Het was vooral om aan te geven dat het op een 4060 al aan de krappe kant is, terwijl we het nu hebben over een kaart van een nieuwer generatie die waarschijnlijk nog een stukje sneller is.
Vroeger kreeg je nog wel eens dubbel RAM op budget kaarten, maar dan langzamer. Dat lijkt hier ook niet het geval te zijn. Vandaar ook dus dat ik de 16gb juist niet als verspild geheugen zie, in tegenstelling tot wat je in het verleden vaak zag in het budget segment.

En een xx60 of xx60Ti is natuurlijk ook niet typisch budget. Dat waren de 64bit kaarten waar je dat verkooptrucje vaak op zag.
Klopt vroeger had je nog 512MB SDRAM oid in plaats van het snellere DDR geheugen. Dat is hier niet aan de orde. Zo lang je dus via de texture details binnen de 8GB blijft kun je van de volle rekenkracht van de 5060 gebruik blijven maken. Dat is het offer wat je maakt. Vervolgens ontstaat in geval van een Intel B580 vs RTX 5060 straks de vraag wat heb je liever; vermoedelijk gemiddeld 35% meer fps óf ultra textures. Dat antwoord zal subjectief zijn.

[Reactie gewijzigd door sdk1985 op 19 december 2024 14:08]

Met 352 bit bus i.p.v. 128 bit bus. Dus wellicht gewoon sneller in LLM land :)
Hoe dom het ook klinkt is dit voor hoever ik weet ook al het geval met 4060 vs 3060...
Erg jammer dit, 3060 12GB blijft een erg goede kaart (voor diegene die er al een hebben)... En voor nieuwe instappers is de B580 een holy grail mits die niet volledig uitverkocht is straks.
Dat een kaart met meer VRAM mogelijk beter loopt terwijl de specs minder zijn is niet zo bizar.
Wat wel bizar is, is waar een 8GB kaart een 12GB kaart outperformed omdat een spel ziet dat de VRAM volloopt en lagere resolutie textures inlaad.
Enorm veel bedrijven willen ook helemaal niet dat je het basismodel koopt. Dat bestaat alleen om het model erboven er veel beter uit te laten zien qua prijs/kwaliteit verhouding.

Vaak gebeurt dat door prijs, bijvoorbeeld "voor maar 10% extra heb je 2x zoveel ram in je nieuwe laptop". Ondanks het "kleine" prijsverschil is de marge op het betere model hoger, dus een geslaagde upsell.

Het kan ook met specs: als je overal leest dat de 5060 te weinig ram heeft, dan pak je voor x% meer de Ti. Ook daar een betere marge, dus winst!
Enkel de 60 serie was niet het basismodel maar de lage middenklasse, met de 70 als hoge middenklasse en 80 als topklasse, en 50 als instap/basic.

De hele product stack is gewoon veranderd, wat 50 was is nu 60, wat 60 was is nu 70, 70 is nu 80, en wat vroeger de 80 series was is nu 90 series. Enige wat ze niet veranderd hebben is de prijklasse. Dus een extra prijsklasse aan de bovenkant, en een klasse minder aan de onderkant.
oftewel krimpflatie...
De AMD RX480 kwam 8 jaar geleden uit met 8GB VRAM :)

Ongeacht de prestaties van deze RTX 5060 8GB zou ik persoonlijk altijd eerder voor de Intel ARC B580 12GB gaan.
De RTX 5060 wordt een verspilling van GDDR7.

@oef! Of een game loopt inderdaad beter op een 8GB videokaart omdat textures waziger zijn wanneer de VRAM buffer vol zit.
Prestaties alleen vergelijken is niet genoeg.

Maar je hebt een goed punt, sommige games draaien op sommige instellingen beter op een 3060 12gb dan op een 3070 8gb!

[Reactie gewijzigd door HugoBoss1985 op 16 december 2024 13:24]

"De RTX 5060 wordt een verspilling van GDDR7."

NVidia heeft er in ieder geval voor gezorgd dat er niet te veel GDDR7 mee verspild wordt. :+
:+ _/-\o_ :X
The less you buy, the more you pay!

[Reactie gewijzigd door HugoBoss1985 op 16 december 2024 13:31]

Ik heb er nog wel een.
Nvidia: the way you are meant to be played.
Ben daarom ook niet voor niets bijna 8 jaar geleden voor de 1080Ti gegaan, mooi een 11GB VRAM buffer.
Dat was destijds bijna een verdubbeling van zowel VRAM als performance t.a.v. de 980Ti die de Fury X op VRAM gebied in het stof liet happen en daarna snel in de vergetelheid is geraakt.

En nu nog steeds kom ik niet in VRAM problemen met Hogwarts Legacy, Ratchet & Clank Rifts Apart op Ultra om maar 2 recente voorbeelden te noemen terwijl elke andere 8GB GPU dat wel zou hebben.

Als je meer VRAM kan kiezen tegen aanvaardbare prijs altijd doen want je schiet jezelf anders rijkelijk in de voet op de korte termijn.
Die 1080Ti is een sublieme kaart, wellicht een van de beste high-end kaarten ooit van Nvidia!
Het is pas nu, met games als Indiana Jones, waar RT een minimum eis is dat die 1080Ti echt tegen veroudering aan loopt.
Maar een goed werkende 1080Ti wordt denk ik ook zeldzamer gezien de leeftijd.

[Reactie gewijzigd door HugoBoss1985 op 16 december 2024 13:36]

Ze worden schijnbaar 2e hands blijkbaar nog wel verkocht voor zachtje prijsjes, maar voor RT-vereisten heeft het nog maar weinig toekomst.
Komt er nog bij dat de kaart bijna 8 jaar oud is, de GTX 680 had van 2012 t/m begin 2023 bijna 11 jaar driver ondersteuning, de 780Ti dus wat minder.
Die driver ondersteuning zal voor Maxwell/Pascal straks ook wel binnen 2 jaar afgelopen zijn vermoed ik.

Die van mij (EVGA 1080Ti FTW3) heeft nog totaal geen hints van degradatie of iets dergelijks, alles voelt nog nieuw inclusief de fans ondanks tienduizende uren draaitijd, met 117% powertarget (280 -> 320W).

Pas sinds afgelopen week eens lopen spelen met wat overclocks, 3DMark benchmarks pakt hij prima met 2062Mhz, Unigine heaven moest een klein stapje terug.
Hij loopt normaliter stabiel op 1949Mhz met standaard GPU Boost 3.0 en fabrieks-OC, met als top 1987Mhz, dat is nu 2025Mhz stabiel in games met +500Mhz op memory voor 11Gbps naar 12Gbps (5008Mhz > 6003Mhz) meer zou kunnen maar geen behoefte. Het verschil in lage framerates is meestal 3-10fps, als het honderden frames zijn kan het zomaar 30fps verschil zijn, zo haalde ik voor de 13900K / 1080Ti combinatie zelfs nog een paar world records in 3DMark. :+
Je hebt hier wel een punt op zich. Als de claim/geruchten kloppen over de 8GB versie van de RTX 5060... Als de claim klopt, denk ik dan ook persoonlijk dat dit meer een sales push is om klant naar een iets hoger segment te duwen dan daadwerkelijk breder aanbod te brengen voor hun klanten. Jij hebt het mooi samengevat met "verspilling van GDDR7", al is dat wellicht iets te ongenuanceerd.
Ze willen heeeeeeeeeeeel graag dat je de 5060 Ti 16GB koopt. Dat is niet anders dan met de 4060, al heb je daar zowel een 8GB als 16GB versie van.

Met de 16GB versie kun je best leuke modellen lokaal draaien (Stable Diffusion, WizardCoder, etc.)
De 4060 heeft 8GB, de 4060 TI komt met 8GB en/of met 16GB.
Misschien komt er een 16GB variant voor een fiks bedrag extra. Om ons nog even extra uit te melken.
Ja ik snap dit van Nvidia echt niet, hoe duur is ram nou tegenwoordig? Zou het uitwisselen van de 2GB chips met 4GB nou echt de prijzen zo verhogen voor hun? 12GB is toch echt wel zo'n beetje het minimum wat je voor moderne games wilt hebben. 8)7 Zou het misschien komen doordat het GDDR7 is ten opzichte van GDDR6... :/
Nee ze hebben warschijnlijk gezien dat het niet de moeite was bij de 4060 ti 8gb vs 16gb.Die kaart is amper sneller en ene pak duurder.
De B3x0 modellen zullen wel 8GB krijgen, dat is de echte low end.

Maar inderdaad, Intel heeft wel een alternatief voor de 5060.
Nvidia zit in een moeilijke positie denk ik; vanwege LLM's willen ze niet te veel VRAM toevoegen aan hun consumenten GPU's. Maar, de consument wilt juist meer dan 8GB omdat 8GB niet echt toekomst gericht is. Dus zie je nu dat ze komen met een lineup waar iedereen over klaagt omdat VRAM verwachtingen niet kloppen.

Dan heb je concurrenten als AMD en Intel die traditioneel minder sterk zijn in AI en daardoor niet zoveel problemen hebben om veel VRAM toe te voegen.
Moeilijke positie? Helemaal niet. Ze hebben op het moment weinig interesse in consumenten GPUs. En waarom zouden ze? Ze verdienen een veelvoud per "ai" gpu terwijl de productie kosten lang niet zo veel verschillen. Voor de rest is er ook weinig concurrentie van amd en intel (want wie koopt er nou een gpu puur en alleen voor raster performance? De meerderheid wil wss ray tracing en dan moet zit je toch redelijk aan nvidia vast als je fatsoenlijke prestaties wil) dus vraagt nvidia de hoofdprijs voor hun GPUs voor gamers.
Ik denk dat het eerder andersom is. Wil wilt er nu RT op een budget kaart? Ik niet geef mij maar iets meer raw power. Ik denk eerder dat mensen nvidia gewoon een fijn merk vinden en daarom daar blijven. Zelfs als dat minder vram betekent.
Ik heb hier gewoon een RTX 4060 Ti met 16GB VRAM...

Waarom staat er in het artikel dat deze kaart 8GB VRAM heeft?
Zijn verschillende versies, je hebt er een met 8GB vram en een 16GB vram.
Kan zijn dat je een vendor versie hebt ipv degene die dan bij Nvidia als "standaard" genoemd wordt, zijn per merk namelijk verschillen in de hoeveelheid ram, clockspeed, temperatuur, lengte/breedte etc..
Lijkt mij aannemelijk dat hier de standaard versie wordt benoemd
Op de website van Nvidia is deze inderdaad niet terug te vinden

https://www.nvidia.com/nl...0-series/rtx-4060-4060ti/

Enkel de RTX4060 8GB vram en de RTX4060Ti 8GB/16GB vram versie.

Maar toch vindt je dan weer wel de "Nvidia GeForce RTX 4060 Ti 16GB Founders Edition"
via google en op tweakers zelf terug.

uitvoering: Nvidia GeForce RTX 4060 Ti 16GB Founders Edition

Via externe verkopers (MSI, ASUS, PNY, Inno3D, Gigabyte) vindt je dan weer tal van RTX4060 16GB vram versies terug.

https://tweakers.net/pric...en/?keyword=RTX+4060+16GB
Goede vraag, waarop hieronder al antwoord is gegeven.
Dit is wel een mooie reden om dit als feedback te geven @JayStout.
Als dit waar is, dan is dit het perfecte moment voor Intel en AMD om het midden segment compleet over te nemen omdat niemand 399 dollar + belasting gaat betalen voor een kaart met 8 GB geheugen als je voor 150 dollar minder een kaart kan kopen met 12 GB.
RayTracing kan je vergeten in deze klasse dus dat is geen verkooppunt voor NVidia en DLSS ziet er niet uit op 1080p (FSR en XeSS ook niet) dus dat is ook geen verkooppunt.
Dus als de 5060 en 5060 Ti werkelijk gelimiteerd zijn met 8 GB VRAM, dan zullen ze er weinig tot geen verkopen en aangezien ik verwacht dat de RTX 5070 minimaal 599 dollar + belasting gaat kosten, zou iedereen die minder dan dat wil besteden voor AMD of Intel gaan, want ik verwacht niet dat AMD dezelfde fout zal maken en de RX 8600 en 8600 XT met minimaal 12 GB uit zullen brengen, net als Intel met de B580 heeft gedaan.

Overigens wil ik ook opmerken dat RayTracing en Frame Generation allebei ook VRAM gebruiken dus beide functies zou je dus absoluut niet kunnen gebruiken op de 5060 en 5060 Ti.
Niet alle games vragen op 1080p 8+GB van vram hoor.
Meesta games doen dat niet zelfs niet op de hoogste settings en diegene die dat wel doen : seetings verlagen (wat je meestal zelfs niet zal merken) en dat gaat wel weer.

Die vram is echt de nieuwe megapixels geworden.
Omdat texture kwaliteit de makkelijkste verbetering van grafische kwaliteit is. Zijn al meerdere games voor gekomen waar texture van medium of lager hele slechte kwaliteit zijn omdat ze voor de console waren optimized die ook iets van 16gb hebben.
Nouja, als die 5060 wel 2* zo snel verder is als de 4060/intel kaarten, dan zullen genoeg mensen toch voor die 5060 gaan. IMHO had die natuurlijk minimaal 12GB moeten hebben.
8gb in 2025 is wel erg weinig. Dat moet echt een instap budget kaart worden om dit te verantwoorden.

Er zit gelukkig wel snel geheugen op wat de bottleneck wat zal verlagen. Maar het blijft wel jammer dat anno 2025 er nog steeds 8gb kaarten worden gemaakt die gewoon te duur zijn naar verhouding en je eigenlijk gelimiteerd bent aan 1080p.

Als de kaart 199€ of minder zou kosten(wat dat ongetwijfeld niet zal zijn, eerder 350€ bij launch) zou de kaart nog enigszins logica maken.

We zullen binnen een paar maanden een veel beter beeld hebben. Voorlopig gaat mijn 4080 super nog wel een paar jaar probleemloos mee.
5060 8GB is ook een 1080p kaart.

5070 Ti is voor 1440p120, en alles daarboven word een 5080/5090.

Snap niet dat dit zo moeilijk te begrijpen is.
Zelfs op 1080p kan je met nieuwe games geheel door je vram komen. Dus je denigrerende opmerking is nergens voor nodig!

Er is nergens een slide dat je voor 1440p 12 en 4k 16 nodig hebt. Ik game op 1440P. En dat zal voor de komende jaren nog voldoende zijn met mijn 4080 super met 16gb.

Maar als je een nieuwe kaart koopt of iets anders nieuw van hardware verwacht je niet dat je gelijk tegen limieten aanloopt. Als je 350 of 400€ betaald voor een nieuwe videokaart is dat gewoon weggegooid geld.

Gelukkig heeft Intel dat al begrepen en hoewel de Arc nog niet mee kan strijden met de betere kaarten is het al een alternatief voor relatief weinig geld toch 12gb.

Veel mensen kopen iets en hebben geen weet dat dit niet voldoende zal werken bij bepaald gebruik.
Er zijn zat reviews te vinden waar bv de 4060ti 8gb en 4060ti 16gb behoorlijke verschillen hebben qua performance wanneer het geheugen vermogen bereikt wordt.

Beide kaarten hebben exact evenveel cores. Maar 1 kaart is niet toekomstbestend.
Nvidia doet dit gewoon zodat mensen sneller weer een nieuwe kaart kopen omdat die niet meer bij de eisen van de games past.

Er zijn al games die meer vereisen. Het gaat erom dat ze onwetende klanten proberen te bedonderen door ze moedwillig minder Vram te geven zodat ze weer snel terug komen.

De 4060ti 8gb en 16gb is een perfect voorbeeld hiervan. Een 3070 en 3070ti zijn net zulke voorbeelden.
3080 10gb idem. Die kaart is nog steeds heel sterk maar gecrippeld door de gelimiteerde vram.
Waarom zou dat zo moeten zijn de intel kaart heeft gewoon laten zien dat het perfect kan voor 300 euro. Al is kaart hier nu nog duur vanwege z'n msrp maar zal wel iets dalen.
Wel mooi dat je maar één stap omhoog hoeft voor een upgrade naar 16GB. Dat is waar ik me bij de RTX 30-serie zo aan hekelde. Het was óf een RTX 3060 12GB, óf een 3080 Ti van €1500 8)7
Die éne stap gaat wel - als de prijzen van de 40-series aangehouden blijven worden - direct $200 meer zijn op een basisprijs van $299. Daarvoor heb je letterlijk 2 Intel Arc B580's.

[Reactie gewijzigd door Loller1 op 16 december 2024 13:37]

Hardware Unboxed raadt ook sterk af om nog kaarten te kopen met 8GB VRAM als ze meer dan 200,- kosten.

Zo normaliseer je ook een slechte prijs / prestaties verhouding geboden door Nvidia. Niet meer aan mee doen.
8 gb aan vram begint wel erg krap te worden. Je zal in steeds meer games textures op medium of zelfs lager moeten zetten. Aan de andere kant is het maar de vraag of je momenteel veel beter af bent met een kaart van de concurrent want bij AMD heb je weer dat performance met ray tracing matig is.

Steeds meer games zullen vermoedelijk de weg van Star Wars Outlaws en Indiana Jones volgen waarbij ray tracing niet meer optioneel is. (Het ziet er beter uit en is goedkoper om te implementeren dan handmatig geplaatst licht)

Dit kan je niet verhelpen door RT op medium of low te zetten zoals bij een vram gebrek. Verminderde RT performance drukt zijn stempel op elke setting. Het is dan ook maar de vraag hoe toekomstbestendig een kaart is met matige RT performance.

Het gerucht gaat dat AMD dit inmiddels in ziet en een flinke stap gaat zetten voor wat betreft RT performance met de RX 8000 serie. Wellicht komt daar een optie voor de midrange uit voort.
nu als we dan historisch kijken en daar de 4 rumoured modellen aan toevoegen..

760 2GB / 960 2GB / 1060 3GB / 2060 6GB / 3060 8GB / 4060 8GB / (5060 8GB)
760ti 2GB / nvt / nvt / 2060S 8GB / 3060ti 8GB / 4060ti 8GB / (5060ti 16GB)
770 2GB / 970 4GB / 1070 8GB / 2070 8GB / 3070 8GB / 4070 12GB
780 3gb / 980 4GB / 1080 8GB / 2080 8GB / 3080 10GB / 4080 16GB / (5080 16GB)
780ti 3GB / 980ti 6GB / 1080ti 11GB / 2080ti 11GB / 3080ti 12GB / 4080S 16GB
titanz 12gb / titanx 12gb / titanv 12gb / titanRTX 24GB / 3090ti 24GB / 4090 24GB / (5090 32GB)

dan zien we dat wederom je het meeste genaaid word in highend.
5060 tov 760 : memory x4
5060 tov 760ti : memory x8
4070 tov 770 : memory x6
4080 tov 780 : memory x 5,3
4080ti tov 780ti : memory x 5.3
5090 tov titanx : memory x 2.7

de klacht van 3x op rij 8GB voor een 3060.. is echter niet hoe dat historisch ging.. dus een 5060 met 10GB (of zelfs 12GB) was wellicht eerlijker geweest.
-> de 5060ti hoeft dan weer geen 16GB te krijgen die had prima diezelfde 12GB kunnen krijgen
-> de 5080 word ook wat magertjes bedeeld.. die had 18 of 20GB moeten hebben.
en die 5090 had natuurlijk gewoon 48GB mee moeten krijgen (een verdubbeling na 3 generaties stagnati
De 1060 kwam uit met 6GB en later met 3GB en minder rekenkracht:
https://gamersnexus.net/h...b-vs-6gb-benchmark-review
Dit zijn gaming kaarten, 48GB vram is absurd en word niet gebruikt voor gaming.
en 12gb vram in 2014 dan wel??
waarom verdiend low end minder inflatie en meer geheugentoename dan high end?

1100 in 2014 is grofweg 1400 euro nu (inflatiecalculator) dat is feitelijk wat een 5090 (en 4090) zou moeten kosten..

mag je als je dan toch bijna 3 ruggen neerteld aka dubbel wat een 5090 zou moeten kosten IIG 48GB ram krijgen?? (wat feitelijk nog steeds even beroerde verhoudsingsgewijze toename is als een 5060 van 8GB waarover je miept, die maar 30% in prijs tov inflatie gestegen)

als we dezelfde eerlijke x6 across board zouden toepassen.. en inflatie normaal.
dan zou een 5090 1400 euro moeten kosten, 250w tdp moeten hebben en 72GB ram moeten hebben

en een 5060 260 euro moeten kosten, 120w tdp moeten hebben en 12GB ram moeten hebben
... dus... wie word hier nou zwaarder genaaid.

[Reactie gewijzigd door DutchGamer1982 op 16 december 2024 15:53]

Op dit item kan niet meer gereageerd worden.