Gerucht: Nvidia brengt in juli RTX 4060 Ti met 16GB geheugen uit

Nvidia werkt volgens leaker MegasizeGPU aan een GeForce RTX 4060 Ti-model met 16GB geheugen. Over de 4060 Ti gaan al langer geruchten, maar over een 16GB-model werd nog niet gesproken. De 16GB-versie zou in juli verschijnen, twee maanden later dan de 8GB-versie.

Volgens de leaker brengt Nvidia de RTX 4060 Ti met 8GB geheugen in mei uit en komen in juli de reguliere 4060 met 8GB geheugen en de 4060 Ti met 16GB geheugen uit. Verdere details meldt de leaker niet. Het ligt voor de hand dat de 16GB-versie net als de 8GB-gpu's een 128bit-geheugenbus heeft. De 8GB-Ti-versie krijgt volgens eerdere geruchten 4352 CUDA-cores. Nvidia kondigt de kaarten mogelijk in mei aan.

Wat een kort bericht, wat is dit?

Tweakers experimenteert tijdelijk met korte nieuwsberichten zoals deze, die nét niet lang genoeg zijn voor een volledig artikel. Wil je meer informatie over dit experiment of wil je feedback geven over de vorm, dan willen we je vragen dat in deze post op Geachte Redactie te doen.

Door Hayte Hugo

Redacteur

09-05-2023 • 13:21

103

Reacties (103)

103
103
46
2
0
36
Wijzig sortering
Zo werk je toch de 8GB variant compleet de markt uit?

offtopic: Dit soort korte nieuwsberichten....kwantiteit boven kwaliteit.
De 8GB variant is toch min of meer DOA...
Het is gewoon afgelopen met 8GB aan VRAM. De combinatie van complexere RT + geavanceerde AI based object generatie + veel hogere resolutie textures + veel betere particle effects + veel complexere shader based lighting, maakt er gewoon een einde aan.

Daarnaast speelt van hoe ik het begrijp, ook nog een enorm probleem met data beschikbaarheid voor GPU's. Wachten totdat iets vanuit een opslagmedium naar de GPU komt, is gewoon te traag aan het worden. XSX en PS5 hebben shared memory systems en dus dit probleem niet. De oplossing voor PC gaming lijkt gewoon meer data in VRAM laden te worden. :)
directX storage zou dat moeten verhelpen maar lijkt niet aan te slaan onder ontwikkelaars zover
Helaas gaat dat niet zo snel nee.
Maar het lost niet het hele probleem ook niet op. Het is meer het probleem van de CPU naar de GPU verplaatsen. Het is niet wat PS5 en XSX hebben met hun shared pools.

Nu zit je met een systeem waar alle data uit opslag door de CPU decompressed word en in RAM komt. Dan gaat er voor sommige data ook een kopie naar GPU VRAM. Met DirectStorage wordt de data voor de GPU, in haar compressed vorm naar de GPU gestuurd waarna de GPU deze decompressed en opslaat in VRAM. Je hebt alsnog de VRAM nodig om het op te slaan. Maar je wacht nu niet meer op de CPU voor decompressie waarna je grotere datafiles moet versturen naar de GPU. Het resultaat hiervan kan overigens ook zijn dat je juist meer VRAM nodig hebt omdat de GPU meer data kan ontvangen, verwerken en gebruiken.
https://overclock3d.net/n...orage_a_must_for_gamers/1

Het hele punt hiervan is veel grotere spelwerelden, hogere texture resoluties etc etc. :)
goed punt wat je maakt
maar als we shared mamory pools gaan doen zullen we ((met mijn beperkte kennis) de modulaiteit van bepaalde PC onderdelen op moeten geven zie apple M1/2 en ik weet niet of mensen die prijs willen betalen
Yup en dat is precies het probleem.
Een XSX of PS5 kan nu wegkomen met een shared pool van 16GB aan RAM/VRAM. Voor een PC om dat te matchen, heb je waarschijnlijk vergelijkbare waarden nodig voor zowel de CPU + RAM als GPU + VRAM. RAM is daarbij niet zozeer het probleem. VRAM wel. De laatste maanden word er maar geroepen dat elke game een slechte port is. Dat zijn ze soms, maar vaak is het ook de realiteit dat 8GB aan VRAM gewoon te weinig is. En laten nu zoveel mensen met een 8GB VRAM videokaart zitten. ;)

[Reactie gewijzigd door DaniëlWW2 op 26 juli 2024 21:33]

klopt reden temeer om voor mij in de toekomst ook met 64 (of 96 als die kits eindelijk met de door mij geweste extras op de merkt komen ) GB ram te gaan dan zit ik daar in ieder geval niet mee

dank voor de kennis die je toevoegde ik was me niet volledig bewust dat direct storage slechts een deel van het probleem aanpakt
Hmmm...
Zou een oplossing hier kunnen zijn om een 'decompression engine' in de GPU te plaatsen, zodat compressed textures on-the-fly naar de GPU kunnen worden verstuurd voor verwerking?
Uh. :P
https://www.nvidia.com/en...rated-storage-technology/

AMD heeft iets vergelijkbaars om DirectStorage ook te kunnen gebruiken. Maar AMD is hopeloos in marketing dus die hebben het geen speciale naam gegeven. :+
Gelukkig een kort artikel. Een 16 gb variant van de 4060 ti, dat is alles. Om daarover 2 pagina's vol te schrijven moet je er van alles bij halen. Prima zo kort en bondig.
Opvullen van de frontpage bedoel je? Nog meer verdunning...het is maar wat je fijn vindt
Onderaan het artikel staat een link waarmee je feedback kunt geven over de korte artikels. O-)
Hangt volledig af van de prijsdifferentiatie en wat de koper ermee van plan is.
"Hoe zorg ik ervoor dat mijn RTX 4060 Ti lancering in het water valt"
Mensen (zoals ik) zijn nu eerst benieuwd naar de benchmarks van de 16Gb versie, vooraleer ik de 8Gb zou overwegen.
Zo werk je toch de 8GB variant compleet de markt uit?
Dat hangt ook van de prijs af. Wellicht gaan ze de hoofdprijs vragen voor de 16 GB versie, al zou ik dan zelf adviseren om geen van beide te kopen, zeker als AMD met een beter alternatief komt.

Er zijn helaas wel veel consumenten met nauwelijks kennis van zaken die blind de duurste kaart kopen die binnen hun budget vallen, van het merk dat ze kennen (dus meestal Nvidia).
Dat hangt ook van de prijs af. Wellicht gaan ze de hoofdprijs vragen voor de 16 GB versie, al zou ik dan zelf adviseren om geen van beide te kopen, zeker als AMD met een beter alternatief komt.
AMD komt eind deze maand waarschijnlijk met de RX 7600 XT, waarbij er ook wel een redelijke kans is dat de RDNA 2-kaarten gaan zakken in prijs. Dat kan de lancering van Nvidia ook wel verpesten.
Volgens mij is dit de eerste keer dat een launch van nieuwe kaarten mensen -en masse- doet afwachten om te zien of the previous gen goedkoper wordt. Dat zegt veel over de huidige -overpriced- markt én over de capaciteit van de huidige generaties vs verwachtigen van mensen.
Ik vind het echt zeer interessant nieuws, zeker met machine learning projecten is veel geheugen fijn. Kort bericht lijkt me ook prima, zou niet weten wat er nog aan toegevoegd moet worden.
:P Als je de kwantiteit van de comments ziet, levert het wss voor tweakers relatief veel op voor weinig info. Dus het zeker wel een kwaliteitsartikel.
Dat staat er toch ook netjes bij, ik ben er blij mee persoonlijk. Eindelijk niet meer dingen eerst lezen op nu.nl , uitgebreide artikelen komen toch wel
Er staat toch duidelijk dat Tweakers experimenteert met korte berichten.
offtopic: Dit soort korte nieuwsberichten....kwantiteit boven kwaliteit.
Zoals onderaan het bericht staat:
Wil je meer informatie over dit experiment of wil je feedback geven over de vorm, dan willen we je vragen dat in deze post op Geachte Redactie te doen.
Gelieve dat dan ook daar te doen.
Ah, de vierde Nvidia-generatie op rij waarbij een lager model meer geheugen krijgt dan een hoger model. Het blijft een vreemde gewaarwording.
Nee is redelijk normaal in kapitalistische samenlevingen. Geplande veroudering heet het, zolang klanten blind hun producten blijven kopen kunnen ze doen wat ze willen.
Waarom zou het goedkopere product dan minder snel moeten verouderen?
Ik snap je eerste reactie dat het geplande veroudering argument misschien niet helemaal van toepassing is op het punt dat je maakt, namelijk dat specifiek het goedkopere product meer geheugen heeft en op dat vlak dus langer kan meegaan in games. Ik zie dit 'planned obsolescence' argument de laatste tijd vaak erbij worden gehaald (misschien te gemakkelijk).

Maar ik zie wel hoe het op een bepaalde wijze van toepassing is. Wat de strategie hierachter zou kunnen zijn is om alle non-top modellen een beperking mee te geven:
- te weinig VRAM (voor een termijn langer dan +/- 2 jaar)
- te langzaam VRAM
- te langzame GPU chip
- geen ondersteuning voor een bepaalde technologie (vaak enigszins geforceerd weigeren om fatsoenlijke ondersteuning in te bouwen voor oudere producten, zoals met DLSS3, dit soort fratsen zie je wel vaker voornamelijk bij Nvidia) en flink samenwerken bij de bouw van AAA titels die op dat moment alleen maar echt goed draaien indien je van die laatste technologie gebruikmaakt (ik denk bijv. aan Cyberpunk 2077 en technologien als Ray tracing en DLSS).
- etc.

Wat er volgens mij vaak gebeurd is dat consumenten naar een een mid range kaart kijken en denken: deze voldoet voor mij voor nu en ik wil niet (nog) meer eraan uitgeven, misschien analyseren ze ook niet heel veel ver door. Maar er gaat in een redelijke korte periode (na bijv. +/-2 jaar) een moment komen, met een bepaalde game of meerdere games die diezelfde consument interessant vindt, waarbij een of meerdere van die genoemden voorbeeldpunten een sterk merkbare bottleneck gaat opleveren, vroeger dan dat dit eigenlijk het geval had moeten zijn. Met als gevolg dat dit tot nieuw koopgedrag kan leiden voor zowel wat lower-end als mid-range kaarten.

M.a.w.: zo lang je nog een Nvidia product koopt wint Nvidia altijd. In het geval van een low-range of mid-range kaart upgrade je weer relatief snel. En indien je een high-end kaart koopt en daar lang aan vasthoudt mag je meer dan 1000 euro lappen. Zo lang de andere speler(s) in markt dit spelletje een beetje meespelen wordt men Nvidia nog niet zat en wederom overwegen bij de aanschaf van die nieuwe videokaart. Ondanks dat Nvidia al heel lang redelijk anti-consumenten gedrag vertoond zijn ze al jaren uiterst succesvol, dus blijkbaar werkt het vanuit het financieel perspectief.

Samengevat, ik denk dat het een soort (noem het desnoods variant van) doordachte planned obscolescence is.
Maar je hebt dus alternatieven met AMD en Intel.
Absoluut! Ik denk dat AMD het op een hoop vlakken beter doet Nvidia, wat ook de reden is dat ik naar AMD neig voor mijn volgende aankoop. Of Intel nou al een hele goede concurrent is op het gehele low tot mid-range vlak valt volgens mij sterk te bediscussieren en op het high-end vlak doen ze volgens mij nog niet mee, maar goed. Het valt echter niet te ontkennen dat Nvidia het financieel erg goed doet de laatste 10 jaar, inclusief specifiek hun producten voor gaming. En wat sommige zaken lijkt AMD te volgen, bijv. door de laatste jaren de mid range kaarten pas (veel) later te releasen dan de high end. De huidige Radeon 7000 serie is daar een heel goed voorbeeld van en de Radeon 6000 ook wel: ik zie de 6700 XT als eerste mid-range kaart die in maart 2021 uitkwam in die serie en 6800 en hoger die in november 2022 uitkwamen als high-end, waarbij ik me dus baseer op basis van serienummers i.p.v. prijs. Dus is er concurrentie genoeg en is deze stevig genoeg blijft een relevante vraag.
AMD zet op dit moment de oude topkaarten in als concurrent voor nVidia. Een 6950XT of een RTX4070? Zeg het maar. En ik zie ook niet in waarom ik voor nVidia moet gaan. Zit te denken aan een AMD kaart.

[Reactie gewijzigd door pepsiblik op 26 juli 2024 21:33]

Ik kijk op het moment ook met een half oog naar die twee kaarten. Ik heb in het verleden problemen gehad met amd drivers, maar ben de waanzinnige prijzen van Nvidia ook wel zat. In dit specifieke geval is het energieverbruik van de amd zo veel hoger dat het over de 5-6 jaar waarvoor ik een kaart koop toch financieel minder interessant is om in deze overweging naar kamp rood te gaan.
Ik ben er zelf nog niet uit en hoop stiekem toch op een goede volgende generatie van kamp blauw.
En daarom is het goed dat deze Nvidia belasting bestaat. Speciaal voor mensen die perse Nvidia willen hebben. Je kan ook AMD of Intel kopen. Beetje hetzelfde als Apple belasting terwijl je ook een hele goede Android telefoon kan kopen.
Het probleem is meer dat Nvidia over de hele linie weinig VRAM geeft. Dit terwijl het relatief goedkoop is om meer geheugen toe te voegen. Dus dan zit je bijvoorbeeld met een 4070 Ti voor bijna duizend euro waarvan het risico erg groot is dat hij relatief snel tegen problemen aan gaat lopen door een gebrek aan VRAM.

Nvidia leek van plan om vrij dure 8 GB kaarten uit te brengen, maar die gaan al per direct tegen VRAM problemen aanlopen in recente games. Daardoor zien ook kortzichtige mensen dat deze kaarten niet voldoen en gaat het dus vermoedelijk erg slecht verkopen.

Het ophogen van het geheugen voor mindere kaarten is dan een noodgreep die Nvidia ook heeft toegepast bij de 3060 die oorspronkelijk 6 GB zou hebben. Dit zorgt inderdaad voor de vreemde situatie dat bepaalde kaarten langzamer verouderen.
"Oops, I did it again". Hoe vaak moet een ezel zich ook alweer aan dezelfde steen stoten? Ik denk dat Nvidia geen ezel is maar er een hoop hele slimme mensen werken (ook financiële/strategische). Misschien is dit gewoon hun plan/ strategie? Ze werken nota bene zelf met veel studio's samen bij studio's van de triple A games waarbij deze VRAM problemen zich voordoen, dus ze weten al vaak in heel vroeg stadium wat eraan komt. Oke, ik durf niet te garanderen dat de communicatie tussen die development support afdelingen en strategie super is (zoals dat vaak een issue is bij (grote) bedrijven), maar ik dwaal af. Mijn punt blijft dat het niet onredelijk is om er kritisch tegenover te staan.
Ik hoor wel van ontwikkelaars dat ze weinig sjoege krijgen van Nvidia. Als je ook kijkt naar de presentaties van het bedrijf dan zie je dat die vrijwel alleen gaan over bedrijfstoepassingen zoals AI. Gaming lijkt er bij Nvidia nu maar een beetje bij te hangen, in elk geval bij het hogere management.

Nvidia heeft ook een extreem hoog marktaandeel. Je ziet vaak een grote mate van arrogantie bij bedrijven wanneer hun marktmacht te groot wordt, waar de mindset veranderd van "wij maken wat de markt wil" naar "wij maken wat we willen en ze doen het er maar mee."

Helaas lijkt bij AMD de focus ook niet echt op gaming te liggen. Ze lijken daar vooral bezig met CPU's voor cloudservers en andere servertoepassingen, waar inderdaad grote kansen liggen voor AMD. Het is niet voor niets dat veel mensen hoopten op Intel, maar dat valt vooralsnog behoorlijk tegen.
Geloof ik. Ik heb gehoord dat AI tegenwoordig hot is ;-).

En waar liggen de hoogste marges en heb je het minste gezeik met bijv. zeer kritische gamers? De videokaartfabrikanten boffen maar dat na laatste crypto mining golf AI nu zo'n ding is en het is logisch dat ze er vol op focussen. Allicht dat dit gewoon een hele grote nieuwe markt wordt (voor zover het nog echt nieuw is, want iig een Nvidia verdient ws al bakken met geld hiermee).
Ik hoor wel van ontwikkelaars dat ze weinig sjoege krijgen van Nvidia. Als je ook kijkt naar de presentaties van het bedrijf dan zie je dat die vrijwel alleen gaan over bedrijfstoepassingen zoals AI. Gaming lijkt er bij Nvidia nu maar een beetje bij te hangen, in elk geval bij het hogere management.
Dat verklaart misschien waarom GameWorks en PhysX ook op een lager pitje lijken te staan. Overigens alleen maar positief voor de concurrentie op de gamemarkt.

[Reactie gewijzigd door field33P op 26 juli 2024 21:33]

Natuurlijk weet Nvidia dit daar twijfel ik geen seconde aan.Ze hebben geprobeerd een slaatje uit de 40 series te slaan door ze bewust met te weinig vram uit te brengen zodat de kopers van de 40 serie binnen twee jaar de kaart toch echt weer moeten vervangen. Want het is al een hele tijd bekend bij game developers die met unreal 4/5 engine werken dat je toch echt 16gb nodig hebt wil je de aankomende paar jaar de triple A titels spelen op hoge settings. Ze zijn echt niet achterlijk hoor daar bij Nvidia. Gelukkig is er nu zo veel aandacht hier voor dat de consument nee zegt tegen de 40 series want ze worden maar heel magertjes verkocht. Waarom denk je dat ze de productie van 3n/m twee jaar hebben opgeschoven? Juist ja om meer tijd te creeren om de 40 serie als nog aan de man te brengen.
Budget kaarten komen vaker met wel genoeg VRAM omdat ze dan de pro-market niet kannibaliseren. 3060 is een prima oplossing voor een professionele hobbyist, maar als je meer performance/VRAM wilt moet je al naar Quadra kijken.
Ah, de vierde Nvidia-generatie op rij waarbij een lager model meer geheugen krijgt dan een hoger model. Het blijft een vreemde gewaarwording.
Eigenlijk was dit vroeger ook al zo. Dan praat ik echt over 20 jaar geleden. Je had dan bijvoorbeeld een Geforce met 512MB SDRAM terwijl er ook kaarten waren met bijvoorbeeld 256MB DDR geheugen. Die laatste kaarten hadden minder geheugen maar veel sneller geheugen en waren daardoor ook veel sneller.

Tegenwoordig zijn de verschillen in behaalde FPS tussen de kleine en grotere varianten veel kleiner. Zo was de GTX 1060 3GB wel iets trager dan de 6GB variant maar dat ging over enkele procenten. Vroeger waren de verschillen echt énorm.
Eigenlijk was dit vroeger ook al zo. Dan praat ik echt over 20 jaar geleden. Je had dan bijvoorbeeld een Geforce met 512MB SDRAM terwijl er ook kaarten waren met bijvoorbeeld 256MB DDR geheugen.
Waren er GeForce 256 SDR-plankjes met 256MB geheugen dan? Naar mijn weten begonnen ze pas bij de bladblazer met 256MB.
Die laatste kaarten hadden minder geheugen maar veel sneller geheugen en waren daardoor ook veel sneller.
Tot je er games tegenaan smijt met grote textures. Al liep dat in die tijd een stuk langzamer dan heden ter dage - een spel als DOOM 3 was officieel speelbaar met 64MB VRAM.
Phoe is allemaal wel erg lang geleden. Ik weet nog dat ik een 6800 GT met 256 MB DDR3 had die ook in 512 MB DDR2 bestond. Maar zo ver ik mij herinner vond het in eerdere reeksen ook plaats en dan vooral in het lagere segment. Wellicht dat de midrange kaarten toen inderdaad niet boven de 128/256 kwamen.
De GTX 1060 3GB versie is in mordernere games enorm veel trager als je meer dan low/medium quality settings wil op 1080p. De 6GB versie kan nog best meekomen.
Dit komt door het geheugen natuurlijk en niet doordat de chip ook daadwerkelijk veel trager (wat jij natuurlijk al aangeeft :P).

Zie ook de volgende analyse van Hardware Unboxed die ik al eens eerder had gepost de laatste week:
https://www.youtube.com/watch?v=ySmMb4X7qbA
Yes kwestie van je texture details niet te hoog zetten. Dat wist je als het goed is toen je die kaart kocht. Bij Forza Horizon werd dit al een beetje problematisch.

Overigens maakt dat de 1060 3GB niet meteen een slechte koop. Die 6GB varianten zaten op enig moment (2018?) door de mining hype boven de 400 euro en toen zaten de 3GB varianten nog rond 200 euro. Dat was wel een erg groot prijsverschil. Je had die 200 euro apart kunnen leggen en vervolgens ná de mining hype, of wanneer je de 3 GB beu was, je kaart verkopen en vervolgens iets nieuws uitzoeken. Dan had je uiteindelijk een betere prestatie/euro gehad dan wanneer je veel te veel voor een 6GB kaart betaalde.

[Reactie gewijzigd door sdk1985 op 26 juli 2024 21:33]

Ja Nvidia heeft wat klantonvriendelijke strategieën. Zelf net een 4070 besteld. Die had eigenlijk ook al 16GB moeten krijgen. En daarnaast is de power limit behoorlijk beperkt. Helaas is Nvenc het beste van de alternatieven, anders had ik lekker bij AMD geshopt. De 6950 XT was/is voor hetzelfde bedrag te krijgen (aanbieding). Die heeft wel een zwaardere voeding nodig.
Goed dat je de klantonvriendelijke strategieën even hebt gesponsord.
Ochja, ik had principieel kunnen zijn, maar dat had toch niets veranderd. Ik maak mij geen illusies.

Ik ben blij dat je mij sponsering kunt waarderen.
Precies dit. Ben ook voor de 4070 gegaan, ik ben geen die hard gamer meer en features/zuinigheid vind ik belangrijker dan raw performance.
Ik bedoelde eigenlijk dat de beperkte power limit een min punt is. Daarmee wordt het overclock potentieel kunstmatig laag gehouden. De zuinigheid spreekt mij ook enorm aan. En Nvenc was voor mij de beslissende factor om niet bij AMD of Intel te shoppen.
Haha ja, en ook nog eens met een 128-bit geheugenbandbreedte. Dus even gechargeerd, je hebt er niks aan! :)
Zelfs GDDR6X op maximale bandbreedte kan echt niet compenseren voor 8GB minder geheugen. Dat doet me denken aan Apples claims dat de M1-MacBooks vanwege de hoge bandbreedte zouden volstaan met 8GB werkgeheugen. Maar nu beginnen de eerste 8GB-varianten vrij vroeg dood te vallen door een SSD die helemaal kapotgeswapt is.
64k was voldoende toch?! :+
"640K ought to be enough for anybody" schijnt Bill Gates gezegd te hebben, al beweert hij zelf dat hij dat nooit heeft gezegd.
Zoiets was het inderdaad.....
Zo zie je maar dat je over technologie geen uitspraken kunt doen. Wat nu nog voldoet kan morgen alweer veranderen.

[Reactie gewijzigd door Tourmaline op 26 juli 2024 21:33]

Ik ben voor de zekerheid ook maar voor 32gb gegaan. Zal best zijn dat die ssd snel is, maar het als "ram" gebruiken lijkt mij niet zo denderend op termijn...
Wel met het runnen van wat grotere AI modellen.
Het ziet er naar uit dat Vram op Nvidia videokaarten toch niet zo'n big deal gaat zijn vanwege nieuwe technologie: Neural Texture compression: https://hothardware.com/n...eural-texture-compression . Dit verklaart waarom de nieuwe generatie videokaarten van Nvidia zo weinig Vram hebben. Met het spectaculair reduceren van opslagruimte van textures dmv software innovatie heb je straks meer effectieve VRam dan ooit. Het enige vervelende hieraan is: het duurt nog even voordat het wordt gelanceerd.
Interessant, vergeet niet dat textures maar een gedeelte zijn van het gebruik van VRAM. Dingen zoals de BHV voor RT moeten ook in het geheugen.

Wat je zelf al aangeeft, het duurt nog even voordat dit gebruikt gaat worden en ik ben heel benieuwd naar de implementatie want als dit op een per game basis moet worden geimplementeerd dan heb je zo meteen spellen die voor geen meter draaien omdat Nvidia te weinig geheugen geeft aan kaarten en spellen die fantastisch draaien omdat ze dit gebruiken.

Daarnaast vermoed ik dat er een tradeoff zal zijn. Als je dit op de GPU wilt gebruiken dan zal je het aantal Tensor cores moeten verhogen als je ook nog van de andere ML features gebruik wilt maken; of misschien een stukje dedicated hardware in de GPU zetten om dit te versnellen.
There are some limitations of the format, of course. The biggest one is that it requires the texture data to be very carefully authored, because any alignment problems (which might go unnoticed with traditional compression) will rapidly reduce the quality of the final neural compression.
Game developers zullen dus extra moeten investeren in een pipeline of misschien wel handmatige stappen om dit speciaal voor Nvidia te doen. Dit is een veel grotere stap dan DLSS in je spel zetten of zelfs om RT in te bouwen.
Installers zullen ook slimmer moeten zijn, ik wil met een AMD/Intel kaart niet perse 50GB aan extra textures downloaden als dit weer een standaard Nvidia only techniek wordt.
You also can't use traditional texture filtering with this method, which includes anisotropic filtering.
Geen bilinear, trilinear of anisothropic filtering is enorm, Als dit niet door dat die techniek wordt opgevangen dan wordt je spel echt gruwelijk lelijk.

De techniek is serieus interessant, maar als Nvidia het dicht gaat gooien zoals ze altijd doen denk ik dat de adoptie nog lang op zich laat wachten als de techniek ook daadwerkelijk uitkomt.
Console,s hebben ook 12-16gb vram, game developers zijn in algemeen lui en porten die bagger zo naar de pc met minimale aanpassingen, ofwel ik verwacht daar weinig van een optimalisatie voor de PC en gezien veel game,s afkomstig zijn van de console zie ik het somber in.

We hebben dit in verleden al vaak genoeg gezien dat game,s zeer slecht geoptimaliseerd worden voor de PC, met 8gb vram ga je het simpelweg niet redden tenzij je vlot op low settings wil spelen terwijl je een smak geld neerlegt voor een nieuwe kaart die snel verouderd is.

[Reactie gewijzigd door mr_evil08 op 26 juli 2024 21:33]

16 GB gedeeld GDDR6 ja waarbij er 12,5GB voor de GPU overblijft op de PS5 en 13,5GB op de XBox.

Dus in theorie zou je moet 16GB vooralsnog wel even voldoende moeten hebben.
Het enige vervelende hieraan is: het duurt nog even voordat het wordt gelanceerd
En het is dan nog maar de vraag of Nvidia dat gaat backporten naar oudere kaarten (waarschijnlijk niet!). Dus dat is geen reden om nu een Nvidia 8GB-kaart te kopen.
16gb was de sweetspot voor 4k dacht ik. Maar zou de gpu zelf sterk genoeg zijn? Betwijfel het.

Ik weet het gewoon even niet meer. Ik zoek een upgrade die betaalbaar is (aanschaf en verbruik) en ten minste naar 4k 60fps met beetje redelijke kwaliteit instellingen gaat. Wat is daar nou een geschikte kaart voor? De rx 7800 of Rx 7700? Een gtx 4060ti met 16 gb?

Geen idee...

[Reactie gewijzigd door Cageman1984 op 26 juli 2024 21:33]

Betaalbaar is voor iedereen wat anders, maar voor 4k 60hz moet je aan de bovenkant van de markt kijken (zonder frame generation en upscaling trucjes).
Ja toch wel? Toch nog maar een generatie wachten dan... Ik zat zelf aan de aanstaande rx 7700 of Rx 7800 te denken. Die vallen soort van in de midrange
4k was de sweetspot voor 4k dacht ik.
Sorry? :)
Vergissing 8)7 .

Ik wilde zeggen, 16 gb is de sweet spot voor 4k.

Suffe fout
Die zit rond de 900 euro. Vind ik wel duur voor een midrange kaart.

Misschien zijn mijn verwachtingen gewoon niet realistisch...
Hij presteert anders behoorlijk high range momenteel.
En dat met 12gb. Niet slecht
Ook voor 1440p wordt 8gb vram al te krap en dat kan deze kaart wel aan.
Eindelijk een verstandige zetvan nvidia 16GB op een midrange kaart;
het is niet zozeer de bandbreedte die m'n ega nodig heeft maar wel de ruimte voor
cuda-rendering in DAZ-studio.
Kan iemand me uitleggen hoe de overstap van een geheugenbus van 256-bit voor de 3060 Ti naar 128-bit voor deze nieuwe 4060 (Ti) kaarten niet een halvering van de prestaties is?

Ik zie er geen snelheden bij staan, maar het lijkt me niet dat de snelheid verdubbeld.

Wel aardig trouwens dat mensen dit vantevoren weten, je zou toch maar de 8 GB gekocht hebben en dan meteen daarna horen dat er ook een 16 GB versie komt. (al heb ik nog steeds m'n twijfels bij alle verhalen dan 8 GB de komende jaren niet voldoende is, dit zijn 1440 kaarten geen 4K kaarten)
Wat een raar nieuws opeens, maar volgens Videocardz spreken ze nu ook al over een andere 4070 (Ti) die waarschijnlijk dan ok 16GB gaat krijgen, mogelijk de 4070 Super. Mooie wirwar van modellen.
Klinkt wel als Nvidia iig.
Uh... maar een 4070 Ti heeft er maar 12GB en de 4070 maar 8... Hoe kan je dan een 4060Ti verkopen met 16GB geheugen. I don't get it.
4070 heeft ook 12, net als de 4070 Ti
Omdat geheugengrootte maar één van vele factoren is die de performance beïnvloeden. Aantal cores, kloksnelheiden, cache geheugen op de GPU, enz het telt allemaal mee.
Het aantal relevante scenario's waar een 16 GB 4060 Ti sneller gaat zijn dan een 4070 omdat de laatste geheugen te kort komt is waarschijnlijk minimaal (zou bijvoorbeeld kunnen voorkomen bij 4k met raytracing, zonder DLSS, maar bij die settings zal het aantal FPS voor beide in de meeste gevallen te laag zijn).
Dat zou betekenen dat de RTX4060 meer vram (16gb) heeft dan een RTX4070/ti, ik vermoed dat die dan ook nog een refresh gaat krijgen.

De 4060 was sowieso gedoomt te mislukken want 8gb vram is te weinig als je een beetje toekomstbestendige kaart wil.

[Reactie gewijzigd door mr_evil08 op 26 juli 2024 21:33]

Kan iemand mij uitleggen (leek) waarom zoveel mensen toch nog Nvidia kaarten blijven kopen in plaats van AMD kaarten? Ik lees dat AMD vergelijkbare prestaties levert tegen meestal lagere prijzen waardoor het mij een prima alternatief lijkt.
Als ik voor mezelf spreek:

Omdat ik geen boodschap heb aan de paniekzaaierij van bepaalde Youtubers over potentieel te weinig geheugen op termijn. Omdat spellen ontwikkeld worden om speelbaar te zijn en blijven voor zoveel mogelijk gebruikers (al zou dat op den duur betekenen dat je niet Ultra kiest bij texture quality) en niet om tenminste 16 GB te eisen voor acceptabele performance, als minder dan 5% van de markt daar over beschikt.

En in de tussentijd, terwijl ik wacht op het schijnbaar onvermijdelijke binnenkort obsolete worden van mijn GPU, geniet ik van de prachtige beeldkwaliteit met Raytracing. Van DLSS wat beter werkt dan het AMD equivalent, en voor spellen die frame generation ondersteunen helemaal geweldig is. Van het feit dat ik nooit driver problemen heb gehad met Nvidia, terwijl ik absoluut niet de behoefte voel om die wekelijks up te daten, omdat alles gewoon werkt. Omdat voor bijna alles wat niet gamen is, Nvidia de norm is en beter werkt.

AMD levert GPU's tegen lagere prijzen, niet uit de goedheid van hun hart, maar omdat ze niet meer kunnen vragen. Het is jammer, want ook ik wil zo weinig mogelijk betalen, uiteraard. Maar het verschil is het mij persoonlijk waard.
Kan iemand mij uitleggen (leek) waarom zoveel mensen toch nog Nvidia kaarten blijven kopen in plaats van AMD kaarten? Ik lees dat AMD vergelijkbare prestaties levert tegen meestal lagere prijzen waardoor het mij een prima alternatief lijkt.
Tja waarschijnlijk omdat het allemaal wat gecompliceerder ligt dan jij het afspiegelt.

De eerste vraag is of je bewering uberhaupt klopt. Meestal valt het namelijk wel mee. Het is zelden zo dat je voor dezelfde prijs bijvoorbeeld ineens 30% meer prestaties krijgt. Als ik nu even in de pricewatch kijk dan zie ik een populaire 4070, voor een vergelijkbare prijs kun je en 6950 XT halen. Als je dan de performance gaat bekijken dan zie ik dat het wel erg bij elkaar zit en dat de 6950XT zakt naar 2 fps (!) in plaats van 29 fps bij cyberpunk. In Watch Dogs zie ik zelfs 0 fps bij 0.1% staan bij de 6950 XT. Vervolgens win je alleen bij Doom Eternal relatief veel in fps (199 vs 172), maar ook daar zijn de 1% en 0.1% low's weer verschrikkelijk. Dus dan is dat geen betere koop.

Eind van de dag is het achterhaald om alleen te kijken naar FPS en prijs. Die hoge FPS wilden we ooit omdat het fijn is als je game soepel loopt. Echter met de tijd zijn we er achter gekomen dat het om de (micro)dips in je frame rate gaat. Daarom werkte SLI en Crossfire vaak averechts. Tegenwoordig kunnen we dat meten met die 1% en 0.1% low FPS

Daarnaast zijn er nog andere overwegingen zoals DLSS, ray tracing, g-sync, driver support en multi monitor idle verbruik. Zo verbruikt een 6950XT 48W idle daar waar de 4070 het met 15W af kan. Verder wordt NVENC (x265 encoder) ook steeds beter. Hiermee kun je streamen met nauwelijks extra cpu belasting. Waarmee ik overigens geen discussie wil starten of men een 4070 of 6950 wil kopen. Het gaat erom dat er veel meer aspecten mee tellen.

[Reactie gewijzigd door sdk1985 op 26 juli 2024 21:33]

Daarnaast zijn er nog andere overwegingen zoals DLSS, ray tracing, g-sync, driver support en multi monitor idle verbruik. Zo verbruikt een 6950XT 48W idle daar waar de 4070 het met 15W af kan. Verder wordt NVENC (x265 encoder) ook steeds beter. Hiermee kun je streamen met nauwelijks extra cpu belasting. Waarmee ik overigens geen discussie wil starten of men een 4070 of 6950 wil kopen. Het gaat erom dat er veel meer aspecten mee tellen.
DLSS heb je helemaal gelijk in, ik zou graag zien dat FSR net zo goed zou zijn voor de competitie. Helaas zijn ze niet zover.
G-Sync zou ik niet meer echt als een onderscheidende feature willen noemen. Monitoren die scalers met de G-Sync module gebruiken zijn steeds vaker gelimiteerd door de G-Sync chip. Aldus Tim van HU (Monitors Unboxed). De Freesync variant is vaak goedkoper en evengoed of zelfs beter.
Driver support van AMD is tegenwoordig net zo goed, op Linux is het helemaal geen competitie gezien AMD ook actief meewerkt aan de opensource drivers. Met mijn Nvidia kaart heb ik best veel gezeik met sleep gehad op mijn laptop en het staat nu ook helemaal uit om die reden.
AMD loopt best achter met hun x264 encoder, de x265 encoder en de AV1 encoder zitten heel dicht tegen die van Nvidia aan.
Aan de AMD kant heb je wel een aantal voordelen die Nvidia niet heeft; over het algemeen meer geheugen over de hele linie en een lager cpu gebruik omdat ze een hardware scheduler hebben. Wat er ook voor zorgt dat ze veel minder snel een cpu limiet hebben (met name als je geen super sneller cpu hebt). Dit zijn helaas niet de features waar de meeste mensen om staan te springen, of ze weten er gewoon niet van.

De andere punten ben ik het met je eens; maar ik wil nog een kleine toevoeging doen. AMD markteting is echt slecht. Het aantal keer dat ze zichzelf in de voeten schieten is verbazingwekkend. Ze hebben op bepaalde momenten echt goede producten gehad met hun gpu's, alleen was de marketing gewoon misleidend of slecht.
G-Sync zou ik niet meer echt als een onderscheidende feature willen noemen. Monitoren die scalers met de G-Sync module gebruiken zijn steeds vaker gelimiteerd door de G-Sync chip. Aldus Tim van HU (Monitors Unboxed). De Freesync variant is vaak goedkoper en evengoed of zelfs beter.
Tenzij je natuurlijk zo'n monitor hebt, zelf heb ik een X34 van Acer met G-sync module. Overigens wat mij opvalt is dat van de 3 mensen die ik ken met een freesync monitor er 3 mensen hun freesync hebben uitgeschakeld omdat ze last hadden van de techniek. Dan moet je denken aan flickering of black screens.
Driver support van AMD is tegenwoordig net zo goed, op Linux is het helemaal geen competitie gezien AMD ook actief meewerkt aan de opensource drivers. Met mijn Nvidia kaart heb ik best veel gezeik met sleep gehad op mijn laptop en het staat nu ook helemaal uit om die reden.
Ik schaar die frame drops op zo'n 6950XT eigenlijk persoonlijk ook onder driver problemen. Helaas is geen partij volledig probleemvrij inderdaad. Persoonlijk wacht ik bij nvidia altijd 2, liefst 4 weken, voor ik zo'n driver update.
AMD loopt best achter met hun x264 encoder, de x265 encoder en de AV1 encoder zitten heel dicht tegen die van Nvidia aan.
Werkt dit ook in OBS?
Aan de AMD kant heb je wel een aantal voordelen die Nvidia niet heeft; over het algemeen meer geheugen over de hele linie en een lager cpu gebruik omdat ze een hardware scheduler hebben. Wat er ook voor zorgt dat ze veel minder snel een cpu limiet hebben (met name als je geen super sneller cpu hebt). Dit zijn helaas niet de features waar de meeste mensen om staan te springen, of ze weten er gewoon niet van.
Goede punten. Dat geheugen begint nu wel echt een dingetje te worden. Althans mits je de hoogste texture quality wil (maar waarom zou je dat niet willen, op een midrange kaart ultra textures ziet je game er vaak best leuk uit).
Tenzij je natuurlijk zo'n monitor hebt, zelf heb ik een X34 van Acer met G-sync module. Overigens wat mij opvalt is dat van de 3 mensen die ik ken met een freesync monitor er 3 mensen hun freesync hebben uitgeschakeld omdat ze last hadden van de techniek. Dan moet je denken aan flickering of black screens.
Dat was toch voornamelijk in het begin het probleem? Met de betere certificering zou dat verbeterd moeten zijn (Freesync Premium). Ik heb zelf nergens last van met mijn desktop met 6900 XT en uitvoering: LG UltraGear 34GK950F Rood, Zwart. Zelfs met multi-monitor gaat dit prima. Twee vrienden hebben ook geen problemen met hun Freesync monitoren. Deze zijn wel allemaal de laatste 3 jaar aangeschaft.

Edit:
Is het nog steeds zo bij Nvidia dat je zelf de refresh rate moet instellen en dat hij dat niet automatisch doet? Het zou mij niks verbazen dat een heleboel mensen met een Nvidia kaart dit gewoon vergeten (of niet weten hoe) in te stellen :Y) .
Ik schaar die frame drops op zo'n 6950XT eigenlijk persoonlijk ook onder driver problemen. Helaas is geen partij volledig probleemvrij inderdaad. Persoonlijk wacht ik bij nvidia altijd 2, liefst 4 weken, voor ik zo'n driver update.
Dat is inderdaad fair. Zeker als een 6900 XT het niet heeft?
Werkt dit ook in OBS?
Ik zou het vanavond eens kunnen testen; geen idee. Ik vermoed at ze in ieder geval x264 hebben, x265 hoop ik en AV1 komt er aan of is er net voor de grote 3.
Goede punten. Dat geheugen begint nu wel echt een dingetje te worden. Althans mits je de hoogste texture quality wil (maar waarom zou je dat niet willen, op een midrange kaart ultra textures ziet je game er vaak best leuk uit).
Textures is het laatste wat ik zelf lager zet als een spel niet goed draait; dat heeft vaak het meeste impact op hoe het er uit ziet.

[Reactie gewijzigd door Sp3ci3s8472 op 26 juli 2024 21:33]

Omdat ze op YouTube filmpjes zien waarbij Raytracing het beter doet op NVidia kaarten?
Omdat AMD kaarten vroeger minder goed waren en mensen bang zijn dat ze dat nog steeds zijn?

Who knows.
Om dat de meeste aankopen in de wereld op gevoel gaan.
Software support is bij Nvidia iets beter en daarnaast ik heb een G-sync(volledig met module) scherm en wil die volledig kunnen gebruiken ipv beperkt wordt, AMD heeft in algemeen de betere hardware.

Daarnaast Raytracing gaat beter bij Nvidia dan AMD.
Enige voordeel van AMD is dat ze wel USB-C hebben, een groot gemis van Nvidia dat ze dat eraf gesloopt hebben.

[Reactie gewijzigd door mr_evil08 op 26 juli 2024 21:33]

De enige echte reden is marketing. De meeste mensen gebruiken geen Gsync. Net als dat mensen Apple kopen. Veel mensen zijn meelopers en gevoelig voor wat de kudde doet. Daarom blijven ze ook maar Nvidia kopen terwijl ze weten dat ze belazerd worden.

Op dit item kan niet meer gereageerd worden.