EEC-registratie noemt komst Gigabyte RX 7600- en RTX 4060 Ti-videokaarten

Er zijn verschillende Gigabyte Radeon RX 7600- en GeForce RTX 4060 Ti-videokaarten geregistreerd bij de Eurasian Economic Commission. De registraties bevestigen dat beide kaarten beschikken over 8GB geheugen. Volgens eerdere geruchten komen beide gpu's eind mei uit.

De videokaarten zijn onlangs verschenen bij de EEC, merkte Twitter-gebruiker harukaze5719 op. Gigabyte heeft bij die instantie twee Radeon RX 7600- en negen GeForce RTX 4060 Ti-modellen geregistreerd in de Aorus Extreme-, Aero-, Gaming, Eagle- en WindForce-series van het bedrijf. De verschillende modelnamen noemen allemaal de aanwezigheid van 8GB geheugen.

Er gaan al langer geruchten rond over de komst van beide videokaarten. De GeForce RTX 4060 Ti zou een gpu met 4352 CUDA-cores krijgen en beschikken over 8GB geheugen op een 128bit-geheugenbus. De hoeveelheid geheugen lijkt nu dus bevestigd te zijn door Gigabyte en de EEC. De kaart zou daarnaast een PCIe 4.0 x8-interface krijgen. Nvidia zou de videokaart 'eind mei' willen uitbrengen, maar er is nog geen concrete releasedatum bekend.

De AMD Radeon RX 7600 zou op zijn beurt op 25 mei aangekondigd worden tijdens Computex in Taiwan. Ceo Lisa Su bevestigde deze week dat het dit kwartaal nog met nieuwe RX 7000-videokaarten komt. Concrete specificaties van de RX 7600 zijn nog niet bekend, los van de 8GB geheugen die wordt vermeld in de EEC-registratie.

EEC-registratie Gigabyte RX 7600 en RTX 4060 Ti

Door Daan van Monsjou

Nieuwsredacteur

04-05-2023 • 11:04

61

Reacties (61)

61
61
24
3
0
31
Wijzig sortering
Laat ik beginnen met te zeggen dat ik geen verstand heb van game-ontwikkeling en -optimalisatie. Ik vraag me af of AMD en NVIDIA keer op keer economische beslissingennemen om weinig/minder VRAM te plaatsen in low-end tot mid-range videokaarten en zo de push naar duurdere kaarten die meer opleveren. Wat ik niet snap want je ziet steevast dat kaarten in de mid end heeft meest verkocht worden (1060, 2060, 3060)

En wat betreft optimalisaties aan de ontwikkelaarskant, zijn gamers er te snel bij om de schuld te geven aan het feit dat er te weinig VRAM op de videokaart zit? Is het niet gewoon zo dat er veel games zijn die niet zo goed presteren op het gebied van geheugenbeheer?

Ik herinner me dat er vroeger mid-range kaarten uitkwamen met varianten die twee keer zoveel geheugen hadden. Achteraf bleek dat deze kaarten zelden tot niet zoveel geheugen aanspraken/gebruikten en dat de GPU tegen de tijd dat er games uitkwamen die meer VRAM nodig hadden, niet snel genoeg zijn.

Is 8GB VRAM in 2023 niet voldoende voor een resolutie van 1080P?
Dat lijkt mij nog steeds meest gebruikte resolutie. RT in dit segment, hoewel het wordt ondersteund is bij voorbaat toch een no no? Dat kost meer GPU kracht en geheugen

[Reactie gewijzigd door seez op 24 juli 2024 16:51]

Nee, 8GB VRAM is niet genoeg voor games die in 2023 en later uitkomen, ook niet op 1080p. Slechte optimalisatie is een punt, maar je moet kijken naar hoe games worden gebouwd. Anno 2023 worden de PS5 en Series S/X als een baseline gebruikt. Deze hebben 16GB aan GDDR6 aan boord dat ook dient als het reguliere RAM vanwege een gedeelde architectuur, beetje als een soort iGPU. Je OS en achtergrond dingen proppen ze in ongeveer 4GB, dus de overige 10-12GB zullen ze gebruiken als daadwerkelijk VRAM. Dit is meer dan de 8GB die deze kaarten zullen hebben, dus dat betekent dat je ofwel je textures moet terugschroeven of meer VRAM nodig hebt. Dus 1080p kan nog zeker wel, maar dat betekent dat je compromissen moet sluiten, de kaart zal minder lang een effectief leven hebben (want je moet hem sneller vervangen dan duurdere kaarten omdat ie sneller tekort zal schieten in games de komende jaren) en dat is gewoon zonde als je het hele e-waste verhaal bekijkt. Een mid-range kaart in 2023 hoort gewoon on-par te zijn met de huidige consoles, punt.
Slechte optimalisatie is een punt, maar je moet kijken naar hoe games worden gebouwd. Anno 2023 worden de PS5 en Series S/X als een baseline gebruikt. Deze hebben 16GB aan GDDR6 aan boord dat ook dient als het reguliere RAM vanwege een gedeelde architectuur, beetje als een soort iGPU.
Dat is nog steeds een issue bij de software/game maker. We zien dan ook steeds vaker slechte porten vanuit de console markt naar de PC komen. Recent weer Redfall en Jedi: Survivor. Zelfs de games die goed worden geport, zoals Hogwart's Legacy hebben issues met VRAM op verschillende PC setups. Developers zien de hardware markt, deze games zijn niet standaard gebouwd voor een 3080+.

Developers dienen te weten hoe hun klantenbasis eruit ziet, die gaan echt geen nieuwe videokaart kopen voor een HL, dus je zit met bergen 8GB videokaarten 80%+. Ik vind dat dan nog steeds een slechte PC port! Als zowel AMD als Nvidia nog steeds anno 2023 8GB proppen in de videokaart, dan zijn alleen bepaalde gamemakers fout!

En wie zal er moeten veranderen? De software makers! Want de gebruikers gaan voorlopig nog geen nieuwe videokaart kopen met meer VRAM... Maar we weten dat dit niet gebeurt, want zo veranderen software makers ook amper de afgelopen twee decennia.
Het is toch echt de schuld van AMD en Nvidia. 8GB VRAM was de hoeveelheid geheugen die je in 2016 (!) kon kopen voor rond de €250 met de RX480 en de iets goedkopere RX470. Dat zowel AMD als Nvidia dan besluiten om 7 jaar later met een kaart te komen die naar alle waarschijnlijkheid duurder zal zijn dan die €250 en hem dan dezelfde hoeveelheid geheugen te geven, tja, de gierigheid van beide bedrijven liegt er niet om.

Game makers willen mooiere werelden, realistische effectjes hier en daar, veel detail in de personages en de objecten om je heen en dat zal altijd meer en meer videogeheugen vreten.

Dat Nvidia en AMD zo gierig zijn om straks 300/500 euro te vragen voor een kaart met minder geheugen dan de huidige generatie consoles is het niets meer dan geldklopperij en dient het als upsell waar je flink extra mag neertellen voor 12GB VRAM of meer.

Het feit is dat next-gen games worden gemaakt voor die ~12GB aan VRAM voor de huidige generatie consoles. 8GB is zoals eerder aangegeven iets van 7 jaar geleden en de RX480/RX470 waren toen destijds gepositioneerd in de markt als betaalbare middenmotors. Niet meer echt next-gen dus. Tenzij het spel ook nog wordt ontwikkeld voor de PS4/X1 dan vallen veel nieuwere titels buiten de boot als de prijzen van Nvidia en AMD zo blijven.

Misschien is de enige redding hierin nog de Steamdeck. Soms voeren devs Steamdeck specifieke optimalisaties uit zoals lagere texture kwaliteit zodat deze het ook goed kan draaien. Maar dan hebben we het over een handheld, niet over wat je anno 2023 toch wel zou mogen verwachten van een beetje game PC.
Nee, 8GB VRAM is niet genoeg voor games die in 2023 en later uitkomen, ook niet op 1080p. Slechte optimalisatie is een punt, maar je moet kijken naar hoe games worden gebouwd. Anno 2023 worden de PS5 en Series S/X als een baseline gebruikt. Deze hebben 16GB aan GDDR6 aan boord dat ook dient als het reguliere RAM vanwege een gedeelde architectuur, beetje als een soort iGPU. Je OS en achtergrond dingen proppen ze in ongeveer 4GB, dus de overige 10-12GB zullen ze gebruiken als daadwerkelijk VRAM.
Gezien de Series S slechts 10 GB RAM heeft (waarvan slechts 2 GB snel), komt een gebrek aan fatsoenlijke PC-ondersteuning nog steeds door een gebrek aan optimalisatie.

Verder doe je nogal een claim over alle spellen die in 2023 en later uitkomen. Niet iedereen speelt AAA-spellen. Niet elk spel is een port uit de consolewereld.

[Reactie gewijzigd door The Zep Man op 24 juli 2024 16:51]

En de 10GB aan RAM zie je dan ook gelijk terug in het feit dat ze textures/resolutie moeten gaan terugschroeven en vaak ook de framerate. Assassins Creed Valhalla? Xbox Series S op dynamische resolutie en je kan genieten van 30fps.

Dit spel is dan ook alweer 3 jaar oud. In die tijd en de komende tijd gaan spellen alleen maar zwaarder worden.

Mensen die geen triple A spellen spelen of oudere titels zijn dan ook een totaal andere categorie. Dan hoef je ook geen nieuwe videokaart aan te schaffen omdat je eisen anders zijn.
En de 10GB aan RAM zie je dan ook gelijk terug in het feit dat ze textures/resolutie moeten gaan terugschroeven en vaak ook de framerate. Assassins Creed Valhalla? Xbox Series S op dynamische resolutie en je kan genieten van 30fps.
Dus dat kan ook op een PC teruggeschroefd worden.
Mensen die geen triple A spellen spelen of oudere titels zijn dan ook een totaal andere categorie. Dan hoef je ook geen nieuwe videokaart aan te schaffen omdat je eisen anders zijn.
Misschien wil ik alsnog op een aardige resolutie en refresh rate spelen, en met nieuwere HDMI-zaken en video decoding-mogelijkheden. Je hoeft niet meteen gatekeeping toe te passen.

[Reactie gewijzigd door The Zep Man op 24 juli 2024 16:51]

maar een game gebruikt toch meer dan alleen vram?
4GB OS&overhead + 6GB game + 6GB textures bijvoorbeeld?
Klopt, de architectuur is iets anders omdat consoles alleen maar beschikken over GDDR6 RAM (het VRAM) en hierin ook het OS en dergelijke draait. Bij PCs zijn deze gescheiden. Je textures gaan dan in het VRAM waar de levels, werelden en lobbies in het reguliere RAM zitten. Als je een game opstart zal die afhankelijk van hoeveel VRAM je hebt zoveel gebruiken, dat checkt een game meestal tijdens het opstarten. Mocht ie meer willen, dan vloeit dat over in je normale DDR4/DDR5 RAM en dat is een stuk trager dan het GDDR6 geheugen op een GPU.
Omdat de PS5 en XBox nu veel meer geheugen hebben, maken ontwikkelaars nu de keuze om meer detail toe te voegen aan spellen op allerlei manieren. Bovendien kunnen de consoles dankzij een Direct Storage-achtige oplossing nu heel snel dingen inladen, waardoor ze dat geheugen ook heel optimaal kunnen gebruiken.

Op de PC is Direct Storage pas een jaar oud en we zien dat het nog nauwelijks wordt toegepast, dus blijkbaar is dat op dit moment erg lastig. Vermoedelijk gaan spellen het beschikbare geheugen wat efficiënter gebruiken zodra Direct Storage op de PC gemeengoed wordt.

Maar uiteindelijk optimaliseren AAA-ontwikkelaars hun spellen vaak heel erg voor de consoles, dus wanneer PCs achterblijven qua specs, gaan ontwikkelaars zich meestal niet inhouden.

Hier wreekt zich ook dat Nvidia volgens de ontwikkelaars steeds minder interesse toont in wat zij nodig hebben. Uit recente interviews met ontwikkelaars komt sterk het beeld naar voren dat het in de race om steeds wat betere spellen te maken dan de concurrentie, steeds moeilijker wordt om binnen de 8 GB te blijven.
Maar uiteindelijk optimaliseren AAA-ontwikkelaars hun spellen vaak heel erg voor de consoles, dus wanneer PCs achterblijven qua specs, gaan ontwikkelaars zich meestal niet inhouden.
Theoretisch klopt dat, maar ook op consoles zie je dat ontwikkelaars meer geheugen als kruk gebruiken ipv goed te optimaliseren. Zie Gotham Knights, op visueel en gameplay aspect inferieur aan de voorgangers, maar toch enkel een instabiele 30fps op de huidige generatie consoles.
Jedi Survivor draait ook niet altijd best op bijv. de ps5 en met een eerste patch is de performance in het intro level al met 70% gestegen op de pc (afhankelijk van configuratie).
Volgens mij is de huidige trend van slecht draaiende games meer te wijten aan het te vroeg uitbrengen van de game dan dat 8gb echt tekort schiet.
Dat neemt alsnog niet weg dat het beknibbelen op vram door nvidia een slechte zaak is die goed is voor niemand behalve nvidia.
Volgens mij is de huidige trend van slecht draaiende games meer te wijten aan het te vroeg uitbrengen van de game dan dat 8gb echt tekort schiet.
Maar dat is toch van alle tijden? Klachten over bugs en prestatieproblemen bij de release hoor ik al zeker 20 jaar.

Wat je nu ziet is volgens mij typerend voor de situatie waar we aan de grens raken van 8 GB. Als er dan bugs in het spel zitten, krijg je al snel dat het net over de grens gaat en dan flinke problemen veroorzaakt. In het verleden toen spellen minder dicht op de grens zaten, kon je een bug die de prestaties verminderd of een slechte optimalisatie simpel opvangen door een instelling omlaag te schroeven, maar dat gaat dus niet meer.

Je kunt dan natuurlijk eisen dat de game-industrie meer gaat fixen en optimaliseren voor het uitbrengen van de release, maar dat doen ze al 20 jaar niet, dus lijkt het mij niet realistisch om te verwachten dat ze dat nu opeens anders gaan doen. Blijkbaar is dit de balans tussen snelheid en zorgvuldigheid die voor ze werkt.

Uiteindelijk is er altijd iets dat zorgt dat een kaart op een bepaald moment geen hogere kwaliteitsinstelling aan kan, of überhaupt geen acceptabele FPS kan halen. Bijvoorbeeld omdat de GPU te traag is of door een gebrek aan VRAM. Wat mij betreft is het onwenselijk als dat komt door een gebrek aan VRAM, omdat meer VRAM toevoegen relatief goedkoop is.

[Reactie gewijzigd door Ludewig op 24 juli 2024 16:51]

Dat zeg ik toch ook? Ik ben het ook met je eens hoor. Het is allebei waar. En zolang we ongeoptimaliseerde troep blijven kopen zal het altijd blijven bestaan. Ergo het zal altijd blijven bestaan, want hoe overduidelijk het ook is dat bijv. pre-orderen een slecht idee is, blijven mensen het massaal doen.

[Reactie gewijzigd door GromuhlDjun op 24 juli 2024 16:51]

Maar dan is de oplossing dus om kaarten met meer geheugen te kopen (of een generatie over te slaan tot betaalbare kaarten met meer geheugen beschikbaar komen). Alle mensen die klagen over slecht geoptimaliseerde games en eisen dat dit veranderd, gaan echt hun zin niet krijgen.
De GTX 1060 3GB had zeker een limitatie zie ook de volgende analyse van Hardwarer Unboxed. Zeker in modernere games waar de 6GB versie nog enigzins mee kon komen was de 3GB versie onbruikbaar. Zelfs op 1080p low en medium heeft hij soms al problemen.
https://www.youtube.com/watch?v=ySmMb4X7qbA

Als je de optie hebt om een lowend kaart met meer geheugen (dat evensnel is, want hier zijn ze ook gemeen in soms) te kopen met als voorbeeld de 1060 en bijv. de RX 470,480,57,580 dan ben je beter af in de lange termijn met meer geheugen en moet je dat doen.

[Reactie gewijzigd door Sp3ci3s8472 op 24 juli 2024 16:51]

Ik denk persoonlijk dat niet alleen het geheugen belangrijk is.
Lower end kaarten gaan zowiezo niet lang meegaan. De snelheid in de huidige games is dan al niet optimaal. Zelfs al zou je een RTX 3050 nemen in een triple AAA game, zul je al heel veel moeten inboeten op graphic settings. Zelfs al zou die 16Gb hebben zal dat niet veel uithalen omdat de GPU niet mee kan. Ik vind dat geheugen thing wat overroepen.

[Reactie gewijzigd door MDK007 op 24 juli 2024 16:51]

Daar zou ik het 2 jaar geleden misschien met je eens zijn geweest. Nu DLSS 2 en FSR 2 zijn ingeburgerd en haast in elk spel zitten vind ik dat de kaarten ook genoeg geheugen moeten hebben om met die opties op 1080p medium/high te kunnen draaien.
De kaarten zijn tegenwoordig snel genoeg, en als een kaart zoals de RX 580 en equivalent al baat had bij 8GB geheugen en je ziet dat een 3070 niet genoeg heeft aan 8GB geheugen dan is het toch duidelijk dat er meer geheugen op die kaarten moet.
In alle eerlijkheid beschoud ik de RTX 3070 nu eigenlijk als een low en op zijn best low-mid end kaart en de enige reden is omdat hij maar 8GB geheugen heeft. Als die kaart 16GB geheugen had gehad dan was hij nu nog steeds een med of zelfs mid-highend kaart.

Voor het geld wat je neerlegd voor een kaart tegenwoordig verwacht ik gewoon meer; zeker als kaarten van 200 euro (of zelfs minder) al 8GB aan geheugen hadden.

Daarnaast is het super krom dat Nvidia van de hoge torens loopt te roepen dat DLSS super tof is terwijl ze je te weinig geheugen geven om er daadwerkelijk gebruik van te maken 8)7. Dan ben ik eigenlijk ook van mening dat we die feature ook niet meer moeten meenemen met benchmarks gezien hij minder nuttig is dan voorheen.

[Reactie gewijzigd door Sp3ci3s8472 op 24 juli 2024 16:51]

8GB voor de RX 7600.. gemiste kans
Idd…

Tja verwacht in 2023 geen wonderen…

Wellicht dat we vanaf de rx 8000/rtx5000 series pas low/mid gpu’s van 12GB gaan krijgen.

Ze proberen nu nog zoveel mogelijk geld uit te melken van de consumenten.


Ik hoop dat intel echt iets goed gaat leveren in 2024 met minimaal 20GB geheugen

[Reactie gewijzigd door medjai69 op 24 juli 2024 16:51]

Je zegt "ze", maar dit is echt een NVIDIA probleem. En het gaat helemaal niet om de low end kaarten. Juist daar maakt het minder uit aangezien de GPU's toch aanzienlijk trager zijn en je al sneller tegen GPU limieten aan loopt. Het gaat juist om de high-end en upper mid range kaarten waar NVIDIA belachelijke keuzes heeft gemaakt.

Mijn RX 6800 heeft 16GB VRAM, de "gelijkende" 3070 heeft 8GB en er is nu al in meerdere games gebleken dat dit problemen geeft. Hardware unboxed heeft ook laten zien dat het ook echt uitmaakt als je er een soort van 3070 met 16GB bij pakt, de A4000.
https://www.youtube.com/watch?v=alguJBl-R3I&t

En vervolgens leert NVIDIA daar niets van door de 4060TI ook maar 8GB te geven. De 7600 zit echt een flinke stap onder de 4060TI en is veel meer een instap kaart. Dus 12GB was leuk geweest, Maar of het een must is? Wat mij betreft niet bij een kaart die de strijd aan moet gaan met de 4050. En als de 7800 (XT) weer 16GB krijgt loopt NVIDIA weer achter de feiten aan.

[Reactie gewijzigd door Thekilldevilhil op 24 juli 2024 16:51]

Laat je niet vangen door marketing. De 4060Ti is ook gewoon een instapkaart en concurreert volgens mij met de 7600xt qua prestaties.

Kijk eens naar de specs: minder SMs dan de 3060Ti en maar 60% van de bandwidth. Ze hebben dan hogere clocks om te compenseren maar ik verwacht niet dat hij veel sneller gaat zijn dan een 3060Ti want de achitecture is ook niet echt gewijzigd.

[Reactie gewijzigd door napata op 24 juli 2024 16:51]

Juist door de grote sprong in prestaties die gemaakt is bij de 4000-serie per vierkante mm aan chipoppervlak, zonder significante architectuurverbeteringen, ben ik er van overtuigd geraakt dat de 3000-serie met een heel slecht productieproces werd gemaakt (het schijnt ook zo te zijn dat Nvidia er heel weinig voor betaalde). Niet voor niets loopt iedereen de deur plat bij TSMC en laat bijna niemand (compute-)chips maken bij Samsung.

Daardoor ben ik niet zo negatief als jij en verwacht ik prestaties op het niveau van de 3070 of de iets snellere 3070 Ti. Historisch gezien is dat inderdaad een zeer kleine verbetering per generatie en door de gelijktijdige prijsverhoging heb je dan erg weinig extra prestaties voor je euro. Eigenlijk lijkt Nvidia veel van de kaarten een verkeerde naam te geven en zou de 4070 eigenlijk verkocht moeten worden als de 4060 Ti en de 4060 Ti als een 4060 of 4050.
NVidia heeft na de prijzen van de 20x0 serie inderdaad gekozen voor een goedkoper productie-proces voor de 30x0 serie. Dat is waarom we de prijzen van de 30x0 serie zo'n verademing vonden: duidelijk goedkoper dan de 20x0 serie en tóch een stapje omhoog in prestatie.
Huh? Alle 30xx waren beduidend duurder dan de 20xx..
Je zegt "ze", maar dit is echt een NVIDIA probleem.

Mijn RX 6800 heeft 16GB VRAM...
Tja, een 6800 is dan ook een high-end kaart, terwijl de hier genoemde 7600 en 4060Ti Mid-range kaarten zijn. En vergeet niet dat een RX 6700 ook 'maar' 10GB aan boord heeft, dat is meer dan de 8GB van de 3070, echter is 10GB ook (net) niet voldoende voor veel games waar die 8GB niet voldoende voor was...

En vergeet ook niet dat voor die generatie, 16GB het max was bij de AMD consumenten kaarten, terwijl er bij Nvidia consumenten kaarten twee modellen waren met 24GB aan boord... ;) Laten we het alleen niet hebben (bij beide fabrikanten) over prijs en stroomverbruik...

Bron:
https://en.wikipedia.org/wiki/Radeon_RX_6000_series
https://en.wikipedia.org/wiki/GeForce_30_series
Ik weet er misschien niet genoeg van, maar wat mij opvalt is niet zozeer de hoeveelheid geheugen, maar dat de geheugenbus maar half zo breed is als die van mijn 3060Ti. En hoe zit het met de geheugensnelheid?

Als je 8 GB twee keer zo snel leeg kunt trekken en weer kunt vullen, presteert het dan niet (tot op zekere hoogte) hetzelfde als 16 GB?

Afgezien daarvan, wat ik lees is dat VRAM voornamelijk nodig is voor textures en frame buffering. Als je niet meegaat in de 4K en fps hype, maar het bij 1440 @ 100 fps houdt, dan lijkt 8 GB mij voorlopig toch gewoon ruim voldoende?
Afgezien daarvan, wat ik lees is dat VRAM voornamelijk nodig is voor textures en frame buffering. Als je niet meegaat in de 4K en fps hype, maar het bij 1440 @ 100 fps houdt, dan lijkt 8 GB mij voorlopig toch gewoon ruim voldoende?
Spellen gebruiken tegenwoordig textures met veel meer detail, wat ook op lagere resoluties zorgt voor grotere textures. Daarnaast worden er tegenwoordig ook objecten gemaakt met meer details en komen er meer verschillende objecten in beeld, wat op alle resoluties zorgt voor meer VRAM-gebruik.

Ik zie op dit moment 12 GB echt als minimum voor een nieuwe 1440p-kaart en 16 GB voor een 4K-kaart. Voor 1080p zien we dat 8 GB in een paar spellen ook al een probleem wordt, maar is 8 GB nog wel acceptabel als de prijs van de kaart niet al te hoog is. En de 4060 Ti lijkt een te hoge prijs te gaan krijgen.
Maar dat moet toch allemaal met instellingen aan te passen zijn? Het is toch niet zo dat als je op 1080 speelt het spel wel gewoon 4K textures laadt? Als mijn kaart te weinig geheugen heeft voor 1440p textures, dan laadt het toch gewoon op een lagere resolutie?

Het klinkt mij steeds dat de oorzaak de spelmakers zijn, spelmakers die contact met de realiteit steeds meer uit het oog verliezen, want 80% van de gamers heeft <8GB VRAM (volgens de laatste steam survey). Met de kaarten die nu nog steeds met 8 GB uitkomen lijkt daar voorlopig geen verandering in te komen, het aantal mensen dat meer uitgeeft aan een GPU dan dat een console kost is (en blijft?) zeer beperkt.

Ik vraag me af of en wanneer ik er iets van ga merken, de afgelopen 8 jaar, eerst met 6GB en nu 8GB nog nooit een probleem gehad op 1440 @ max 100 fps. Maarja, ik koop spellen pas als ze afgeprijst zijn of op gamepass komen, dus loop een jaartje of zo achter op 'de nieuwste' titels. Ik vraag me af of tegen de tijd dat GTA VI uitkomt ik 'gedwongen' wordt m'n videokaart te vervangen.
Maar dat moet toch allemaal met instellingen aan te passen zijn?
Nee, zo werkt het niet. Als een object/persoon wordt gemaakt met een groot aantal polygonen en dus veel detail, kun je geen instelling maken om dan eventjes terug te schroeven. Dan zouden de ontwikkelaars dat model twee keer moeten maken. Los van het extra werk betekent dat veel extra test-werk en extra kans op fouten. Dus als we aannemen dat het budget voor testen en fixes redelijk vast staat, dan betekent dit dat er meer fouten zullen gaan zitten in het spel bij de release.

Als de textures gemaakt worden om zeer veel detail te laten zien, dan comprimeert zo'n texture relatief slechter dan de textures die ze vroeger maakten die grote egale vlakken had. Je kunt dan wel extreme compressie aanzetten, maar dan wordt het juist veel lelijker dan bij vroegere spellen. Wederom is het ook niet te doen om elke texture twee keer helemaal apart te laten maken door een grafisch ontwerper.

Uiteraard zou je wel een instelling kunnen maken om bijvoorbeeld al het gras niet te tonen, maar dan krijg je een totaal andere speelervaring dan mensen die het gras wel zien. Ik denk niet dat veel spelers dat acceptabel vinden.

Op een gegeven moment houdt het gewoon op met de mate waarin je het geheugengebruik kunt beperken met andere instellingen. Of het kost ontwikkelaars onacceptabel veel moeite, of spelers accepteren het kwaliteitsverlies niet.
Het klinkt mij steeds dat de oorzaak de spelmakers zijn, spelmakers die contact met de realiteit steeds meer uit het oog verliezen, want 80% van de gamers heeft <8GB VRAM (volgens de laatste steam survey).
Dat klopt dus niet, want heel veel gamers zitten op de console en de nieuwste consoles hebben nu 16 GB. Wanneer Sony een volledige computer met 16 GB kan leveren voor 450 euro, dan zou Nvidia geen kaart met 16 GB kunnen leveren voor 1000 euro en 12 GB voor 450 euro of wat de 4060 Ti dan ook gaat kosten?

Uiteraard kan dat makkelijk, maar ze vertikken het gewoon.
Maarja, ik koop spellen pas als ze afgeprijst zijn of op gamepass komen, dus loop een jaartje of zo achter op 'de nieuwste' titels.
Dat verklaart veel. Het punt is juist dat de consoles vaak de ondergrens bepalen en er zijn de laatste maanden (pas) massaal spellen uitkomen die niet meer gemaakt zijn om op de PS4 te werken (die 8 GB in totaal heeft). Dus de systeemeisen maken nu een sprong omhoog en jij speelt spellen van net voor de sprong.
Maar hoe past een spel zich dan aan aan de resolutie? Klinkt alsof je zegt dat het aantal polygonen en de textures hetzelfde zijn of je nu op 1080 of 4K speelt, wat is dan het verschil dat (resolutie) settings maken?

Ik keek gisteren even naar de minimale systeemeisen van spellen die dit jaar uitkomen, daar kwam ik nog 1070 en 1660 kaarten tegen en minimale hoeveelheden VRAM van 2/4/6 GB.

En ze zegt nu min of meer ook zelf dat de spelmakers het probleem zijn, door zich op consoles te focussen waarmee ze de andere helft van de gamers op PC dus gewoon buitensluiten. Dat spelmakers er niet vanaf het eerste moment rekening mee houden dat ze een spel zo moeten ontwerpen dat het porten naar PC beter gaat...

Maar ik snap het eigenlijk ook wel, het is pure commercie. Je kunt van een (miljarden)bedrijf tegenwoordig niet verwachten dat ze hun klanten op de eerste plaats zetten of ook maar een beetje eergevoel hebben om gewoon een zo goed mogelijk product in de markt te zetten. Alles voor de winst en de aandeelhouders en de klant zoveel mogelijk uitknijpen tot de laatste cent.
Een GPU krijgt een 3D-scene aangeleverd en maakt daar vervolgens een plat 2D-beeld van, vanuit een bepaald perspectief. Je kunt het vergelijken met het maken van een foto van je vriendin. De foto toont je vanuit een bepaald perspectief hoe je vriendin eruit ziet (zonder echte diepte). Maar je kunt niet de achterkant van de foto bekijken om het achterhoofd van je vriendin te zien, terwijl dat in de echte werkelijkheid wel kan.

Net als een foto, bestaat het 2D-beeld van je monitor in werkelijkheid uit heel veel kleine puntjes met 1 kleur. Hoe meer puntjes je hebt, hoe vaker er dus moet worden berekent welke kleur een puntje heeft. Maar dat heeft op zich weinig te maken met de complexiteit van de 3D-scene. Je kunt een zeer eenvoudige 3D-scene op hoge resolutie renderen of een zeer complexe scene op een lage resolutie.
En ze zegt nu min of meer ook zelf dat de spelmakers het probleem zijn, door zich op consoles te focussen waarmee ze de andere helft van de gamers op PC dus gewoon buitensluiten.
Het is nogal subjectief wie je de schuld geeft. Vanuit het perspectief van de ontwikkelaars kunnen ze door de betere hardware in de PS5/Xbox X nu mooiere spellen gaan maken en moeten ze dat ook wel doen om de concurrentiestrijd te winnen met de concurrenten. In interviews zeggen ze ook gewoon dat meer geheugen nodig is en geven ze aan dat Nvidia niet meer vraagt aan ontwikkelaars wat ze nodig hebben.

Uiteindelijk kost het maken van spellen ook meerdere jaren en krijgen spelmakers van Sony wel te horen hoeveel geheugen ze ter beschikking krijgen, maar van Nvidia niet. Dus dan is het logisch dat ze er van uitgaan dat Nvidia er voor gaat zorgen dat de mainstream PC-GPU's niet achterlopen op de consoles.
12 GB is ook genoeg voor 4K gaming. Je hebt allocated VRAM en Dedicated VRAM.
Ik spreek uit ervaring want beschik zelf over een 3080 12 GB GPU en speel op 4K :-)
Op dit moment grotendeels wel, al piekt The Last of Us bij 4K wel al over de 12 GB heen:

https://www.techspot.com/article/2670-vram-use-games/

En als je RT gebruikt dan gaan Cyberpunk 2077 (Overdrive) en Hogwarts Legacy al over de 12 GB heen.

Je weet ook niet wat de toekomst gaat brengen. Misschien leren de ontwikkelaars hoe ze meer geheugen kunnen benutten op de PS5 en zorgt dat ook voor een toename op de PC. Het gevaar is ook dat data streaming beter werkt op de console dan op de PC en ze dus meer in het geheugen moeten gaan houden.

Voor de bedragen die nu gevraagd worden voor 4K-kaarten vindt ik het niet acceptabel om een paar euro te bezuinigen op het geheugen.
Als je games als Cyberpunk 2077 en Hogwarts Legacy op ultra gaat spelen, (wat in elke modern spel onnodig is) dan vraagt dat veel van je VRAM. Mijn raad is nooit spelen op UTLTRA setting, max op high. (Tenzij oudere spel die uw PC makkelijk kan verwerken).
Je ziet het verschil toch niet. En is zonde voor de VRAM en fps.


Ik denk ook dat je allocated VRAM bedoeld, en niet de werkelijke VRAM die benodigd is om het spel in die setting te draaien.
Ik zie die 2 spellen die je noemt niet over de 10GB VRAM gaan, als je op 4K Medium/high settings speelt.
En Hogwarts Legacy, net als Forspoken zijn VRAM vreters.

Ik persoonlijk maak mij daar geen zorgen over op dit moment, 85% van de games die ik speel zijn oudere AAA games die ik moeiteloos draai op 4K. :-)
AMD zou wel degelijk een 16gb versie kunnen laten maken. Sapphire heeft bijvoorbeeld ook een 8gb versie van de normale 4gb 6500xt in productie.
Als AMD op de stage tijdens computex of bij de launch "coming soon, 16gb rx 7600" teaset dan zullen we het weten, tot die tijd nog niet.
En hier gaan we weer ... ja maar dat moet 12gb zijn etc. Het zijn de instapkaarten. Vroeger had je ook 1, 2, 4gb, was het net dezelfde discussie. Je kan niet vergeten dat als je de laagste prijs betaald dat je ook een 4090ti ervoor in de plaats gaat krijgen.
Eerst de testen afwachten. Zelf koop ik normaliter een 60 reeks aangezien ik alleen Wow/HearthStone/Diablo speel en soms COD ofzo. Dus ik hoef zeker geen grafisch monster. Echter heb ik vorig jaar in November van 1440 naar 4k gegaan, en daar heeft mijn 2060 super het toch al wat krap. Enja dat is geen kaart voor 4k. Maar voor mij hoeft ook geen max/ultra settings op alles. In WOW kan ik dat zelfs niet aanzien als alles op full staat. Maar het is dus tijd om eens te upgraden van kaart. Misschien dat het een 4060 zal worden of een 4070 ofzo. Eerst de testen afwachten en de prijs en dan zullen we wel zien.

Ik ben het er wel mee eens dat 8gb aan de krappe kant begint te worden, zeker omdat je toch een pak geld gaat uitgeven voor 1-2 jaar max. Nuja veel hangt af van welke games je zelf wilt spelen
En hier gaan we weer ... ja maar dat moet 12gb zijn etc. Het zijn de instapkaarten. Vroeger had je ook 1, 2, 4gb, was het net dezelfde discussie. Je kan niet vergeten dat als je de laagste prijs betaald
Maar je betaalt dus niet de laagste prijs, want Nvidia is de prijzen van hun kaarten sterk aan het verhogen. Is het nog een instapkaart als je (ook wanneer je inflatie meerekent) evenveel betaald als de mid-range kaarten van eerdere generaties?
Instap kaarten hebben de laagste prijs ... Dat NVIDIA prijzen telkens hoger zet is totaal iets anders.
Bij de 3000-serie was de 3050 de instap-kaart met de laagste prijs. Bij Turing was er een splitsing tussen de RTX en de goedkopere GTX-range en had je al instapkaarten vanaf $150, namelijk de 1630. Bij de 1000-serie had je kaarten vanaf $70, met een 1050 Ti voor $140.

De x060-serie is echt geen instapkaart, maar juist de mainstreamkaart, die het best verkoopt omdat je goede prestaties krijgt voor een redelijke prijs. Je kunt dan de laatste spellen spelen met vrij hoge kwaliteitsinstellingen op een populaire resolutie.

Het probleem is juist dat de prijzen nu omhoog schieten, terwijl je relatief gezien juist minder kunt met de nieuwe kaarten. Je moet de kwaliteitsinstellingen veel verder omlaag schroeven dan nodig was bij de 3060 met wat toen de nieuwste spellen waren.
Ik zie het zo x50 - x60 instap (3060 voor iemand die wat meer wilt en niet teveel wilt uitgeven of electriciteits gewijs wat wilt besparen)
x60 ti - x70 - x70ti is midden segment
daarboven is top range

Maar er is nu nog geen 4050 en komt die der wel, dus bij NVIDIA is als de 4060 er is, is dit de instap van de 4000 reeks. Er is ook nog geen 4060ti. Vroeger kwam gewoon alles bijna gelijktijdig uit en dat maakt het ook gewoon belachelijk.

De x50 reeks komt ook dikwijls nog een pak later uit. Om nog een paar chips te slijten

[Reactie gewijzigd door cricque op 24 juli 2024 16:51]

De x50 reeks komt ook dikwijls nog een pak later uit. Om nog een paar chips te slijten
Nee hoor. Bij de 1000-serie was de 1050 Ti er kort na de 1060. En bij Turing was de 1660 ook twee maanden na de 2060 beschikbaar.

De 3000-serie was de grote uitzondering, maar dat kun je op het conto schrijven van de miningboom. Er was weinig reden om dezelfde chips die in de 3060 zitten gedeeltelijk kapot te laseren om er een 3050 van te maken, omdat de vraag zo extreem was dat ze toch elke 3060 verkochten die ze konden maken.
Waarom kost een PS5 599€?
Wil je dezelfde GPU-kracht, dan betaal je al gauw 900€ of meer (16Gb videokaart) voor de pc.
Waarom is er zo'n groot verschil?
Een belangrijk verschil is dat Sony een bedrag krijgt voor elk PS5-spel dat wordt verkocht, dus ze willen heel veel PS5's verkopen. Lage marges op de console is geen probleem omdat ze dat meer dan terugverdienen met de extra spellen die ze verkopen.

Nvidia en AMD willen juist extreem hoge marges op de kaarten en zijn ook verwend geraakt doordat de cryptominers heel veel wilden betalen.
Omdat consoles met verlies verkocht worden om dan geld te verdienen met software en abonnementen.

[Reactie gewijzigd door napata op 24 juli 2024 16:51]

Conclusie? PS5 kopen en GPU strippen? (daar zit toch gewoon een vorige generatie gebooste GPU in?)
Voor het geld van die PS5 (600 euro?) heb je ook een machtige videokaart. En dan heb je wel veel flexibeler game eco system en sterker nog kun je verschillende naast elkaar draaien. Bv Steam, Windows en Batocera!
was ook maar een grapje want hoe krijg je in hemelsnaam zoon ding op je PC aan de praat ;)
waarschijnlijk met een msrp van 500

[Reactie gewijzigd door HenriB04 op 24 juli 2024 16:51]

tis alsof amd en nvidia zoals EA of andere AAA devs worden, gewoon elk jaar releases doen voor geld maar elke keer ze iets nieuw uitbrengen is half het werk ernin gegaan kuchkuch cod vanguard kuchkuch
Tja, blijkbaar werkt het. Je kunt alleen je mede-Tweakers de schuld geven als consument. Want ik zie iedere dag nog genoeg topics voorbij komen met nieuwe kaarten erin. Blijkbaar heeft niet iedereen dezelfde principes.
Niemand heeft meer dan 8GB VRAM nodig! /s

*cries in Stable Diffusion*
Ik speel prima Civ6 op mn 3400G (en 16GB werkgeheugen) :P
Kom je niet in de verleiding om die te vervangen door een 4600G of 5600G ?
Neuh, minimale performance winst, ~20%.
Speel verder af en toe op mn PS5 :p
Sjonge, jonge....maar 8GB VRAM....en waarschijnlijk kosten ze wel een bak met geld....

Om te kunnen gamen tegenwoordig kun je beter een console hebben blijkbaar want videokaarten zijn niet meer te betalen of je moet een slap aftreksel met specs van jaren geleden aanschaffen en kun je nog niet fatsoenlijk gamen.

En voor video en foto editing heb je toch ook echt wel wat VRAM nodig....

Die fabrikanten moeten zich gewoon doodschamen.
@AverageNL Niet alleen Gigabyte, maar meer merken. zo heeft MSI al een pre built met RTX4060Ti en RTX4060.

RTX4060Ti is in elk geval geen waardige opvolger van RTX3060Ti
Deze nieuwe gen is 1 grote mislukking, met dank aan de crypto gekte.

Op dit item kan niet meer gereageerd worden.