Gerucht: Nvidia wil RTX 5070 en 5070 Ti in eerste kwartaal van 2025 uitbrengen

Nieuwe leaks van Benchlife duiden erop dat Nvidia nog in het eerste kwartaal van volgend jaar twee RTX 5070-kaarten wil uitbrengen. Het is niet duidelijk of dat ook tijdens CES gebeurt, maar Benchlife deelt wel meer specificaties van de RTX 5070 en 5070 Ti.

Benchlife zegt meer informatie over de aankomende GeForce RTX 5070 en 5070 Ti te hebben. De Ti-variant zou volgens de site een GB203-300-gpu krijgen met 8960 cudacores, iets wat eerder al uit geruchten bleek. Het model zou verder 16GB aan GDDR7-geheugen tellen en een total graphics power of tgp van 300W.

Ook zegt Benchlife dat er meer bekend is over de reguliere RTX 5070. Die zou een GB205-gpu krijgen met 6400 cudacores en een tgp van 250W. Het model zou iets minder geheugen hebben: 12GB aan GDDR7-vram.

Benchlife schrijft dat de RTX 5070-modellen in het eerste kwartaal van volgend jaar worden uitgebracht. Dat geldt ook voor de high-end modellen, de RTX 5080 en 5090. Het is echter nog onbekend wanneer dat precies is. Vorig jaar lieten bronnen nog aan Tweakers weten dat de RTX 50-serie naar begin 2025 was uitgesteld, maar later zei Benchlife specifieker dat dat tijdens CES zou gebeuren. Het is niet duidelijk of de 5070-modellen ook tijdens die beurs, begin januari, worden aangekondigd.

Het lijkt erop dat de RTX 5060-serie juist nog later in het jaar uitkomt. Aanvankelijk gingen er geruchten dat dat in maart zou zijn, maar Benchlife heeft het nu over april voor zowel de reguliere RTX 5060 als de 5060 Ti.

Door Tijs Hofmans

Nieuwscoördinator

22-11-2024 • 13:28

100

Lees meer

Reacties (100)

Sorteer op:

Weergave:

Weet iemand of hier al een nieuwe displayport connector op zit, voor hogere resolutie en hz in VR?
12GB aan vram in een 5070 voelt echt aan als een scam van nvidia
Zeg dat wel. Zelfs een relatief lichte game als Sniper Elite 5 en Forza Horizon 5 nemen al richting de 16GB VRAM in op mijn 7800XT (sterker nog: ik zie regelmatig de 16GB compleet vol zitten bij SE5, maar of dat een VRAM leak is? Geen idee.) Wel max settings op 1440p, maar zelfs op 1080p kwam dit al over de 12GB. En nee, GDDR7 is geen compensatie voor de 12GB, want dat gaat enkel om snelheid, niet om efficiëntie en verbruik.

Ik ben in ieder geval blij met mijn AMD. Ik gebruik geen raytracing, maar daarnaast koop ik ook principieel geen Nvidia. :) Ik vind het persoonlijk soms nogal een anti-consumer bedrijf, maar dat ben ik.

[Reactie gewijzigd door Anonymoussaurus op 22 november 2024 13:40]

Zo werkt het toch niet helemaal. Vaak parkeren games data in VRAM omdat ze bij sommige modellen toch de ruimte hebben (VRAM Preloading). De gebruikswaarden die je in je overlay ziet, zijn dus misleidend en laten niet zien wat een game daadwerkelijk nodig heeft.

Vergelijk het met je schoonmoeder. Is de dochter het huis uit? Dan staat de oude kamer binnen no-time vol met haar meuk. Die ruimte heeft ze niet nodig, maar gebruikt ze wel. :)
Ja, pre-loading is een ding, maar dat gaat niet meer op omdat de boel gaat laggen. Als ik microstutter krijg, ga ik er vanuit dat er preloading/precache wordt downscaled en dat er meer ad-hoc geladen wordt.
Maar stutters kunnen toch aan veel meer dingen liggen dan alleen een volle VRAM? Denk aan achtergrondprocessen, hiccups in de graphics API, engine-problemen of zelfs hardwaregerelateerde issues. Microstuttering heeft vaak meerdere mogelijke oorzaken, dus het lijkt me lastig om het alleen aan VRAM-preloading te wijten. 🤔
Voor de rest zie ik aan de stats niet zulke bijzonderheden, en aangezien het VRAM op 160xx zit, lijkt mij dat de enige oorzaak. Sterker nog: dat is algemeen bekend.

https://www.xda-developers.com/how-much-vram-gamers-need/
VRAM is crucial for gaming performance, and inadequate VRAM can lead to frame drops and blurred textures, especially when gaming at higher resolutions or using effects like ray tracing.

[Reactie gewijzigd door Anonymoussaurus op 22 november 2024 14:40]

dus het lijkt me lastig om het alleen aan VRAM-preloading te wijten. 🤔
Nee hoor, hier is al zoveel over te vinden online, genoeg testen die laten zien dat het geheugen vol loopt en dit voor problemen zorg bij een x aantal games.. valt niet zoveel meer aan te speculeren op dit moment imo

Natuurlijk als het geheugen niet vol zit en je hebt nog steeds last, zal het vast aan iets anders liggen

[Reactie gewijzigd door Sinester op 22 november 2024 14:37]

hoe kan dat nou 640 Kb was alles wat we ooit nodig zouden hebben :)
Slechte optimalisatie/compressie over de jaren heen :'(
Zo werkt het toch niet helemaal. Vaak parkeren games data in VRAM omdat ze bij sommige modellen toch de ruimte hebben (VRAM Preloading). De gebruikswaarden die je in je overlay ziet, zijn dus misleidend en laten niet zien wat een game daadwerkelijk nodig heeft.

Vergelijk het met je schoonmoeder. Is de dochter het huis uit? Dan staat de oude kamer binnen no-time vol met haar meuk. Die ruimte heeft ze niet nodig, maar gebruikt ze wel. :)
Dat is volgens mij veel te kort door de bocht. Preloading is niet omdat het kan, maar het probeert te voorkomen dat zaken pas geladen wordt op het moment dat het écht nodig is. Waardoor je dus stutters of andere ellende kan krijgen. Zeker als op dat moment een ander proces ook iets met je schijf wil doen. Videogeheugen is veel sneller benaderbaar dan werkgeheugen is sneller benaderbaar dan zelfs de snelste SSD.

Om jouw voorbeeld te gebruiken; De dochter heeft toch ook niet haar kleding in de opslag staan omdat ze die morgen pas nodig heeft? En als je wel ruimte tekort hebt zorg je in elk geval dat zo veel mogelijk klaar ligt in je kast, en niet op zolder en al helemaal niet de opslag twee wijken verderop ;)

[Reactie gewijzigd door MN-Power op 22 november 2024 16:38]

Meerdere games downgraden gewoon kwaliteit op 12 gb komt omdat consoles 16 hebben.
Voor consoles is het een gedeelde pool met de CPU dus dit is niet te vergelijken. OS alleen neemt al enkele GB in bij een console.
...dat noem je een slechte port.
nvidia wil gewoon niet meer memory geven omdat ze bang zijn dat mensen het voor AI gaan gebruiken.
Een deel is cache inderdaad, maar het voordeel van het gebruiken van die cache is veelal: Betere performance.

Hier is die discussie al jaren, paar jaar geleden nog "Nee, 8GB VRAM is ruim voldoende, dat het vol zit komt door cache". Ondertussen waren er destijds al games waarbij er duidelijk performanceloss of micro-stutters waren omdat die VRAM gewoon propje vol zat met hoge resolutie textures e.d.

8GB VRAM was in een paar titels al beperkend op de pixeldichtheid van je game. Toegegeven, nu waren dat niet de best geoptimaliseerde games. Maar dat zijn de games die wel een soort benchmark leggen voor wat er gaat komen. De RX580 was een mooi voorbeeld, de 8GB variant had duidelijk een veel langere levensduur en kon beduidend beter meekomen dan de 4GB variant.

In 2025 een mid-high end kaart verkopen met 12GB? Dat zou low-end moeten zijn.

De 16GB in diezelfde 7800XT die ik heb voelt toch wat aan de lage kant. Het gaat in de toekomst deze kaart ontzettend bottlenecken.

2GB VRAM op de GTX 760 was al de primaire bottleneck van die kaart, met 3 of 4GB VRAM kon die veel langer mee. (Draaide bv GTA5 op ultra 1080p@60fps, maar popins door vram tekort).

Dat goedgepraat van lage VRAM mag wel eens ophouden, we zijn GPU's ontzettend aan het bottlenecken door het maar te accepteren dat Nvidiai een **70 in de markt zet met low-end VRAM.
Inderdaad, voor games.
Maar gezien de populaire frameworks van deep learning & neurale netwerken vooral op CUDA draaien, kan je er bijna niet buitenom.
Gek want mijn RTX 3060 Ti met 8GB VRAM komt nooit gekort op 1080p
Veel games zijn slecht geoptimaliseerd.
Met veel games kom je er nog mee weg, maar bij veel ook niet. Je merkt het mogelijk ook niet veel omdat de meeste games tegenwoordig automatisch texture kwaliteit verlagen wanneer er niet genoeg VRAM is, dit om stutters te voorkomen. Maar ook andere games zoals de nieuwe Stalker hebben snel niet genoeg met 8GB.
Ik speel ook altijd met settings om alles zo soepel mogelijk te laten draaien zonder veel kwaliteitsverlies. Deze channel heeft dezelfde GPU wat erg handig is! En kijk, stalker 2 54FPS :)
Maar daar gaat het dan ook over in deze discussie, een 3060 Ti zou bij veel spelen hogere settings aankunnen als er meer VRAM was. Maar met de limitaties op VRAM die Nvidia in hun designs heeft kan de GPU niet gebruikt worden voor settings die hij anders wel aankon.
Buiten punten reeds aangedragen door @Decile wat ook een factor is, dat je AMD en NVIDIA kwa geheugen beheer, texture compressie, texture streaming, framebuffer niet kan vergelijken. Eerder is al bewezen dat deze op NVIDIA efficiënter gedaan worden, waar o.a. dezelfde textures minder geheugen ruimte innemen bij NVIDIA dan bij AMD en dit kan zo al een paar GB verschil maken.
Forza kan ik direct ontkrachten. Ik heb geen problemen met 3440x1440 Ultra icm een RTX 4070 met daarop 12 GB vram. Zoals @Decile terecht benoemd kan er meer VRAM worden gealloceerd dan daadwerkelijk noodzakelijk. Ongebruikt ram is immers zonde. Dat betekent niet dat je automatisch frame drops gaat krijgen. Daarvoor moet er echt geswapped worden vanuit het systeemram en/of de storage laag. Zo ver hoeft het niet te komen.
Ik speel Forza Horizon 5 op Max settings met 8GB VRAM dus laat je daar vooral niet door misleiden.
Het doet mij aan de recente video van Hardware Unboxed denken.

YouTube: Never Fast Enough: GeForce RTX 2060 vs 6 Years of Ray Tracing

De RTX2060 was vanaf begin af aan al hopeloos geweest met ray tracing.
Nvidia wist dit uiteraard ook.

Er is gewoon geen enkel excuus voor 12GB voor nieuwe GPUs, behalve dan wanhopig bezuinigen en daardoor wat meer winst maken.

Het gaat in dit geval niet om de discussie vandaag, maar de discussie voor de toekomst.
De ervaring met sommige games is nu al minder positief met 12GB.
In de toekomst kan die ervaring alleen maar minder worden, nooit meer.

Jammer weer......
Er is een prima reden voor 12 GB in nieuwe 5070's, en dat is het voorkomen van kannibalisatie van je 5070 Ti omzet. NVidia concurreert al jaren meer met zichzelf dan met AMD.

Dit is ook geen "bezuiniging" want de 4070 heeft 12 GB aan GDDR6X, dus het is een klein stapje omhoog naar GDDR7.
Haha, nou de kannibalisatie die je omschrijft is letterlijk een andere vorm van "bezuiniging".

We kunnen linksom of rechtsom praten, maar het komt er simpelweg op neer dat de gebruiker gewoon een minder goede ervaring krijgt met halfbakken opties.
Nvidia zou er bv ook voor kunnen kiezen om gewoon een hele berg types te kunnen schrappen.
De verschillen zijn niet alleen klein, het is voor de gemiddelde koper een totale wirwar aan opties waar niks meer van te begrijpen valt.
Tenzij je kundig genoeg bent en talloze reviews en vergelijkingen afgaat.

Maar goed, over promise and under deliver is helaas waar we het mee moeten doen de laatste jaren.
Dat heeft zich de laatste jaren ook wel objectief bewezen.

Ergste is nog wel dat ze ermee wegkomen.
"12 GB" vs "16GB" lijkt me niet zo complex. Prima te vergelijken, en zelfs te vergelijken met AMD en Intel modellen. En de 5080 16 GB is sneller dan de 5070 (Ti) 16 GB, dus dat is ook niet zo complex.

Ja, ze hadden de "x0y0 Ti" naamgeving ook kunnen veranderen in "x0y5", zodat je meteen zag dat de 5070Ti tussen de reguliere 5070 en de reguliere 5080 zit, maar dat is nog steeds niet extreem complex.

Wil je een concrete claim maken dat het assortiment te groot is, dan moet je met twee modellen aankomen die hetzelfde kosten en duidelijk verschillend presteren. Dat is een claim die je prima kunt maken op de videokaarten markt, maar dat ligt aan de board partners. Ik wil niet weten hoeveel 4070 varianten Gigabyte heeft gemaakt, maar dat zijn er veel meer dan 3 (4070/Ti/Super)
Er zijn toch juist al veel modellen geschrapt? Vroeger had je nog een heel scala aan budget en mid-range kaarten. De 40 series is beperkt tot de volgende dekstop kaarten:
  • GeForce RTX 4060
  • GeForce RTX 4060 Ti
  • GeForce RTX 4060 Ti (16 GB)
  • GeForce RTX 4070
  • GeForce RTX 4070 SUPER
  • GeForce RTX 4070 Ti
  • GeForce RTX 4070 Ti SUPER
  • GeForce RTX 4080
  • GeForce RTX 4080 SUPER
  • GeForce RTX 4090
Waarbij de supers een refresh zijn en hoger is sneller (en duurder).

[Reactie gewijzigd door sdk1985 op 23 november 2024 01:15]

Klein punt, maar de 4070 heeft geen GDDR6X meer, Nvidia heeft een silent revision gedaan een paar maanden terug. Tegenwoordig is het maar normale GDDR6.
Die video is wel best onzin. Ik heb jarenlang een RTX 2060 laptop gehad en kon genoeg spellen met ray-tracing spelen. Zelfs in 2024 kun je nog genoeg ray-tracing spellen spelen met de RTX 2060.

Bij HWU gaan ze er vanuit dat je minimaal 60 fps moet halen met maximale settings, maar de meeste RTX 2060 bezitters in 2024 nemen genoegen met 1080p 30fps in moderne games. Als ze dat met ray-tracing kunnen behalen met een 6 jaar oude mid-range kaart, dan is dat prima toch?
maar de meeste RTX 2060 bezitters in 2024 nemen genoegen met 1080p 30fps in moderne games. Als ze dat met ray-tracing kunnen behalen met een 6 jaar oude mid-range kaart, dan is dat prima toch?
Ieder wat wils, maar als je de video had bekeken had je ook geweten dan als je Raytracing aan zet op die kaart je de settings zwaar naar beneden moet halen.. waardoor high settings zonder raytracing er veel beter uit ziet.. en nog eens sneller loopt ook

Dus zeker niet prima imo
Nee, daar zit de video dus flink mis. Het lijkt erop dat Hardware Unboxed nog nooit van "optimized settings" heeft gehoord.

Ja, low settings zien er slechter uit. Maar medium-high settings met RT settings ziet er beter uit dan Ultra settings zonder RT. En dat draait gewoon nog prima op een RTX 2060.

Sterker nog, Cyberpunk 2077 met high settings en RT Reflections draait zelfs nog prima op een 2060.
Je hebt de video helemaal niet gezien, anders had je namelijk geweten dat de settings bij ieder spel waarnodig tot aan het absolute minimum zijn gezet.
De conclusie is volledig terecht, 6GB was, en nu 6 jaar later (uiteraard); is, echt veel te weinig voor raytracing.

Raytracing voegt namelijk objectief helemaal niks toe als je daarvoor settings tot 'blurry mess' moet verlagen en daarbovenop ook nog eens getrakteerd op net aan 30 fps...
Heb je de video wel bekeken?

Want wat jij beschrijft nemen ze ook mee in de video.
Inclusief lagere frame rates en lagere kwaliteit.

Overigens ga je dan ook voorbij alle marketing die er gebruikt is en dat is waar ik juist op doelde.

4k kunnen spelen op low settings en 30fps is nou niet bepaald een geweldige ervaring.
De marketing was dat een RTX 2060 de goedkoopste ray-tracing kaart was en dat klopte. Inmiddels is mijn RTX 2060 allang vervangen, maar ik heb ermee zonder moeite games zoals Control met ray-tracing kunnen spelen. Zeker voor die tijd, was het een prima ray-tracing kaart voor zo'n 350 euro.
Doen ze denk ik zodat je het hoger TI model met 16GB als nog koopt.
Lijkt me een rare manier van denken vn nVidia, het gros van de mensen kn of wil geen 800-900€ ophoesten voor een gpu…
Het doet me eigenlijk eerder denken aan de flauwekul die ze met de 4080 wilden uithalen.
Het lijkt er op dat de 5070 Ti gewoon de 5070 moet zijn en met fysiek een andere GPU en minder VRAM de niet-TI de 5060.
NVIDIA doet dit al jaren en mensen vinden het blijkbaar niet erg want die blijven het kopen.
Hopelijk wordt het geen 2e kwartaal 2025 of nog later.. Ik ben na ruim 4 jaar wel toe aan weer een PC upgrade (i7 10700K met RTX 3080) en wacht dus op deze nieuwe Nvidia videokaarten voordat ik dat ga doen.. Hopelijk zakt de prijs van de 9800X3D in de tussentijd een beetje, dat zou mooi meegenomen zijn.. Altijd lekker gevoel een nieuwe highend gaming PC, bijna alle games weer in volle glorie met goede fps kunnen spelen.. Speel op een 38" widescreen met 3840x1600 resolutie (LG 38GN950), dus heb wel wat rekenkracht nodig..
Op 4k hoef je alleen je videokaart te upgraden. Een 10700k met 8 cores is dikke prima.
Dat hangt zeer af van welke games je speelt.. Er zijn games waar je ook op 4K wel degelijk flink meer prestaties krijgt met een veel snellere CPU.. Je wilt ook gewoon geen CPU bottleneck als je games speelt, want dat veroozaakt vaak vervelende stotters etc, je wilt altijd dat je videokaart de bottleneck is.. Ik ga dus straks echt geen RTX 5080 of 5090 comiberen met een oude i7 10700K, daar komt gewoon een 9800X3D bij..
Intel 10700 heeft wel oc ram nodig om goed te presteren. Ik merk namelijk dat mijn standaard 2933 latjes een beetje te kort komen. Ik heb ook een Ryzen 3700X met werkgeheugen op 4000 MHz, en dat scheelt bijna de helft aan rekenkracht. Beide hebben momenteel een 4060TI als videokaart, en voor de Intel 10700 is dat een prima combinatie, de Ryzen 3700X kan mijn stevigere videokaarten ook makkelijk aan, terwijl mijn Intel setup met een 4070 al tekort komt aan rekenkracht.
Verwacht dat dit de generatie word dat ik overstap op AMD. Als ik ook de geruchten van prijzen hoor dan vraag ik me af hoe competitief Nvidia gaat zijn. Maar goed, we zullen zien met de launch ;)
Mjah maar als AMD al de handdoek in de ring gooit voor het hogere segment blijft er weinig keuze over.
hogere segment is toch maar voor een klein gedeelte. Als ze de 5070-ish markt kunnen domineren zullen er zeker veel meer blij zijn.
5070 valt onder hogere segment. 5060 is een midrange
Rx 8000 target als duurste GPU de xx70/xx80 ongeveer als geruchten te geloven zijn. Is midden segment imo, hoge segment is meer xx80/xx90. Maar goed ieder z'n mening :)
Op basis waarvan is dat beredeneerd? Kijkende naar Nvidia's ranges is dat al even niet meer zo en zit de x70 kaarten zo'n beetje exact in het midden van de range, of te wel exact waar 'midrange' voor staat kijkende naar de commerciele definitie. Maar ook de tijd dat dat een x70 kaart (of dit nu Nvidia of AMD was) nog echt / enkel als high end werd gezien in de enthousiast community of bijvoorbeeld de techpress is volgens mij toch al wel enige tijd voorbij.

Waarbij je zelfs zou kunnen beargumenteren dat in de 4000 serie de 4070 (zonder toevoegingen) uiteindelijk (nu de range zo'n beetje volledig is) zelfs dicht(er)bij de onderkant van de range zit:

https://imgur.com/Wj7aA2t

3000 Serie:

https://imgur.com/TyMnLSc

2000 Serie:

https://imgur.com/iT3Zcgz
Als je de x060-modellen midrange noemt ben ik benieuwd naar wat je het low-end segment noemt, want in de RTX4000-serie is de RTX4060 letterlijk het laagste model...

Nou ben ik het er op zich mee eens dat het low-end segment erg mager vertegenwoordigd is in vergelijking met vroeger. Ik denk dan aan de HD4350 t/m HD4870x2, dat had een prijsbereik van letterlijk 30 euro tot 500 euro. Low-end had vrolijk een aantal verschillende gradaties t/m 120 euro. Dat zit er bij de recente series niet mee in, dus ik ben eigenlijk blij met waar HD8000 heen gaat.
Dat segment gaat vermoedelijk helemaal verdwijnen in de toekomst. AMD en Intel zullen waarschijnlijk gestaag naar APU's toe blijven werken die het lagere segment volledig gaan overnemen. Nvidia heeft het lagere segment eigenlijk al verlegd naar het x60 segment, waardoor je zelfs nu ziet dat waar de x70 'vroeger' in de bovenste deel van het middensegment / onderste deel van het hogere segment zat, Nvidia's onderste x70 kaart nu eigenlijk tegen de onderkant van het midrange of zelfs tegen hun lower end aan schuurt. Alleen in mobile hebben ze dan nog wel een RTX 4050 deze generatie

bij AMD zie je hetzelfde, de RX 7600 is voor de desktop ook nu het onderste model in de range. Welke verbeteringen verwacht jij hier voor de RX 8000 serie? Dat ze heen high end hebben deze keer bij AMD doet mij echter ook niet direct denken dat ze dan een verbeterd low end gaan hebben. Het zou mij niet verbazen bijvoorbeeld als een RX 8600 weer het laagste gaat zijn. En alles daaronder verlegd wordt naar APU's.
Traditioneel gezien had je entry level wat kaarten waren die vooral de functie hadden dat je een monitor kon aansluiten. Denk aan kaarten als de GT 205 tm de GT230. Daarboven kreeg je mid-range zoals de GT 240 en de GTS 250. Vervolgens kwam high-end met de GTX 260, 275 en 280 en tot slot enthusiast met de 285 en 295. Zie Wikipedia: GeForce 200 series

Met de tijd zijn de entry-level kaarten min of meer volledig verdwenen en is inderdaad tegenwoordig de x6 het laagste model bij de RTX 4xxx serie. Qua prijs en positionering zou ik die x60 van de RTX 4xxx onder de midrange scharen, al is het de traagste en goedkoopste kaart. Hij kost namelijk alsnog richting de 300 euro. Dat is veel te duur voor entry.
Ik heb ook vaak zitten kijken, maar vind toch beeldkwaliteit en versnelling met DLS vs FSR te groot.
Mocht je dan ook nog RTX willen gebruiken...

Het is wel zielig dat Nvidia bij de reguliere 5070 maar 12GB in stopt. Lijkt me dat de next gen toch standaard 16GB moet gaan krijgen of meer voor 4K support en ultra kwaliteit.
FSR heeft zeker grote stappen gemaakt, maar ja DLSS blijft net iets beter. Wel een goeie deep dive gezien van techspot: https://www.techspot.com/review/2860-amd-fsr-31-versus-dlss/

De VRAM is inderdaad triest om te zien. Ik bedoel; mijn 3070 heeft evenveel VRAM als mijn oude 1070. 12GB gaat wel helpen, maar als ik al sommige games zie die meer dan dat vragen, en dat terwijl een GPU meestal wat jaren mee moet gaan, is het niet echt future proofing.
Dank voor de review. Bevestigd wel hoe groot de kwaliteit van de rendering is. NVidia is daar echt heer en meester in. Dan zou ik toch bij next gen gaan voor kwaliteit en dan maar wat meer betalen.
Verwacht dat dit de generatie word dat ik overstap op AMD. Als ik ook de geruchten van prijzen hoor dan vraag ik me af hoe competitief Nvidia gaat zijn. Maar goed, we zullen zien met de launch ;)
AMD deed al een aantal jaar niet meer mee in het enthusiast segment. Daarbij moet je denken aan de RTX 4090/5090. Waar ze nog wel meededen was het segment van de RTX 4080, in de vorm van een 7900 XTX. Echter AMD heeft aangegeven dat ze het high-end segment verlaten. Met andere woorden er komt geen tegenhanger van een RTX 5080. De vraag is vervolgens of er nog wel een tegenhanger van de RTX 5070 komt of dat AMD dit ook onder high-end plaatst.
Nvidia is zo bang dat ze bij zichzelf AI marktaandeel wegsnoepen, dat ze systematisch hun eigen consumentenkaart half-lam de fabriek uit laten rollen met een tekort aan Vram.
Of ze knijpen de memorybus helemaal dicht, zoals op de walgelijk waardeloze 4060Ti. daar heb je helemaal niets aan die 16GB VRAM omdat het absurd traag is
Ja, dat is een kaart die gemaakt is voor mensen die zich blindstaren op dat nummertje. Je ziet het hier ook in de reacties, "gewoon geen enkel excuus voor 12GB voor nieuwe GPUs". Dat is dus de doelgroep voor de 4060 TI 16 GB.
Hoe bedoel je? De 4060 Ti 16GB is degelijk veel sneller in VRAM gelimiteerde games dan de 8GB versie.
nieuws: ‘Prestatiewinst Nvidia GeForce RTX 4060 Ti 16GB is gemiddeld 0 tot 2 ...

En voor je bepaalde procentuele cijfers aanhaalt die dit gaan tegenspreken, deze zin uit het artikel heeft al aan wat daarachter zit:
Een uitschieter is bijvoorbeeld The Last of Us Part I, die in 4k gemiddeld 27fps behaalt op een RTX 4060 Ti 16GB. Op een RTX 4060 Ti 8GB is dat 22fps. Ondanks een grote percentuele stijging van de framerate geeft het absolute getal beter weer wat dat in de praktijk betekent.

[Reactie gewijzigd door kiang op 25 november 2024 12:07]

Ten eerste is performance geen goede meting hiervan voor alle games, omdat veel games tegenwoordig de kwaliteit van textures automatisch wisselen als ze detecteren dat er te weinig VRAM is (vb Hogwarts Legacy, Halo Infinite, Forspoken), hiermee zal je geen verschil zien in de FPS nummers, maar de kwaliteit van textures is wel lager.

HardwareUnboxed op YouTube heeft meerdere keren de problemen met 8GB kaarten getest. Zij hebben substantieel verschillende FPS gevonden met de 4060 Ti 8GB en 16GB versies in games zoals Doom Eternal, Resident Evil 4, Horizon Forbidden West, Jedi Survivor, The Last of Us, Cyberpunk 2077, Ratchet & Clank Rift Apart. Dit allemaal op 1440p. Wat er wel bij vermeld moet worden is dat zij testen met alle features die VRAM stressen, namelijk raytracing en frame generation, maar het punt blijft dat de 16GB versie dit wel aankan en de 8GB versie niet.

YouTube: Breaking Nvidia's GeForce RTX 4060 Ti, 8GB GPUs Holding Back The Ind... (kan skippen naar de PCIe 4.0 delen van ieder spel, ze testen ook 2.0 en 3.0 om het punt verder te illustreren, en ook goed aantoont dat iemand met 3.0 nooit een 8GB 4060 Ti zou moeten kopen als upgrade).

[Reactie gewijzigd door Sagittary op 25 november 2024 13:41]

Hopelijk word de 5070 Ti mooi geprijsd. Maar die zal vast wel weer rond de 700 tot 800 euro kosten...
Dat zou mooi zijn, maar denk eerder 800-900. Denk dat het ook gaat afhangen van de 5080, doen ze die op 1200 dan gaat de 5070 ti ook hoger zitten vrees ik.
Op 1440p denk ik niet dat ik mijn 3090 al hoef te vervangen (en de meeste AAA games van tegenwoordig zijn toch niet te pruimen). De laatste games die ik heb gespeeld waren CP2077 dlc, Elden ring dlc en RE4 remake. Die zaten nog netjes rond de 130 ish fps (heb een 144 hz scherm).
Mooie kans voor AMD om daar juist een heel goed middensegment-kaartje er tegenover te zetten met juist 24GB VRAM. Nu ook in o.a. generatieve AI goed werkt met DirectML/ONNX onder windows en linux in mijn beleving. Dat kaartje zou ik wel zien zitten, absoluut :)
En dan snijden die ook in hun eigen AI business. En voor gaming kost het hun marge, gezien de consument een redelijke prijs voor de kaart als geheel wil betalen, en dan is 24GB voor een midrange kaart gewoon zware overkill.
Van AMD is al gelekt dat de volgende generatie enkel mid range kaarten met 16GB zal bevatten.

Ik zou het erg fijn vinden als dat niet klopt, maar niets duidt erop dat nvidia ook maar enige concurrentie krijgt in de high end.
Ik vraag me af of de die video kaarten de 12VHPWR krijgen er zijn vele bedrijven die een oplossing proberen te maken. Maar dat is meestal weer mislukt door de dat die 12VHPWR connector verbrandt door dat mensen hem niet goed er in doen. Ik hoop van niet.
Volgens mij wordt de gehele 50 serie voorzien van een verbeterde versie van de12VHPWR connector:
https://tech4gamers.com/g...series-12v-2x6-connector/
Er valt toch geen oplossing te vinden als mensen ze niet goed erin doen? Ook met een andere connector kun je tegen hetzelfde problemen aanlopen. Ik heb mijn RTX 4090 2 keer eruitgehaald om extra M.2 SSD's in te doen. Na de berichten over verbrande connectors heb ik kabel iets meer uit de tightwrap gehaald. Deze maand precies 2 jaar dat ik deze build hebt en nooit problemen mee gehad. Gewoon connector goed aanduwen en de kabel niet te strak binden als je aan cable management doet.
Aangezien dit nooit een ding was bij de 6- en 8-pins connectors is er toch iets slechter aan de nieuwe connector. Dus schijnbaar was die oplossing er tot voorheen wel gewoon.

Er zijn ook genoeg analyses gemaakt van waar het misging in de nieuwe connectors, en dat daar toch echt wel wat ontwerpfoutjes aan ten grondslag liggen. Bij stroomtoevoer is het te makkelijk om het zonder onderbouwing op de gebruiker te gooien.

[Reactie gewijzigd door bwerg op 22 november 2024 20:41]

Maar een recall is uitgebleven toch? Wat heb je dan aan alle analyses? Iets verbeteren mag altijd om user error te verkleinen. Maar als iets niet goed ontworpen (hardware error) is, moet het terug naar de fabrikant. Zeker met iets onveiligs als brandgevaar. Feit is, als je het goed erin doet (veilig vergrendeld), dan blijft het gewoon goed werken. Nu al 2 jaar bij mij en ik zat er kort na de release van de 4090 bij.
"Feit is, als je het goed erin doet (veilig vergrendeld)."

Dan reduceer je het mooi binair naar wel of niet vast, maar het ging hier over een combinatie van factoren waarvan er toch echt ook een aantal bij de fabrikant lagen. Daarnaast dient een stroomaansluiting ook enigszins bestand te zijn tegen "mishandeling" en daarin scoorde de 12-pin niet best.

Feit is ook dat de 12-pin gewoon meer defecten had dat andere connectors.

Waarom de recall uitgebleven is is simpel, dat kost veel geld en zolang het niet binair is is het ook lastig hard te maken dat een specifiek geval door een ontwerpfout of fabricagefout komt.

[Reactie gewijzigd door bwerg op 22 november 2024 21:58]

Nvidia die nog steeds vasthoudt aan 12GB ram.. schandalig! Hoort gewoon minimaal 16GB te zijn.. oplichters
Ik vind dat je gelijk hebt hoor. Zeker voor een 5070…..

Op dit item kan niet meer gereageerd worden.