'Nvidia wil RTX 4060 Ti eind mei uitbrengen'

Nvidia wil de RTX 4060 Ti eind deze maand uitbrengen, blijkt volgens Videocardz uit bijgewerkte embargo-informatie. In april verschenen er al specificaties online van de desktop-gpu, die 8GB geheugen heeft.

Volgens Videocardz brengt Nvidia de RTX 4060 Ti eind mei uit, maar het is nog niet bekend wanneer de reguliere RTX 4060 uitkomt. De exacte datum wordt later bekendgemaakt. Ook de prijs is nog niet bekend.

Vorige maand verschenen er al vermeende specificaties over de Colorful RTX 4060 Ti online. De gpu zou een boostclock van 2580MHz en 8GB geheugen krijgen.

GeForce RTX 4060 Ti releasedatum Videocardz

Wat een kort bericht, wat is dit?

Tweakers experimenteert tijdelijk met korte nieuwsberichten zoals deze, die nét niet lang genoeg zijn voor een volledig artikel. Wil je meer informatie over dit experiment of wil je feedback geven over de vorm, dan willen we je vragen dat in deze post op Geachte Redactie te doen.

Door Tijs Hofmans

Nieuwscoördinator

01-05-2023 • 09:27

154

Reacties (154)

154
153
65
7
0
80
Wijzig sortering
Ik weet niet precies waarom maar dat deze xx60Ti ook weer 'maar' 8 GB krijgt, stelt me toch gerust (ik heb een 3060 Ti)

Op deze manier worden gamemakers gedwongen om games met 8 GB te laten werken.

Niet dat ik volgens mij ooit tegen problemen met te weinig VRAM aangelopen ben, maar er wordt een hoop gezegd en geschreven dat 8 niet genoeg zou zijn. Misschien als je op 4k wil spelen?

[Reactie gewijzigd door Alxndr op 22 juli 2024 14:38]

ACM Software Architect @Alxndr1 mei 2023 09:45
Op deze manier worden gamemakers gedwongen om games met 8 GB te laten werken.
Voor de PC markt zijn ze toch wel min of meer verplicht om lage specs te ondersteunen. Lang niet elke gebruiker kan of wil upgraden.

Volgens de steam survey van afgelopen maart heeft 32,2% van de gebruikers nog 8GB VRAM.

En de volgende grootste is 6GB met 22,4%. Zelfs 4GB is nog best groot met 8,2%. 10GB zit op 3,2%, 12GB op 16.5% en 24GB op 1%.

Nou zullen gebruikers met 10GB+ vast wat eerder geneigd zijn om e.e.a op hoge resoluties en kwaliteitsinstellingen te draaien (hoewel het aantal deelnemers met > 2560x1440 (veel) kleiner is dan 10GB+), maar de 8GB- groep vertegenwoordigd vooralsnog ruim meer dan de helft van de gebruikers die meededen aan deze survey.

[Reactie gewijzigd door ACM op 22 juli 2024 14:38]

Lage specs worden ook prima ondersteund, daar zijn 'Low' settings voor.

Maar dat is niet wat mensen verwachten bij een 4060ti, aangezien de 3060ti op launch een 1440p/High/Ultra/60FPS kaart was. En dat is deze dus echt niet.
ACM Software Architect @NLxAROSA1 mei 2023 09:59
Ik gaf bewust geen waardeoordeel over de 4060ti zelf ;)

Ik reageerde enkel op de suggestie dat men door deze kaart wordt gedwongen om games met 8GB te laten werken. En dat is dus niet echt relevant omdat zo'n 1/3e van de markt nu al 'slechts' 8GB heeft en nog een groot deel ook minder dan 8GB.

Het grootste punt dat er dan met deze kaart is - in die context - is dat nvidia die situatie niet verandert daarmee.
Eens. Het probleem is ook niet zozeer de 8GB, het is de verwachting die men heeft bij een mid-range prijs en een 'xx60ti' label.

De huidige VRAM honger wordt niet gedreven door PC of slechte optimalisatie. Het is simpelweg de ondergrens van de nieuwe generatie PS5/XBSX games.

Kan nVidia niets aan afdwingen idd. Sterker nog, ze schieten zichzelf behoorlijk in de voet hier.
De huidige VRAM honger wordt niet gedreven door PC of slechte optimalisatie. Het is simpelweg de ondergrens van de nieuwe generatie PS5/XBSX games.

Kan nVidia niets aan afdwingen idd. Sterker nog, ze schieten zichzelf behoorlijk in de voet hier.
Ik zie niet echt hoe de tweede stelling niet echt uit de eerste volgt? De PS5 en XBSX hebben allebei 16GB RAM waarvaan een flinke hap (~2 tot 2.5 GB) voor het OS gereserveerd is, dus als je RAM + VRAM die nodig is voor de game bij elkaar optelt denk ik dat de meeste console games ook niet veel meer dan 8GB VRAM kunnen gebruiken. Bijna alle games die nu uitkomen hebben al 8GB RAM recommended, en zelfs vrij oude games als Witcher 3 vragen 6GB RAM. Lijkt me dat de meeste games die zowel op console als PC moeten draaien ontwikkeld worden met ~8 GB VRAM en ~4-6 GB RAM als target, en niet bijvoorbeeld ~10 GB VRAM en ~2 GB RAM?
Lijkt me dat de meeste games die zowel op console als PC moeten draaien ontwikkeld worden met ~8 GB VRAM en ~4-6 GB RAM als target, en niet bijvoorbeeld ~10 GB VRAM en ~2 GB RAM?
Dat laatste is, voor zover ik weet, dus juist WEL het geval. De RAM footprint van een console game is relatief klein, bij PC wordt deze veel groter door bijvoorbeeld compatibility met heel veel soorten hardware en het laden van relevante libraries. Bij een console kan je specifiek laden wat je nodig hebt en meer niet, en alles wat over is gaat naar VRAM. Dus 2GB OS, 2GB voor de game, en de rest van de 10-12 GB maken we lekker VRAM van voor grafische verbetering is precies wat er gebeurt.
Het verschil is dat mensen met een 8 GB kaart deze vaak al jaren hebben. Nu nog zo'n ding te kopen betekent dat je erop rekent dat het de komende zoveel jaar ook allemaal nog gaat. Wat mij betreft is het daardoor geen mid range kaart meer, terwijl dat vanuit de overige specs eigenlijk nog zou moeten kunnen.
Maar dat is niet wat mensen verwachten bij een 4060ti, aangezien de 3060ti op launch een 1440p/High/Ultra/60FPS kaart was. En dat is deze dus echt niet.
De 4070 zag ook een 10%-30% prestatie verbetering (afhankelijk van het spel) met de vorige generatie (3070), als een 4060Ti dat ook doet zal deze bij verschillende standaard spellen niet de 60fps halen. Is dat echter een issue met de videokaart? Of een issue met de performance van bepaalde spellen? Ik zie bv. CoD:MW2 als game die geen 60fps gaan halen op een 4060Ti op 1440p/Ultra, is dat niet gewoon een CoD probleem?
CoD:MW2 is een mooi voorbeeld. Dit is nl een cross-gen titel, dus met support voor PS4 en XBO. Dus die zou prima moeten draaien, ook met minder VRAM. Dus wellicht is dat idd een CoD probleem en geen GPU probleem. (Ben zelf geen CoD fan/expert, dus laat me graag corrigeren hier)
Lage specs worden ook prima ondersteund, daar zijn 'Low' settings voor.

Maar dat is niet wat mensen verwachten bij een 4060ti, aangezien de 3060ti op launch een 1440p/High/Ultra/60FPS kaart was. En dat is deze dus echt niet.
Ik denk dat je dit toch meer aan jezelf betrekt dan anderen.

MSI brengt de game PC's met 4060 en 4060Ti echt in mid-range uit
Het hele probleem is dat deze kaarten als mid-range weg worden gezet, maar het niet zijn. Zie hier voor de achterliggende redenen, en kijk ook eens in de nVidia topics hier op het forum. Ben ik echt niet alleen in.

[Reactie gewijzigd door NLxAROSA op 22 juli 2024 14:38]

Nou, dat de 3060ti op launch 1440p/High/ultra/60fps was scheelde toch echt wel per game, was dan toch echt meer 1080p....
Nou, dat de 3060ti op launch 1440p/High/ultra/60fps was scheelde toch echt wel per game, was dan toch echt meer 1080p....
Hoeveel fps je haalt ligt ook aan je game. hier zie je een gem. van 3060Ti, en ik verwacht dat de 4060Ti echt wel beter presteert.

Jantje gebruikt een RTX4090 voor 1080p high fps, en Pietje gamed met RTX 3060Ti op 1440p.

Je kunt in elk geval uitgaan dat RTX4070Ti RTX4080 high end is en RTX4080Ti en sneller ultimate.
Dan is een RTX4070 en net daaronder mid-range. al met al een verschil van mening, maar jij lijkt je er erg druk om te maken

[Reactie gewijzigd door Hackus op 22 juli 2024 14:38]

Nee, nee en nog eens nee.

Waar de 3060ti moeite mee had, en heeft, is 4k.
Mijn drie jaar oude AMD 4800U (integrated graphics) geeft mij de mogelijkheid om tot 8GB toe te wijzen als videokaart geheugen. Dat heb ik dan ook volledig gedaan (er zit 64GB in). Aan de ene kant vreemd dat een super moderne midrange kaart even veel geheugen krijgt als mijn 3 jaar oude integrated graphics. Aan de andere kant, wat verwacht men dan exact? ~20% van die Steam hwsurvey results hebben meer dan 8GB. Dat zijn aantallen wat het high-end of hoger maakt imho. Maar dat zijn de cijfers nu, met amper nieuw videokaarten in de lineup...
ACM Software Architect @Cergorach1 mei 2023 10:45
Het is allemaal nogal lastig te bepalen inderdaad. Zeker omdat de meeste games jaren duren van concept tot publicatie. Dus in het ontwikkelproces wil men dan waarschijnlijk op de bovenkant van de "huidige" markt mikken, want dat is dan waarschijnlijk het performance-punt over een paar jaar voor de mainstream.

Maar dan loop je inderdaad wel risico dat je een bepaalde trend verkeerd aanneemt, zoals toename van VRAM dat blijkbaar bij Nvidia niet meekomt in de midrange-modellen.
Intergrated graphics pakt ram geheugen wat vele malen langzamer is dan vram, als je zo redeneert pakt een Intel iGPU ook veel ram alleen je hebt er geen klap aan.
Nouja, ze hoeven geen minimale specs te ondersteunen. Ik zie ook steeds vaker dat de minimale specs (en in sommige gevallen zelfs de aanbevolen specificaties!) die absoluut niet adequaat zijn voor het spel. Neem bijvoorbeeld Hogwarts Legacy. In de Steam Survey zien we dat 16GB RAM de meest populaire configuratie is (want het diedeltje dat 16GB genoeg is wordt al jarenlang volgehouden door mensen) en omdat de uitgever zoveel mogelijk wilt verkopen zie je dat zowel bij de minimale als bij de aanbevolen specificatie er 16GB RAM bijstaat, ook al hapert het spel dan zo erg dat je bijna zou zeggen dat het onspeelbaar is zonder 32GB aan RAM. Hetzelfde zie je met VRAM in sommige titels zoals deze en Halo Infinite, en dat zullen er alleen maar meer worden.
ACM Software Architect @D0ubleD0uble1 mei 2023 10:18
De definitie van 'ondersteunen' en 'het werkt' moeten inderdaad wel een beetje opgerekt worden bij die minimale specs :o
Minimum specs = 720p/30FPS/Low settings volgens meeste developers.
Recommended = 1080p/60FPS/High

Dat is wat je op Steam ziet.

Daarboven heb je dan tegenwoordig ook specs voor:

High: 1440p/High/60FPS
Ultra: 4k/Ultra/60FPS

Maar dat zie je op Steam niet, moet je voor naar de sites van de developers of de nieuws sites/forums.

Probleem is dan dat de gemiddelde gamer alleen die eerste twee ziet, opmerkt dan zijn/haar systeem voldoet aan 'recommended' en vervolgens de settings op max zet en de resolutie hoger dan 1080p. En dan klaagt dat het niet lekker loopt. (Gedeeltelijk terecht ook, vind dit niet echt lekker gecommuniceerd)
Weet je zeker dat dat aan de memory ligt en niet aan die 3070?
Dat denk ik namelijk eerder..

Ik heb deze game zelf gespeeld met 16gb ram (en 11gb vram) en bij mij draaide hij gewoon normale framerates en trok helemaal niet het hele geheugen vol zoals in deze video wel gebeurd.

[Reactie gewijzigd door xenn99 op 22 juli 2024 14:38]

Als je geen 32GB aan RAM hebt dan pakt hij inderdaad niet zoveel geheugen nee. Windows past dan meer RAM compressie en disk swapping toe. Meer VRAM helpt wel zeker, maar ook met de 3080 (10GB VRAM) zie je problemen met 16GB RAM. Op welke resolutie je speelt, welke instellingen je gebruikt, de kwaliteit van je textures, raytracing etc. hebben natuurlijk een veel grotere invloed op je uiteindelijke prestaties. Misschien dat de game ondertussen wat beter is geoptimaliseerd na een aantal patches, maar your mileage may vary :)
Ik zit nog op 3GB met mijn Geforce 970. :+
3.5 + 5 he! :D

(Mijn 970 ging bijzonder lang mee overigens voor wat toentertijd een 'slechte' kaart werd gevonden)
Hier dezelfde ervaring. Paar systemen gebouwd voor vrienden met GTX 970's en die zeggen dat het nog prima draait. Als je geen AAA games draait en niet alles op "Ultra" hoeft te hebben kom je er nog een heel eind mee.

De RX 480 en GTX 970 zijn tweedehands nog steeds een mooie sweetspot qua price/performance. Alles wat beter presteert kost gelijk een flinke duit extra
Helemaal mee eens ik speel ook al 6 jaar op een rx480 4gb. Je kan er zelfs Diablo 4 op medium-high mee spelen op 60fps.
De GTX 970 was juist een prima kaart op het puntje van 3.5GB na dan, maar games destijds pakten toch niet zoveel. Het prestatiegat met de GTX 980 zat rond de 10% a 20% uit mijn hoofd, maar het was wel 150-200 euro goedkoper. Stel je voor dat de RTX 4080 10% trager was geweest dan de 4090 maar dan wel met een flink lagere prijs :'(
De 970 had een extreem goede fps/$. Alleen de 0,5gb issue was een smetje. Maar slecht was die zeker niet.
Nog goed genoeg voor Path of Exile. Ok soms wel een beetje slowdown met veel op het scherm.
Ach binnenkort weer vakantiegeld! Of IKB (individueel keuze budget) voor sommigen.
Nieuwere games werken sowieso prima met 8GB. Maar wel met lage settings voor met name textures.

De 3060ti was een 1440p kaart op het moment van lancering. Kon je bijna alle games spelen op 1440p/60FPS en High/Ultra. Ga je met deze nieuwe 4060ti niet redden.

De crux, zoals al meerdere malen geschreven: developers ontwikkelen niet meer voor old-gen (PS4/XBX), maar voor PS5/XBSX. Die hebben beiden 16GB shared geheugen, waarvan bij de gemiddelde game ongeveer 10-12 opgaat aan graphics. Dit is de nieuwe ondergrens. Je gaat dus 10-12GB nodig hebben voor ruwweg dezelfde graphics als PS5/XBSX. (Is iets genuanceerder uiteraard, met name met DLSS/FSR, maar dit kun je als vuistregel aannemen).

Met 8GB ga je daar niet aan komen. Draaien games dan niet meer? Tuurlijk wel, maar wel op low/medium textures, afhankelijk van resolutie.

En dat maakt dat deze 4060ti dus eigenlijk 4050ti had moeten heten, want het is gewoon geen midrange kaart. Maar hij krijgt waarschijnlijk wel een midrange prijs. En daar zit het probleem. Mensen verwachten een midrange kaart, maar het is in feite een low-end.

Heb zelf ook een 3060ti en de next-best-upgrade is mijns inziens een 4070.

De prijzen gaan wel doorslaggevend zijn. Als de prijzen kelderen door slechte verkopen kan het best een mooie instapkaart zijn.

[Reactie gewijzigd door NLxAROSA op 22 juli 2024 14:38]

Dat kan je ook goed zien aan de The Last of Us port naar PC.
Zelfs op 1080p met DLSS (dus 720p op het scherm) gebruikt dat spel al 7,8GB geheugen en dan heb je de settings nog op medium staan.
Vergeet niet dat deze game een ontzettend slechte port is. Games zoals God of War of Horizon Zero Dawn hebben de zaken (veel) beter voor elkaar, dus ik zou deze game niet direct als voorbeeld gebruiken.
Die laatste twee supporten PS4/XBO, en dat is daarom ze prima lopen op PC. TLOU P1 is een port van de PS5 versie. Los van de problemen die de game met zich meebracht, is de hoeveelheid gebruikt VRAM kenmerkend voor PS5/XBSX games die niet ook nog de old-gen moeten ondersteunen. 10-12GB is de norm vanaf nu.

Overigens draait TLOU P1 hier prima op een 3060ti 8GB op 1440p met 60FPS met wat tweaks aan de settings en DLSS. De shader compilatie van een uur na iedere update/driver update is wel bizar.

[Reactie gewijzigd door NLxAROSA op 22 juli 2024 14:38]

Ding is wel met veel van die ports, dat ze ook nog prima draaien als je volgens zulke indicatoren VRAM tekort zou komen. Kennelijk laden die ports dan een hoop zut in het geheugen, wat maar zelden nodig is. Als de PC maar (ruim) voldoende systeem RAM heeft althans, heb ik nog nergens echt schokkende performance impact gezien door puur wat minder VRAM.

Vooral games als Hogwarts Legacy hoor je van, maar waar dan toch al veel performance problemen mee zijn in het algemeen. Ik zoek nog even een voorbeeld van stabiele 60fps zonder drops met 12-16GB VRAM, waar de 8GB compleet instort. Zoiets zie je met 4GB VRAM en lager wel vaker gebeuren, benchmarks die niet voltooien op hogere quality settings / resoluties en zo, of compleet onspeelbare framerates buiten verhouding met de GFlops verhouding. Met 8GB VRAM ken ik zulke voorbeelden niet in die mate, terwijl je hetzelfde patroon zou verwachten.
The Last of Us Part 1 gebruikt op 1080p ultra 12GB VRAM. Er is dus nu al een game die je niet voluit kan spelen op 1080p met deze kaart.
met dit kaartje ga je denk ik toch geen al te vlotte framerate halen op ultra :/ het is een mid tot low-end kaart met een te hoge prijs, maar laat dat je niet misleiden
Dat ligt meer aan Nvidia dan aan de prestaties van voormalige xx60 kaartjes. Die waren prima voor 1080 high/ultra.
de voormalige kaartjes waren goed, maar sinds de 40-series zijn de lagere kaarten een trapje verhoogd zonder dat hun specs daar bij aansluiten, dus een xx60 voelt aan als een xx50. De 10 en 30-series waren spec-successen, maar de 20 en 40-series voelen minder goed aan, combineer dat bij die laatste met de forse prijsstijging boven de inflatie en wisselkoers en je zit met een wrang gevoel dat nog een paar jaar gaat aanhouden als je de laatste berichten mag geloven ivm de 50-serie die uitgesteld wordt tot 2025 :'(
DLSS is inderdaad geen selling point als je maar 8GB geheugen hebt. /sarcasme

Die kaarten waren prima in staat om 1440p ultra te doen als je DLSS/FSR zou gebruiken. Nu inderdaad niet meer in toekomstige spellen.

Wat mij betreft zijn de (nieuwe) 60 kaarten nu de lowend.
Nou neem je ook wel direct een van de brakkere ports van de afgelopen tijd :+
Op deze manier worden gamemakers gedwongen om games met 8 GB te laten werken.
Zoals ze nu ook al "gedwongen" worden, bedoel je, maar er niet voor schromen om brakke ports uit te brengen die dat toch niet doen?

Het enige waar ze echt niet onderuit kunnen voor de verkoopcijfers is dat ze op z'n minst een combinatie aan settings aanbieden die het speelbaar maken, maar helaas is dat nog altijd absoluut geen garantie voor een goede ervaring. Bij Hogwarts Legacy hebben ze het bijvoorbeeld "gefixt" door bij minder VRAM de textures hard terug te schroeven, en dan ook nog op zo'n manier dat je de details kunt zien komen en gaan als je ernaar kijkt.

Wil dat zeggen dat je niks meer kan spelen met 8 GB? Dat niet, maar op de kunst en kunde van vooral de grotere spellenuitgevers hoef je echt niet te rekenen.
Dit dus. VRAM requirements maken op dit moment een sprong. De laatste paar AAA releases zijn geen incidenten, maar een trend. Zie ook mijn andere reactie.

8GB gaat prima werken, maar het is instap/low end. Kun je niet leuk vinden (ik ook niet met mijn 3060ti) maar dat is wel de realiteit.

Geef geen midrange geld uit aan een kaart met 8GB.
Intussen draai ik nog altijd een 1080ti XE met 11GB VRAM. Tuurlijk, een oud beestje, maar doet het nog meer dan voldoende.
Een xx80 kaart is van een hele andere orde dan een xx60, volgens mij was de prijs bijna het dubbele voor de 1000 serie?
Mijn 2080 Super (was) nieuw goedkoper dan de huidige 3060 Ti.
Dacht dat het vanzelfsprekend was dat ik binnen een generatie bedoelde, vandaar de xx

Maar jij kocht een nieuwe 2080 super voor €450? Had je een goeie deal, alle prijzen die ik in pricewatch terug vind voor die tijd zijn 800+.

Ik betaalde ooit ruim 400 voor m'n 1060 6GB (niet in NL) een 1080 Ti was ongeveer het dubbele. Heb m'n 3060Ti voor 700 gekocht toen de prijzen eindelijk een beetje begonnen te dalen. Toen (en nog steeds) kost een 3080 Ti het dubbele.

En wat zal deze kaart gaan kosten als een 4070 rond de €650 zit? 600? Dat is ruim minder dan de helft van een 4080 die voor ruim 1300 over de toonbank gaat.
Toen nVidia kaarten nog wèl goed gebalanceerd waren, zowel qua hardware als prijs/prestatie verhouding. Denk dat deze kaart zeker nog prima mee kan voorlopig, zeker als je FSR op Quality ook nog als optie meeneemt.
Ik game vooral via Steam Remote Play en Moonlight icm. Sunshine op mijn Apple TV en op mijn telefoon, (PC staat in een kast met enkel VM's, waaronder Windows als VM), daar draait t allemaal prima. Ik speel alles met beperktere resolutie en iets downscaled, maar dat is helemaal prima.

Hierdoor kan mijn zoon ook vanaf zijn kamer games spelen vanaf die PC zonder problemen met een gigabit lijn door het hele huis.
Dan kun je nog prima vooruit inderdaad.

Waar het mij (en een aantal anderen) voornamelijk om gaat is mensen, die nu voor 500-700 euro op zoek zijn naar een midrange kaart die een paar jaar mee moet, bewust maken dat je dan beter iets kan kiezen met 10 (of liever 12) GB VRAM.

Dat bedrag stukslaan op een kaart die dan eigenlijk al niet meekan in de midrange is heel erg zonde vind ik. Gaat niet om een pak melk zeg maar.
Klopt, en vooral mensen die minder kennis hiervan hebben, die enkel zien "nieuwer is beter" gaan daar (op een prijzige manier) de mist in. Heb bewust een oudere kaart gekocht tweedehands, waar ik prima alles mee kan spelen mits het niet 4K draait. Als ik een nieuwe kaart zou kopen, dan kijk ik eerst naar de VRAM, want dat is tegenwoordig echt een ding. (Net als de stijgende noodzaak aan regulier RAM geheugen, maar dat zijn de kosten gelukkig niet mits je op DDR4 zit)

[Reactie gewijzigd door xoniq op 22 juli 2024 14:38]

Precies! Ik heb een 3070 Ti Founders Edition (ook met 8GB geheugen) en speel op een 34" 3440x1440 @165Hz resolutie (Asetto Corsa Competitione, Euro Truck Simulator 2, BeamNG, Call of Duty Modern Warfare). Gewoon lekker vloeiend, geen memory issues. Vooral niet met DLSS Balanced mogelijkheden :)
Dat zijn dan ook oude games dus niet raar dat 8GB genoeg is. En Warzone II is geoptimaliseerd als esports spel en niet op max GFX. Dus gemaakt om hoge FPS te halen op veel hardware. Die engine is in de basis ook al ouder.

Kijk maar eens naar de review van HWU waar ze wat nieuwe games testen en hoe hard de 3070 dan door de mand valt tov de 6800 16GB en de 3080 10GB. Of nog erger hoeveel sneller ze zwakkere A4000 is door zijn 16GB buffer:
https://www.youtube.com/watch?v=alguJBl-R3I

Deze zou 20% trager moeten zijn door zijn lagere clocks en TDP maar in die situaties is hij heel veel sneller.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:38]

Dat zijn ook niet de nieuwste games, kijk eens naar de 2023 releases ;)
@Santee ik ben het met je eens dat nieuwe(re) games veel meer resources vragen. Maar de technieken staan ook niet stil, kijk naar DLSS-balanced/performance of N-BAR. Leuke toevoegingen voor wat extra performance.
Klopt, alleen DLSS verschuift geloof ik GPU load naar de CPU, maar vermindert het vram gebruik toch niet? Of wel omdat je intern op een lagere resolutie rendert?
Vaak maakt het wel verschil, maar ligt aan de game hoeveel precies. Soms scheelt het niets inderdaad.
Dlss rendert inderdaad op een lagere resolutie en schaalt dat omhoog (even versimpeld). Het verschuift de load niet naar de cpu.
Wat wel kan is dat als je al tegen een cpu bottleneck zit op de resolutie waar je op speelt, je minder tot geen winst ziet omdat de gpu dan al niet de beperkende factor was.
Asetto Corsa Competitione = 2019
Euro Truck Simulator 2 = 2012!
BeamNG = 2015

En Call of Duty Modern Warfare II is net 1 van de weinige nieuwe spellen die heel goed getuned is voor mindere hardware.
Met 1080p is 8gb al te weinig in veel nieuwe games op Ultra. Dat is dan vaak met RT aan. Maar ook zonder gaat en hier en daar al mis. Dus nee het is geen 4k issue.
Maar dat is ook niet raar consoles hebben 16gb en die draaien vaak een 1440p upscaled om hogere fps te halen dus daar wordt bepaald hoeveel vram games gaan gebruiken voor een optimale ervaring. 16gb gaat snel de norm worden als je alle iq opties aan wilt zetten.
Als deze theorie echt zou kloppen dan betekend dit dat je op de pc maar 8gb ram nodig hebt.
16gb shared op console. 12 GB Vram, 4 GB RAM. Lijkt mij een beetje weinig.
Nee eerder ook 16 of zelfs 32GB. een PC heeft bijna alle informatie dubbel nodig omdat de latency tussen het werkgeheugen en het videogeheugen te groot is. Waar de CPU aan moet werken staat in RAM moet de GPU daar ook bij kunnen en wil je dat snel kunnen doen moet je exact diezelfde info ook weer in je video geheugen hebben. Consoles gaan veel efficiënter met IO om. Het geheugen is veel sneller en een grote shared pool. Daarnaast hebben de consoles veel snellere SSD's met hardware compressie die geen GPU rekenkracht vraagt zoals DirectStorage en RTX IO wel nodig hebben.Dus je hebt minder hardware nodig om hetzelfde te doen.
Qua pure rekenkracht was de schatting dat een pc 20% meer nodig heeft om hetzelfde te doen. Maar qua Geheugen en Storage is het een heel ander verhaal. Daar hebben de consoles vanwege de snelle unified pool en de super snelle SSD's gewoon een gigantisch voordeel wat een PC gewoon simpelweg niet kan. PC RAM is traag vergeleken met het snelle GDDR6 geheugen waar de CPU van de consoles in werken.

Daarnaast wil men op PC hogere resoluties draaien, Native draaien en het liefst ook 120FPS waar consoles meestal 30-60 als target hebben in sommige gevallen 120. Dat vraagt allemaal meer van je hardware.
Top uitgelegd!

En daar bovenop: de PC gamer had jarenlang de luxe met twee vingers in de neus de PS4/XBO bij te kunnen benen/overtreffen. Die willen nu niet accepteren dat dit met native PS5/XBSX games toch echt anders is en je echt wel ff een andere bak hardware moet hebben dan entrylevel/midrange.
En de gestegen hardware prijzen.
En nVidia die de plank misslaat qua balans in hardware en prijs/prestatie.

Het is allemaal een perfect storm zegmaar.
Dat is inderdaad ook een ding ja. Die CPU beperkte de consoles nog al een beetje. het was nog steeds een stap voorwaards tov de PS3 en de XB360 maar de sprong die nu qua CPU kracht gemaakt is is heel erg groot en dat bied mogelijkheden om de games mooier te maken.
In dat opzicht is het niet raar dat je nu weer sneller moet upgraden om de nieuwste games op max settings de kunnen spelen nu de consoles krachtig genoeg om mee te komen.

Ik ben zelf wel blij met deze ontwikkeling het heeft te lang stil gestaan en je kon met relatief oude hardware lang doen. Dat is wel fijn vanuit het kosten perspectief maar niet als je keek naar hoe veel mooier games werden nu wordt daar wel een gigantische stap gezet als je de UE5 games ziet.
Precies. Daarom is het juist van belang dat als je nu 500-700 uit gaat geven dat je iets kiest wat nog even meegaat. En dat is echt niet alleen maar een tweaker/enthousiasteling dingetje. Jan-met-de-pet gaat deze kaarten ook kopen.
Nee, dit klopt echt niet. De bulk van de textures zijn GPU-only. De code is CPU-only.

Data dubbel hebben is juist de absolute ramp, omdat je die moet synchroniseren. Die data gelijk houden vreet nu juist de bandbreedte.

Om deze reden komt Microsoft met DirectStorage, zodat de GPU geen data vanuit de SSD via de CPU naar de GPU moet streamen. Maar ook zonder DirectStorage kunnen de textures uit het CPU geheugen nadat za van SSD geladen zijn.

Het geheugen van consoles is ook doorgaans trager. PC's hebben het voordeel van meer geheugenbussen: één of twee DDR bussen geoptimaliseerd voor CPU's plus een GDDR bus voor de GPU. Die bandbreedtes tellen op. Consoles lijken op APU's: ze hebben één bus, die gedeeld moet worden, en die suboptimaal is voor één van de twee gebruikers.
Sommige dingen wel andere weer niet. PC's hebben meer overhead. Volgens de game devs die aan het spul werken moet je 16GB ram en een 12GB GPU hebben soms zelfs 16GB om hetzelfde te kunnen doen als de consoles die ook 16 hebben. Wil je nog minder stuttering heb je 32GB nodig.

Consoles hebben veel sneller geheugen namelijk 256bit GDDR6 met 448GB/s voor de PS5 de Xbox Series X 560gb/s voor de eerste 10gb en de 6 daar na 336. Als je dat vergelijkt met 6000MHz DDR5 dat haalt maar +- 90gb/s dat is aanzienlijk trager.
Video geheugen van de high end kaarten zoals de 6800XT en 3080 is wel sneller maar dat is ook nodig met de hogere resoluties. Maar een 6700XT welke vergelijkbaar is met de GPU's in de consoles heeft 384gb/s geheugen bandbreedte (maar wel bijgestaan door 96mb infinity cache waardoor data veel minder vaak uit het video geheugen gehaald hoeft te worden en de prestaties hoger blijven).

Meer bussen waar je over heen moet is nooit een voordeel het veroorzaakt latency en data verplaatsen kost veel stroom dus is inefficient. Hoe dichter je de data bij je compute cores kan houden hoe beter. waarom denk je dat Infinity cache en 3D Vcache zo goed werkt? en Cache geheugen überhaupt een van de beste manieren is om prestaties te verbeteren?
AMD noemt het Infinity Architecture: https://www.amd.com/en/technologies/infinity-architecture
Maar dat is een verzamelnaam. In het verleden (K8 tijdperk hadden ze Hyper Transport).
DDR staat voor Double Data Rate wat een techniek is die zeker gebruikt wordt in communicatie bussen en memory interfaces: https://en.wikipedia.org/wiki/Double_data_rate

Bij een PC moet je als je van Ram naar de GPU moet dus:
Dram > CPU > PCI-E > GPU
Bij de consoles kunnen zowel de GPU als CPU direct uit dezelfde pool lezen latency's zijn dus veel lager. En ondanks de bus gedeeld is is de snelheid zoals je hierboven ook kon lezen hoog genoeg voor beide chips maar de latency is heel laag. De GPU kan ook veel directer zijn data van de SSD verkrijgen en zoals eerder gezet zit er hardwarematige compressie en decompressie in de APU's om de data gecomprimeerd te kunnen versturen waardoor ze 9gb/s kunnen halen zonder dat dit tenkoste gaat van CPU of GPU performance.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:38]

Even om die fabel te ontkrachten.

GDDR6 haalt z'n topsnelheid bij access patterns die typerend zijn voor GPU gebruik. Als geheugen voor een CPU presteert het slechter dan DDR5. Er is niets magisch aan GDDR, het is voor een andere use case geoptimaliseerd. Dus een fors deel van die theoretisch XBox bandbreedte gaat naar de kloten omdat de CPU cores het geheugen nodig hebben.
Heb je daar wat meer technische info van die dst ook bewijst? Latency's van video geheugen zijn hoger maar DDR5 is ook absoluut geen latency wonder vergeleken met DDR4. Dus ik zou daar wel graag wat data van willen zien.

Als die losse Pools zo voordelig waren zouden ze natuurlijk niet zo maar overstappen. Ps3 en ouder hadden Bv lose ram en video geheugen.
Veel ontwikkelaars ontwikkelen voor consoles. Die hebben tegenwoordig 16GB VRAM. Die worden geport en daar sta je dan met je 8GB. Kunnen we van alles van vinden, maar dat veranderd de realiteit niet.

Daarnaast koop je vaak een videokaart voor meerdere jaren, je ziet de afgelopen tijd bij nieuwere games dat de VRAM wordt steeds meer wordt opgegeten. Met oog op de toekomst is het dus niet aan te raden om een kaart met 8GB te kopen.
De xbox series X is ongeveer 10GB van de 16 toegankelijk voor de GPU, en vergeet niet dat ook het OS in die 16GB moet. En het OS is tegenwoordig niet meer zo slank dat het eigenlijk zowat uitgeschakeld is als een game draait en daarmee dus het volledige ram geheugen beschikbaar zou zijn.
De PS5 heeft dan wel meer geheugen beschikbaar voor de GPU, maar heeft verder wel dezelfde beperkingen wat betreft OS in de achtergrond actief blijven en daarmee dus ook een heel brok minder geheugen beschikbaar dan de 16GB. Wel is het allemaal GDDR6 voor het hele geheugen.
Maar verder heb je wel gelijk dat 8GB voor 4060+ GPU's nu echt te weinig is, 4060 zou minimaal 12GB moeten zijn en allen daarboven minimaal 16GB.
Lol. "Het OS is tegenwoordig niet meer zo slank". Windows is al jarenlang op dieet, sinds Windows 7. DLL's zijn herschreven zodat je niet meer een verzameling legacy functies mee laadt. En op de XBox is er nog minder legacy beschikbaar. Ik heb net even op deze PC gekeken; het OS zelf heeft zo'n 300 MB in gebruik.

Vergeet niet, de bulk van een modern OS zijn gewoon demand-loadable libraries. Die kun je per 4 kB laden.
Nouja, voor de xbox series x is 2.5GB voor OS en andere achtergrondzaken.
Vooral dat laatste. Mensen verwachten dat een kaart een paar jaar meegaat als ze 500-700 euro uitgeven. En ik denk dat je teleurgesteld gaat zijn als je nu dat geld neerlegt voor een kaart met 8GB.

Het gaat echt niet om mensen zoals ik die al een 3060ti hebben oid. Die moeten gewoon settings terugzetten, zoals normaal is als de tijd verstrijkt. Het gaat echt om mensen die nu iets nieuws zoeken te behoeden voor een kat-in-de-zak.
Op deze manier worden gamemakers gedwongen om games met 8 GB te laten werken.
Daar heb ik mijn twijfels bij. Er zijn nu al een redelijk aantal games die het merkbaar minder goed doen op een kaart met <12 GB VRAM.

Ik vermoed dat het enige gevolg hiervan zal zijn dat 4060Ti klanten sneller zullen moeten upgraden dan zij die de vergelijkbaar geprijsde AMD kaart kopen. Net als 3070 klanten vs RX 6800 en vroegah GTX 970 vs R9 390.
Die AMD kaart moet er alleen wel zijn, want voor nu zijn er alleen de 7900XT en de XTX. Beide ruk voor de prijs net als de Nvidia kaarten in dat segment

[Reactie gewijzigd door youridv1 op 22 juli 2024 14:38]

Op deze manier worden gamemakers gedwongen om games kaarten met meer dan 8 GB te laten werken kopen.
fixed it for ya :+
Bepaalde games lopen ook in 1080p en 1440p in de problemen. Dit omdat ze ontwikkeld worden voor de Xbox series X/PS5 met 12GB vram (+4GB shared) en zelfs met optimalisatie dit niet meer onder de 8GB te krijgen is. Gamemakers worden niet gedwongen, die brengen het gewoon uit. Kijk maar naar recente games.
Nee het kan ook constraining zijn op bijv. 1440p.
maar als je de texture quality iets lager instelt: is dat dan zo'n groot verschil?
Textures waren in het verleden iets wat het spel er juist mooi uit liet zien alles op Low maar Textures max gaf vaak nog een erg mooi resultaat. en zolang je maar genoeg video geheugen had was de performance impact niet zo groot. Dus daarom is het extra zonde dat hardware die qua processing power snel genoeg is vervolgens zo beperkt wordt door het geheugen.
Dat doet AMD een stuk beter door de midrange vorige generatie 12gb te geven en high end 16gb. Daardoor kunnen die kaarten nog jaren lang prima werken zonder grote stuttering of texture issues. Je moet hooguit met de andere instellingen die veel rekenwerk vragen omlaag.
Wel als je terug gaat van High/Ultra naar Medium/Low. Maar verschilt per game.
Tot er een fabrikant komt met een extreme versie, gewoon om extra dik te doen. In principe hoeft het niet veel duurder te zijn want geheugen chips zijn ook niet het aller duurste onderdeel.

Ik herinner me nog dat ATI altijd hogere specs had als Nvidia kaarten en het met raw power oplossen, terwijl Nvidia het vooral van optimalisatie moest hebben.
Is het niet zo dat Nvidia fabrikanten geen vrijheid hier meer in geven en dus dat het enigste wat fabrikanten zouden kunnen doen is er een OC erop zetten en klaar?
Ik snap het ook niet heel goed. Op dit moment heb ik een 5700X en een 6650XT plus 4x8GB CL14-3600. Alles een bescheiden undervolt/OC.

Diablo 4 ging met het schaduwwerk wat teruggezet prima op 1440p/144hz
Dead Island 2 gaat prima op 1440p/144hz
God of War gaat ook goed op 1440p/144hz

Ik gebruik natuur FSR, maar nergens loop ik tot dusver (ook met nieuwere games) tegen "VRAM problemen" aan. Waarschijnlijk mis ik iets?
ik ook niet, problemen, maar ik speel op een 1440p monitor en dat maakt wel uit. Ik heb ook een 3060ti en die doet het voorlopig nog prima
Voor zover er bekend is gamed er nog ruim dan 50% op de hele wereld op Full HD en met 8 GB lukt dat makkelijk. Er is wel een steigende lijn naar 1440P en 4K is voor een kleine groep dus ik snap het Vram verhaal ook niet echt.
Dat is gewoon niet waar, want we zien dat er nu ook spellen verschijnen waar je meer dan 8 GB nodig hebt op 1080p.
Dat een groot deel daar op gamed betekent echt niet dat iedereen die daarop gamed daarmee happy is. Het is buiten wat competitive games meer een reflectie van de mate waarin huidige en oude hardware een beperkende factor is en die zou dus niet maatgevend moeten zijn voor nieuwe hardware.

Ik speelde vroeger ook counterstrike op 640 x 480 omdat ik dan met mijn trinitron CRT scherm op 200hz kon spelen. (Ja toen al!) Maar dat betekent echt niet dat ik niet een hogere resolutie had gewild.
De meeste games zullen inderdaad werken op een 8gb kaart, maar het zou goed kunnen dat je de instellingen steeds lager moet zetten om dat te halen. Er zullen zeker games zijn binnen de komende 2 jaar die je alleen op 1080p low of medium kan spelen met een 4060 ti 8gb. Dan sta je toch flink voor schut met je 500$ kaart, zeker als je bedenkt dat de consoles wel 1440p of 1800p aan kunnen in die games en wel genoeg VRAM hebben voor mooie textures.
Er zullen zeker games zijn binnen de komende 2 jaar die je alleen op 1080p low of medium kan spelen met een 4060 ti 8gb.
Die kans acht ik zéér klein :+ Misschien dat de hoogste settings niet haalbaar zijn met een deftige 60fps, en met name zaken als texture- en schaduw-resolutie zijn echt killing voor je VRAM. Het ding is alleen dat de verschillen als je hoger dan high gaat vaak echt minimaal zijn. Als je stilstaat en er op gaat letten merk je het misschien, maar als je daadwerkelijk aan het gamen bent not so much. Voor dat kleine beetje extra eyecandy vraag je echter wel flink wat meer van je GPU.

Als zelfs een 1060 6GB nog redelijk mee kan komen zonder alle direct op low/medium te moeten zetten, dan zit je met een 4060Ti ook gewoon goed de komende paar jaar. Misschien niet op 4K, of met 144fps, of alles op ultra, maar dat hoeft ook niet perse. Games zijn niet opeens kut als je ze niet maxed out kunt spelen.
Ik vind het heel bijzonder dat je de kans klein acht dat er niet een paar games zullen zijn met issues op 8gb. Heb je de nieuwe star wars en last of us gezien? Sure, je zou kunnen stellen dat dit brakke ports zijn, maar denk je echt dat uitgevers daarmee op zullen houden?

En dat is nog voordat we echte next gen games gezien hebben. Als een game 12gb vram gebruikt en de compressie hardware en ssd van de ps5 volledig benut, dan maak je zelfs met een goede port geen schijn van kans met een 3070.

De meeste games zijn inderdaad nog niet in dit stadium. Je kunt prima gamen met een 1060 6gb, maar die heeft als groot voordeel dat 6gb ook ongeveer in lijn is met het prestatieniveau. Er zijn weinig games waarvoor de 1060 genoeg oomph heeft die meer dan 6gb nodig hebben. Dit is bij het niveau van de 3070 (en waarschijnlijk ook 4060ti) wel anders. Die heeft meer dan genoeg power voor de games van 2023 en 2024, maar door de 8gb moet je wel alle pracht en praal achterwege laten.

[Reactie gewijzigd door B127 op 22 juli 2024 14:38]

Op deze manier worden gamemakers gedwongen om games met 8 GB te laten werken.
Momenteel lijkt AAA zich anders weinig aan te trekken van vervelende dingen zoals hardwarespecificaties :+
Ik weet niet precies waarom maar dat deze xx60Ti ook weer 'maar' 8 GB krijgt, stelt me toch gerust (ik heb een 3060 Ti)

Op deze manier worden gamemakers gedwongen om games met 8 GB te laten werken.
Fijn voor jou, maar minder voor game devs en mogelijke kopers.
Besef wel dat mensen zoals jij ontwikkeling tegen houden.
Ik vraag mij heel erg af hoe deze kaart moet opwegen tegen de rest van de lineup. Gezien de RTX 4070 wat al erg gekortwiekt was (en rond de 670€ in de PW staat) en ongeveer het niveau van prestaties van de 3080 haalt, zal deze 4060ti waarschijnlijk rond een 3070/3070ti zitten, ook gezien de geringe 8GB aan VRAM. Ja, 8GB aan VRAM is prima nu als je games in 1080p speelt, maar niet voor de games van morgen (Hogwarts Legacy en Halo Infinite kunnen op deze resolutie meer dan 8GB VRAM vreten)
Qua prijs zal het dan wel rond de €500/€550 hier gaan zitten. Dus 3070 TI prestaties voor de prijs van een 3070 8)7
Die goeie oude tijden waar je voor rond de €250 een RX480/1060 op de kop kon tikken en je 1080p/1440p zonder problemen kon draaien met 8GB aan VRAM. En nu 7 jaar later het dubbele prijskaartje voor dezelfde hoeveelheid geheugen. En ook AMD, hoewel ik hoop dat de RX7600 en RX7700 een beetje leuk gaan worden zal het ook wel weer hetzelfde diedeltje zijn met 8 en 12GB VRAM respectievelijk en natuurlijk weer wat sneller. Dan maar bidden voor een goeie 2e generatie van Intel Arc! _/-\o_
Tjs, als je alleen de nieuwste games belangrijk vindt dan is intel nog niet zo heel slecht.
Het is net als bij AMD dat raytracing niet goed werkt.,
Wat raytracing prestaties betreft heeft AMD flinke prestatiewinsten geboekt sinds de 6000 series het licht zag. Intel had eerst qua RT betere prestaties dan AMD, nu schijnt AMD dat gat wel wat meer heeft gedicht.

Ook de prestaties in DX11 en oudere versies is inmiddels flink verbeterd in het Intel kamp. Ze maken nu gebruik van DXVK (dezelfde laag die Linux gebruikt om DirectX calls om te zetten naar Vulkan) ipv hun eerdere implementatie van DX11 calls in DX12 te proppen. Het is natuurlijk niet een perfecte oplossing (hoewel DXVK onder Linux soms betere prestaties levert dan native DirectX op Windows :+)

Zou mooi zijn als Intel met hun 2e generatie eventjes RTX 4070 prestaties levert voor de helft van het geld en dan het liefste met 16GB aan VRAM. Gezien de focus van Intel op de nieuwere APIs en als ze dan simpelweg krachtigere hardware en meer geheugen hebben dan de concurrent zou Intel nog weleens een leuk marktaandeel kunnen winnen. Ach, we kunnen dromen. De meeste mensen blijven nog steeds weg bij AMD simpelweg omdat het AMD is en dat ze het als een minderwaardig product zien (zie de populariteit van de RTX 3060 tegenover de RX6600 die dezelfde prestaties levert voor 100 euro minder in de PW) en veel mensen zullen datzelfde gevoel hebben bij Intel kaarten.
Eens. Heb zelf een 3060ti nu en ben aan het kijken naar een 4070. Speel op 1440p. 4070 lijkt me prima opvolger, maar ik heb geen haast en wacht tot de prijzen wat schappelijker worden.

4070 had gewoon 4060ti moeten heten, met bijbehorend prijskaartje. En deze 4060ti -> 4050ti, ook met bijbehorend prijskaartje.
Zo is het al een beetje half gegaan, maar het had met nog wel een versie lager worden verschoven inderdaad. Vergeet het gedoe rond de 4080 12GB variant niet, die toen werd gerebrand als 4070ti voor 100 euro minder. Probeert Nvidia dat af te doen als een goede deal :+

Zolang mensen hun portemonnee blijven opentrekken voor Nvidia zullen ze ermee blijven doorgaan. Ze hebben ook nog steeds een hele grote voorraad aan 30 series kaarten waar ze vanaf willen, dus vandaar ook de hoge prijzen van de 40 serie. En zelfs als consumenten het niet meer doen, dan blijft Nvidia wel flink cashen met hun AI acceleratie kaartjes nu alle grote bedrijven op de AI hypetrain zijn gestapt.

En voor het lagere segment, tja, je ziet in de Steam Survey dat de 1650 nu de 1050ti voorbij is gegaan qua populariteit, ook al valt de prestatie winst tussen beide nogal mee (zo'n 10fps verschil, dus 40 tegen 50 fps)
Dat is gewoon triest als je je realiseert dat een oude RX470 zo'n kaart helemaal afknalt.

Het feit blijft dat het budget segment zo hard is uitgeknepen en verwaarloosd dat je voor hetzelfde geld 4 tot zelfs 7 jaar geleden dezelfde prestaties kon kopen. Wil je meer dan dat? Dan maar opentrekken die portemonnee :(
Ik had toch liever nét iets meer VRAM willen zien bij deze kaart gezien de meerprijs van de 40 series.
Yup. Heb zelf een 3060ti en dit is geen goede opvolger, in tegenstelling tot de 4070. Kaarten zijn of verkeerd genaamd (4060ti had 4050ti moeten zijn en 4070 de 4060ti) of verkeerd geprijsd (te hoog gesegmenteerd).

Laat de verkopen maar flink tegenvallen en de prijzen dalen denk ik dan. :)
Ik vind eerlijk gezegd de 3060 en 3060ti de verkeerde naam hebben, klinkt alsof dat daar niet veel verschil in zit qua performance... Of zelfs Jan met de pet denkt dat de 3060 sneller is vanwege meer vram.

3060ti had beter 3070se moeten heten.
3060ti had 16GB vram moeten hebben bedoel je.
Ik zou eerder zeggen dat de 3070 16 GB had moeten hebben. We weten dat dit op zijn minst ook zeer serieus is overwogen door Nvidia. Ze hebben 16 GB 3070's gesampled naar AIBs en er zijn zelfs 20 GB 3080's verkocht aan miners.
Zeker goed punt, maar dan had de 3060ti goedkoper moeten zijn of de 3070 duurder. Achteraf gezien was dit geen probleem geweest maar goed.
3060ti voldeed in ieder geval aan de verwachtingen. Dat daarna de markt gek werd en de prijzen x3 gingen was een ander verhaal.
Het zal wel GDDR6X zijn, maar het is toch opvallend hoe je in 2015 een R9 390 kon halen voor €330 met 8GB GDDR5 terwijl je nu minimaal €420 mag betalen voor even veel VRAM op een RTX 3060 Ti - en de RTX 4060 Ti zal wel niet goedkoper worden met Nvidia in graaimodus.
Een jaar later zaten RX480's met 8GB zelfs rond de €250. AMD was best lekker bezig met VRAM, bij de 6000 serie lagen ze duidelijk voor op Nvidia. (de 6500XT daargelaten)

Vind het nog steeds schandalig dat Nvidia met z'n veel grotere marktaandeel en hoge prijzen nog steeds weigert om de kaarten met een fatsoenlijke hoeveelheid geheugen uit te rusten.
Planned obsolescence, door te zorgen dat mensen na 2 jaar weer een nieuwe kaart van €500 moeten kopen om nieuwere games te spelen maken zij meer winst. Stel ze zetten 16GB op de RTX3070 en verkopen hem voor $599 ipv $499, dan maken ze $50 meer winst maar gaat de kaart 6 jaar mee. Nu gaat die 2 jaar mee en zitten zo $200 winst op die kaarten dus maken ze $400 éxtra winst tegenover $50 op de 16GB variant.

Is het beter voor de consument of het milieu? Nee. Maar het is een bedrijf die aan winstmaximalisatie doet. Oplossing: Kijk of de tegenstanders het beter doen. Met $499 voor een 16GB 6800 zou ik eerder een AMD kaart kopen. Ray tracing is toch nog een gimmick imo.
Net als iedereen. Waardeloos dit.
Zeker maar gezien het gebrek aan geheugen op de hogere modellen was dit natuurlijk te verwachten :'(

Nu maar hopen dat AMD hier van leert en partners de optie geeft om de 7600XT met N33 die 16gb te geven zodat je 8 en 16gb versies van die kaart hebt.
Of ze moeten rond de 250 euro gaan zitten met de 8GB versie gezien de prijs van de 10gb RX6700.
Ik denk dat het gezonder zou zijn dat deze kaarten 12GB GDDR6 ipv 8GB GDDR6X krijgen. Sinds de PS5 is 10GB VRAM standaard waar devs voor ontwikkelen. En dan heb je nog het gebrek aan optimalisatie bij de pc ports.

Maar Nvidia kennende, gaan ze dat niet doen. De kaarten zo snel mogelijk obsolete krijgen is geen bug maar een feature. Feature voor Nvidia natuurlijk, hun grootste concurrent zijn hun eigen tweedehands kaarten.

En voor mensen die denken: ja maar velen spelen 1080p esports of oude games en voor hen in 8GB genoeg: Ja natuurlijk. En die mensen kunnen perfect een oude GTX 1070 vinden voor 100 euro. Daar moet je geen 500 euro voor uitgeven.

[Reactie gewijzigd door 87Dave op 22 juli 2024 14:38]

Vraag me af of dit een volwaardige en betaalbare upgrade word voor mijn 2060.
Ik zit zelf te kijken dan voor de 4070 alhoewel ik die toch wel erg prijzig vindt, of zelfs voor een stuk minder geld, maar ook minder krachtig, naar de Intel A770/16GB (en ik kom dan van een 2060super af).
Ik kijk ook naar een 4070. Maar ik wacht nog even af wat de prijzen gaan doen.
Zou ik pas voor <500 euro overwegen eerlijk gezegd.
Zou even kijken bij Techpowerup voor een grof idee hoeveel je er op vooruit gaat. Ze hebben bij reviews vaak mooie comparison charts over meerdere generaties, ook met averages als je het in 1 opslag wilt zien.

Als je echt betrouwbare info wilt zou ik Gamers Nexus aanraden.
Ik ook. Ik kom van een standaard 2060 en sla bij vernieuwing het liefst 1 generatie over. Ik denk dat ik pas een keuze maak als de real-world benchmarks er zijn en het liefst ook een 2060 niet-TI-kaart beschikbaar is. (om de prijs een beetje te kunnen vergelijken) . Dan is de Intel A770 ook wel een mooie om mee te vergelijken.
Ik zou deze ten zeerste afraden gezien de lage VRAM-hoeveelheid. Dan kun je beter een 6700 XT kopen (of een 7700 XT wanneer die uitkomt) of even doorsparen voor een 4070.
Of nVidia boycotten vanwege het te weinig vram aanbieden voor te veel geld. Anders leren ze het natuurlijk niet als mensen die kaarten blijven kopen.
Ik zou zelf eerder een 6800(XT) of 6950XT met 16gb halen dan een 4070 12gb.
Het boycotten van Nvidia is moeilijk in mijn ervaring. Hier op Tweakers is iedereen aardig geïnformeerd, maar bij het gros van de non-techies waar ik mee praat hangt nog steeds de "Nvidia is het echte merk en AMD is onstabiele troep voor mensen die het niet kunnen betalen" reputatie.

Feit is dat Nvidia veel sterker is qua marketing (de meeste prebuilt Game PC's gebruiken Geforce kaarten, RTX on/off memes, het wordt meer gepromoot door influencers, etc) en dat zie je gewoon terug.
Klopt die mensen weten ook niet waar hun problemen vandaan komen en waarom textures er soms zo onscherp uit zien. Die geven dan de game dev's de schuld.
Dat AMD onstabiele troep is is al heel lang niet meer waar maar AMD laat eens in de zo veel tijd de bal even kort vallen en dan zakken ze weer ver terug waar nVidia met bijna alles weg kan komen zonder grote gevolgen.

In dat opzicht zou het gezonder zijn als het marktaandeel wat beter verdeeld zou worden. En het enige wat je kan doen is mensen informeren en wijzen op alternatieven. In NL kan je die ook 2 weken proberen mocht het dan echt instabiel zijn kan je hem altijd terug brengen en omruilen.

nVidia is altijd erg goed geweest in Marketing iets waar AMD nu langzaam wat beter in begint te worden. Ik vind het alleen wel jammer dat ze dezelfde nVidia streken gaan uithalen qua markting praat ik zie liever dat ze terug gaan naar 1 jaar terug toen de presentaties nog eerlijk en oprecht waren. En ze scores met en zonder FSR lieten zien. Nu laten ze alleen FSR nog zien omdat nVidia ook dat soort ongein uithaalt met DLSS3. Maar ik heb zo iets van ga uit van je eigen kracht en ga niet mee doen met dat soort oneerlijke praktijken.
Alsof Nvidia gebruikers niet weten waar ze voor betalen. Het is dankzij Nvidia dat we nu path tracing in games hebben. Een paar jaar geleden nog Quake 2 en nu Cyberpunk.
Dat is niet alleen hype, dat is een doorbraak van jewelste. Niet alleen voor gaming maar computer graphics in het algemeen.

Ik zie AMD niet dat soort techniek ontwikkelen. FSR is verre van indrukwekkend en de ray tracing prestaties lopen achter op zowel Nvidia als Intel. Dus ja, budgetmerk.
Dat is zeker ook het geval. Pathtracing is the future! Echter is pathtracing op dit moment niet "betaalbaar" en duurt het nog een paar generaties voor videokaarten dat redelijk geprijsde videokaarten met redelijke snelheden bij redelijke resoluties het voor elkaar krijgen. Rastorization - mits geod gedaan - ziet er meestal net zo goed uit als pathtracing - tegen 1/10 van de GPU-belasting. Zie b.v. https://www.youtube.com/watch?v=2VGwHoSrIEU. Denk erom dat die -door Nvidia "gesponsorde" demo's las cyberpunk vaak gepimpt zien waardoor plotseling ook de kleuren e.d. veel mooier worden, wat dus helemaal niets met raytracing te maken heeft.
Dat gaat geen verkoopwonder zijn gezien de hoeveelheid VRAM
En toch denk ik dat je je daar behoorlijk in zult vergissen. Ja, wij als tweaker vinden het te weinig, de 4060 zou minimaal 12GB moeten hebben alles daarboven minimaal 16GB.
Anoniem: 454358 1 mei 2023 10:23
Ah een 8gb budgetkaartje, 289 euro?
Dan waren de reacties hieronder heel anders geweest. :)
Gezien al zeker vanaf de 2060 de prijs niet meer zo laag is geweest zal het nu al zeker niet zijn. Denk eerder dat deze rond de 500-550 zal gaan liggen, en de 4060 tussen de 450-500.
Neuh, voor €289 heb je een RTX 3060. Deze nieuwe RTX 4060 is 2x zo snel, dus dan is ie ook 2x zo duur!

#nvidialogica
Gezien het feit dat de RTX 4070 voor 670 euro verkocht wordt, zal de RTX 4060 TI waarschinlijk rond de 500 euro kosten. Pittige prijs voor wat een instapkaart zou moeten zijn, en dan krijg je een 3D-kaart die met slechts 8GB RAM nou niet bepaald toekomstbestendig is om het zacht te zeggen. Met een PS5 ben je aanzienlijk beter op toekomstige games voorbereid dan met dit soort budgetkaarten die bij verschijning al achterhaald zijn.
Ik heb toen de 3060Ti uitkwam anders € 455,- neergelegd tijdens Corona.
Op zich niet heel erg, maar ik had een 1070 gekocht toen hij net uit was voor € 400,- (tweedehands van iemand de er twee had gekocht voor SLI).
De nieuwe low end, nvidia wil er vast 450,- voor zien oid.
Ben benieuwd of het nu een waardige opvolger is voor mijn 1060 TI of het eerder een 4050 TI “rebranding” is.
En 8 GB? Hm
De 1060 had geen Ti. Alleen een kreupele 3GB en een Chinese 5GB ;) (naast de echte 6GB)

[Reactie gewijzigd door nelizmastr op 22 juli 2024 14:38]

de 1060 was ook met 6GB te krijgen, jaren heel veel plezier van gehad!
Afhankelijk van het scenario is een 3060 al 2 tot 2,5 keer zo snel als een 1060 (er bestaat geen TI). Een 4060ti zal een meer dan waardige opvolger van je 1060 zijn :+
Twee keer zo duur en wel 2GB meer geheugen als een bejaarde kaart :D.
Maar in ieder geval een stuk rapper. Ik zit zelf met een 2060. Het enige slimme upgradepad is een tweedehands AMD kaart op dit moment.
Uiteraard is deze veel sneller. Maar nieuwe games eisen ook veel meer. Dus ligt maar net aan wat de persoon verwacht/speelt.

GTX1060 was op launch minder dan 300 euro en kon 1080p/60FPS/High/Ultra in de meeste games prima aan. Dat wordt met deze kaart lastig gezien de 8GB. En de prijs is ook 'iets' hoger gok ik.

Ik zou in ieder geval afwachten om te zien wat de verkopen/prijzen doen.

Op dit item kan niet meer gereageerd worden.