Gerucht: Nvidia GeForce RTX 5060 Ti wordt iets goedkoper dan zijn voorganger

Er zijn mogelijke prijzen verschenen van Nvidia's aankomende RTX 5060 Ti-midrangevideokaarten. De kaart zou wederom beschikbaar komen met 8GB en 16GB vram en ditmaal iets goedkoper worden dan zijn voorganger. Ook het prijsverschil tussen het 8GB- en het 16GB-model wordt kleiner.

De RTX 5060 Ti 8GB krijgt naar verluidt een adviesprijs vanaf 379 dollar exclusief btw. De 16GB-variant zou op zijn beurt 429 dollar kosten, een meerprijs van 50 dollar. Dat zeggen ingewijden op het Board Channels-forum, die stellen dat Nvidia de adviesprijzen definitief heeft bepaald, zo merkt ook VideoCardz op. Omgerekend zouden de twee videokaarten hiermee ongeveer 415 en 470 euro gaan kosten, inclusief 21 procent btw.

De prijzen van de RTX 5060 Ti-varianten liggen hiermee lager dan bij de voorgaande RTX 4060 Ti, die ongeveer twee jaar geleden op de markt kwam. Die kaart kwam ook beschikbaar met 8GB en 16GB geheugen, respectievelijk voor 399 en 499 dollar.

Volgens geruchten krijgt de RTX 5060 Ti een GB206-gpu met 4608 CUDA-ccores. Dat zijn er 25 procent minder dan bij de RTX 5070, die over 6144 kernen beschikt. De kaart krijgt daarnaast een 128bit-geheugenbus en dus 8GB of 16GB aan GDDR7-geheugen op 28Gbit/s. De geheugenbandbreedte moet daarmee 448GB/s bedragen. De kaarten verschijnen naar verwachting later deze maand. Een RTX 5060 zou in mei volgen.

Vermeende RTX 5060 Ti-specs naast de RTX 4060 Ti
Videokaart RTX 5060 Ti RTX 4060 Ti
CUDA-cores 4608 4352
Boostclock 2572MHz 2535MHz
Geheugen 8GB/16GB GDDR7 8GB/16GB GDDR6
Geheugenbandbreedte 448GB/s 288GB/s
Tgp 180W 165W
Release April 2025 Mei 2023
Introductieprijs 8GB: ~415 euro
16GB: ~470 euro
8GB: 449 euro
16GB: 559 euro

Door Daan van Monsjou

Nieuwsredacteur

09-04-2025 • 14:12

107

Lees meer

Reacties (107)

Sorteer op:

Weergave:

Als de kaart voor deze prijs te koop komt, is dat een mooie vooruitgang. Ik hoop dat ze ook een flinke stap maken in rekenkracht tov de 40 series.
Ik weet niet wat jij als "flink" ziet, maar waarschijnlijk ongeveer hetzelfde als de rest van de 4000 serie tov de 5000 serie. Dus als je alle truukjes zoals multi frame generation niet meeneemt, iets van 10-15% sneller.

Leuk voor in de statistieken, maar in dagelijks gebruik dus niet tot amper merkbaar :)
Dat weet ik nog zo net niet:
Cuda cores: van 4352 naar 4608 = +256
Boostclock: 2535MHz naar 2572 MHz = +37 Mhz
Geheugen: GDDR5 naar GDDR7
Geheugen bandbreedte: van 288 GB/s naar 448 GB/s = +160 GB/s
Opgenomen vermogen: van 165W naar 180W = +15W

Al met al leuke verbeteringen en dan zal de chip wellicht ook nog wat efficiënter zijn.

Dit kan misschien wel eens de leukste kaart zijn uit de reeks.
Volgens geruchten krijgt de RTX 5060 Ti een GB206-gpu met 4608 CUDA-ccores.
Ter lering en vermaak. Gamers Nexus heeft pasgeleden onderzocht hoe de verschillende kaarten van elke generatie zich qua cores verhouden ten opzichte van het topmodel uit elke generatie. In dit geval beschikt de RTX 5090 over 21.760 cores als je geluk hebt. Daarmee komt deze RTX 5060 Ti op 21% cores van het topmodel.

Als je het filmpje van Gamers Nexus erbij pakt dan zie je dat deze 5060 Ti daarmee vergelijkbaar is met wat de GTX 750, GTX 950, GTX 1050 en RTX 4060 waren ten opzichte van hun respectievelijke topmodellen.

Wat ik mij dan afvraag, als er nog maar 21% van de cores over zijn. Wat zou dan een instapkaart moeten zijn? Of anders gezegd: is de xx60-serie nog wel een midrangevideokaart? De 'mid' in midrange suggereert dat deze ergens in het midden zit. Maar die plek wordt nu ingenomen door de RTX 5080 met 49% van de cores.

Zie YouTube: Gamers Nexus The Great NVIDIA Switcheroo | GPU Shrinkflation
Ik denk dat je de 5090 niet als een 'high end' kaart moet zien, maar als een 'ultra high end' of 'professional end' range. Daar zijn immers de prijzen ook naar.

Als je dan de 5080 als high end meeneemt en daar de 5060ti tegen afzet is dat 4608:14312 = 32,7%

4060ti-4080ti 4352:9728 = 44,4%
3060ti-3080ti 4864:10240 = 47,5%
2060 super-2080ti 2176:4352 = 50%
1060-1080ti 1280:3584 = 35,7%

Bijzondere is dat er een afname is van het aantal cuda cores tussen de 30 en 40 generatie. Het zegt dus weinig.
Ik denk dat je de 5090 niet als een 'high end' kaart moet zien, maar als een 'ultra high end' of 'professional end' range. Daar zijn immers de prijzen ook naar.
Nee super duper mega enthousiast. Zo kan alles een plekje opschuiven en wordt de 5060ti high-end.
Lariekoek natuurlijk high-"END" geeft aan op het einde te zitten. Er komt niets na het einde. Niets dan marketing BS van nvidia om toch al te duur spul voor nog meer te verkopen en de klant toch nog een goed gevoel te geven met zijn low-end kaart met high-end stickertje.
Er is inmiddels genoeg voorbij het einde: de professionele AI kaarten. Dat is een beetje het punt van de 5090: het is stiekem ook een goedkope keuze voor LLM's.
Tja, als APU's al zodanig presteren dat de 'low-end' gpu er eigenlijk niet meer toe doet is eigenlijk alles onder aan de schaal wat je niet meer onder 'high end' kunt scharen mid-range.

Het zal niet zo zwart-wit zijn, maar ik zie de onderste 2 als low-end 'Ik wil gewoon beeld hebben' - kaarten en de 2 topmodellen high-end. Alles daartussen is mid-range. Dus voor het gemak is de 5060/5070 midrange, 5080 en 5090 high end en wat er in de toekomst nog onder de 5060 zit low-end.

Ik voorzie wel dat een 'instap' 5050 GPU alsnog beter zal presteren dan menig mid-range kaart van recente vorige generaties. En dat de huidige mid-range beter presteert dan de vorige high-end maakt het in mijn optiek nog geen high-end model in de huidige serie.

Hoe dan ook blijft het denk ik een subjectief oordeel of iets xxx-range is.
Absurde vergelijk omdat vroeger we 90 kaarten niet bestonden. Klikbait
Waar heb je het over? Hun vergelijking is met wat de die origineel is qua core count. Of dat nu een 90class is of een titan of een 80ti. Dat maakt niks uit.

Wat wel wat uitmaakt is dat nvidia je behoorlijk f*ckt met wat het je geeft voor de naam en prijs tegenwoordig. De 5060ti zal dan ook maar ongeveer een xx50 class zijn of zelfs minder zijn. Een enorme grap dus.
Tja, sommige mensen tolereren geen enkele kritiek richting hun favoriete merken. Zelfs als er objectieve data wordt gepresenteerd, i.e. vergelijk elke klasse met het topmodel van die serie. En als je dan een neerwaartse trend constateert dan mag je kennelijk niet vragen of een bepaalde klasse nog wel mid-range is. Te zot voor woorden die blinde merkentrouw.
Gaat niet over merk heb zowel amd als nvidia gehad, koop wat het beste is op dat moment. Gaat erover dat alles tegenwoordig gezien word als bedrijven die hun gebruikers oplichten.

Zelf als het zo ver gezocht is als dit.
yup het is zo duidelijk dat nvidia dit meer doet omdat ze weten dat mensen het toch wel kopen en ze zo meer winst kunnen maken. Wat logisch is. hun zijn nou eenmaal een bedrijf. Maar toch is het behoorlijk lullig voor de consument. Ik heb een 9070xt gekocht juist voor deze reden. Als nvidia nou een 5070ti had uitgebracht voor 850 euro (liever 600 euro natuurlijk) met 60% van de core count dan had ik het nog wel overwegen. en als ze niet die domme 12pin hadden :*)
Sorry dat is van de pot gerukte onzin. Wat uitmaakt is de performance en prijzen van die kaarten.

Indien dit echt zo was had amd of intel makkelijk beter kunnen doen, rarara doen ze niet omdat ze niet kunnen.

Indien jij denkt dat een bedrijf je echt oplicht: koop het niet, heel simpel.
nee dat is geen onzin. nvidia verkoopt je tegewoordig modellen met een veel mindere core count dan voorheen. Maar wel duurder. Waarom? omdat ze dan andere modellen kunnen uitbrengen voor hogere prijzen. En omdat toen ze dit uitteste mensen het alsnog massaal kochten.

Dit is geen conspiracy onzin. Dit is gewoon een bewezen feit. Nvidia had prima je een 5070ti kunnen geven met 60% van de core count. wat je dan een behoorlijke performance boost had kunnen geven, maar waarom zouden ze. als ze je ook een 5070ti kunnen geven met 41% van de core count om vervolgens later een 5070ti super uit te brengen met meer cores voor meer geld. want mensen kopen het toch. dit doen ze omdat een 5070ti met 41% core count voordeliger is voor hun om te produceren en te verkopen voor 950 euro dan een 5070ti met 60% van de cores. dat kost hun meer geld en hebben ze dus minder winst.

Amd hoefde niet beter te doen want amd hoeft deze generatie geen "high end" te targeten. Waarom zouden ze. de 9070xt is prima. verkoopt goed tegenover nvidia en bij de volgende generatie doen ze het wel.
En nogmaals wat telt is performance, ik heb al geen decenium naar de core count gekeken.

En ja bedrijven willen winst maken dat is nu zo dat was 10 jaar geleden zo ook, geen verschil.
Tsja, vrije markt dus ze zijn daar vrij in, normaal gesproken hebben bedrijven meer conurrentie maar helaas kan AMD niet genoeg concurreren dus dan heeft Nvidia niet de drang om de kaarten goedkoper te maken want ze verkopen toch wel.

Dat is de reden dat ik generaties oversla (ik was van GTX1060 > RTX4070 Super gegaan.
Precies dat wat @K995 zegt. Klikbait.

Midrange betekent hier een Middenmoot kaart waar de Meeste Mensen ruimschoots voldoende aan hebben. Waar een Lowend kaart dikwijls ontoereikend is voor de meeste spellen, daar kom je met een 5060 Ti Midrange kaart dik en dubbel prima mee uit de voeten. Hoeveel procent% dit van een mainframe GPU is die zij gepositioneerd hebben op krankzinnig zware zakelijke toepassingen is voor de Meesten niet zo bepalend in de keuze.

Dat gezegd hebbende ben ik benieuwd hoe de prijs zich ontwikkelt als Intel met hun Vlaggenschip B770 uitkomt dit jaar, in navolging van de B580, dat kwa prijs evenveel kost als een Nvidia midrange kaart.
Ik snap je beredenering, maar leg eens de specs naast elkaar van bijv een 4070 en een 5070 kaart, dan zie je hetzelfde. Meer cuda cores, van GDDR6 naar GDDR7, enz. En toch "maar" max 15% verschil.
Eens, maar deze komt goedkoper op de markt volgens de MSRP. Eens afwachten wat de "echte" prijzen gaan doen.
5% meer cores is niet wereldschokkend, de stijging in boostclock ook niet. De geheugenbandbreedte gaat wel fors omhoog, maar ik denk dat @mvds heel dicht bij de waarheid zit met max 15% prestatiewinst tov de 4060ti.
Denk dat het vergelijkbaar is met de andere kaarten die we tot nu toe gezien hebben, een matige vooruitgang in raster, met een equivalent of hoger stroomverbruik als je prestaties/watt erbij pakt.
Ook voor de 4060ti -> 5060ti zien we een 5.88 % meer cuda cores, voor 5.9 % meer stroomverbuik. Misschien dat een hogere geheugenbandbreedte nog wat meer rekenkracht geeft, maar ik denk dat efficientie niet echt verbeterd zal worden helaas.
maar dan wel de bus op 128 bit sneleheid ,minder cudo cores.
waargoed daar is de prijs ook naar.
Ik weet niet wat jij als "flink" ziet, maar waarschijnlijk ongeveer hetzelfde als de rest van de 4000 serie tov de 5000 serie. Dus als je alle truukjes zoals multi frame generation niet meeneemt, iets van 10-15% sneller.
Leuk voor in de statistieken, maar in dagelijks gebruik dus niet tot amper merkbaar :)
Ik weet niet wat jij verwacht, maar 10% tot 15% sneller tgv de vorige generatie is heel wat, het is niet zo dat de meerderheid van de kopers elke generatie die uitkomt elke keer aankoopt. De meesten slagen wel een generatie of meer over.

Velen zijn van de GTX10xx reeks gekomen en anderen zoals ik komen van de RTX20xx reeks; ik zit nu nog even met een tusenoplossing tot de prijzen wat kelderen. Maar als je elke generatie 10% tot 15% prestatiewinst neemt op hetzelfde model binnen de reeks kom ik nu al snel over 3 generaties op 30% tot 45% prestatiewinst uit, maar die prestatiewinst is klaarblijkelijk toch heel wat meer .. :)
We zijn uit een tijdperk gekomen waar je voor 300-400 euro tussen de 30-80% winst had per generatie, om nu het driedubbele uit te geven voor een winstmarge van 10-15%.

Het is niet heel wat. Het is minder dan het hoort te zijn gezien de prijzen die je betaalt en het afval wat je genereert,
misschien moeten we gewoon accepteren dat de rek op zowel GPU als CPU gebied er qua hardware wel uit is. De grote prestatiesprongen zijn er gewoon niet meer. En dat is echt niet omdat de chipmakers het niet willen.
Misschien moeten we maar accepteren dat we niet elk jaar de nieuwe +5% modellen kopen en gewoon mensen laten ontwikkelen voor de bestaande generatie, beetje zoals bij consoles, en dat fabrikanten dan wel richten op een 50-100% verbetering elke 3-6 jaar.

Dan zou de software beter worden (gamedevs moeten wel gaan optimaliseren), we zouden geen ' nieuwe generatie is trager dan vorige gen per klasse' krijgen en we zouden net als consoles ook het low end segment langer werkbaar houden.

Niemand wacht op de sprongen van voorgaande jaren, we willen allemaal eigenlijk het tegenovergestelde: hardware die lang bruikbaar blijft. En dat is nu toch helaas steeds minder zo, omdat game devs steeds meer leunen op nieuwe hardware om softwareissues op te lossen (DLSS + FG).
Maar juist met kleinere stappen blijven games langer speelbaar op oudere hardware. En dat is gewoon ook zo.
De RTX 20 serie is 7 jaar oud en begint nu pas oud te worden. Denk je dat Crysis draaide op een GPU uit 2000?
Crysis draaide op een GPU uit 2005......in 2013 na patches.

Kleinere stappen maken helaas niet dat games langer speelbaar blijven.
Het gaat meer om de vergelijking van de producten van de voorgaande generatie. Voorheen kon je met een 60 serie verwachten dat je de 70 of 80 prestaties van een generatie eerder kreeg. Bij een 70 serie was het dan de prestaties van de 80 of 80ti van de generatie eerder.

Tegenwoordig mag je al blij zijn als de nieuwe xx60 de xx60TI/ van de vorige gen kan verslaan...
We zijn uit een tijdperk gekomen waar je voor 300-400 euro tussen de 30-80% winst had per generatie, om nu het driedubbele uit te geven voor een winstmarge van 10-15%.
U spreekt over 23 jaar geleden toen net de euro ingevoerd werd denk ik .. gezien de prijzen die u noemt. Elke generatie zijn die prijzen alsmaar duurder geworden, net zoals alles alsmaar duurder wordt en ook je loon alsmaar hoger wordt .. dat is nu eenmaal inflatie.

30% tot 80% winst per generatie !! Zo nu en dan waren er eens piekmomenten, maar soms hadden volgende generaties zogoed als geen prestatiewinst of helemaal niet .. ;)
Een voorbeeld uit die tijdsperiode :
Zoals een GeForce FX5200 128MB niet sneller was dan een GeForce4 Ti4200 128MB in die tijd.
.. maar dan wel weer DX9 ondersteunde .. dus betaalde je een jaar later meer geld voor 0% prestatiewinst, maar wel voor de DirectX9 te kunnen gebruiken .. :)

Dus hierbij vergeet je dan ook de bijkomende technologische ontwikelingen in hardware op te sommen die bij elke nieuwe generatie uitkomen. Het is niet omdat u geen gebruik maakt van Raytracing en Pathtracing bij de laatste generaties dat anderen dit niet doen, er is wel behoorlijk wat prestatiewinst op dit vlak en daar zet Nvidia duidelijk op in. Ook nieuwe upscalingtechnieken om stroomverbruik te reduceren zijn enorm belangrijk in deze tijden.

Gezien de duurdere prijzen wordt er normaal minder verkocht en reduceert dit normaal gezien de afvalberg als dat men er goedkopere prijzen voor vraagt en de afvalberg alleen maar groter wordt. Alsnog door de toename van de wereldbevolking en de aanhoudende verkoop van hardware wordt de afvalberg sowieso alsmaar groter, dit gaat niet eindigen als een GPU een prestatiewinst heeft van 30% tot 80% .. want daarna komen ze energiezuiniger op de martk of met een nieuwe technologische ontwikkeling in de hardware waardoor deze daar ook weer terechtkomen

Dus u zou willen dat ze helemaal geen RTX50XX reeks hadden uitgebracht of hiermee nog 2 jaar hadden gewacht ? Vergeet niet dat de problemen en tekortkomingen die deze generatie GPU's teweegbrengt de oplossing biedt voor de volgende generatie RTX60XX GPU's .. ;)

Niemand verplicht u trouwens deze generatie te kopen, u kan alsnog afwachten tot de volgende generatie.
Ik spreek over 2011 toen ik voor 373 euro een HD 7970 haalde en daarmee letterlijk gigantische sprongen maakte tegenover een 6870 of een 5870.

Inflatie is geen argument voor de prijzen van nu, zo duur zou het echt niet zijn.

Ik zou willen dat we niet onder drang van capitalisme steeds kleinere stappen gaan maken, maar wel tegen enorme prijzen, die we vroeger betaalden voor enorme stappen.
373 euro in 2011 is nu 530 euro.
Je merkt dat dit nog steeds minder is dan de 1100 euro voor de ultra high end die we nu betalen.

[Reactie gewijzigd door DMZ op 10 april 2025 10:24]

Inflatie is geen argument voor de prijzen van nu, zo duur zou het echt niet zijn.

Ik zou willen dat we niet onder drang van capitalisme steeds kleinere stappen gaan maken, maar wel tegen enorme prijzen, die we vroeger betaalden voor enorme stappen.
Klopt, maar reken maar dat dit steeds erger gaat worden.

Vergelijk simpelweg het frituur of de pitabar met wat je voor hetzelfde menu uitgeeft tegenover vroeger en nu, voor vele tech is een tijdlang het omgekeerde waarneembaar geweest, werd telkens goedkoper en als jij dan 2011 aanhaalt kan ik mij daarin wel vinden, want dat was die periode. In 2012 heb ik namelijk een MSI GeForce GTX 660 Afterburner 2GB OC aangekocht voor €180. Die ik nog ergens liggen heb .. :)

Maar ondertussen is veel tech opnieuw duurder geworden de voorbije jaren en dit ligt mede aan de grote vraag en het wereldwijd tekort aan grondstoffen .. maar ook voor sommige producten aan een gezond gebrek aan concurrentie.

Als er op de hardware markt geen echte concurrentie is, worden er ook geen innovatieve stappen genomen .. dit was met ATI vroeger al zo tgv Nvidia of met AMD tgv Intel en omgekeerd .. Nu heeft AMD het voor het zeggen op CPU vlak en Nvidia op GPU vlak, geen concurrentie is niet gezond voor de consument. Je ziet mooi op het segment waar wel concurrentie is dat de prijzen daar wel zakken. En wat is een eerlijke prijs voor een bepaald product, zolang er genoeg mensen de gevraagde bedragen neertellen en de bedrijven hun winsten binnenhalen gaat er niet echt verandering komen. Dit is immers de basis van het capitalisme, net zoveel vragen dat de consument dit wilt blijven betalen of dat jijzelf je benodigde winsten opstrijkt die je nodig hebt.
[...]


Een voorbeeld uit die tijdsperiode :
Zoals een GeForce FX5200 128MB niet sneller was dan een GeForce4 Ti4200 128MB in die tijd.
.. maar dan wel weer DX9 ondersteunde .. dus betaalde je een jaar later meer geld voor 0% prestatiewinst, maar wel voor de DirectX9 te kunnen gebruiken .. :)

generatie.[/i]
De Ti 4200 was een $200 dollar midrange kaart. De FX5200 een low budget 75-90 USD kaart. De 5200 zal een vervanger van de MX420 zijn geweest.
Waarom zouden kleinere stappen meer afval genereren? Er is dan juist minder drang om steeds te upgraden. Als iedere generatie de performance zou verdubbelen ga je ook steeds nieuwe kaarten kopen.

Ik vind de vergelijking met de vorige generatie totaal niet interessant, maar koop gewoon de beste kaart op moment van aanschaf. Zou kunnen dat dat nu een RTX 40 series is met die minimale winst, dat wel.
Ik verwacht niks, ik geef slechts antwoord op een vraag :)

Maar ik zie te vaak dat mensen een nieuwe vergelijkbare kaart kopen uit de nieuwe serie (dus van 4060 naar 5060, 4070 naar 5070, enz), en dan verwachten dat ze ineens 2 x zoveel frames gaan halen wat gewoon nooit zo is.

Dus als de vraag is of er een "flinke" stap gemaakt gaat worden, dan is het maar de vraag wat zij als flink zien. En laat ik nou precies dat vragen, wat zien ze als "flink" :)
Nee het gaat er om dat je vroegah de prestaties van een xx70 of xx80 van de vorige generatie kon krijgen in de 60 series van het de nieuwe generatie, terwijl dat sinds de 4xxx en 5xxx gewoon niet meer zo is. Verhoudingsgewijs krijg je dus minder waar voor je geld ten opzichte van vroeger.

Even een paar quotes uit den ouden doosch:
'GTX 980-prestaties in een midrange-videokaart', beloofde Nvidia met de GTX 1060 te bieden, en die belofte is het bedrijf nagekomen.

Als we de RTX 2060 daarentegen vergelijken met de GTX 1070 Ti, waarvan de Founders Edition een adviesprijs had van 469 euro, dan krijg je met de RTX 2060 een kaart die honderd euro goedkoper is en in de regel vergelijkbaar presteert.

Ik had beter direct de 4060 review erbij kunnen pakken, die legt alles in zn conclusie piekfijn uit:

Wat de RTX 4060 mist
Dat de RTX 4060 gemiddeld een RTX 2080 kan evenaren, klinkt wellicht indrukwekkend, maar verbleekt bij de prestatiewinsten die we bij eerdere generaties hebben gezien. Zo kon de GTX 1060 zich bij introductie meten met de GTX 980, de RTX 2060 komt gemiddeld gelijk uit met de GTX 1080 en de RTX 3060 weet in ieder geval nog de RTX 2070 te verslaan. Bij dat laatste voorbeeld is al te zien dat de vaart er voor x60-reeksvideokaarten tegenover de vorige generatie uit begint te raken. Bij de RTX 4060 is dit nog erger, met prestaties die gelijk zijn aan een x80-kaart van niet een, maar twee generaties terug. Omdat de RTX 4060 zelfs de RTX 3060 Ti niet evenaart wat prestaties betreft, mag duidelijk zijn dat de kleine AD107-gpu van de nieuwe GeForce eigenlijk niet capabel genoeg is om het x60-label te dragen.
Maar blijkbaar zijn die sprongen gewoon niet meer realistisch.
Zowel AMD als NVIDIA hebben die sprongen niet meer. En dat is vast niet uit luxe.
Vergelijk het met de CPU markt. Ook daar zie je van generatie op generatie ook maar kleine stappen gemaakt worden.

Waar wel nog grote sprongen gemaakt worden is in raytracing en zaken als dlss.
Tenzij er iemand komt die ineens met radicaal andere technieken komt voor processors zie ik de grote hardwarematige sprongen uit het verleden niet meer gebeuren.
De 4 serie was duidelijk gericht op verbeteren van prestatie/watt. De RTX 4060 is 56% beter dan de RTX 3060 in prestatie/watt. Als je daar niet om geeft dan heb je daar weinig aan, maar dat was blijkbaar de focus voor Nvidia. Wellicht op basis van marktonderzoek, je hoeft niet ver te zoeken op tweakers om ophef over stroomverbruik te vinden.
Als je de truukjes wel meeneemt is het een prima vooruitgang.
Iedereen brand de 5070 af op youtube, maar tot zover draait alles prima op 4k.
Het kan misschien qua specs niet zo indrukwekkend zijn, maar wat geld-performance ratio betreft is het niet slecht. Zolang alles soepel draait met voldoende beeldkwaliteit, maakt het toch niet uit hoe het onder de motorkap werkt?
Ik ben er gewoon tevreden mee in ieder geval.
Maar waarschijnlijk draaide het dan ook al prima op een 4070 :)

De originele vraag was; gaat de 5060 Ti het veel beter doen dan mijn 4060 Ti?

Dat ligt er dus maar aan in welke situatie, en wat je verwachting is van de snelheidswinst.

Mooi dat je tevreden bent met je 5070, niks mis mee toch?
Het kan misschien qua specs niet zo indrukwekkend zijn, maar wat geld-performance ratio betreft is het niet slecht.
Het is JUIST de geld-performance ratio die slecht is. Je koopt feitelijk een 4070super, op papier voor 50$ minder (in praktijk haalt de 5070 zijn MSRP in geen velden of wegen). Een jaar wachten om voor 50$ minder hetzelfde te kunnen, dat schaar ik persoonlijk niet onder "goede geld-performance"

Zelfde geldt voor de 7900GRE, praktisch dezelfde performance in rasterized games, zelfde prijs bij release, maar je had wel al een jaar er van kunnen genieten.

Beggars cant be choosers, dus je moet t doen met wat er beschikbaar is, maar om nou te zeggen dat je de deal van het jaar hebt...

[Reactie gewijzigd door arjax op 9 april 2025 15:38]

Wat is soepel?
Met alle truukjes aan is de inputlag veel hoger waardoor je in online multiplayer achter de feiten aanloopt.
En dan heb je ook nog blur en artifacts.

De beeldkwaliteit gaat er met al dit soort truukjes ook op achteruit.

Threat interactive heeft verscheidene filmpjes gemaakt om het een en ander uit een te zetten:
YouTube: Fake Optimization in Modern Graphics (And How We Hope To Save It)
Dat is en
Blijft onzin sommige trucjes doen lag naar bendeden andere naar boven. Buiten voor competitive gamers maken beide weinig uit.
Is dat 10-15% sneller per core? Want dat, in combinatie met dat er nu meer cores op de xx60 lijn zitten zou het wel 15-20% sneller maken denk ik (en een stuk meer bij geheugen intensieve zaken, gezien daar de snelheid een erg grote stap maakt). Ook zeker niet verkeerd.
Nee, dat is 10-15% voor de gehele kaart, dus inclusief de verbeteringen op het gebied van geheugenbandbreedte, meer cuda cores en hogere clock.

Zoals ik al eerder zei, leg maar eens de specs van bijv de 4070 en de 5070 naast elkaar, daar zie je ook meer cores, GDDR7 ipv 6, hogere clock en ook daar zie je een snelheidswinst van 10-15%.

Als je het geluk hebt dat jouw spel gebruik kan maken van de nieuwe snufjes zoals multi frame generation, dan schiet die winst wel omhoog trouwens. Maar dan moet wel de ondersteuning er zijn
Dus als je alle truukjes zoals multi frame generation niet meeneemt
Dat is altijd zoon lekker dood doener,

Als we een nieuw product helemaal strippen en dan vergelijjken met het oude product,

ga jij deze kaart ook strippen en dan vergelijk hoe hij het doet op DirectX 9 en dan claimen dat er niet veel vernieuwd is.
Het is geen dooddoener :) Je gaat een kaart vergelijken in de spellen die je nu speelt, en grote kans dat die spellen (nog) geen ondersteuning bieden voor die nieuwe truukjes. Dus het is iets heel normaals wat ik zeg.

De ondersteuning voor die nieuwe truukjes is namelijk helemaal niet zo vanzelfsprekend.

De vraagsteller zegt namelijk helemaal niks over waar die "flinke" prestatiewinst te merken moet zijn. Ik kader mijn antwoord dus alleen maar.
Als het truukje niet werkte wat maakt dan het verschil of je het aan of uit zet in je benchmark ?
Lees eens de vraag die gesteld werd, en lees dan nog eens mijn reactie op die vraag :)

Ik kraak de nieuwe kaarten niet af, ik geef slechts antwoord op een gestelde vraag.
Als je een flinke stap in rekenkracht wilt zien ten opzichte van de 40-serie moet je 10 jaar wachten.
Dit lijkt mij zeer sterk. Dan verliest nVidia zijn dominante positie volledig aan concurrentie.
Zat zelf ook aan deze kaart te denken of de rx 9060. Hangt een beetje af van de prijs prestatie. Ik game toch op 1080p meer heb ik niet nodig.
Ik ben heel benieuwd wat de prijzen "omgerekend" (vanuit Dollars) gaan doen hier in de EU, met de huidige economische situatie.
Hoezo? De kaarten komen niet uit de VS, maar uit Taiwan/China.
Die is nogal instabiel, aangezien de euro zojuist alweer in het rood staat :'(
? Euro is gestegen tov de dollar laatste paar weken
Paar uur geleden stond de koers nog op 1,11 dollar, nu alweer 1,09. Elke keer als Trump niest schiet het weer een paar procent omhoog of omlaag, ben bang dat dat nog even doorgaat.
In maart was het nog 1.07 en begin dit jaar 1.02 .

De laatste paar jaar was het altijd tussen 1 & 1.2 .
Ik focus mij altijd op de geheugenbus bijv 256. Alles daaronder valt af of zit ik daar helemaal fout mee? Dit omdat ik graag redelijk betaalbare kaart wilt aanschaffen.
Doorvoersnelheid is veel belangrijker dan busbreedte.

GDDR7 is dus een snellere auto op dezelfde snelweg (busbreedte) dan GDDR6. En dan heb je nog de snelheid waar het geheugen op draait. Waardoor de doorvoersnelheid van data ook weer beinvloed wordt.

448GB/s betekent 448GB aan grafische data kan per seconde verwerkt worden door het geheugen.

Ze noemen het geheugenbandbreedte, maar dat is eigenlijk her verkeerde woord. Bandbreedte is de marge waar binnen iets opereert.

Je kan dit geheel goed vergelijken met de snelweg. Je hebt rijstroken (busbreedte), autosnelheid op de rijstrook (type GDDR en de snelheid waarop geheugen loopt). Maar wat belangrijk is, is de doorvoersnelheid. Hoeveel verkeer (data) er verwerkt kan worden binnen een bepaalde tijd.
Ja daar zit je wel fout mee, het is een incompleet plaatje. Uiteindelijk maakt het weinig uit zolang de totale bandbreedte maar hoog genoeg. Deze 5060TIs hebben bijvoorbeeld dezelfde bandbreedte als een RTX2080. Ondanks de half zo brede bus.
Ba dat is fout, kijk naar prestaties in de games dat je speelt , al de rest maakt niksuit.
380$ voor een 8GB VRAM gpu... in 2025... nvidia is echt alle feeling met de gaming community kwijt...
Ik denk dat de reviews ook hier weer niet zo positief gaan zijn...
Ze weten het bij Nvidia echt wel hoor, het intereseert ze alleen niet zoveel meer nu ze vele malen meer geld kunnen verdienen met het ontwikkelen en verkopen van (AI) datachips op de zakelijke markt.. Vandaar ook de steeds grotere focus op softwarematige (AI) vooruitgang met de Geforce gaming GPU's i.p.v. pure hardware vooruitgang qua prestaties.. Ze hebben de modellen onder de 5090 sneaky naar beneden geschoven (echte 5080 bestaat infeite nu niet) en bieden het gewoon aan voor wat zij er minimaal voor willen hebben en het intereseert ze voor de rest vrij weinig als een bepaald percentage gamers zegt, ik koop het niet meer want te duur.. Ook wetende dat als het wel weer nodig is ze zo wel weer iets veel beters op de markt kunnen zetten dan wat de concurrentie kan bieden.. Zie de RTX 5090 waar helemaal niks ook maar in de buurt komt.. Nvidia is gewoon 'take it or leave it' op dit moment..

De huidige situatie is ook de schuld van AMD die niks beters kan of wil leveren dan een "midrange" 9070XT op dit moment die concurreert met een 5070Ti (wat infeite eigenlijk dus een gewone 5070 is).. Waarom geen 9080XT ofzo die de RTX 5080 (lees: 5070Ti) verslaat voor minder geld?!? Intel vergeef ik het want zijn nog relatief nieuw op de dedicated GPU markt.. Gebrek aan concurrentie is ook zeker onderdeel van het probleem..

Het geschuif met modellen door Nvidia wordt in deze video goed uitlegd aan de hand van wat grafieken: YouTube: The Great NVIDIA Switcheroo | GPU Shrinkflation

[Reactie gewijzigd door Inflatable op 9 april 2025 15:48]

Klopt, ik had al wel door wat er aan de hand was... ik vond de 4080 ook al niet echt een 80... het gat met de 4090 was daar in mijn ogen al te groot.

Sneaky zou ik het van nvidia niet echt noemen... dit is gewoon overduidelijk en flagrant anti consumenten gedrag...

Maar ja inderdaad, concurentie is ver zoek... zeker in de high end en die "AI" markt wil blijkbaar ziek veel geld geven voor die gpus...
Overduidelijk voor ons ja, maar veruit de meeste mensen die het kopen hebben echter weinig tot geen idee.. Die lezen geen Tweakers of andere tech sites etc.. Het maakt verder ook niet heel veel uit hoe een GPU genoemd wordt of wat de specs zijn, je moet eigenlijk gewoon alleen naar de prestaties en prijs kijken.. Welke prestaties wil je en wat heb je ervoor over? De rest boeit eigenlijk niet.. Maar qua marketing boeien namen als een 5070 of 5080 dus nog wel steeds.. 5080 is het model onder het topmodel, en Ti is zogenaamd een sneller model van dezelfde GPU zonder Ti etc (terwijl het technisch dus niet meer zo is).. En dan krijgen we straks weer een zogenaamde Super refresh etc..
Het is wel dat de 5090 er flink uitspringt qua specs. Ze hebben de 5090 wel knap gemaakt voor upgraden, maar inderdaad de andere modellen minder. En dat maakt dat gat tot 5080 zo groot.
De RTX 5090 bestaat ook alleen maar om te laten zien dat ze het wel kunnen als ze willen.. Dat de concurrentie niks in z'n hoofd hoeft te halen wat dat betreft.. Wat helaas kennelijk werkt want AMD heeft het highend opgegeven.. Maar ze produceren ze maar in lage aantallen en je betaalt er wel flink voor.. Meer dan €2200 voor een videokaart vind ik echt bizar, laat staan de werkelijke prijzen nu in de winkels van boven de €3000.. Daar bouw je een complete highend gaming PC met 9800X3D en RTX 5080 voor..
Zal de AI hype ook niet compleet instorten over anderhalf jaar als iedereen door heeft dat het niet echt intelligent is en het een soort verkoop buzzword geworden is? Van de week een reclame op de radio over een auto en als 1 van de selling points werdt "met de kracht van Chatgtp" genoemd. Dat deed me erg denken aan even geleden toen alles met "de kracht van NFT" moest zijn. Het begin van het eind van het product.
Geen idee, we zien het wel.. Wat PC videokaarten betreft zou het wel weer een keer fijn zijn als er niet iets is wat de prijzen opdrijft en producenten als Nvidia een reden geeft niet 100% hun best te doen om ons betere en goedkopere gaming videokaarten te leveren.. Het is sinds eind 2020 eigenlijk nonstop ellende wat dat betreft met crypto, covid19, nu weer AI en een egotripper in het Witte Huis die met de wereldhandel aan het kloten is.. En dat zie je dus ook duidelijk terug in de grafieken van prijzen sindsdien.. Hopelijk heeft de handelsoorlog geen negatief effect op de prijzen voor ons.. Ik hoop zelfs stiekem op een positief effect hier bij ons, omdat die handel rechtstreeks uit Azie hier naartoe komt en weinig tot niks met de VS te maken zou moeten hebben behalve dat zowel AMD als Nvidia in de basis wel Amerikaandse bedrijven zijn..
Als de game de compressie ondersteund heb je 75% minder geheugen nodig, of te wel deze kaart is equilevant aan 24gb volgens nvidia
Als de 5060 dan ook goedkoper uitkomt kan die tegen de 350 en uiteindelijk onder de 300 komen? Zou wel heel goed zijn voor budget gamers.
350$ was slechts een handjevol generaties geleden nog high-end...

Goed is niet per se het woord wat ik zou gebruiken...
Een 3060 was ook al 300 euro
Een 2070 was ook al 600 euro
Een 1070 was ook al 500 euro
Een 970 was ook al 400 euro

(prijzen uit de Pricewatch, heb Gigabyte kaarten allemaal gepakt)

En dit zijn allemaal midrange, nog geen highend. Ik denk dat je highend gedachte anders zat.
Een 3060 was heel veel meer dan $300.
Dat is onzin.
Zelfs 10 jaar geleden was dat niet het geval zelfs zonder inflatie, met inflatie is dat al zeker verkeerd.
Nu ook nog verkrijgbaar worden voor een goedkopere prijs |:( :+
Als de RTX 5060 Ti inderdaad goedkoper uitvalt dan de 4060 Ti, zou dat wel eens kunnen betekenen dat Nvidia zijn focus verlegt naar prijsbewuste gamers die niet per se de laatste topmodellen willen, maar wel profiteren van nieuwe technologieën zoals DLSS 3.0 en ray tracing. Dit zou de mid-range GPU-markt flink kunnen opschudden, zeker voor diegenen die 1080p of 1440p gaming doen en niet de hoogste frame rates eisen. Het is een strategische zet, zeker als de prijs daadwerkelijk onder de $400 komt.
Tja, op basis van de nieuwe kaarten dit jaar zijn adviesprijzen nogal nietszeggend. We gaan het zien, maar ik betwijfel dat 'ie voor minder dan 500 op de markt komt op dit moment. Misschien dat het later bijtrekt.
Komt vast €300 boven op.
Adviesprijzen hebben natuurlijk nooit echt iets betekend voor ons. Uiteindelijk liggen ze hier vaak hoger met onvoorspelbare marges.

Daarnaast, is niet iedere 5000 series launch tot nu toe een paperlaunch geweest?

Vraag me af of dit dan nog uitmaakt...

Maar goed, winsten nemen waar het kan, natuurlijk. Het is beter dan niets.
Ik heb nog een GTX 1060. misschien tijd om te upgraden. Mijn oude kaartje heeft aardig wat jaren dienst gedaan en ik ben nog steeds niet ontevreden. (met een side-note dat sinds ik van 1080P naar 1440p ben gegaan de performance significant ist verminderd maar ik snap warum)
Idem dito @Roofpigeon GTX 1060 met 6GB en nog steeds niet ontevreden.

Ik zeg laten wij wachten tot de RTX 10060 Ti uitkomt haha dat is al over vier generaties.
Wij hebben langer gewacht hiervoor dan hierna ;)

Maar inderdaad de 5060 Ti zou weleens eindelijk een normale prijs kunnen hebben.
Al is het omdat velen voor ons zo nodig veels te veel hebben betaald aan Nvidia en zich echt niet weer een upgrade kunnen of willen permitteren, al is het omdat ze (terecht) gefrustreerd zijn van al die voorgaande te hoge prijzen die zij graag ervoor over hadden. Nu zij allemaal platzak zijn en hebben beloofd nee gezworen om Niet weer Nvidia hun geld te laten afnemen, kan Nvidia niet anders dan de prijzen te laten zakken. Dus ik snap dit artikel en de hele prijsdaling voor de 16GB model. Daar komt dan, wellicht allicht, onze geduld goed van pas. Ik ga voor 16GB. Jij?

En heb jij een voorkeur voor ASUS, MSI, Gigabyte of Founders edition 5060 Ti?
Ik snap die redenatie nooit zo goed, waarom zó lang wachten en dan vervolgens een tier omhoog en dat dan te duur vinden? Voor +- 275 euro had je een RTX 4060 kunnen aanschaffen die rondjes om je 1060 loopt. Dat is toch helemaal prima?
Ik moet sowieso eerst een nieuw moederbord / processor kopen. ik zit nog op een i7 4770k uit 2013 haha.
Ik heb in de tussentijd een M4 Mac Mini gekocht die zo goed als alles kan. Voor games gebruik ik op het moment Geforce NOW wat ook heel goed werkt.

Helaas voor StableDiffusion etc ga ik denk ik toch wel voor de 5070 of 80 dit keer. maar eerst laat ik mijn AI-Influencer het geld bij elkaar sprokkelen ;)

Op dit item kan niet meer gereageerd worden.