Nvidia geeft geen RTX 5060-drivers aan media, reviews mogelijk pas na release

Nvidia verstrekt geen drivers voor de RTX 5060 aan de pers voordat die videokaart uitkomt. Dat betekent dat media de videokaart pas kunnen testen zodra de videokaart daadwerkelijk op de markt is, waardoor reviews waarschijnlijk pas later zullen verschijnen.

Nvidia bevestigt tegenover Tweakers dat het bedrijf pas RTX 5060-drivers beschikbaar stelt op 19 mei, de dag dat deze videokaart uitkomt. Daarmee stelt Nvidia reviewers dus niet in staat om een review voor te bereiden voor de dag van release, zelfs als ze de videokaart zelf al in hun testlab hebben liggen. Drivers zijn namelijk nodig om de videokaart te kunnen gebruiken, waardoor het testwerk van de 5060 pas kan beginnen wanneer die al wordt verkocht.

Normaliter krijgen media wél vroegtijdig driverpakketten aangeleverd, waardoor ze reviews kunnen publiceren zodra de videokaart uitkomt. Consumenten kunnen zo besluiten of ze de videokaart willen aanschaffen op basis van onafhankelijke testdata. Dat is hier dus niet het geval.

De precieze impact op onze planning is nog onduidelijk. Verschillende media geven al aan dat ze geen RTX 5060-reviews kunnen publiceren wanneer die op 19 mei uitkomt. Daaronder vallen bijvoorbeeld Igor's LAB en Hardware Unboxed, die allebei óók aangeven dat Nvidia geen vroegtijdige drivers zal verstrekken. Die merken ook op dat veel techjournalisten in de week van 19 mei in Taiwan zijn voor de Computex-beurs.

Nvidia kondigde de RTX 5060 eerder dit jaar al aan, en bevestigde vorige week dat deze vanaf 19 mei in de winkels ligt. De videokaart krijgt 3840 CUDA-cores en 8GB aan GDDR7-geheugen. De adviesprijs bedraagt 299 dollar, wat omgerekend en met btw neerkomt op ongeveer 320 euro.

RTX 5060

Videokaart RTX 5060 RTX 4060 RTX 5060 Ti
Architectuur Blackwell Ada Lovelace Blackwell
Procedé TSMC 4N TSMC 4N TSMC 4N
Cores 3840 3072 4608
Boostclock 2,50GHz 2,46GHz 2,57GHz
Geheugen 8GB GDDR7 8GB GDDR6 8GB/16GB GDDR7
Geheugenbus 128bit 128bit 128bit
Snelheid geheugen 28Gbit/s 17Gbit/s 28Gbit/s
Bandbreedte
geheugen
448GB/s 272GB/s 448GB/s
Tgp 145W 115W 180W
Interface PCIe 5.0 x8 PCIe 4.0 x8 PCIe 5.0 x8
Introductieprijs ~320 euro 329 euro 8GB: 405 euro
16GB: 459 euro

Door Daan van Monsjou

Nieuwsredacteur

08-05-2025 • 16:48

85

Lees meer

Reacties (85)

85
83
26
2
0
48
Wijzig sortering
Dat gaat een grote flop worden.

Uitgaande van de benchmarks van de 5060 ti 8GB
Dat zou ik ook denken.
Maar tov de 4060 heeft de 5060 25% meer cores en 65% meer geheugen bandbreedte.

Dan moet een game op een 5060 toch beduidend sneller kunnen draaien dan op een 4060.
Gegeven dat alles in de 8GB VRAM past.
Aan de 5060Ti te zien levert die met 6% meer cores en 2% hogere clocks zo'n 15% meer FPS dan de 4060Ti. Meer geheugen bandbreedte lijkt dan dat gat van ~7% te vullen. Leuke boost, maar die kaart heeft ook 65% meer geheugen bandbreedte gekregen. Dan zien we daar bijzonder weinig FPS voor terug.

De RTX5060 heeft nog minder cores dan de RTX5060Ti en derhalve nog minder noodzaak aan die 65% snellere geheugenbus. NVIDIA had dus dus ook de geheugen bus in 3/4 kunnen hakken (3/4*165%=+24% sneller) en dubbele capaciteit chips op de kaarten kunnen voorzien (want als grote klant is dat simpelweg een kwestie van bestellen en schuiven met dat geld). +25% meer cores, +24% meer geheugenbandbreedte. Niet gek toch?
Dan had de kaart RTX5060 gewoon 12GB gehad, wat een mooie middenweg was geweest op dit prijs segment (en ook geen downgrade voor RTX3060 bezitters).

De 5060Ti 8GB had niet eens mogen bestaan. Dan was er ook geen inconsistentie in NVIDIA's portfolio geweest, geen commentaar dat een B580 meer geheugen heeft voor flink mindere prijs, enzovoort.

Maar goed, wat weet ik als doorsnee tweaker nou van computers (/s). Ze zullen wel ergens een marktkansen zien om bewust prijsgaten te laten vallen voor "extra's" die eigenlijk de bare essentials moeten zijn..

[Reactie gewijzigd door Hans1990 op 8 mei 2025 17:55]

Dit zijn de bewegingen van een monopolist en heeft met een goede GPU stack niks te maken. AMD en Intel hebben een te laag marktaandeel en dus te weinig volume op de markt om Nvidia op de midrange weg te vagen. In het slechtste geval pakken ze een generatie lang goede verkopen en 5% marktaandeel terug op Nvidia. Er is tijd genoeg om te reageren.

Dus Nvidia brengt 8GB midrange uit zodat de mainstream meute denkt 'dat zal wel goed genoeg zijn' (zie de vele '8GB is toch genoeg?' discussies op internet... je gelooft gewoon niet wat je ziet, maar dit is dus hoe cogntitieve dissonantie eruit ziet in de praktijk... het is de naiviteit voorbij, mensen willen gewoon de waarheid niet horen of zien) gecombineerd met de drang om toch eindelijk eens te upgraden na jaren van schamel aanbod.

En over een generatie zitten diezelfde mensen te kijken naar allerlei nieuwe content die op hun 1-2 jaar oude kaartje gewoon niet meer lekker draait. Nu zijn er al enkele voorbeelden. Maar ach... dan draai je toch Medium 720p met een upscaler eroverheen! Nvidia heeft speciaal voor die sukkels al DLSS4 bedacht. Ze zijn rijp voor de slacht. Cashen maarrr.

Het enige wat hier werkt is iedereen om je heen mobiliseren om deze troep over te slaan. Zo niet? Dan kun je wachten op de 6060 8GB. Of misschien 12, maar dan met 4GB op een 32 bit bus of zo. Been there done that.

Gamers hebben de dramatische GPU markt voor een groot deel aan zichzelf te danken. We kopen te makkelijk en accepteren teveel onzin. Het argument dat er ook AI is nu, gaat niet op. Als er geen geld in de gaming markt zat, was het niet de afgelopen tien jaar een groeimarkt geweest tijdens covid, crypto en AI. En die gamers die in de afgelopen jaren zijn ontstaan blijven kennelijk ook gamen.

Die GPUs zijn zo karig de laatste tijd omdat wij ze blijven kopen, ook als de perf/$ gen-to-gen stagneert of zelfs daalt. Je lacht je natuurlijk kapot als je steeds minder kan verkopen voor meer geld. Dat smaakt naar meer: en zie daar de 5060/5060ti. Het is gewoon niet uit te leggen dat wij Nvidia's aanbod klote vinden maar er toch gaan shoppen. Elke keer nodigen we ze uit om de grens nog even wat verder in ons nadeel op te rekken.

[Reactie gewijzigd door Vayra op 9 mei 2025 09:38]

Als het ding voor €320 in de schappen komt te liggen denk ik niet dat het een flop wordt aangezien het een heel aardige prijs is. Of dat terecht is, is een andere zaak.
Dan nog zou ik eerder voor de 9060/9070 kaarten gaan als je puur kijkt naar bang for your buck...
Ik heb zelf onlangs een XFX 9070 XT gekocht voor een goede prijs en die presteert in sommige games al beter dan de 5070ti terwijl het prijsverschil voor dezelfde koeler 200+ euro betreft...
9070 XT en 5060 zijn niet echt kaarten uitdezelfde prijsklasse zelfs een 9060 lijkt me hoger gepositioneerd als de geruchten een beetje kloppen.
Ik begreep juist dat de verwachting is dat de 9600 8GB het lastig zou gaan krijgen tegen de 5060 8GB zowel op performance als nog steeds op feature set en dat die eerst genoemde eigenlijk niet meer dan $200 dollar zou mogen kosten om competitief te zijn als de 5060 inderdaad $299 zou kosten.
Welke Feuture set heb je het precies over? alles qua RT is niet te doen op deze klasse kaarten, zeker niet met maar 8GB.

DLLS is ondertussen niet meer een absolute meerwaarde (wellicht wel als jouw spel dat alleen ondersteund)
Dit soort kaarten moeten het naar mijn idee echt hebben wat ruwe performance
O.a. Hardware unboxed sprak dat uit in hun Podcast, mensen kopen simpelweg over het algemeen geen AMD tenzij ze ofwel +- 30% beter presteren voor hetzelfde geld, of wel 30% goedkoper zijn bij quasi gelijke prestaties, simpelweg omdat ook al gebruik je het niet (of kan je het niet gebruiken) Nvidia een grotere, en breder ondersteunde feature set heeft, een betere naam heeft (wat in de praktijk natuurlijk niet hoeft te kloppen).

En dat gaat van DLSS (FSR4 is een stap vooruit bij AMD, maar nog altijd matig supported, en FSR3 is gewoon geen DLSS concurrent.), tot Cuda support tot alle andere kleine dingetjes (Broadcast enzo), encoders (ook daar maakt AMD geloof ik een stap, maar halen ze geen parity) die Nvidia nog altijd net iets beter voor elkaar heeft.

AMD zou dan dus volgens die stelling, omdat zij de verwachting leken te hebben dat de 9600 8GB niet significant beter zal presteren dan de 5060 een 30% goedkoper moeten zijn, en dan kom je al snel op 299 - 30% = $209, wil je dan nog wat psychologische barrières weghalen bij de consument maak je er dan dus $199 van, want dat lijkt een stuk goedkoper dan $209, ook al zit er maar een tientje verschil in.
O.a. Hardware unboxed sprak dat uit in hun Podcast
Klopt idd, maar volgens mij hebben ze na de 9xxx serie wel hun mening bijgesteld, de dikke korting op AMD kaarten is niet meer zo nodig.

Van zeker 30% goedkoper, naar 20-15% als ik het goed heb onthouden.

Dit omdat FSR4 zeer goed is, en alleen de nieuwste DLSS nog net iets beter is, probleem zit hem nog wel in de support inderdaad maar dat kan alleen maar beter worden (hoop ik)

De rest van de zaken kijk ik persoonlijk niet echt naar (en HWU volgens mij ook niet, is een echte game channel)
Mogelijk dat ze over de 9070 / 9070XT wat bijgesteld zijn, al hebben ze ook over die modellen zeker die 30% genoemd. Hier hadden ze het echter expliciet over dat een 9600 8GB niet meer dan 200 dollar zou mogen kosten.
Was meer bedoeld ivm de 5060/5070 kaarten ;)
De 9060 zou een tegenhanger moeten zijn en de 9060 XT meer richting de 5060 Ti.
Dat is zeker waar, maar inmiddels zou je ook, of misschien juist ZEKER, als je weinig budget hebt maar toch graag gamed, wat langer moeten doorsparen voor een degelijke GPU. Uiteindelijk is x60 / 8GB gewoon duurkoop oftewel penny wise pound stupid. Je gaat sneller moeten upgraden, en als je dat moet gaan doen, dan is je huidige GPU echt helemaal niets meer waard. Over een paar jaar is 8GB simpelweg niet meer genoeg, daar speel je ook nu in feite alleen nog maar 'oudere' of last gen content mee.

Het was ten tijde van RDNA3/Ada al gunstiger om iets hoger in de stack te gaan zitten (niveau 7800XT of 6800(XT)). Uiteindelijk zul je dan langer (en op hogere fps/kwaliteit!) kunnen gamen voor hetzelfde geld.

Dit is een significante wijziging in de markt die mensen danig lijken te onderschatten. Omdat er nu gen-to-gen geen echte vooruitgang in de x60 range meer zit, koop je zelfs met Blackwell eigenlijk gewoon een zwaar verouderd product. Die paar procenten verschil zijn over 2 jaar volledig weggevaagd, omdat niets meer zonder grote concessies gaat draaien. En waar sta je op dat moment als je wil upgraden? Je koopt geen x60... want daar valt geen winst te behalen... dus dan koop je alsnog iets duurders... maar krijg je geen cent terug voor je oude GPU, itt iets met 12GB of meer.

[Reactie gewijzigd door Vayra op 9 mei 2025 09:58]

Ik ben benieuwd naar de 9060, weten we al wat die gaat kosten?
Ligt er echt heel erg aan wat je wil doen. Voor videorendering is NVidia nog steeds gewoon heel erg goed. En dat is met streaming ook belangrijk.

Dankzij de efficiëntie van nvenc krijg je gewoon meer frames op je beeldscherm. Kan zijn dag AMD ondertussen hard aan de weg heeft getimmerd (ik hoop het), maar de laatste keer dat ik er naar keek was de enige hoop nog goede OBS ondersteuning en dat liet wel wat te wensen over om eerlijk te zijn.
Laatste AMD ontwikkeling op dat vlak is echt een mega stap geweest kan ik je uit eigen ervaring vertellen ;)
Volgens mij had Tweakers er laatst ook een stukje over geschreven bij de 9070(XT) reviews..
Zit niet ver van Nvidia af meer :)
Ik waag dat wel te betwijfelen, afhankelijk van hoe je er naar kijkt. Want ja, voor ons enthusiasts is 8GB al jaren een doorn in het oog, en dat zal hier niet anders zijn. In dat opzicht zal het dus zeker een flop zijn.

Echter zijn wij als enthusiasts hier natuurlijk niet de doelgroep, en als je af moet gaan op bijvoorbeeld het commerciële succes van de 4060, vermoed ik dat deze kaarten (ook de 5060 Ti 8GB) in dat opzicht geen flop zullen worden. Kijkende naar de specs zou deze kaart, als een van de weinigen in de 5000 serie, toch wel redelijk wat beter moet presteren dan de voorganger. En vraag lijkt er ook nog genoeg te zijn naar dit soort kaarten, zowel in DiY, als in OEM / Boutique prebuilds.

En dat zal, vermoed ik ook juist de reden zijn dat AMD en Nvidia nog steeds met 8GB kaarten komen, wij vinden het niets, maar commercieel lijken ze nog altijd zeer interessant voor AMD, Nvidia en hun partners als je kijkt naar de install base en het marktaandeel van dit soort kaarten. Ik heb dit zelf ook gezien bij sales data waar ik toegang tot heb, maar ook bijv. HuB gaf laatst in hun podcast aan dat ze navraag hadden gedaan naar de verkoop van o.a. de 4060, 4060 Ti en 4060 Ti 16GB en AMD's 7600 en 7600XT van de vorige generatie om dat te vergelijken met de verwachtingen voor de budget kaarten van AMD en Nvidia deze generatie, en zo'n beetje iedere retailer gaf aan dat de 8GB kaarten veel en veel beter verkochten dan de 12/16GB kaarten, de 12/16GB kaarten kwamen niet in de buurt.

Ik vermoed dus qua reviews e.d. een flop (want 8GB), maar commercieel net als jij inderdaad niet direct een flop. Grote kans dat dit wederom de best verkochte kaarten van de generatie gaan zijn voor zowel AMD als Nvidia.

[Reactie gewijzigd door Dennism op 8 mei 2025 17:36]

Ik houd het wel bij m'n 4060 Ti 16GB, voor wat ik er mee speel is dat nog steeds meer dan genoeg.
Maarja, das ook nog de vorige generatie, dus sowieso geen reden om een nieuwe te kopen, tenzij die kapot gaat. Rustig op de volgende generatie wachten, of huidige generatie stapje hoger pakken.
Probleem is dat de kans zeer groot is dat die niet voor 320 maar voor 420 in de schappen komt te liggen.
Het is al een flop omdat het maar 8GB VRAM is. En dat is probleem voor de nieuwe games.
Je zou moeten kijken naar 5060Ti tests.

Prijs mag laag zijn, maar het speelt gewoon niet. Geen moeite waard.
Misschien wordt hij geen totale flop. De 5060 8GB zou een interessante, betaalbare kaart voor in mijn beoogde nieuwe, SFF productivity/fotobewerking-pc kunnen zijn waarop ik ook weleens minder veeleisende indiegames speel. Als hij tenminste stil en zuinig blijkt te zijn.

Volgens mij zijn er veel meer mensen zoals ik. Ik zag vorige xx60-kaarten ook vaak aangeraden worden in forums voor foto- en videocreators.
Alleen begint ook voor fotobewerking AI steeds meer op te komen. AI Denoise doet mijn 2070S (ook met 8GB) stillaan toch wel zweten. Ik weet niet of PugetBench tegenwoordig AI test ook, maar het wordt wel een dingetje. Uiteraard, als je het niet gebruikt, maakt het niet zoveel uit, maar de tijd dat VRAM als niet belangrijk beschouwd werd voor Photoshop of Lightroom en consoorten, is denk ik stilaan ook voorbij. Zelf kijk ik - als niet echt meer gamer, de games die ik speel trekt mijn 2070S nog altijd makkelijk, vaak zelfs op 4K - voor mijn volgende kaart toch ook naar meer VRAM.

Overigens eigen schuld dikke bult van de reviewers. Altijd maar negatieve reviews afleveren, dan krijg je geen snoepjes meer van de fabrikanten. Waarom zouden ze mensen belonen die geld verdienen door jouw producten af te kraken? Ik geef Nvidia helemaal gelijk, ik zou hetzelfde doen }:O Het zal ze leren! 8)7

/s O-)
Volgensmij als je bij STEAM kijkt op wat voor kaarten er zoal gegamed wordt zijn dat toch vooral de lagere series, dus ik verwacht dat voor een niet al te hoge prijs genoeg mensen dit prima gaan vinden!
Zal vast wel kloppen, maar dat is naar mijn idee vooral te wijten aan mensen die blind nVidia aanschaffen

Bijvoorbeeld de 3050.. echt een verschikkelijke kaart die niemand zou willen hebben.. maar werdt toch redelijk verkocht en kwam ook in de Steam lijsten terecht
EIgenlijk is de serienaam fout :P ze doen de 90 als hoogste model en stoppen ergens rond de 50 - 60.

Maar ik ben het met je eens dat de 3050 echt weinig performance gaf, maar als je op een 1080P scherm gamed dan haalde je uit een 3060 ti echt wel prima performance voor zijn tijd.
En in mijn ogen doet de 5060ti dat nog steeds.
Zijn ze bang voor 'wederom' negatieve reviews?....
De 5060TI, 5070 en 5080 hebben voornamelijk meer matige reviews gehad dan echt positieve...
De 5de generatie is ook vrij matig te noemen als je het vergelijkt met de 4000 series buiten MFG (multi-frame-generation). Pure rasterization performance vergeleken is het echt nauwelijks beter... alleen de 5090 schiet er een beetje bovenuit (maar niet veel meer dan wat je verwacht van een gen=>gen upgrade), maar kost ook aanzienlijk.
en die vooruitgang is puur door de grotere die lijkt het wel eigenlijk is het gewoon ene 4090 super/TI
Klopt de architectuur is zo goed als gelijk alleen op gebied van AI zijn er verbeteringen door gevoerd en met GDDR7 heb je meer bandbreedte maar je krijgt er slechtere drivers voor terug dus in mijn ogen ben je beter af met een 4000 serie of 9000 serie amd tenzij je perse de prestaties van een 5090 nodig hebt.

[Reactie gewijzigd door Astennu op 8 mei 2025 17:38]

helaas heb ik die nodig ja 4K ultra gamen is duur zullen we maar zeggen
4k is opzich makkelijk te doen. 4k240Hz alles Ultra en geen up scaling is een ander verhaal. Maar 4K60 is tegenwoordig goed te doen.
4K120 met up scaling zonder frame Gen ook.
gelukkig gaat mijn wens niet hoger dan 60 heb liever iets stabielere framerate dan meer frames maar dat lijkt zonder upscaling alsnog erg lastig

[Reactie gewijzigd door atthias op 8 mei 2025 20:59]

En dan te bedenken dat MFG met een applicatie als Lossless Scaling al prima te doen is (werkt iig prima op mijn vriendins PC met een 2080ti). Daar heb je geen 50 series voor nodig. En die ondersteunt nog hardware physx ook :P
Ik hoop zo dat AMD en Intel aan GPU marktaandeel winnen. Nvidia is echt slecht bezig en er zijn heel hard alternatieven nodig. Ze zijn heel bewust de boel aan het manipuleren daar bij Nvidia. Ik hoop dat AMD en Intel verder doorschakelen zodat er keuze is, in ieder geval in het lage en midden sigment.
Ik ben het met opzich niet met je oneens dat wat Nvidia deze generatie doet met vooral de 8GB kaartjes niet bepaald netjes is op zijn zachtst gezegd.

Maarrrrr doet AMD deze generatie niet gewoon precies hetzelfde als wat Nvidia doet en mee wegkomt?
- 9070GRE uitbrengen met slechts 12GB Vram (iets waar Nvidia hier voor de 5070 behoorlijk mee is afgemaakt, en terecht), terwijl deze kaart qua core vergelijkbaar gaat zijn met minimaal een 7800XT of 7900GRE van de vorige gen welke wel 16GB hadden.
- 9060XT welke in zowel 8GB als 16GB gaat komen waarbij je de klok erop gelijk kunt gaan zetten dat de 8GB variant een grote flop wordt welke vooral door mensen die het allemaal wat minder volgen gekocht wordt of via OEM systemen.

Waar AMD de vorige generaties meer VRAM in hetzelfde segment bood als Nvidia valt dat deze generatie toch wat tegen, en dat is absoluut niet omdat Nvidia meer is gaan leveren overigens. Dat andere bedrijven per se beter zijn zie ik dan toch echt anders, uiteindelijk willen ze allemaal gewoon zoveel mogelijk winst maken.

Over de misstanden van Intel uit het verleden begin ik maar helemaal niet wat ben ik nog veel langer bezig :+
Het prijsniveau en lage VRAM kan ik ergens nog wel begrijpen, dat is de aandeelhouders tevreden houden. Maar als je dan vind dat 8GB genoeg is waarom leveren ze dan geen 5060TI 8GB aan de reviewers en waarom geen drivers voor de 5060 voor launchday. Dat is waar ik dan echt problemen mee heb, ze doen dit gewoon om een slechte kaart zoveel mogelijke te verkopen voordat er reviews komen die het de opgepoetste drol bestempelen die het is.
Ik snap echt wel dat het om het geld en aandeelhouders gaat, maar is er dan geen enkele fatsoenlijkheid meer bij Nvidia?
Ik denk dat je, je daar nogal op verkijkt. Immers 'dag 1' verkopen van videokaarten zijn over het algemeen niet zo hoog omdat de beschikbaarheid bij release gemiddeld genomen altijd relatief laag is vergeleken met de rest van de periode waarin ze verkocht worden.

Ik vermoed dus ook niet dat Nvidia er wakker van zal liggen hoeveel kaarten ze op dag 1 verkopen, of dat ze reviews zouden tegenhouden met enkel als doel dag 1 kopers te misleiden voor een fractie van de omzet die ze dit kwartaal zullen draaien. Die verkopen zullen immers een fractie zijn van het aantal kaarten dat ze de komende 1.5 - 2 jaar van deze modellen zullen gaan verkopen.

Daarnaast moet je, je denk ik ook afvragen hoeveel invloed die reviews, zeker in dit segment echt hebben. Her zou mij weinig verbazen als het grootste gedeelte van de kopers in dit segment amper tot geen reviews van de bekende techreviewers die wij als enthusiasts als betrouwbaar achten bekijken.

[Reactie gewijzigd door Dennism op 8 mei 2025 19:04]

Nvidia dicteert de markt, dat lijkt me onderhand wel duidelijk.

AMD heeft al meermaals laten zien zonder moeite meer VRAM op de kaarten te willen gooien en had ook structureel meer VRAM in relatie tot core power op RDNA3. Intel heeft dat met B580 ook gewoon gedaan. En inderdaad, helemaal onderaan de stack zitten ook budget kaarten. Maar die zijn bij AMD ook echt budget kaarten, en niet gepositioneerd zoals een x60ti bijvoorbeeld. Ook op het x60 prijspunt zijn ze goedkoper of zullen dat worden.

Het is echt Nvidia dat steeds, ook tien jaar geleden al, VRAM gebruikt om de levensduur van kaarten te handicappen en als ze dat niet doen, worden het legendarische producten/generaties. Maxwell 980ti 6GB ging echt ontzettend lang mee, en is nog steeds een bottom tier GPU waar je mee kan gamen (al worden de concessies aanzienlijk). Pascal was ook deels zo goed door het ruim bemeten VRAM en voldoende bandbreedte. 6-7 jaar na release kon je met een GTX 1080 nog steeds prima uit de voeten. Goed voor het perspectief... 8GB. 2016.

Ook bij AMD zie je dat de ruim bemeten VRAM-producten een lang leven is beschoren. Zie bijvoorbeeld de HD7970 3GB.

[Reactie gewijzigd door Vayra op 9 mei 2025 09:49]

Er is altijd keuze... en echt slecht bezig? Tja, ik heb een 4080 super en werkelijk nooit issues.. beetje in the eye of the beholder, dus.
Ik heb zelf een 50 serie gekocht (dus ben ook onderdeel van het probleem). Alleen gezien het gedrag van NVidia had ik zo graag een AMD of Intel gekocht. Alleen die leveren niet in het hogere segment, dus is het of niet of NVidia. Stable diffusion is ook niet echt een goede optie met AMD en Intel al helemaal niet. En dat weten ze bij Nvidia ook.
Daarnaast heb ik ook last van random black screens die de 50 serie plagen. Dat had ik met de 3080 niet.
Ja maar je weet ook dat die black screens vanzelf wel opgelost worden. En dan heb je gewoon voor jouw situatie een topkaart , laten we wel wezen. beide merken hebben hun periodes gehad met kaarten en driver issues , tis nu ook wel erg in om nvidia=bad te zijn. Tis niet alsof AMD gpu's geen nadelen hebben.

Ik vind ook niet dat jij onderdeel van het probleem bent. Je hebt gekocht wat voor jou het beste leek, als iets stom is is het wel hardware kopen wat je eigenlijk niet wil om alleen maar de underdog te supporten.

Als ik nu vandaag de dag voor de keuze zou staan tussen AMD en Nvidia zou ik wederom gewoon Nvidia kiezen. Altijd AMD gehad, maar nu heb ik team groen en dat bevalt mij uitstekend.

[Reactie gewijzigd door Visgek82 op 8 mei 2025 19:45]

Ik heb laatst een aantal artikelen gelezen dat AMD anders omgaat met VRAM en dat je 16GB vram op een AMD kaart niet kunt vergelijken met 16GB VRAM van Nvidia. Ook het debacle van AMD door alleen de eerste 100 GPU's voor een lage prijs te verkopen om mensen te lokken en vervolgens de prijs flink te verhogen helpt niet mee.

AMD zal net zo goed de prijzen uit de pan laten ryzen ;) Kijk alleen al naar de X3d cpu's, wat een bak geld voor een CPU.
Echter is dat weer een appels met peren vergelijking. AMD heeft inderdaad een commerciële fout gemaakt met de eerste batch, maar het product werkt gewoon als geadverteerd en als je niet de eerste 2 weken per se een 9070 kaart wilde kopen is die nu verkrijgbaar een heel tientje boven de aangekondigde prijs.

AMD heeft bovendien toegegeven dat ze een fout hebben gemaakt en de rebate structuur is veranderd voor de 9060. Vergelijk dat met NVIDIA dat in plaats daarvan maar gewoon onmogelijk maakt om een review op tijd te doen. En waar AMD met nog enige geloofwaardigheid kon zeggen dat de drivers niet op tijd af waren voor de nieuwe generatie, is het niet verschaffen van een driver voor de 5060, de 5de kaart in deze generatie, dus puur reviewers plagen.

De CPU vergelijking gaat ook mank. Er is geen schaarste aan CPU's. Wil je een goedkope, goed presterende CPU zonder x3d kan je bij beide partijen terecht.

Niemand beweerd dat AMD perfect moet zijn of geen geld mag verdienen, dit is puur en alleen NVIDIA, welke andere concurrentie heeft daar niets mee te maken.
In de Best Buy Gaming 1440p zit op dit moment een AMD RX 7700 XT van (nu) € 410. Is deze Nvidia-kaart beter, in die setup?
Daar zou ik niet vanuit gaan, kijkende naar wat reviews is de 5060 Ti 8GB ongeveer gelijkwaardig aan de 7700XT over redelijk wat benchmarks qua gemiddelde FPS (1% lows kunnen dus nog anders uitvallen).

Ik zou deze 5060 dus wat lager inschatten dan de 7700XT.
Oké helder, dank je!
toch niets mis met een te duren low/mid range kaart? zou je zeggen... zelfs voor nvidia is dit nogal geheimzinnig terwijl er al veel bekend is over de kaart. steeds meer redenen om geen nvidia kaart meer te kopen als upgrade
Ik vraag me of hoeveel van de mensen die halsreikend naar een review op release dag uitkijken, een 5060 kopen.
Alles overslaan dat 8GB Vram heeft in 2025. Je kan beter een 7600XT of een Intel B580 kopen voor rond die prijs.
We weten ook allemaal waarom niet. 8GB is niet meer genoeg en nu kunnen wat "sukkels" hem kopen voordat ze een review zien.
Ik hoop dat winkel eigenaren slummer zijn en deze kaarten simpelweg niet meer inkopen. Maar het zal wel niet.
Ik denk dat je helaas gelijk hebt, het is jammer dat een bedrijf zoals Nvidia dit nodig denkt te hebben...
Waarom is 8Gb niet genoeg. Denk je dat deze kaart EU5 niet aan kan? dat is mijn gebruikers scenario namelijk. ik heb een 24 inch scherm

[Reactie gewijzigd door 1234567y op 8 mei 2025 18:52]

Er zijn nu al meerdere games uit die zelfs op 1080p met 8GB niet meer speelbaar zijn.
De tijd van 8GB is gewoon voorbij.
EU5 is waarschijnlijk Europe Universalis 5, de zojuist aangekondigde game van Paradox. Het zou me verbazen als die game meer nodig heeft dan een geïntegreerde GPU.

En dat is ook een beetje de crux. Voor nieuw grafisch geweld is deze GPU weinig indrukwekkend. Voor oude games, of 2D/strategiegames, is je oude waarschijnlijk nog gewoon afdoende en is dit z’n prijs weer niet waard.
Moah ik durf bijna wel met 100% zekerheid te stellen dat de helft van alle gamers nog op 1080 zit........En dan heb je ook niet echt een bakbeest van een kaart nodig. Das alleen als je veel bling bling wilt en voor de mooie beelden gaat, competitieve gamers gaan daar niet voor, die willen weinig latency, en dat is op 1080 het snelst.
Ik dacht dat hardware unboxed in een video en in de podcast had laten zien dat nieuwe games zelfs op 1080p een tekort aan geheugen hebben met 8GB.
Dat gaat komende jaren veer meer voorkomen en dat is reden genoeg om geen 8GB kaart meer te kopen.

En ja als jw games als CS GO gaat apelen heb je geen 8GB nodig maar die kopen vaak een veel snellere kaar om hun 360+hz scherm te vullen.
Dat klopt, en das dus zo'n beetje hetzelfde als dat ik beweer...
Natuurlijk is 8gb voor (sommige) nieuwe games niet genoeg. De nieuwe indiana jones and the great circle heeft zelfs goede raytracing nodig. ( ik draai hem op een rtx4070super met een rijzen 77800x3d.), op 1440P

Wat ik gewoon bedoel is, de meeste hebben nog gewoon 1080P
En je hoeft echt niet de dikste kaarten en processors te hebben.
Je kan een bakje bouwen voor rond de 1100 wat zo'n beetje alles wel draait op 1080.

Natuurlijk als je de hele mikmak wilt, dan sla je minimaal dik 2200 plat of meer.
En ik ben het met je eens dat 8GB vram te krap is, 12GB kan nog wel.
Maar er zijn duizenden prachtige iets ouder games die de moeite waard zijn.

Prijzen van kaarten rijzen de pan uit, het houd een keer op qua poen.
Gewoon als media (DPG is groot genoeg) in letterlijk alle media een review plaatsen op basis van de gemeten resultaten zonder driver.

Met andere woorden, fakkel het product maar af. Dit is gewoon manipulatie.
Dit is weer geen goed nieuws. Nu begin ik toch echt te twijfelen om misschien naar een AMD kaar over te stappen. Ik wou eigenlijk of de 5060 Ti halen of de 5070 Ti. Ik wacht het eerst maar af.

[Reactie gewijzigd door RcsProst op 8 mei 2025 17:54]

Dit artikel gaat over de 5060. Van de 5060ti en 5070ti zijn al lang reviews.
Tuurlijk. Je wou (of wilde) eigenlijk een betere en duurdere NVidia kaar, maar daar zie je ineens vanaf omdat NVidia een 'minder goede' en (iets) minder dure kaar uitbrengt dan je eigenlijk gewild zou hebben.

Maar je kan gewoon nog ff afwachten natuurlijk. Maar op wat dan?
Maar je kan gewoon nog ff afwachten natuurlijk. Maar op wat dan?
De volgende gen. en dan weer .. etc etc
Nou door alle tegenvallende releases en missende rops. Voelt alsof nvidia achteruit gaat. Maar kan ook een verkeerde gedachten zijn


Om te kunnen reageren moet je ingelogd zijn