Nvidia lijkt driverondersteuning voor GTX 700-, 900- en 1000-gpu's te stoppen

Nvidia stopt mogelijk binnenkort met het uitbrengen van drivers voor gpu's gebaseerd op de Maxwell-, Pascal- en Volta-architecturen. Daarmee komen er geen driverupdates meer uit voor videokaarten in de GeForce GTX 700-, 900- en 1000-series, en de Titan V.

Het bedrijf meldt dat de 580-update de laatste driverupdate wordt voor de Maxwell-, Pascal- en Volta-gpu's voor Unix-systemen. TechPowerUp en VideoCardz merken op dat de branches van Unix- en Windows-systemen hetzelfde zijn, waardoor het erop lijkt dat de driverupdates ook voor Windows gestaakt worden. Dit heeft Nvidia echter nog niet bevestigd. Het is niet duidelijk wanneer de 580-update verschijnt, maar mogelijk is dit nog maanden weg.

De laatste keer dat Nvidia driverupdates stopte, was in 2021. Toen ging het om de Kepler-gpu's. Daarmee verloor het gros van de GTX 700-gpu's al de mogelijkheid tot driverupdates. Alleen de GTX 745, 750 en 750 Ti bleven driverupdates krijgen, omdat deze gebaseerd zijn op de Maxwell-architectuur. Mogelijk stopt dit dus later dit jaar.

De Maxwell-, Pascal- en Volta-gpu's verschenen van 2014 tot en met 2017. Mochten deze gpu's de driverupdates verliezen, dan zijn de GeForce 1600-gpu's de laatste GTX-gpu's die nog driverupdates ontvangen.

Door Hayte Hugo

Redacteur

01-07-2025 • 11:36

130

Submitter: robj28

Reacties (130)

Sorteer op:

Weergave:

Nvidia werkt met kwartaalreleases voor zijn drivers. Het afgelopen kwartaal (april-juni) is R575 (alles van 575.xx t/m 579.xx). In het huidige kwartaal (juli-september) zal 580.xx verschijnen, eerst als beta en later als stabiele driver.

Er zijn 3 soorten drivers op Linux: LTSB, Production branch en New feature branch.
  • LTSB (long-term-support-branch) verschijnt maar heel af en toe en krijgt 3 jaar lang ondersteuning. De laatste LTSB is R535. Om de oude GPUs te ondersteunen, wordt deze R580 waarschijnlijk de nieuwe LTSB.
  • Production branch verschijnt om het kwartaal, en krijgt 1 jaar ondersteuning. De laatste hiervan was R570.
  • New feature branch wisselt af met production branches, en krijgen maar 3 maanden updates (het kwartaal waarin deze hoort). R565 en R575 zijn NFBs.
Nvidia wijkt wel eens iets af van dit schema.

Maar conclusie: de R580 wordt een LTSB branch, en krijgt dus nog 3 jaar lang bugfixes en security updates. Alleen geen nieuwe features meer voor GPUs die geen nieuwere drivers meer krijgen.

[Reactie gewijzigd door Domokoen op 1 juli 2025 14:13]

Gewoon .inf modden en gaan! Als je niets geeft om signed drivers. Je kan ook NVCleanstall gebruiken als je niet wil rommelen in .inf files en de mod resigned

[Reactie gewijzigd door Nees op 1 juli 2025 21:20]

Mijn EVGA GTX 1080 heb ik in 2024 ingelijst omdat geen enkele GPU het zo lang heeft volgehouden. Petje af. :)

Ik denk niet dat Nvidia ooit nog zo'n goede bang for buck-generatie maakt. Daar hebben ze van geleerd.
Mijn 1080 doet het nog prima! Ik speel toch geen gloednieuwe games... Ik wacht wel toch de nieuwere kaarten wat betaalbaarder worden.
Ik vrees dat je nog heel lang moet wachten dan, de trend is momenteel dat de prijs alleen maar omhoog aan het gaan is... De bubbel moet een keer klappen zou je denken.
Welke Bubble? Er is gewoon een groot tekort aan chip makers. En die start je niet even op voor een paar ton helaas. Dus dat zal nog wel even blijven vermoed ik. Tenzij we minder gaan consumeren. Maar ook dat zie ik niet snel gebeuren. En zoveel sneller zijn generaties niet geweest afgelopen jaren.
Er is geen tekort aan chipmakers. Er is ook geen tekort aan GPU's voor consumenten, tenzij de fabrikant er voor kiest er 'te weinig te produceren'.

De hogere prijzen worden deels veroorzaakt door nieuwe technologie en componenten die wat duurder zijn om te produceren maar ook door het gegeven dat er maar 1 fabrikant is die de markt bepaalt en die niet heel toevallig recordwinsten boekt op zowel de datacenter als de gamingkaarten. Daarbovenop wordt het principe van periodiek nieuwe modellen uitbrengen met een bijbehorende 'nieuwe' prijs 'misbruikt'. Waar je bij bijv. tv's of smartphones na een introductieperiode van een maand of iets langer de prijs (vaak drastisch) ziet dalen worden GPU's gemaakt door derden die een vaste prijs betalen aan Nvidia voor de hardware en daarop zelf ook nog een marge moeten zetten voor hun eigen aanpassingen en winst.

Er zijn mensen die d.m.v. inflatiecijfers willen aantonen dat er niets vreemds aan de hand is met de prijzen voor GPU's maar die mensen zien dan over het hoofd dat dat alleen werkt voor GPU's en niet voor alle andere hardware die in een PC zit, die qua prijs redelijk stabiel zijn gebleven over dezelfde periode.

De mining 'bubble' en de Corona perikelen zijn voorbij en we hebben in de tijd daarna amper een 'normalisatie' van het prijsniveau gezien. Het gegeven dat AMD zonder problemen voor dezelfde hardware en techniek vrolijk exact $50 onder Nvidia kan gaan zitten en dat bijv. een RTX 4080 Super fors minder koste dan de (slecht verkopende) normale 4080 geven aan dat er een flinke marge op die GPU's zit.

De reden dat de bubble voorlopig niet klapt is dat er geen enkel bedrijf in staat is om op korte termijn iets aan Nvidia's marktpositie te doen en zolang consumenten de GPU's massaal blijven kopen is er geen reden om de prijzen te verlagen.
Maar wat ik dan weer lees is dat bv de 9070 msrp alleen op die prijs verkocht kan worden met korting van AMD zelf anders niet. waarom laat AMD hier dan zoveel geld en macht liggen? als ze makkelijk voor een stuk minder marge massaal verkocht kunnen worden? zo heeft AMD Intel ook van de troon gestoten gewoon veel meet power voor minder geld. niet de zelfde power voor iets minder met minder features.

en de groei in gaming is voornamelijk tussen 2024 en 2025 te zien. maar de prijzen zijn al langere tijd absurd te noemen.
Wat AMD doet is iets ingewikkelder dan dat. Hun productie is duurder omdat ze minder produceren en 'slechtere' contracten hebben. Ze nemen ook genoegen met minder marge maar draaien over de hele linie nog steeds winst op de gaming GPU's.

Als AMD weer massaal voor de consoles gaat produceren kunnen de prijzen nog veel verder omlaag.
en de groei in gaming is voornamelijk tussen 2024 en 2025 te zien.
Deze volg ik niet. Gaming groeit al decennia en de prijzen zijn in 2017(?) ontploft met het mining gebeuren en daarna nooit echt meer gedaald naar het 'normale' niveau.
https://www.reddit.com/r/pcmasterrace/comments/1awtso6/nvidia_made_29b_from_gaming_last_quarter_vs_184b/#lightbox

de winst op gaming tussen januari 2021 en januarie 2024 is slechts 0,5 miljard. dat moet ik niet extreem veel. net zoals 2017/2018 niet exteem veel is. nieuws: Omzet en winst van Nvidia dalen door tegenvallende gpu-verkopen

dus tussen 2017 +- 1 miljard en 2024 +- 3 miljard zit +- 2 miljard per kwartaal.

op data center gebied zit tussen 2017 +- 0,4 miljard en 2024 18,04 miljard...... dat noem ik een record winst. al is de winst tussen 2025 en 2025 ook niet extreem. en blijft het een beetje rond het zelfde zitten. Data center daat in tegen is een 93% increase tussen q4 2024 en q4 2025.
Het is maar wat je niet veel noemt. Een hoop grote elektronicavedrijven zijn al blij met een winst van 50 miljoen over een heel jaar. De cijfers zijn voor een bedrujf dat in principe 1 specialistisch product maakt echt wel uitzonderlijk.

Dat omzet en winst in 2018 daalden is niet raar omdat ze met de mining hype daarvoor veel hoger waren dan normaal maar de prijzen heel lang hoog bleven. Het vergelijken van kwartalen is ook niet echt nuttig omdat er steeds grote pieken zijn met de release van nieuwe GPU's die in de maanden erna weer afzakken.
In absolute aantalen is het veel maar % gewijs valt het reuze mee. Kia Motors ging van 0,925 miljard kwr in 2017 naar 9,775 miljard kwr. Dat is een veel grotere groei als Nvidia op gaming gebied heeft meegemaakt.. en als je de grafiek op reddit bv bekijkt zie je dat Nvidia op gaming gebied helemaal niet zoveel groeit. Zeker op de lange termijn en vergelijkbaar met andere bedrijven en bedrijfstakken. Ik zie het als normale groei en geen mega records verbreken. Dat laten ze aan Data centers over

[Reactie gewijzigd door loki504 op 2 juli 2025 13:19]

Mijn 970 ook, maar zo te zien zit zijn tijd er op, of ik moet over op de Nouveau drivers..
Wow ik had hier nog nooit van gehoord. Is dit dan ook alleen voor Linux of ook zelfs voor windows?
Volgens mij alleen Linux en niet echt geschikt voor gaming. Op de desktop is het prima.
Dat gaat de komende tijd wel veranderen, gelukkig.
NVIDIA heeft een aantal dingen open-source gemaakt waardoor support in de open-source kernel-drivers, Nouveau, Nova en NVK de laatste tijd grote stappen hebben kunnen maken.
Het is nog niet op het niveau van de AMD of zelfs de Intel open-source GPU drivers, maar het begint te komen.
Dat klopt wel, maar ik geloof dat de nieuwe drivers alleen voor Turing en daarboven gaan werken (https://news.itsfoss.com/mesa-zink-nvk-switch/). Al las ik ergens anders dat Pascal ook ondersteund zou worden. We gaan het zien. Nova had ik nog niet van gehoord. Spannende tijden.
Hier ook nog 1080 gtx. Nvidia 5070 ti of amd 9070xt zullen strak naar hun 'beste' potentiele prijs (in huidige slechte klimaat) moeten dalen voor ik er een koop.
De nieuwere kaarten worden alleen maar duurder.
5070 is nu toch wel te krijgen voor dezelfde prijs als een 1080 was.
Mijn nicht heel blij gemaakt vorige maand met mijn ouwe GTX1080. Wel even nieuwe thermal paste voor de zekerheid. Die kaart gaat nog wel een tijdje mee, ook zonder driver ondersteuning. Ze speelt alleen WOW classic, en kan nu op Ultra settings spelen. Prachtige kaart en het is fijn om het een derde leven te geven want ik had hem zelf tweede hands.

De GTX 1070 heb ik ook met veel plezier op gespeeld.
Beter marktplaats afstruinen voor betaalbare kaartjes dan, ik ken er wel een paar nu... Mooie als nieuw maar al wat verouderde kaarten kun je gewoon bij hun kopen. Voor heel erg schappelijke prijsjes (ik koop ze en zet ze weer in systemen om te verkopen)
Doe ik eigenlijk ook altijd. Ik heb maar een paar keer in mijn leven een nieuwe kaart in de winkel gekocht en het was het eigenlijk niet waard.
Ons rekencluster heeft nu nog steeds veertig GTX 1080 Tis. Daar heb ik nog heel wat differentiaalvergelijkingen op doorgerekend :D .

Ik verwacht ze binnenkort weer aan het werk te zetten 8-) .
Hey, dat klinkt interessant! _/-\o_
1. Kan je verder uitleggen wat er precies met de GPU's (en CUDA software) wordt berekend?
2. Wat is de architectuur van de cluster (is het MPI parallelisatie tussen nodes en CUDA parallelisatie op GPU's?)
3. Wat is de FLOPS FP64 performance van de cluster? Consumenten GPU's zijn vaak doelbewust afgeknepen op FP64 performance. Voor wetenschappelijke berekeningen kiest men tegenwoordig vaak voor doelgerichte datacenter GPU's zoals de NVIDIA A100, H100, B100, of de AMD Instinct MI-series. Afgezien van Cerebras hun Wafer Scale Engines zijn deze GPU's doelbewust niét afgeknepen op FP64 performance!
4. Is het voor de grotere berekeningen, kostentechnisch gezien, nog de moeite waard om zélf een kluster te draaien op oude consumentenhardware? Met de huidige cloud service providers is het namelijk niet meer nodig om zélf de investeringskosten voor datacenter GPU's en de hele omliggende infrastructuur op te hoesten. De huidige cloude service providers bieden namelijk al professionele datacenters met adequate redundantie, breedband connectiviteit, klimaatcontrole, fysieke beveiliging, remote hands services en recente hardware. Afgezien van het uitvoeren van configuraties en testruns lijken cloud services als AWS, Lambda Labs, CoreWeave, Google Cloud, Azure, DGX Cloud mij erg interessant. Wat zijn de meningen hierover in professionele/academische kringen?

[Reactie gewijzigd door EcoR1 op 1 juli 2025 15:08]

1: Ja, deels. Het cluster heeft ongeveer 200 gebruikers. De GPUs worden niet heel veel gebruikt, maar de meeste gebruikers die ze pakken trainen er machine learning modellen mee om seismologische data te interpreteren. Gezien ik zelf geen seismoloog ben, kan ik daar niet echt dieper op in te gaan wetend dat alles klopt wat ik zeg.

Zelf reken ik Gray-Scott simulaties door, om vervolgens met de resultaten andere CPU berekeningen te doen. Zie voor het resultaat een paar youtubejes die ik heb gemaakt:

YouTube: Pattern formation in the Gray-Scott equations.

YouTube: Pattern formation in the Gray-Scott equations.

Het rekenwerk wordt uitgevoerd op een rooster van 4000x4000 punten, wat leidt tot 16 miljoen threads, die onafhankelijk van elkaar hun ding kunnen doen. Die software heb ik zelf geschreven. Die praat dan tegen de CUDA library.

2: Het rekencluster heeft ongeveer 90 compute nodes, waarvan vijf nodes met elk acht GPUs. De nodes hangen Infiniband aan elkaar, en parallelle software kan inderdaad met MPI met naar andere nodes communiceren. Ik heb nog nooit meerdere GPUs gebruikt voor één berekening. Weet eigenlijk niet direct hoe ik dat zou moeten doen. Ik reken mijn modellen uit voor verschillende waardes van bepaalde parameters, en dat zijn genoeg jobjes om single-GPU te draaien, soms met zijn veertigen tegelijk.

3: Niet gebenchmarked. My search engine result is as good as yours :) Ik heb dat afknijpen niet getest. De CUDA cores zijn wel single precision, en voor een double precision operatie zijn dacht ik achte single precision cores nodig. De A100, H100 etc hebben volgens mij meer double precision cores, maar dat zijn dan ook stervensduur.

4: Beheerders van cloud diensten verdienen er flink veel geld aan. Als je het zelf kan beheren, en lang nodig hebt is het goedkoper om dat zelf te doen. Als je het zelf niet kan en uit moet zoeken kan het goedkoper zijn om extern rekentijd in te huren. Bedenk ook dat je een hok nodig hebt waar je thuiscompu staat, waar voldoende stroom moet zijn, en voldoende koeling, die een tyfusherrie maakt. Aan de andere kant, als je tijd zat hebt kan het ook leuk zijn dat uit te vogelen, en plezier is ook wat waard. Als je zoiets zelfs wil doen is dat een uitgebreide afweging van kosten en baten waard, en niet alleen financieel. Hoe lang verwacht je het cluster nodig te hebben? Wat wil je er precies op doen? Afgezien daarvan hebben consumenten-GPUs in mijn ervaring een veel betere bang for buck. In academische kringen is de mening 'koop het hipste waar je geld voor hebt'. Destijds waren dat de 1080TIs. Nu zou ik het niet weten, maar het zou best kunnen dat we een keer een batch 5080s erbij zetten, oid.

[Reactie gewijzigd door hooibergje op 1 juli 2025 16:06]

Mijn 1080TI voldoet nog prima, daar verbaas ik me nog wel eens over. Het ding is ik denk een 8 jaar oud? Nu speel ik vooral 4X games en is de racesim de deur uit, dus hij hoeft niet hard aan de bak. Maar dan nog, ik kan me niet herinneren dat ik langer dan 3, misschien 4, jaar met een GPU heb gedaan.
Dan heb je het wel over de beste topkaart van de serie (GTX1080ti), ik heb hier nog een GTX1060 6GB en die trekt het niet meer bij de nieuwste games.

Geen support betekend niet dat de kaart er helemaal mee stopt bij nieuwe games.

[Reactie gewijzigd door mr_evil08 op 1 juli 2025 13:10]

Maar die GPU was ook ruim 1000 875 euro. Dan mag je toch wel verwachten dat ie ff mee gaat. Ik had een 1060, daarna een 3060 Ti, nu een 7800 XT en alles bij elkaar opgeteld heb ik véél minder uitgegeven en waarschijnlijk veel langer, betere prestaties gehad.

[Reactie gewijzigd door Dekar op 1 juli 2025 13:47]

Ik heb hem in oktober 2017 gekocht voor EUR 875. Die drie kaarten bij elkaar zijn een kleine EUR 1500 denk ik? Als je voor normale prijzen gekocht hebt. De 3060TI is geen enorme upgrade vanaf een 1080TI naar mijn idee. Het wordt pas echt beter met de 7800XT. Dan zit ik naar mijn idee prima aan de goede kant qua prestaties en budget. Ik kan me geen andere kaart dan de 1080TI herinneren die zo veel bang for buck heeft gegeven.
Dat is wel een nette prijs. Ergens rond die tijd gingen de prijzen omhoog vanwege crypto farms. Maatje van me heeft er 1200 euro voor betaald.

Je schrijft een videokaart van 2 generaties oud natuurlijk niet meteen helemaal af. Als je ongeveer 50% restwaarde rekent, dan kostte die videokaarten mij dichter bij de 750,-
Ik ken nog wel een gpu die minstens zoveel bang for buck gaf als een 1080ti, de AMD Radeon 7950HD, in 2013 kocht je die voor 180 euro en dan had je voor die tijd een high end gpu, versloeg de Nvidia GTX480. Hij had met zijn 3GB VRAM ook een voordeel tegenover concorrenten die nog op 2GB zaten. Hij deed zelfs niet veel onder voor de GTX680 die meer dan 2x zoveel koste.

[Reactie gewijzigd door Vlizzjeffrey op 1 juli 2025 14:03]

En mogelijk minder stroom gebruikt, want iedere generatie is efficiënter. In termen van e-waste is het dan weer minder goed om 2/3 midrange kaarten te kopen waar je telkens 2/3 jaar mee doet, in plaats van 1 high-end kaart waar je 6 jaar mee doet.
In mijn ogen is dat omdat het een van de laatste echt betaalbare top kaarten was. Veel gamers zijn blijven hangen op die kaart of een goedkopere kaart met vergelijkbare performance. Dus merk je dat games worden tegengehouden in scope om toch op een dergelijke kaart te presteren.
Daarna kwam de mininghype weer op gang met de 2000 serie, en bij de 3000 serie ook nog wel een beetje. En bij de 4000 serie heb ik niet echt een idee waar het probleem lag, waarschijnlijk 'Ze kochten ook de 2/3000 serie voor exorbitante bedragen, dus dat gaan we nu ook weer proberen.

Er waren toen vast ook wel 'shortages' bij de leveranties, zoals ze dat ook bij de huidige GPU's (toen ze net op de markt kwamen) hebben gedaan.

Ze zijn voor de meeste 'niet meer normaal'-duur, maar ze gaan tevens ook als warme broodjes over de toonbank. Dus wie is er dan gek.

Ik heb voor mijn 1080TI Aorus EE ergens in de 1100 euro betaald volgens mij, en mijn 7900XTX die als opvolger diende heeft mij in wederom een dure uitvoering iets van 1300 euro gekost.

Ik vind dat wel een keer best kwa prijzen, maar ik ga echt geen 2000 euro uitgeven voor een topmodel. Boven de 1000 euro vond ik al teveel. En als je van een 1080TI komt is 'midrange kaart' niet echt een voorruitgang als je daar met de GPU tekorten en hoge prijzen alsnog 700-1000 euro voor moet neerleggen.
T.o.v. een 1080TI ga je er vast relatief veel op vooruit met de huidige midrange kaarten, maar als ik bij AMD zou blijven heeft de nieuwe lichting van AMD 0 nut, gezien ze beide zo goed als in alles slechter zijn dan de 7900xtx. Als wéér een volgende generatie van AMD 'Iets beter presteerd' zou het voor mij dus nog wel 3-4 generaties kunnen duren alvorens ik mijn 7900xtx aan de wilgen ga hangen. Of de veel beter presterende kaarten moeten <500 euro gaan kosten.

Dus mijn volgende upgrade moet toch wel heel wat meer gaan bieden en tegen een schappelijke prijs.
Ik heb ook nog een GTX1660, heel lang gebruikt, was ook niet stuk te krijgen.

Is nu een reserve videokaart geworden, maar ik zal hem nooit wegdoen.
In zat in het zelfde schuitje, paar maanden terug toch vervangen door een MSI RTX 4070 Super om toch bepaalde nieuwe technieken te hebben in games zoals Raytracing.
Mijn EVGA GTX 1080Ti FTW was een beest van een kaart qua snelheid en koeling.
EVGA heeft met hun 1080 FTW veel kritiek gehad i.v.m. koeling VRM.
Bij 1080TI zekerste voor onzekerste genomen en overal top koelvinnen en pads.
Ik heb momenteel m'n GTX 1080 er in hangen omdat m'n nieuwe kaart voor RMA is. Het stuurt 2 1440p schermen aan en kan de meeste games die ik speel nog steeds op acceptabele frames draaien. Wat een ongelofelijke kaart is dit.
Dat is ook helemaal niet zo raar, want raw power staat de GTX gelijk aan de RTX 2070 en RTX 3060. Alleen ondersteund de GTX 1080 geen raytracing en upscaling technieken. Dus in recente games presteren de RTX serie's uiteraard beter, wegens de nieuwe technieken.

Maar gewoon de raw power zonder raytracing en upscale technieken, zit de GTX 1080 met de raw power rond de RTX 2070 en RTX 3060.
Precies... Die generatie deed het veel te goed... Beter voor nVIDIA om kaarten te hebben die na een volgende generatie vervangen moeten worden....

nvidia heeft inderdaad geleerd.... Hoe nog hebzuchtiger te zijn en de consument in de kou te laten staan en alleen die euros belangrijk vinden.
Tja, zolang gamers in de rij staan met duizenden euro's zou Nvidia wel gek zijn om het niet te doen. Wat dat betreft zijn gamers toch wel heel makkelijk om de tuin de leiden. Zelfde met pre-orders van games en games met ernstige DRM meuk die je niet wilt hebben of eindeloze cashgrabs.
Net door de 1080 gtx ben ik strenger. 4000 serie opgehemeld maar in 600€ klasse nauwelijks beter (5000 serie ook zo) Radeon 7000 series verbruikt teveel, 9070 xt geen 20gb (voor rest wel perfecte kaart als hij eindelijk eens die 700€ haalt.

nieuwe kaart moet ook 8 jaar meegaan (om hyper inflatie gpu's te verwerken, hoe langer iets meegaat hoe minder kosten). Daarom dat ik sterk twijfel, bv qua snelheid 5070 ti vrij goed, maar 950€ is gewoon teveel (goedkopere modellen hebben slechtere koeling).
Radeon 7000 series verbruikt teveel
Voor een systeem uit 2017 verving ik een GTX 1080 voor een RX 7800 XT. Dat is iets meer energieverbruik voor veel meer prestatie.

[Reactie gewijzigd door The Zep Man op 2 juli 2025 07:41]

7900 gre vebruikt ok (en iets sneller als 7800xt) 7800xt was ook een van beste kaarten uit 7000 serie, qua verbruik en prijs/prestatie. Maar vond die net te traag wou 110% sneller als 1080 gtx (de 6950xt en 7900 xt haalden dat 7800xt net niet). Komt door gelijktijdige upgrade in resolutie en ook hertz, kan ik niet met 'beetje' sneller 'er komen.

9070 extreem goed verbruik voor prestaties. 9070 xt kan bijna zo goed getuned worden ben behoud de extra cores (toch wel belangrijk voor later). Das dus m'n plan. 9070 xt naar 250 watt tunen, genoeg video's die dat tonen.

[Reactie gewijzigd door Matti7950 op 1 juli 2025 19:43]

Eens, mijn 1070 vorig jaar weg gedaan naar een vriend van me die op 1080 gamed, en die heeft er nog veel plezier van. Kingdom come 2 kon ie gewoon draaien, meeste andere games ook, zij het op wat lagere settings.

Mooie generatie kaarten, die ook qua prijs/performance echt prima waren.
Ik gebruik mijn GTX 980 nog steeds! Vlak voordat de 1000-serie uitkwam voor €350 op de kop getikt in een deal. Begint nu wel kuren te vertonen, bv. Jedi survivor is gewoon niet te spelen met 4gb vram.

Waarschijnlijk wordt de volgende en 9060xt, ik weiger toch om veel meer aan een gpu uit te geven...

[Reactie gewijzigd door MrTomatosoup op 1 juli 2025 14:45]

De 8800 GTX is de beste Nvidia GPU ooit gemaakt. Echt een monster van een kaart voor die tijd.

Maar ik heb ook lang plezier gehad van de GTX 1080.
Hier nog een trotse bezitter van een ASUS Geforce GTX 295. DUAL 275 gpu's met elk 768MB aan videogeheugen. Deze naast mijn 1060 6GB asus kaart in de vitrine.

Toen als nieuw heeft de 295 GTX al 1000 euro gekost. Helaas SLI was bij weinig games een hebbedingetje die tijd. Nu een 6700XT 12GB. In de nominatie om vervangen te worden. Maar de gehele pc staat in de nominatie. Of terug naar intel of over naar AM5.

Tenzij AM6 als moet komen
Je moest alleen wel de oventruc toepassen als je daar 10 jaar van wilde genieten. :P
Mijn EVGA 1080Ti was zeker ook GOAT.

Nooit problemen mee gehad.

Mijn nieuwere 4080S lijkt op 5K2K al geheugen tekort te komen bij Hogwarts Legacy op Ultra settings
770 euro in 2025 euro (uitgaande van 600 in 2017).
voor die prijs kun je hedendaags een dikke 5070 kopen.

de 5070 is ongeveer 2.3 (+130%) keer zo snel, dus dat is veel meer waard voor je geld :)
Heb ook nog een EVGA GTX1080 voor mijn i7 6700k build. Dat is echt een top kaart
Heb twee maanden geleden na 11 jaar mijn 660ti vervangen door een 1070 :)
Btw hier op tweakers 2ehands gekocht.
Mijn 1080 in 2023 vervangen voor een tweedehands 3090, dat is ook wel aardig veel kaart voor het bedrag. ben wat dat betreft wel dik tevreden met hoe lang deze meegingen. Mijn partner zit nog op een 1070, het is dan wel sneu dat die binnenkort weg moet terwijl hij het nog prima doet
Hoe erg is het als een GPU die Game Ready Drivers niet ontvangt? Iemand enig idee hoeveel prestaties je daarop kan verliezen?
Denk dat het meer een probleem is voor nieuwe spellen die dan of slecht of helemaal niet werken.
De games zullen nog steeds wel werken, alleen niet geoptimaliseerd zijn. Je hebt dan meer last van performance problemen, maar voornamelijk omdat je kaart oud is, niet omdat er geen nieuwe drivers afgeleverd zijn.

Ook zonder NVIDIA drivers werkt je kaart nog, je krijgt nog steeds beeld omdat Windows herkent dat er een GPU in je moederbord zit en daar wel standaard drivers voor heeft. Met oudere NVIDIA drivers zal je videokaart voor oude games geoptimaliseerd zijn, maar worden alleen nieuwe games dus niet meer geoptimaliseerd. Dat betekent niet dat je ze niet kan draaien, maar gewoon dat ze niet alles uit je kaart kunnen halen wat technisch mogelijk zou zijn.
Nee er zullen met tijd weldegelijk compatibiliteit's problemen ontstaan. Nieuwe features in de API zullen support moeten hebben in de driver. Nou zullen de meeste bleeding edge games afhankelijk zijn van raytracing of andere moderne functies, dus zouden toch al niet op deze kaarten werken.
Valt wel mee. Het is vooral bij nieuwe games dat je wellicht wat optimalisatie mist. Maar je kunt je afvragen of echt nieuwe games sowieso een iets nieuwere grafische kaart nodig hebben om het een beetje lekker te doen.
Alle beetjes helpen, maar het verschil is meestal maar klein. Afgezien van eventuele graphics-breaking bugs, maar volgens mij komen die niet vaak op driver niveau voor
Je verliest er technisch niks mee, alleen toekomstige games werken potentieel minder optimaal en kunnen bugs hebben die niet opgelost worden. Ik ben iemand die maar zelden drivers update, wat een vergelijkbare situatie oplevert, en als ik dan eens update is het verschil zelden significant.
Volgens mij zit je met alle games tot dan toe goed. Met games die na die datum zijn gereleased loop je misschien tegen performance issues of crashes aan. Ik zou me er niet al te druk over maken, als er echt lompe security issues in de oude drivers zitten komen ze alsnog wel met een patch.
Nieuwe kaarten hebben binnen een jaar al geen prestatie boosts meer en alleen maar bug fixes voor games.

Je gaat er dus niets aan missen.
Varieert per spel, kwam er recent achter dat mijn 4070 ti drivers ruim 2 jaar oud zijn.

En dan gaat het meestal 2 kanten op, spel werkt prima of het spel werkt niet goed of is buggy.

Voor mij over algemeen dat eerste, en met een enkele game zelfs betere performance dan met nieuwere drivers.

Maar dat is in mijn geval, zal bij iedereen anders zijn.
Het is meer een ding in de LLM wereld, als games een nieuwe vulkan versie gebruiken, etc.
Je gaat vast zitten op CUDA 12.9 en Vulkan 1.4.

Ik had ook verwacht dat dit nieuws al lang bekend was want ze gingen de kaarten niet ondersteunen met CUDA 13. Ik dacht zelfs al dat wellicht er geen overlap was met de 5000 series omdat ze het in 12.8 al zouden droppen maar dat viel gelukkig mee.

Binnen KoboldCpp ondersteunen we in onze oldpc release zelfs nog kepler (de kaarten met een hoger compatiibiliity level zoals de K80). Dus ik verwacht dat we deze GPU's nog lang kunnen ondersteunen (Ik heb zelf een M40 dus kan het makkelijk testen). Waar je dan op inlevert is als bepaalde technieken een hogere cuda versie nodig hebben. Zo is bij ons Flash Attention een CUDA12 functie, CUDA11 gebruikers kunnen het ook gebruiken maar dan heb je een tragere fallback.
Ik heb nog steeds een GTX 1080 die het prima doet, geen fijn nieuws dit :/
Stel dat je nu die die 1080 zou vervangen door een 4060: een 4060 pakt vol ongeveer een 120 Watt, een 1080 pakt 180 watt als ie vol aan staat. Die 4060 kost nu net iets boven de 300 euro: uitvoering: Gigabyte GeForce RTX 4060 Windforce OC 8G en is 18% sneller (dus qua performance soortgelijk).

24/7 stoken kost 1 watt ongeveer 2 euro per jaar.

Afhankelijk van hoe vaak u het GPU laat werken heeft u die 4060 over een paar jaar gratis, door uw lagere stroomrekening.
Je hebt zeker een punt en het is ook binnenkort tijd om een nieuwe GPU te kopen.
Mijn vriendin heeft de 4060 en dat is wel een pareltje inderdaad. Denk toch zelf dat ik eerder voor iets als een AMD 9070 ga kijken die weer een paar jaar voorruit kan.
Ik ben zelf voor een lompe 9700XTX gegaan. Het was dat of een 4090, en die vond ik te duur. Ik wilde mijn VR goggles aan kunnen sturen, en een 4060 is dan niet voldoende. Het juiste gereedschap voor de juiste klus :D
Ik heb ook een GTX 1080 maar ik game niet 24/7. Laten we zeggen dat ik mijn GPU intens gebruik voor 8 uur/week (beetje overschatting om genereus te zijn). Dan is dat 60 watt verschil x 8 uur per week x 52 weken x 0.3 €/kWh x 0.001 W/kW = €7.5 per jaar. Dan kan je het terugbetalen over een periode van 40 jaar.

Maar goed, de pc staat wel veel vaker aan. Laten we kijken naar idle use. Volgens TechPowerUp gebruikt bij een idle multi-monitor setup de 1080 8 W en de 4060 17 W. Lijkt alsof dit niet gaat helpen. Maar goed, dat is niet helemaal eerlijk, dat zijn andere resoluties; maar de 1660 staat in de review van de 4060 en heeft ook z'n eigen review waarin deze net iets meer stroom verbruikt dan de 1080, dus het lijkt wel ongeveer te kloppen. Maar goed, als je ongeveer 7 keer zo veel je GPU laat idlen dan op max laat draaien, dan lijkt de 1080 stroom-efficienter (bijvoorbeeld bij thuiswerken).

Niet echt een goede reden om te upgraden als je niet in VR of een MMO leeft dus.

(en deze wiskunde maakte me wel blij met mijn relatief recente aankoop van een 1080 als een budget GPU)
Je 1080 blijft gewoon werken hoor, maar het kan zijn dat er in de toekomst driver bugs voor nieuwe games gefixed worden die jij dan niet kunt installeren.
Je kaart blijft gewoon werken hoor. Er komen pas problemen bij een hele nieuwe Windows versie. Met de nieuwe drivers veranderde er toch al niet zo veel meer voor deze oudere kaarten.
[rant] Hopelijk starten ze dan nu met ondersteuning van drivers voor de RTX 50xx kaarten. Ik heb al veel grafische kaarten gehad de afgelopen 20 jaar, maar ik heb nog nooit zo'n instabiele driver gehad als met de nieuwste lichting nVidia kaarten. Met regelmaat crashes op Windows, vooral als ik niet aan het gamen ben.

[ontopic] Er komen momenteel steeds meer spellen uit waarbij de featureset van de GTX kaarten niet meer voldoet. Zelfs als zou je aan de rauwe performance nog genoeg hebben. Dus ergens is het begrijpelijk dat het moment is gekomen langzaam afscheid te nemen van de oude generatie.
Ik heb er ook veel gedoe mee. Aanvankelijk werkte Enshrouded niet, dat is nu opgelost met de nieuwste driver maar nu is vsync stuk in alle games.
Ik heb de 5070 TI. Crashes in Windows niet, maar ik gebruik de kaart ook voor Davinci Resolve 20 Studio met Studio Drivers, en performance is nog al wisseld.

Ik hoop dat dit snel beter wordt.

Bij de Witcher 3 Met alles Ultra heb ik wel glitches gezien, maar lijkt opgelost met de laatste Studio Driver.

Maarja, performance is idd nog wissend en ik hoop op flinke verbeteringen.
Misschien is het ook 1 van de redenen om deze support te stoppen, omdat ze anders niet bepaalde fixes kunnen doen of dat die enorm veel meer mankracht kosten en ze dat niet waard vinden.
Apart.

Volgens de Steam charts worden er nog veel GTX1000 serie GPU's gebruikt. (Nouja, relatief gezien dan)
Om die niet meer te supporten... Lijkt wel pure rancune vanuit Nvidia. Die kaarten serie was zo goed price/performance dat Nvidia tot op de dag van vandaag zichzelf (en hun klanten) aan het bedriegen is qua prijs/performance verhoudingen.

[Reactie gewijzigd door LongTimeAgo op 1 juli 2025 11:44]

Die dingen zijn ~9 jaar geleden op de markt gekomen, ze kunnen toch moeilijk dingen tot in het oneindige volledig blijven supporten.

Er staat niet dat de support afloopt, alleen dat deze kaarten niet meer de nieuwe generatie drivers krijgen. Kan best dat er nog wel security patches op de huidige drivers uitgebracht worden als dat nodig blijkt.
De 1080 is mijn beste videokaart ooit geweest. In 2017 gekocht en nog steeds in gebruik. In FHD doet ie het nog prima in het systeem van mijn zoon.
Wanneer zo’n kaart op de markt wordt gebracht vind ik niet zo interessant. Die dingen zijn nog tot in minimaal 2021 van de band gerold en tot nog later te koop geweest via NVIDIA zelf.

Dus ondersteuning voor nieuwe drivers van een vier jaar oude kaart is meer wat ik zie, en dat is voor mij toch wel vrij kort.
Ja, begin 2021 is wel ongeveer het eind van normale verkoop, productie is denk ik nog wel eerder gestopt.

Mensen die het toen kochten, wisten natuurlijk dat het niet meer de meest up to date kaart was. En vervolgens hebben ze nog vier jaar volledige support gehad. Das toch niet verkeerd? Niet alsof die kaart morgen stopt met werken. Alles wat toen beloofd is, werkt nog steeds, er komt alleen niets nieuws meer bij.
Ze (lees: GTX 1050 Ti's) zijn juist begin 2021 weer in productie gekomen omdat er leveringsproblemen waren met de nieuwere kaarten. Dat waren de chips. Deze zijn toen nog naar AIB partners gegaan om ze daarna pas op de planken te hebben voor te hoge bedragen. Was wel in de tijd dat alle kaarten overigens veel te duur waren, dus niet puur de fout van NVIDIA en/of de partners en/of TSMC die de chips moest leveren.

Maar om terug te komen, het is inderdaad niet dat ze stoppen met werken of dat er helemaal geen drivers/instellingen beschikbaar zijn. NVIDIA geeft ook wel eens security updates voor oudere systemen/kaarten uit. Grootste issue wat ik ermee heb is dat ik al meerdere keren heb gehad dat na een update van Windows, problemen waren met oude kaarten en dingen als overscan. Zulke dingen zie ik hier ook weer gebeuren dat je via registry hacks hem werkend moet krijgen. Iets wat niet voor de gemiddelde gebruiker is.
Nouja het is ook de laatste generatie dat ze het echt geprobeerd hebben he..

Na GTX1000 kwam RTX2000. "RTX On", dus +50 euro. Achteraf gezien is dat nog een schappelijke toeslag voor zo'n marketing opgeblazen feature.

De RTX3000 viel aanvankelijk mee, maar iedereen bestelden die kaarten wegens Covid, en toen kwam cryptocoins er ook nog overheen. Daarin zijn ze toch wat meegezogen met crypto kaarten (e-waste) en LHR varianten. De GPUs waren voor gamers toch niet te krijgen, dus ze zagen met "leden ogen" aan dat de markt hun MSRPs x2 of x3 deden. Toen dachten ze waarschijnlijk: oh.. we maken goud en dat verkopen we als zilver. Dat kan beter.

De verhalen van RTX4000 en RTX5000 kennen we allemaal wel. Min of meer incrementele updates in hetzelfde jasje, maar stiekem wordt de product stack steeds meer gedowngrade.

Ze hadden al veel vroeger de stekker uit bvb de GTX980 of 970 kunnen trekken. Ik heb vrienden die nog steeds op dat niveau kaart zitten (al zij het in een GTX1660) in een game systeem van 12 jaar oud. Er zijn tegenwoordig genoeg Unity/UE4 games te spelen die met op prestatie niveau prima werken. Als ze vinden dat je daarvoor maar eens RTX3060 moet gaan halen a 400 euro, dan hadden ze vorig jaar deze kaarten al kunnen deprecaten.

[Reactie gewijzigd door Hans1990 op 1 juli 2025 11:54]

Ik heb vrienden die nog steeds op dat niveau kaart zitten (al zij het in een GTX1660)
Flink verschil qua featureset. De 1660 is een Ampère kaart met bijna volledige DirectX12 ultimate ondersteuning (alleen geen hardware ray tracing). En ook makkelijk 2 - 3x zoveel geheugen als de meeste 9xx kaarten.
RTX3060 moet gaan halen a 400 euro
€268,99. Niet zo overdrijven. uitvoering: Gigabyte RTX 3060 WINDFORCE OC 12G (rev. 2.0)
Flink verschil qua featureset. De 1660 is een Ampère kaart met bijna volledige DirectX12 ultimate ondersteuning (alleen geen hardware ray tracing). En ook makkelijk 2 - 3x zoveel geheugen als de meeste 9xx kaarten.
Dat maakt wel een performance verschil uit, maar in veel lichtere/oudere games waar dat niet beschikbaar is loopt een 970 nog aardig dichtbij een GTX1660.
Ik heb het dan ook niet over andere kaarten. De 970 en 980 hebben 4GB(ish) VRAM, dan valt 6GB wel mee. Hoewel meer altijd zeer welkom is.
€268,99. Niet zo overdrijven. uitvoering: Gigabyte RTX 3060 WINDFORCE OC 12G (rev. 2.0)
Het is maar net hoe je mijn post leest. Ik duid toch meer op de tijd van RTX4000 release en jaar daarna. Bij RTX4000 kwam de GPU markt net uit status unobtanium. Hoewel de gemiddelde prijs van zo'n RTX3060 dus nooit veel hoger dan 330-360 euro was op PW, valt niet meer terug te zien of daar ook snelle voorraad achter lag.
Toch wel een vrij onverwachte keuze, dat ze de Maxwell 900 serie (en 750Ti) dit jaar gingen stoppen lag in de lijn der verwachting als je kijkt naar hoelang Nvidia eerdere generaties van driver updates heeft voorzien in combinatie met de leeftijd ervan.

Maar dat ze de 1000 series nu ook al direct EoL doen, toch vrij onverwachts gezien die een stuk nieuwer zijn en ook nog een heel goed bruikbaar in vrijwel alle games (1070 en hoger vooral). In de V&A is een 1080 ofzo nog een steeds een hele leuke optie als je die voor <100 kunt krijgen ook.
Ze zijn niet EoL, ze krijgen alleen geen game-ready drivers meer. Dit zijn drivers speciaal voor de nieuwste AAA games die vaak toch al niet relevant zijn voor de Pascal kaarten. Maar je kunt ze gewoon blijven gebruiken.

Hopelijk maakt dit het updaten van de drivers wat makkelijker en sneller voor Nvidia, want RTX 50 kampt nog steeds met grote problemen.
Ik vemoed dat het eindigen van de 10xx-serie te maken heeft met het feit dat er sinds de 1650/2000 serie een andere architectuur wordt gebruikt voor de drivers en firmware. Een hele hoop dingen die vroeger in de driver gebeurden, gebeuren nu op de GPU in firmware die als blob wordt ingeladen. Dat is ook waarom Nvidia voor die kaarten wel een open source driver durft te maken, hun vage handelsgeheimen en IP-overtredingen zijn niet zo makkelijk uit die blob te halen.

Nu houden ze eigenlijk twee drivermodellen bij die dezelfde functies in verschillende plekken uitvoeren. Lijkt me niet eenvoudig. Als je oude kaarten de deur wijst, is het net zo makkelijk om de grens te trekken bij die architectuurwissel.
De 900 series voelt oud genoeg, maar jammer van de 1000 series.
't Hangt van je 'use case' af. Zelf heb ik heel lang de GTX950 gebruikt om videos te converteren naar HEVC/H265 formaat. Dat levert zo'n 40-90% kleinere bestanden op, en ging ook pak-em-beet 3 tot 4x sneller dan de Intel iGPU die ik nu gebruik.
Zonder twijfel. Maar de drivers krijgen alleen geen updaters meer. Ze blijven wel werken. En AV1 encoding zat er toch al niet in.
En dat kan je toch nog steeds blijven doen? Deze hele thread doet net alsof je GPU nu waardeloos is, maar dat is ook een beetje overdreven...
GTX1060's zijn toch tijdens de post-corona drukte nog in productie/verkoop geweest?
Yup, en de 1050TI ook.
Hier ook nog steeds een MSI GTX 1070 Gaming X Trio in 2016 gekocht en werkt nog steeds fantastisch. Beste kaart die ik ooit gehad heb voor 530 Euro.

Recente games kan je er al een tijdje niet meer mee spelen. Daarom zit ik nu uit te kijken naar een RTX 5070 Ti maar het stroomverbruik van de huidige generaties videokaarten vind ik gewoon inefficiënt schandalig.
Hier ook nog steeds een MSI GTX 1070 Gaming X Trio in 2016 gekocht en werkt nog steeds fantastisch. Beste kaart die ik ooit gehad heb voor 530 Euro.

Recente games kan je er al een tijdje niet meer mee spelen. Daarom zit ik nu uit te kijken naar een RTX 5070 Ti maar het stroomverbruik van de huidige generaties videokaarten vind ik gewoon inefficiënt schandalig.
Ja, de TDP's zijn hoog van nieuwere kaarten. Maar een 5070 is vier keer zo snel als een 1070 en verbruikt twee keer zo veel. Relatief gezien is de huidige generatie daarmee vergeleken dus twee keer zo energie-efficient. Je kunt natuurlijk ook gewoon op TDP gaan shoppen in plaats van typenummer.

Op dit item kan niet meer gereageerd worden.