'Nvidia stopt met produceren van RTX 5070 Ti-videokaarten'

Nvidia is mogelijk gestopt met het produceren van GeForce RTX 5070 Ti-videokaarten. Dat meldt Hardware Unboxed op basis van gesprekken met ingewijden. Volgens dat YouTube-kanaal gaat de RTX 5060 Ti 16GB op termijn ook uit de verkoop, hoewel de 8GB-variant wel blijft bestaan.

Hardware Unboxed sprak retailers en boardpartners, die Nvidia-gpu's gebruiken om videokaarten mee te maken. Die bevestigen het nieuws tegenover het YouTube-kanaal. Onder meer ASUS meldt tegen Hardware Unboxed dat Nvidia geen RTX 5070 Ti-gpu's meer verstrekt.

Het bedrijf heeft de 5070 Ti daarom als 'end-of-life' aangemerkt. Dat betekent dat er geen nieuwe kaarten meer geproduceerd zullen worden, hoewel ze wel gewoon drivers blijven ontvangen. Ook de RTX 5060 Ti 16GB zou binnenkort hetzelfde lot wachten, meldt Hardware Unboxed.

Als de berichten kloppen, zal de huidige voorraad van deze kaarten nog worden verkocht. Daarna verdwijnen ze uit de verkoop, omdat retailers en distributeurs geen nieuwe modellen meer kunnen inkopen.

GeForce RTX 5070 Ti round-up
GeForce RTX 5070 Ti-videokaarten van verschillende fabrikanten. Foto: Tweakers

De stap heeft te maken met de geheugenschaarste die momenteel speelt. Nvidia zou daarom prioriteit willen geven aan de duurste modellen met een bepaalde hoeveelheid geheugen. In het 16GB-segment gaat de focus naar de RTX 5080, waarbij de 5070 Ti- en 5060 Ti-varianten met 16GB geheugen komen te vervallen. De RTX 5060 Ti met 8GB geheugen blijft om die reden wel bestaan. Ook de RTX 5070 blijft voorlopig beschikbaar met zijn 12GB vram.

Er gingen al geruchten rond dat Nvidia deze stap zou zetten. VideoCardz berichtte daarover onlangs nog via bronnen op fora als Board Channels. Het is echter voor het eerst dat een boardpartner officieel erkent dat het de 5070 Ti als end-of-life heeft aangemerkt.

Eerder gingen juist geruchten rond dat Nvidia met nieuwe RTX 50 Super-varianten zou komen met extra vram, maar die zouden voor onbepaalde tijd zijn uitgesteld vanwege geheugentekorten. Boardpartners zeggen tegen Hardware Unboxed dat de Super-kaarten eigenlijk op de planning stonden voor de CES, maar dat die plannen nu zijn geschrapt of op de lange baan zijn geschoven.

Door Daan van Monsjou

Nieuwsredacteur

15-01-2026 • 14:21

155

Submitter: Yersios1812

Reacties (155)

Sorteer op:

Weergave:

Dit is echt ongelooflijk, maar helaas typisch Nvidia. Laten we eerlijk zijn over wat hier écht aan de hand is: de RTX 5070 Ti is niet 'End of Life' vanwege tekorten, hij is de nek omgedraaid omdat hij simpelweg te goed was qua prijs-prestatieverhouding.

De 5070 Ti zat precies in die 'sweet spot'. Hij leverde prestaties die (te) dicht in de buurt kwamen van de veel duurdere RTX 5080, maar voor een prijs die voor de serieuze gamer nog net te behappen was. Nvidia heeft doorgehad dat deze kaart hun eigen upsell-strategie aan het kannibaliseren was. Waarom zou iemand immers de hoofdprijs betalen voor een 5080 als de 5070 Ti 90% van de ervaring biedt voor veel minder geld?

Dat hele verhaal over "geheugenschaarste" voelt als een rookgordijn. Kijk naar de feiten: ze schrappen specifiek de 16GB-modellen in het middensegment (ook de 5060 Ti 16GB moet eraan geloven), terwijl de kaarten met minder VRAM mogen blijven. Dit is een bewuste keuze om gamers in een spagaat te dwingen:
  • Of je neemt genoegen met te weinig VRAM (8GB/12GB) waardoor je kaart in 2026/2027 alweer verouderd is;
  • Of je wordt gedwongen je portemonnee te trekken voor de peperdure topmodellen als je wél die 16GB wilt.
Nvidia haat het idee van een 'future-proof' kaart in het middensegment. Ze hebben de 5070 Ti expres gekillt om hun marges te beschermen, ten koste van de consument. Dit is textbook marktmanipulatie.
Of je koopt voor €200 minder een Radeon 9070 XT die ook 16GB geheugen heeft en gelijke prestaties biedt.

Het verbaast me echt dat de 5070 en 5080 varianten nog zo hoog in de pricewatch staan met de matige bang-for-buck die ze bieden.
Nope, maar wel met Linux etc :+

Als je 3d rendert oid met Cuda blijf je redelijke locked aan het groene kamp door hun monopolie praktijken. Video rendering etc is redelijk on par tegenwoordig. Dus kijk vooral naar je eigen usecase.
Ja precies; use-case is lokale AI. Dus helaas, zucht
Zit er nog wel verschil tussen lokaal AI draaien en lokaal AI trainen. Voor lokale text generatie is AMD opzich wel een optie (iets mindere performance) maar voor het genereren van audio, plaatjes en video niet. Voor het trainen al helemaal niet.

Tenminste, heb laatst wat bureau onderzoek gedaan en dat kwam eruit. Heb dus met tegenzin kamp groen gekocht
De AMD Adrenalin software heeft als optie om een lokaal AI model te installeren en dmv plugins daar vanalles mee te doen. Heb het gebruikt om adhv prompts wat landschappen te genereren en dergelijke. Geen idee hoe de performance is vergeleken met het groene kamp maar wat ik deed werkte vlot IMHO.
Oh wat cool. Waar vind ik deze feature? Ik kan het niet vinden in mijn Adrenalin. (25.12)
Probeer eens een herinstallatie, je krijgt daar de optie om een AI model mee te installeren. Kost je alleen wel flink wat diskruimte. Je hebt standaard een "AMD Chat" en kunt optioneel 3rd party apps installeren binnen die omgeving, zoals Amuse.

Ik had initieel wat performance problemen omdat m'n 9070 XT in sommige games niet meer dan 150W wilde verbruiken, toen heb ik de lokale AMD Chat zelf maar om hulp gevraagd waar het aan zou kunnen liggen :P (Bios instellingen voor secure boot oid).
Dank. Ik zie het niet. Misschien was het geen optie voor mij omdat ik een 6950XT heb.
Nu ik het terug lees staat het er idd beetje alsof ik zeg dat AMD voor andere doeleinden niet te gebruiken is. Zo bedoelde ik het niet. Steeds meer AI zaken werken goed. Het verschil in performance was voor mij het besparen van 50 euro niet waard
Ja vooral trainen en visual interference (image/video). Gaat "ok" op een M3, maar wil meer. Dus, áls ik al ga upgraden, moet ik dus wel groen. Ga ik dan ook doen, inclusief wat extra aandelen.
Op Linux kan je ROCm gebruiken. En voor Windows heb je nog ZLUDA.

[Reactie gewijzigd door MrFax op 15 januari 2026 19:58]

Toen ik 'm kocht was het prijsverschil met de 9070XT niet zo groot als nu. Vond het het wel waard voor de extra ray tracing prestaties.
Precies dit.

De 9070xt is een veel betere value voor gaming.
Heb de mijne zelfs gekocht voor maar 600 euro.
Afhankelijk van wat/welke spellen je er mee doet.
Los van de prijs, veel mensen vinden NVIDIA upscaling en supersampling beter dan die van AMD. Dan heb je ook nog mensen die werken met CUDA.

AMD is op dit moment zeker bang for your buck als gamen je prioriteit is. Of je gebruikt Linux, dan is AMD een betere keus dan NVIDIA.
AMD FSR4 is echt steen goed geworden. Ik zie het verschil niet hoor... Speel op 1440p 280Hz OLED.
Ik heb absoluut geen spijt van mijn 9070 XT terwijl ik voorheen bij Nvidia zweerde.
Het verschil tussen de 9070XT en 5070Ti zit hem in de raytacing- en AI snelheid, de DLSS-kwaliteit en de ondersteuning van DLSS, CUDA en AI cores.
Je vergeet nog een verschil. Of je koopt bij een bedrijf wat al tig jaar anti consumenten praktijken heeft met hun closed source spullen en planned obsolescence(nvidia). Of je koopt bij een bedrijf wat veel meer standaarden en opensource bied.
Vorige week gekocht, ik kan niet gelukkiger zijn met een kaart
Dit is echt ongelooflijk, maar helaas typisch Nvidia. Laten we eerlijk zijn over wat hier écht aan de hand is: de RTX 5070 Ti is niet 'End of Life' vanwege tekorten, hij is de nek omgedraaid omdat hij simpelweg te goed was qua prijs-prestatieverhouding.

De 5070 Ti zat precies in die 'sweet spot'. Hij leverde prestaties die (te) dicht in de buurt kwamen van de veel duurdere RTX 5080, maar voor een prijs die voor de serieuze gamer nog net te behappen was. Nvidia heeft doorgehad dat deze kaart hun eigen upsell-strategie aan het kannibaliseren was. Waarom zou iemand immers de hoofdprijs betalen voor een 5080 als de 5070 Ti 90% van de ervaring biedt voor veel minder geld?

Dat hele verhaal over "geheugenschaarste" voelt als een rookgordijn. Kijk naar de feiten: ze schrappen specifiek de 16GB-modellen in het middensegment (ook de 5060 Ti 16GB moet eraan geloven), terwijl de kaarten met minder VRAM mogen blijven. Dit is een bewuste keuze om gamers in een spagaat te dwingen:
  • Of je neemt genoegen met te weinig VRAM (8GB/12GB) waardoor je kaart in 2026/2027 alweer verouderd is;
  • Of je wordt gedwongen je portemonnee te trekken voor de peperdure topmodellen als je wél die 16GB wilt.
Nvidia haat het idee van een 'future-proof' kaart in het middensegment. Ze hebben de 5070 Ti expres gekillt om hun marges te beschermen, ten koste van de consument. Dit is textbook marktmanipulatie.
De sweet spot, even los of ik het daar mee eens ben, is 100% doelbewust. Jij brengt het alsnog Nvidia per ongeluk een sweet spot heeft gemaakt en dat nu oplost door de kaart uit productie te halen. Nvidia bepaalt zelf de prijs positionering. Het is natuurlijk niet zo dat Jensen Huang via een dart bord met een blinddoek die MSRP (adviesprijs) bepaalt. Daar zijn ongetwijfeld teams weken over aan het debatteren. Je verhaal is geen logisch verhaal. Aan de prijs is niks per ongeluk en tevens is het Nvidia vrij om per direct die prijs te verhogen naar elk willekeurig prijspunt. Desnoods vrijwel even duur als een RTX 5080.

In die sweet spot zit dus geen logische verklaring voor het vroegtijdig stilleggen van productie. Logische redenen zijn bijvoorbeeld een opvolger, een 5070 ti super, óf problemen tijdens productie.

We horen al maanden over vermeende super kaarten en een EOL status is dan eigenlijk best logisch. Echter met de huidige ram tekorten klinkt een kaart met nog meer vram niet zo logisch. Wanneer je een tekort aan vram hebt tot het punt dat het beperkt hoeveel je kunt produceren dan ga je als bedrijf een rekensom maken. Met 16 GB kun je 2x een 5060 of 1x een 5070 ti maken. Net zoals 1x een 5070 Ti of 1x een 5080. Vervolgens bereken je wat dit totaal oplevert (aantal geproduceerde units * marge per unit). Hetzelfde met 16GB in een 5080 en 32GB in een 5090. Van de 5090 weten we al dat de prijs waarschijnlijk énorm omhoog gaat. Vergeet niet dat de achterliggende reden voor zoveel modellen pure winstmaximalisatie is. Zoveel mogelijk klanten een zo duur mogelijk product verkopen is de achterliggende logica. Maar dat werkt dus alleen wanneer je aan de vraag kunt voldoen door voldoende te produceren. Kun je niet voldoende produceren dan zijn aanpassingen nodig in prijs dan wel aanbod.

Het verbaast mij eerlijk gezegd dat de prijzen in gpu land tot heden zo rustig zijn gebleven. Laten we hopen dat het simpelweg de super editie is die deze eol veroorzaakt. Want anders gaan de gpu prijzen stijgen en zal AMD vrolijk mee doen.

[Reactie gewijzigd door sdk1985 op 15 januari 2026 15:22]

@sdk1985
Je doet nu net of Nvidia een of ander onfeilbaar orakel is dat nooit inschattingsfouten maakt, maar dat is echt pure naïviteit.
De sweet spot, even los of ik het daar mee eens ben, is 100% doelbewust. Jij brengt het alsnog Nvidia per ongeluk een sweet spot heeft gemaakt en dat nu oplost door de kaart uit productie te halen.
Natuurlijk maken ze fouten in marktsegmentatie. Het idee dat "teams die er weken over debatteren" altijd tot de perfecte conclusie komen is lachwekkend. Ze hebben de 5070 Ti in de markt gezet, zagen dat de verkoop van de 5080 instortte omdat het prijsverschil niet te rechtvaardigen was, en trekken nu aan de noodrem. Dat heet geen masterplan, dat heet paniekvoetbal om de marges te redden.
Aan de prijs is niks per ongeluk en tevens is het Nvidia vrij om per direct die prijs te verhogen naar elk willekeurig prijspunt.
Dit is echt onzin. Een fabrikant kan niet zomaar de MSRP van een bestaand product met 20% verhogen zonder compleet afgemaakt te worden in de media en door consumenten. De enige manier om een 'verkapte' prijsverhoging door te voeren zonder PR-suicide te plegen, is door het 'te goedkope' product EOL te verklaren en een nieuw, duurder product (of een slechter product voor dezelfde prijs) ervoor in de plaats te zetten. Dat is precies wat hier gebeurt.

Je bent met al je "logische rekensommetjes" over grondstoffen in feite gewoon het anti-consumentengedrag van een miljardenbedrijf aan het goedpraten. Dat het voor hun aandeelhouders "logisch" is om de 5070 Ti te killen ten gunste van de 5080, betekent niet dat wij dat als consumenten maar moeten slikken als "begrijpelijk".
@sdk1985
Je doet nu net of Nvidia een of ander onfeilbaar orakel is dat nooit inschattingsfouten maakt, maar dat is echt pure naïviteit.
Nee, nogmaals Nvidia maakt doelbewust een prijs en heeft alle vrijheid om die prijs achteraf bij te stellen. Dit is iets wat ook regelmatig gebeurd. Daarnaast kunnen ze ook nog spelen met het aantal geproduceerde units. Hoe vaak zijn bepaalde SKU's niet uitverkocht geweest bij zowel Radeon als Geforce? Je kunt altijd een cap zetten op hoeveel units je produceert waarna bij tekorten de prijzen zichzelf corrigeren dan wel de consument automatisch naar duurdere units duwt.
[...]

Natuurlijk maken ze fouten in marktsegmentatie. Het idee dat "teams die er weken over debatteren" altijd tot de perfecte conclusie komen is lachwekkend. Ze hebben de 5070 Ti in de markt gezet, zagen dat de verkoop van de 5080 instortte omdat het prijsverschil niet te rechtvaardigen was, en trekken nu aan de noodrem. Dat heet geen masterplan, dat heet paniekvoetbal om de marges te redden.
Nogmaals, als dat de reden zou zijn dan is een prijsaanpassing het meest logische oplossing. Verder is dit ook totaal niet aan de orde; de 5080 haalt in de steam survey 1.13% en de 5070 Ti 1.26%. De 5080 en 5070 Ti zijn dus bijna evenveel verkocht. Daarnaast zijn ze beiden afgelopen maand met +0.12% gegroeid. Dus ook daar is het beeld dat jij schetst totaal niet aan de orde.
[...]

Dit is echt onzin. Een fabrikant kan niet zomaar de MSRP van een bestaand product met 20% verhogen zonder compleet afgemaakt te worden in de media en door consumenten. De enige manier om een 'verkapte' prijsverhoging door te voeren zonder PR-suicide te plegen, is door het 'te goedkope' product EOL te verklaren en een nieuw, duurder product (of een slechter product voor dezelfde prijs) ervoor in de plaats te zetten. Dat is precies wat hier gebeurt.
Je hebt de twee mining hypes ook gemist? En deze Gerucht: Nvidia wil prijs van RTX 5090 geleidelijk verhogen naar 5000 dollar - Tweakers ?
Je bent met al je "logische rekensommetjes" over grondstoffen in feite gewoon het anti-consumentengedrag van een miljardenbedrijf aan het goedpraten. Dat het voor hun aandeelhouders "logisch" is om de 5070 Ti te killen ten gunste van de 5080, betekent niet dat wij dat als consumenten maar moeten slikken als "begrijpelijk".
Vergeet niet waar Nvidia vandaan is gekomen. Die hebben o.a. Ageai overgenomen, miljarden in R&D gepompt en uiteindelijk enorm verdiend in de eerste en tweede mining hype en nu in de ai hype.

Het is sinds 2006 aan AMD de mogelijkheden van Nvidia te begrenzen. Die hebben toen Ati Radeon, een winstgevend bedrijf wat ongeveer gelijkwaardig aan Nvidia presteerde, overgenomen. Volgens Ati zelf warden ze 'world leader in the design and manufacture of innovative 3D graphics'. Vervolgens heeft AMD 10 jaar lang elk jaar het R&D budget verlaagd waardoor Radeon eigenlijk vooral door hoepels aan het springen was; refreshes, rebranding, geen geld voor volledig nieuwe line-ups met nieuwe architecturen, geen geld voor aparte pro kaarten, geen geld voor drivers, geen geld voor marketing, geen geld om voldoende ontwikkelaars te ondersteunen.

Verder hoef je niks te slikken. Je kunt als consument kopen wat jij een goede deal vindt. Momenteel is dat een 5070 Ti vanaf 850 euro, een 5080 voor 1199 of een 5070 voor 559. Is dat niet naar je zin dan kun je ook nog bij AMD Radeon terecht.

[Reactie gewijzigd door sdk1985 op 15 januari 2026 15:54]

@sdk1985
Je haalt er nu van alles bij om het punt maar niet te hoeven maken, maar je logica rammelt aan alle kanten.
De 5080 haalt in de steam survey 1.13% en de 5070 Ti 1.26$ terwijl ze beiden afgelopen maand met +0.12% zijn gegroeid. Totaal niet aan de orde.
Je schermt met Steam Survey cijfers alsof dat het heilige bewijs is, maar je mist compleet hoe trendlijnen werken. Dat de goedkopere 5070 Ti nu al een groter marktaandeel heeft dan de 5080 en even hard groeit, is juist het teken van kannibalisatie waar Nvidia bang voor is. Als ze dit laten doorlopen, wordt dat gat alleen maar groter ten koste van hun premium 5080-sales. Ze trappen op de rem *voordat* de 5070 Ti de standaard wordt ten koste van hun marges. Dat heet vooruitkijken, niet reageren op oude data.
Je hebt de twee mining hypes ook gemist?
Appels met peren. Een mining-hype is een externe vraagschok (scalpers/miners) waardoor prijzen exploderen. Dat is totaal iets anders dan een fabrikant die in een normale markt zelf de productie van een populair product stopt om prijsstijgingen te forceren. Dat jij die twee situaties aan elkaar knoopt om Nvidia's gedrag goed te praten is bizar.

En dan dat eeuwige "Het is de schuld van AMD"-zwaktebod...
Het is sinds 2006 aan AMD om te mogelijkheden van Nvidia te begrenzen.
Dit is echt de klassieke dooddoener van de Nvidia-apologeet. "Omdat de concurrentie faalt, mag de monopolist ons uitknijpen en moeten we niet zeuren." Wat een onzin. Ik beoordeel een bedrijf op hun eigen anti-consumentenpraktijken, niet op de incompetentie van de buurman. Dat AMD het laat afweten geeft Nvidia geen vrijbrief om ons te manipuleren, en het betekent zeker niet dat ik daar begrip voor moet hebben.
Je kunt als consument kopen wat jij een goede deal vindt.
De ironie ontgaat je volledig, of niet? Dat is nou precies het punt: dat kán dus straks niet meer. De kaart die door velen als de enige "goede deal" werd gezien (de 5070 Ti), wordt uit de schappen gehaald.

Je eigen prijzenrijtje bevestigt mijn punt perfect:
  • 5070: €559 (te traag voor 4K/high-end)
  • 5070 Ti: €850 (de sweet spot)
  • 5080: €1199 (absurd prijsgat)
Door de middelste optie weg te halen, dwingen ze je om €350 extra te betalen voor de 5080 of te downgraden. Er is geen "keuze", er is dwang. En jij staat erbij te klappen.
@sdk1985
Je haalt er nu van alles bij om het punt maar niet te hoeven maken, maar je logica rammelt aan alle kanten.


[...]

Je schermt met Steam Survey cijfers alsof dat het heilige bewijs is, maar je mist compleet hoe trendlijnen werken. Dat de goedkopere 5070 Ti nu al een groter marktaandeel heeft dan de 5080 en even hard groeit, is juist het teken van kannibalisatie waar Nvidia bang voor is. Als ze dit laten doorlopen, wordt dat gat alleen maar groter ten koste van hun premium 5080-sales. Ze trappen op de rem *voordat* de 5070 Ti de standaard wordt ten koste van hun marges. Dat heet vooruitkijken, niet reageren op oude data.
Steam survey cijfers bevestigen mijn punt. Jij redeneert vooral op onderbuikgevoelens, steam survey hebben we niet iets meer aan.
[...]

Appels met peren. Een mining-hype is een externe vraagschok (scalpers/miners) waardoor prijzen exploderen. Dat is totaal iets anders dan een fabrikant die in een normale markt zelf de productie van een populair product stopt om prijsstijgingen te forceren. Dat jij die twee situaties aan elkaar knoopt om Nvidia's gedrag goed te praten is bizar.
Het is niet totaal anders, het is letterlijk hetzelfde. De eerste mining hype zorge bitcoin voor een run op gpu's en waren er tekorten. De operationele marge van Nvidia schoot direct in het eerste kwartaal met +81% omhoog om vervolgens +53%, +51%, +38% en +16% te rapporteren.

De tweede hype was een run op gpu's duur ethereum. Toen schoot de operationele marge van Nvidia met 317% omhoog. Dit hield zelfs nog langer aan. De twee hypes samen hebben ervoor gezorgd dat Nvidia groeide van een bedrijf met circa 4 miljard omzet naar een bedrijf met 10-12 miljard omzet.

Rara wat is er nodig tijdens de huidigee AI hype? Juist gpu's. Enige verschil is dat er door de grote jongens deze keer specifieke pro gpu's worden gebruikt ipv consumenten modellen waardoor de consument tot heden een extreme prijsverhoging bespaard is gebleven.
Dat jij die twee situaties aan elkaar knoopt om Nvidia's gedrag goed te praten is bizar.
Het heeft ook niks met goedpraten te maken. Ik geef aan dat de verklaring die jij aan dit bericht koppelt niet logisch is en ik geef aan wat ik wel een logische oorzaak vind. Iets verklaren is niet hetzelfde als iets goed praten.
En dan dat eeuwige "Het is de schuld van AMD"-zwaktebod...


[...]

Dit is echt de klassieke dooddoener van de Nvidia-apologeet. "Omdat de concurrentie faalt, mag de monopolist ons uitknijpen en moeten we niet zeuren." Wat een onzin.
Dat is letterlijk de plicht van een beursgenoteerd bedrijf aan de NASDAQ. Dat is het hele idee van kapitalisme en de aandelenbeurs. Als jij daar tegen bent prima maar wees dan niet hypocriet en koop simpelweg niets van beursgenoteerde bedrijven. Let dan vooral ook even op hoeveel merken onder P&G en Unilever vallen.
Ik beoordeel een bedrijf op hun eigen anti-consumentenpraktijken, niet op de incompetentie van de buurman. Dat AMD het laat afweten geeft Nvidia geen vrijbrief om ons te manipuleren, en het betekent zeker niet dat ik daar begrip voor moet hebben.
Van mij hoef jij geen begrip te hebben. Ik geef simpelweg aan wat er mis is met je verklaring en wat een logischere verklaring is.

Overigens is bij AMD jammer genoeg ook anti consumer gedrag te vinden. Maar daar gaat dit helemaal niet over.
[...]

De ironie ontgaat je volledig, of niet? Dat is nou precies het punt: dat kán dus straks niet meer. De kaart die door velen als de enige "goede deal" werd gezien (de 5070 Ti), wordt uit de schappen gehaald.

Je eigen prijzenrijtje bevestigt mijn punt perfect:
  • 5070: €559 (te traag voor 4K/high-end)
  • 5070 Ti: €850 (de sweet spot)
  • 5080: €1199 (absurd prijsgat)
Door de middelste optie weg te halen, dwingen ze je om €350 extra te betalen voor de 5080 of te downgraden. Er is geen "keuze", er is dwang. En jij staat erbij te klappen.
Volledig subjectief toch? De 5070 heeft een (veel) betere prijs/prestatie. Ik vind 850 überhaupt veel te duur en al lang geen midrange meer. De 9070 XT is op dat prijspunt een logischer keuze.
Er is geen "keuze", er is dwang. En jij staat erbij te klappen.
Ik zie niemand klappen, ik geef aan wat de meeste logische manier is om tot een zakelijke beslissing te komen. Vergis je overigens niet het is in de huidige marktomstandigheden een reëel scenario dat Nvidia vrijwel volledig met consumenten gpu's stopt. De omzet is ondertussen 187 miljard, dat is even andere koek dan destijds 11 miljard. Dus nogmaals, het verbaast mij dat de prijzen tot heden nog zo goed zijn gebleven. Een 5080 vind ik te duur maar is nog altijd veel goedkoper dan destijds een 3080 en 4080.
@sdk1985
Je verschuilt je nu achter het ultieme zwaktebod om de discussie dood te slaan: "Het is kapitalisme, dus mond houden."
Dat is letterlijk de plicht van een beursgenoteerd bedrijf aan de NASDAQ. Dat is het hele idee van kapitalisme [...] Als jij daar tegen bent prima maar wees dan niet hypocriet
Wat een ongelooflijke drogreden. Omdat we in een kapitalistisch systeem leven, mag ik als consument geen kritiek meer hebben op marktmisbruik? Dat is geen "logica", dat is Stockholm-syndroom.

Dat het voor de CEO van Nvidia *logisch* is om mij uit te melken voor maximale bonus, betekent niet dat ik dat als klant lachend moet accepteren en het zelfs moet gaan zitten verdedigen op een techforum. Wij zijn hier consumenten onder elkaar, dit is geen aandeelhoudersvergadering. Je verdedigt de wolf terwijl je zelf het schaap bent.
Vergis je overigens niet het is in de huidige marktomstandigheden een reëel scenario dat Nvidia vrijwel volledig met consumenten gpu's stopt.
Dit is pure angstzaaierij om kritische geluiden de kop in te drukken. "Wees maar blij dat de heer ons kruimels geeft, anders krijgen we niks."

Nvidia stopt niet zomaar met consumenten-GPU's. Ze hebben die enorme userbase nodig om hun proprietary ecosysteem (CUDA, DLSS, RTX) de wereldwijde standaard te houden. Zonder de miljoenen gamers en studenten die thuis op GeForce kaarten leren werken, verliest Nvidia op termijn de mindshare bij de developers van de toekomst. Ze hebben ons nodig om relevant te blijven, niet andersom.
Ik zie niemand klappen, ik geef aan wat de meeste logische manier is om tot een zakelijke beslissing te komen.
Je "verklaart" niet alleen, je *rationaliseert* anti-consumentengedrag weg als een soort natuurwet waar we niet over mogen klagen. Je hele betoog komt neer op: "Nvidia is rijk en machtig, dus ze hebben het recht om de 5070 Ti te killen, en als je dat niet leuk vindt ben je een hypocriet."

Als jij €1200 voor een 5080 wilt aftikken omdat Nvidia de keuze voor een €850 alternatief vakkundig de nek om heeft gedraaid, ga je gang. Maar ga niet de mensen de les lezen die doorzien dat dit een kunstmatige beperking is, puur bedoeld om die €350 extra uit onze zak te kloppen.
Je kunt steeds meer op de man spelen maar het verandert de originele discussie niet. Je stelling dat de Nvidia stopt met productie van de 5070 Ti omdat het een te goede deal is snijdt geen hout;
  • Er zijn geen tekorten aan de 5070 Ti
  • Nvidia kan de oplages beperken in plaats van volledig stopzetten
  • Nvidia kan de prijs verhogen in plaats van volledig stopzetten
  • De 5070 Ti is niet buitensporig populair (niet uitverkocht, sinds launch flink gedaald in prijs)
Wat resteert is dat jij vooral persoonlijk de 5070 Ti blijkbaar een geweldige kaart vind. En dat mag. Maar dat kan geen factor zijn in het besluit om al dan niet de productie te stoppen.

Wat wel een logische verklaring is, en die ook in het artikel wordt aangehaald, is een tekort aan ram. In een 5070 ti zitten 8 chips van 2 Gb en die kun je ook ergens anders voor gebruiken.

Ook logisch is dat de EOL status al eerder geplanned was aangezien er nu onderhand een SUPER refresh had moeten verschijnen. Die zou 8 chips van 3 Gb krijgen.

[Reactie gewijzigd door sdk1985 op 15 januari 2026 18:08]

@sdk1985
Je noemt het "op de man spelen", ik noem het beestje bij de naam: je bent hier bedrijfsbelangen aan het verdedigen die rechtstreeks tegen je eigen belang als consument ingaan.

Je hele betoog leunt op één gigantische misvatting:
Nvidia kan de prijs verhogen in plaats van volledig stopzetten
Dit is echt een papieren werkelijkheid die totaal negeert hoe marketing werkt. Een fabrikant kan niet zomaar de MSRP van een kaart die al in de schappen ligt met €150 verhogen zonder compleet afgeslacht te worden door de pers en community. Dat is PR-zelfmoord.
De *enige* manier om een verkapt prijsverhoging door te voeren, is precies wat ze nu doen: het product met de goede prijs/prestatie 'End of Life' verklaren (killen) en de consument dwingen naar een duurder alternatief (de 5080) of een slechter product. EOL is de "stealth" prijsverhoging. Dat jij dat mechanisme niet ziet, of weigert te zien, maakt je analyse fundamenteel gebrekkig.

En over dat RAM-tekort:
Wat wel een logische verklaring is, en die ook in het artikel wordt aangehaald, is een tekort aan ram.
Dat is geen overmacht, dat is allocatie-beleid. Als er écht een tekort is, waarom sneuvelt dan precies die ene kaart die de sales van de veel duurdere 5080 in de weg zit? Ze kiezen ervoor om die schaarse RAM-chips niet meer op een "voordelige" 5070 Ti te solderen, maar te reserveren voor producten met hogere marges.

Het resultaat is hetzelfde: de consument verliest de beste optie in de line-up. Dat jij dat "logisch zakendoen" vindt, prima. Maar ga mij niet vertellen dat het niet te maken heeft met het feit dat de kaart "te goed" was vergeleken met de upsell-opties. De 5070 Ti maakte de 5080 overbodig, en dáár hebben ze een stokje voor gestoken.
@sdk1985
Je blijft appels met peren vergelijken om het gedrag van Nvidia recht te praten.
Nogmaals serieuze vraag, heb je de mining hypes gemist? [...] De prijzen zijn dus in het verleden al omhoog bijgesteld
Je mist het fundamentele verschil tussen een externe vraagschok (crypto/mining) en interne marktmanipulatie.
Tijdens de mining-hype ontplofte de vraag en gingen de prijzen bij retailers en scalpers door het dak. Nvidia profiteerde daarvan, ja. Maar wat er nu gebeurt is dat Nvidia zélf actief het aanbod van hun meest aantrekkelijke product afknijpt om de markt een bepaalde kant op te dwingen. Dat is geen 'marktwerking' zoals bij mining, dat is de markt manipuleren omdat je productmix niet de gewenste winst oplevert.
Wie zegt dat dit niet gaat doorzetten? Ik verwacht dat we die 5070 Ti met 24GB nooit meer gaan zien en dat gedurende het jaar de prijzen van alle videokaarten worden verhoogd.
En hier komt de aap uit de mouw. Je bent ons nu letterlijk alvast aan het masseren voor de volgende prijsverhoging.
"Wen er maar vast aan jongens, de 5090 wordt $5000 en alles wordt duurder."

In plaats van kritisch te zijn op het feit dat een tech-gigant de prijzen kunstmatig opdrijft door de 'value king' (5070 Ti) te killen, sta jij hier alvast de verdediging te voeren voor hun toekomstige prijsbeleid.
Als jij gelijk hebt en de prijzen inderdaad overal omhoog gaan, is dat precies het bewijs dat de 5070 Ti geslachtofferd is om die prijsstijging mogelijk te maken. Hij was het anker dat de prijs/prestatie nog enigszins in balans hield.

Dat jij dat "rationeel denken" noemt, prima. Ik noem het de rode loper uitleggen voor een bedrijf dat je portemonnee leegtrekt. Het feit dat ze marktleider blijven zegt niks over de kwaliteit van hun moreel kompas, het zegt alleen iets over het gebrek aan concurrentie waardoor ze hiermee wegkomen. En mensen zoals jij, die het allemaal maar "logisch" vinden, faciliteren dat.
@sdk1985
Je blijft appels met peren vergelijken om het gedrag van Nvidia recht te praten.


[...]

Je mist het fundamentele verschil tussen een externe vraagschok (crypto/mining) en interne marktmanipulatie.
Tijdens de mining-hype ontplofte de vraag en gingen de prijzen bij retailers en scalpers door het dak. Nvidia profiteerde daarvan, ja. Maar wat er nu gebeurt is dat Nvidia zélf actief het aanbod van hun meest aantrekkelijke product afknijpt om de markt een bepaalde kant op te dwingen. Dat is geen 'marktwerking' zoals bij mining, dat is de markt manipuleren omdat je productmix niet de gewenste winst oplevert.
Daar is letterlijk niks anders aan. Enig idee hoe lang het duurde voor volume van bijvoorbeeld de 3080 op gang kwam?
[...]

En hier komt de aap uit de mouw. Je bent ons nu letterlijk alvast aan het masseren voor de volgende prijsverhoging.
"Wen er maar vast aan jongens, de 5090 wordt $5000 en alles wordt duurder."

In plaats van kritisch te zijn op het feit dat een tech-gigant de prijzen kunstmatig opdrijft door de 'value king' (5070 Ti) te killen, sta jij hier alvast de verdediging te voeren voor hun toekomstige prijsbeleid.
Als jij gelijk hebt en de prijzen inderdaad overal omhoog gaan, is dat precies het bewijs dat de 5070 Ti geslachtofferd is om die prijsstijging mogelijk te maken. Hij was het anker dat de prijs/prestatie nog enigszins in balans hield.

Dat jij dat "rationeel denken" noemt, prima. Ik noem het de rode loper uitleggen voor een bedrijf dat je portemonnee leegtrekt. Het feit dat ze marktleider blijven zegt niks over de kwaliteit van hun moreel kompas, het zegt alleen iets over het gebrek aan concurrentie waardoor ze hiermee wegkomen. En mensen zoals jij, die het allemaal maar "logisch" vinden, faciliteren dat.
Tja helaas heeft het geen zin om andere te verbieden iets uit te spreken waarvan jij het graag liever niet ziet gebeuren. De geschiedenis leert dat dat niet werkt.

Overigens heeft Asus ondertussen reeds via een officieel persbericht aangegeven dat de 5070 Ti in productie blijft.
Tja helaas heeft het geen zin om andere te verbieden iets uit te spreken... De geschiedenis leert dat dat niet werkt.
Wat een melodramatische onzin. Niemand "verbiedt" je om te spreken, ik spreek je aan op het feit dat je als een onbetaalde PR-medewerker prijsverhogingen zit te normaliseren.

Dat jij kritiek op een miljardenbedrijf probeert te framen als een soort inbreuk op jouw vrijheid van meningsuiting, laat wel zien dat je door je inhoudelijke argumenten heen bent. Je bent de "price anchor" aan het verdedigen, en als iemand daar wat van zegt, duik je in de slachtofferrol. Sterk hoor.

BlazingKahn35 in 'ASUS weerspreekt eerdere uitspraken: Nvidia stopt toch niet met RTX 5070 Ti'
Ze hebben de 5070 Ti in de markt gezet, zagen dat de verkoop van de 5080 instortte omdat het prijsverschil niet te rechtvaardigen was, en trekken nu aan de noodrem.
Totaal onlogisch. Waarom pas na een jaar aan de noodrem trekken? Het is ook al geruime tijd de 'normale' gang van zaken dat na een jaar TI- of Superversies verschijnen die, niet toevallig, ook een onbalans in prijs/prestatie corrigeren. Die 5070TI zit niet op een 'sweet spot' maar is simpelweg de enige kaart die voor veel mensen afdoende prestaties bied voor een nog enigszins acceptabele prijs. Dat is bij iedere nieuwe serie zo. De xx70 versies hebben altijd al beter verkocht dan de xx80 versies. Met de 40-serie deed Nvidia al rare dingen en er zijn ook over de modellen van de 50-serie genoeg opmerkingen geplaatst over planned obsolescence.
Een fabrikant kan niet zomaar de MSRP van een bestaand product met 20% verhogen zonder compleet afgemaakt te worden in de media en door consumenten.
Het is redelijk onlogisch om net te doen alsof het geheugenprobleem niet bestaat. Alsof Nvidia zich überhaupt bij de release van de 50-serie druk heeft gemaakt over de publieke opinie. Voor de release ervan was al duidelijk dat de consumenten voor PC-GPU's geen prioriteit waren. En ze kunnen met die MSRP doen wat ze willen. Sowieso zit daar een marge op en als geheugen 3 keer meer kost door schaarste wordt dat in de MSRP doorberekend. Waarom zouden ze de prijzen überhaupt willen verhogen als die nu al voor velen onacceptabel hoog zijn en met name Nvidia nu al als consumentonvriendelijk wordt gezien?

Nvidia beheerst de markt en is klantonvriendelijk. Dat neemt niet weg dat de geheugenschaarste ook voor Nvidia's gaming GPU's een probleem is. Dat hun (bedrijfsmatig gezien logische) manier om daar mee om te gaan dan wederom niet klantvriendelijk is daarmee begrijpelijk. Er is niemand die zegt dat je er blij mee moet zijn of moet 'slikken'. Tenzij iemand aandelen van Nvidia heeft zal niemand positief zijn over het hele gebeuren. Maar er is een verschil tussen objectief en subjectief, tussen feiten en emotie.
@centr1no
Je hele betoog over "objectieve feiten" en "echte tekorten" valt direct in duigen zodra je één simpele kritische vraag stelt:

Waarom schalen ze de 5090 dan niet af?

Als er daadwerkelijk zo'n acuut, onoverkomelijk tekort is aan geheugenchips, waarom blijft het topmodel dat per kaart de meeste chips opslokt (32GB) dan vrolijk in productie?
Als je puur logistiek naar een chip-tekort kijkt, is de 5090 de minst efficiënte kaart om te bouwen. Je kunt met dezelfde hoeveelheid geheugenchips twee 5070 Ti's maken en twee klanten bedienen (en dus marktaandeel behouden).

Maar dat doen ze niet. Ze offeren specifiek de 5070 Ti op. Waarom?
Niet omdat de chips "op" zijn, maar omdat de winstmarge op die chips in een 5090 vele malen hoger ligt. Het is dus geen "overmacht door natuurrampen of tekorten" zoals jij schetst, het is een keiharde commerciële keuze om schaarse middelen alleen nog maar in het ultra-premium segment in te zetten.
Waarom zouden ze de prijzen überhaupt willen verhogen als die nu al voor velen onacceptabel hoog zijn
Omdat het kan? Omdat ze een monopolie hebben? Omdat ze weten dat gamers nergens anders heen kunnen?
Je doet alsof Nvidia zich laat leiden door wat consumenten "acceptabel" vinden. De enige logica hier is: "Hoe dwingen we de klant die €850 wilde uitgeven naar de kaart van €1200?"
Antwoord: Door de kaart van €850 weg te nemen en 'geheugentekort' als excuus te gebruiken.

Dat jij dat onderscheid tussen 'echt tekort' en 'strategische allocatie voor maximale winst' niet wilt maken, en het afdoet als "bedrijfsmatige logica", is precies waarom ze hiermee wegkomen. Je rationaliseert hebzucht.
Waarom schalen ze de 5090 dan niet af?
Ik ben Nvidia niet maar aangezien met de 5090 een relatief klein percentage high end en professionele markt wordt voorzien zou het niet slim zijn die af te schalen. Ik volg ook niet hoe mijn betoog daarmee in duigen valt.
Je doet alsof Nvidia zich laat leiden door wat consumenten "acceptabel" vinden.
Euh nee dat doe ik niet. Ik kan ook niet meer volgen wat je nu probeert te zeggen.En nogmaals, het ratonaliseren van hebzucht staat los van wat ik daar als potentieel consument van vind.
@centr1no
Je zegt dat je niet volgt hoe je betoog in duigen valt? Laat me het even voor je spellen, want je spreekt jezelf binnen twee zinnen tegen.
Ik ben Nvidia niet maar aangezien met de 5090 een relatief klein percentage high end en professionele markt wordt voorzien zou het niet slim zijn die af te schalen.
Hier geef je exact toe wat ik zeg, zonder dat je het doorhebt.
Als er daadwerkelijk een fysiek tekort aan geheugenchips was (jouw hoofdargument), dan zou het juist logisch zijn om de kaart die de meeste chips vreet (5090, 32GB) als eerste te schrappen om chips vrij te maken voor 2 à 3 andere kaarten (5070 Ti). Dat is hoe crisismanagement werkt bij échte schaarste: efficiëntie.

Dat ze dat niet doen, en die schaarse chips liever in dat "kleine percentage high end" stoppen, bewijst dat het geen logistiek probleem is, maar een financiële keuze. Ze kiezen voor de dikke marge van de 5090 boven het volume van de 5070 Ti.
Jij noemt dat "niet slim afschalen", ik noem dat: je klanten naaien voor maximale winst.

En hou op met dat excuus over de "professionele markt". De 5090 is een GeForce-kaart, marketingtechnisch gericht op gamers. Echte professionals kopen RTX 6000 Ada-kaarten of datacenter GPU's met ECC-geheugen en drivers die niet crashen tijdens renders. De 5090 is gewoon speelgoed voor mensen met te veel geld, en Nvidia offert de gewone gamer op om die groep te kunnen melken.
En nogmaals, het ratonaliseren van hebzucht staat los van wat ik daar als potentieel consument van vind.
Je hele post is een rationalisatie van hebzucht. Je verdedigt met droge ogen dat het logisch is dat Nvidia de mainstream-kaart killt ten gunste van de ultra-high-end, en weigert te erkennen dat dit een kunstmatige schaarste is.
De schaarste is kunstmatig. Niemand ontkent dat, laat staan dat ik dar weiger te erkennen of iets verdedig. Je lijkt me ook te quoten met dingen die ik overduidelijk niet gezegd heb en lijkt niet vatbaar voor logische argumenten dus ben ik de discussie wel beu.

Voor de laatste keer, als je het verschil niet snapt tussen objectief en subjectief en/of rationeel en emotioneel stel ik voor dat je je tijd nuttiger gaat besteden omdat je op deze manier niemand overtuigd.

Los daarvan blijkt het fake news te zijn.

[Reactie gewijzigd door centr1no op 16 januari 2026 16:25]

@centr1no
Nu verschuil je je achter "het is fake news" omdat ASUS in paniekmodus een persberichtje eruit heeft gestuurd?
Los daarvan blijkt het fake news te zijn.
Dat heet damage control. Als jij gelooft dat een PR-statement van een bedrijf dat wereldwijd onder vuur ligt de absolute waarheid is, ben je nog naïever dan ik dacht.
Let op wat ze zeggen: "beschikbaarheid kan lastig zijn door leveringsproblemen". In de praktijk is dat precies hetzelfde als een EOL: de kaart is nergens te krijgen en jij wordt naar de 5080 gedwongen. Het labeltje op de doos maakt niet uit, het resultaat voor de klant wel.
De schaarste is kunstmatig. Niemand ontkent dat
Pardon? Je hele vorige betoog ging over hoe "logisch" en "onvermijdelijk" dit was en dat ik niet moest zeuren over bedrijfsstrategie. Nu draai je 180 graden en geef je toe dat het kunstmatig is? Kies een kant.

En bespaar me je neerbuigende preek over "emotie versus ratio".
Dat jij het "rationeel" vindt om als consument genaaid te worden omdat dat "goed is voor de aandeelhouders", maakt jou niet objectief. Het maakt je een lakei van het grootkapitaal. Ik ben niet "emotioneel", ik ben kritisch op een monopolist die mij een poot uitdraait. Dat jij dat verschil niet ziet en liever de discussie ontvlucht, is jouw probleem.
@centr1no
Je zegt dat je niet volgt hoe je betoog in duigen valt? Laat me het even voor je spellen, want je spreekt jezelf binnen twee zinnen tegen.


[...]

Hier geef je exact toe wat ik zeg, zonder dat je het doorhebt.
Als er daadwerkelijk een fysiek tekort aan geheugenchips was (jouw hoofdargument), dan zou het juist logisch zijn om de kaart die de meeste chips vreet (5090, 32GB) als eerste te schrappen om chips vrij te maken voor 2 à 3 andere kaarten (5070 Ti). Dat is hoe crisismanagement werkt bij échte schaarste: efficiëntie.
Dat is helemaal niet logisch. Zoals je zelf al heel goed doorhebt, blijkt uit je reacties, gaat het bij een bedrijf niet automatisch om volume, het gaat om de totale waarde die gegenereerd wordt te maximaliseren.

Wat hier mis gaat is dat jij videokaarten gelijk stelt aan een eerste levensbehoefte. Vervolgens ga je vanuit daar redeneren en vind je het allemaal vreselijk onlogisch en slecht. Maar we hebben het niet over een eerste levensbehoefte. Een videokaart is geen eerste levensbehoefte.

Dus nee indien er een fysiek tekort is dan is het helemaal niet logisch om maar zo veel mogelijk gpu's te produceren. Sterker nog dat zou een heel erg onverstandige beslissing zijn.
...gaat het bij een bedrijf niet automatisch om volume, het gaat om de totale waarde die gegenereerd wordt te maximaliseren.
Gefeliciteerd, je hebt zojuist "hebzucht" omschreven in corporate-speak. :+

Natuurlijk is het voor hun portemonnee logisch om kunstmatige schaarste te creëren en iedereen naar de duurste kaart te duwen. Maar dat wij dat als consumenten moeten slikken als "verstandig beleid"? Doe normaal.
Je bent nu letterlijk anti-consumentengedrag aan het goedpraten. Dat het voor Nvidia "logisch" is om ons uit te knijpen, betekent niet dat wij daar begrip voor hoeven te hebben of dat hun excuus over "tekorten" ineens waar is. Het is een keuze, geen overmacht.
Was het verschil met de 4070ti super en de 4080 super ook niet 15-20% en hetzelfde geheugen?
Tuurlijk doet nvidia dit bewust!
Zij doen dit met alle kaarten.
Ook in het verleden....daarom koop ik geen kamp groen
Het verbaast mij eerlijk gezegd dat de prijzen in gpu land tot heden zo rustig zijn gebleven.
Dat vraag ik mij idd ook af!
aten we hopen dat het simpelweg de super editie is die deze eol veroorzaakt. Want anders gaan de gpu prijzen stijgen en zal AMD vrolijk mee doen.
De kans is groot dat de volgende generaties idd weer een stuk duurder zullen zijn. Sowieso geen goed nieuws voor gamers. Sowieso gaan ook game studio's zich op terrmijn zich moeten aanpassen want de gemiddelde GPU zal de komende jaren stabiliseren in specs. Nvida gaat dan weer op zijn beurt met technieken komen om softwarematig een game te boosten. Uiteraard enkel compatibel met nieuwe hardware.

En dat allemaal omdat er te weinig ram is.
Exact. De 5070 ti was eigenlijk de enige kaart die nog enigszins normaal in de markt lag. Anders dan de naam doet vermoeden is de 5070 ti in feite een 5080 met iets minder actieve kernen, en (relatief gezien) wél betaalbaar. Stiekem een 'betaalbare' topkaart met genoeg vram dus, dat kan natuurlijk niet (meer).
Nvidia haat het idee van een 'future-proof' kaart in het middensegment. Ze hebben de 5070 Ti expres gekillt om hun marges te beschermen, ten koste van de consument. Dit is textbook marktmanipulatie.
Nvidia wil gewoon geen geld laten liggen als ze geheugen voor een veel hoger bedrag aan de AI bedrijven kunnen verkopen. Dat is geen marktmanipulatie, maar gewoon business as usual.
Uiteindelijk veroorzaken zij het probleem niet, dat zijn wij zelf omdat we massaal plaatjes, filmpjes en (huis)werk laten maken door AI bots.
Denk dat de meest voordehand liggende optie is:

Lekker doortuffen met huidige videokaart en niet meer de nieuwste games kopen. Er is zo'n enorm aanbod en de meeste gamers hebben een Steam backlog waar ze wel een jaar of 2 zoet mee zijn.

Dan zullen game devs ook voorzichtiger te werk moeten gaan, meer optimaliseren en daadwerkelijk goede games maken in plaats van de zoveelste titel in een reeks met 20GB VRAM systeemeis
Rookgordijn kan maar lijkt me ook wel weer een eigen ruit ingooien. De 5070TI was DE kaart die je ervan weerhield om de AMD 9070XT te kopen. Je gaat dan niet van de wens "5070Ti" naar "5080".

De 5080 gaan nu richting de 1400 Euro en de 9070XT is nog geen 700 Euro.. Met het weglaten van de 5070Ti maak je het de twijfelaar makkelijk. Die gaat nu voor een 9070XT. Niet voor 700 Euro meer naar een 5080.
ik heb zelf gekozen voor de 5070 non ti 250 euro verschil met een Ti die maar 15% tot 20% sneller is, was voor mij echt niet het geld waard. Ik heb nog geen 1x gehad dat 12gb niet voldoende video geheugen was, en dat met alles op max + raytracing op 4K (native, fuck upscalers) in vele titels.
Je hebt een 5070 gekocht om dan vervolgens geen dlss te gebruiken, wat de enige upside is die de 5070 heeft over de 9070.
5070 heeft gelukkig nog meer voordelen dan een amd kaart (die overigens ook 100 euro duurder was, de xt was zelfs 300 euro duurder tijdens aanschaf van de 5070 in juni) denk hierbij aan betere raytracing prestaties (path tracing) beter framepacing, betere frame limiters indien ik die wil hebben en over het algemeen meer controle heb over mijn settings in de nvidia inspector app, iets wat amd simpel weg niet heeft

[Reactie gewijzigd door Joeri.Bijlsma op 15 januari 2026 15:30]

Ehm als je het over de 5070TI had gehad, had je zeker gelijk, maar de 5070 heeft niet per definitie betere raytracing performance als de 9070 (non XT mind you), deze 2 liggen extreem dicht bij elkaar en ligt aan de game welke sneller is in raytracing, betere framepacing is volgens mij ook onzin maar daar kon ik zo snel niks over vinden.

Frame limiters.. dat kan ook gewoon met AMD, die hebben er meerdere opties voor zelf

Over de inspector app, geen flauw idee wat dat is, maar 1 zoek opdracht leert me dat AMD er ook opties voor heeft

Prima dat je de 5070 kiest natuurlijk, maar het klinkt niet of je enig onderzoek hebt gedaan, maar af bent gegaan op je gevoel

[Reactie gewijzigd door Sinester op 15 januari 2026 15:56]

Niks met gevoel te maken, pathtracing is gewoonweg beter op de 5070 dan op de 9070.
Qua prijs was de 9070 het niet waard, die was bijna 150 euro duurder dan de 5070 ten tijd van aankoop.

Nvidia inspector is een programma om alle fijne details aan te passen wat niet in een game kan.

Framelimiters van AMD zijn gewoon slecht, dit is algemeen bekent.
wil je half refreshrate limiter hebben? Nee dat doet AMD niet, wil je 40fps hebben op je 120hz scherm? moet je leven met veel stutters en framepacing issues. Allemaal zaken wat nvidia niet heeft.

Mijn ervaringen van AMD kaarten in het verleden heeft mij doen stoppen met het aankopen van hun videokaarten. handhelds APU hebben ook verschrikkelijk vele problemen met framepacing en frametimes, zat video's hier over te vinden zoals bij bijv gamernexus.

Ook is nvidia een stuk goedkoper in de beurs als het gaat om elektriciteit rekening, ik heb geen panelen, en mijn 5070 draait op 150 watt met een kleine undervolt, dat zie ik AMD niet doen.

DLSS zal uiteindelijk vast bruikbaar worden, 4.5 laat veel potentie zien met de problemen die upscalers hebben, mischien dat 5.0 of 6.0 mij kan overhalen, dan heb ik toch maar weer wat extra leven uit mijn 5070 in 2028.

[Reactie gewijzigd door Joeri.Bijlsma op 15 januari 2026 16:04]

Als de 9070 100 euro duurder was, dan was de 5070 wel de logische keuze. Maar nu dat de prijzen ongeveer gelijk zijn, zou ik eigenlijk niemand aanraden om de 5070 te kiezen over de 9070 voor gamen.
Voor dezelfde prijs krijg je ongeveer 10% betere prestatie, 4gb meer vram wat helpt met futureproofing en veel betere linux support. De 5070 is ook niet echt sneller dan de 9070 in raytracing, in meeste gevallen staan ze gelijk. Pas bij pathtracing krijgt de 5070 een lead, maar ik zou de pathtracing prestatie nog steeds niet speelbaar noemen.
Dit is echt ongelooflijk, maar helaas typisch Nvidia.
Ongelofelijk? Het 'is' hetemaal niets, behalve een gerucht. Er staat letterlijk 'mogelijk'. Lezen is zo moeilijk....

4 alineas met vooroordelen en bedachte aannames opgeschreven alsof het voldongen feiten zijn. Op basis van? Wat eigenlijk? Bias? En dan vote de community dit omhoog alsof dit bericht inzichtvol en interessant zou zijn. Mijn god, en ik geloof niet eens in god!

[Reactie gewijzigd door ABD op 16 januari 2026 12:18]

@ABD
Hou toch op met dat pedante toontje over "lezen is moeilijk". Je verschuilt je achter semantiek om de realiteit maar niet te hoeven zien.
Ongelooflijk? Het 'is' helemaal niets, behalve een gerucht.
Dit komt bij Hardware Unboxed vandaan. Dat is geen roddelblad, dat is een autoriteit die direct contact heeft met board partners en retailers. Als zij op basis van meerdere bronnen melden dat de stekker eruit gaat, dan nemen we dat aan als feit. Dat jij dat wegzet als "bedachte aannames" omdat je het verschil niet snapt tussen een wild forum-gerucht en onderzoeksjournalistiek, zegt meer over jouw gebrek aan inzicht dan over mijn "bias".

De community vote dit omhoog omdat mensen niet blind zijn. We herkennen het patroon van Nvidia. Dat jij "niet in god gelooft" maar blijkbaar wel heilig gelooft dat Nvidia onschuldig is totdat Jensen Huang het persoonlijk in drievoud aan je komt bevestigen, moet je zelf weten. Maar kom hier niet doen alsof betrouwbare bronnen negeren een teken van intelligentie is.
Dat jij dat wegzet als "bedachte aannames" omdat je het verschil niet snapt tussen een wild forum-gerucht en onderzoeksjournalistiek, zegt meer over jouw gebrek aan inzicht dan over mijn "bias".
Ik zou het niet snappen. Hier volgt de betekenis van het woord mogelijk:

mogelijk •een keuze om iets te doen. •misschien, eventueel.


PS: je zou naar je taalgebruik kunnen kijken, met name naar de stelligheid van je beweringen. Misschien dat je dan de kritiek in mijn post zou kunnen gaan begrijpen?

[Reactie gewijzigd door ABD op 16 januari 2026 13:02]

@ABD
Ah, daar is het woordenboek. Het ultieme redmiddel als je inhoudelijk niets meer in te brengen hebt.
Ik zou het niet snappen. Hier volgt de betekenis van het woord mogelijk: •een keuze om iets te doen. •misschien, eventueel.
Je klampt je nu wanhopig vast aan één woordje om de realiteit buiten de deur te houden. In de journalistiek betekent "mogelijk" in deze context: "We hebben het bevestigd gekregen van meerdere bronnen, maar er is nog geen officieel persbericht met een stempel van Jensen erop."
Als jij dat gelijkstelt aan "het is maar een gokje", dan snap je inderdaad niet hoe tech-journalistiek werkt. Hardware Unboxed en Tweakers publiceren dit niet zomaar. Ze hebben retailers en board partners gesproken. Dat is geen 'misschien', dat is een bevestigd patroon.
PS: je zou naar je taalgebruik kunnen kijken, met name naar de stelligheid van je beweringen.
En daar is de toonzetting-politie. Als je de boodschap niet kunt weerleggen, val je de vorm aan. Zwak.
Mijn "stelligheid" komt voort uit het feit dat het schrift aan de muur hangt. Dat jij liever semantisch geneuzel over definities voert dan erkent dat Nvidia de boel flest, moet je zelf weten. Maar ga niet doen alsof jouw struisvogelpolitiek de intellectuele bovenlaag is.
Ik hou de realiteit buiten de deur? Gast, lees eens terug wat je voor complottheorien je de afgelopen dagen hebt getypt. Zelfs het geheugentekort 'voelt' volgens jou als een rookgordijn. De DDR kits zijn in zeer korte tijd letterlijk 4x over de kop gegaan, maar de tekorten 'voelt' als een rookgordijn.Voelt tussen aanhalingstekens omdat je dat niet voelt, maar denkt.

Je hebt een bias en daar gooi je een hoop complotten heen. De geheugentekorten hebben niets met Nvidia te maken.

Wat betreft die toonzetting. Als je de nederigheid zou bezitten om te schrijven dat je iets denkt ipv stellig beweren dat die complotten zo in elkaar steken, dan zouden je posts een stuk beter overkomen. Je toon is heel vijandig en agressief en dat mag best minder. Wat jij beweert zijn alles behalve feiten en daar ageer ik op. De techwereld staat op een kruispunt, men denkt dat AI de wereld gaat revolutioneren, men sorteert daarop voor(ondermeer alle ram wordt opgekocht, de beurskoersen gaan door het dak) en daarom gebeurt dit. Niet omdat jij Nvidia haat.

[Reactie gewijzigd door ABD op 16 januari 2026 16:28]

@ABD
Je blijft maar hameren op mijn "toon" en "complotten" om de inhoud niet te hoeven adresseren.
De DDR kits zijn in zeer korte tijd letterlijk 4x over de kop gegaan
Je haalt nu doodleuk systeemgeheugen (DDR) en videogeheugen (GDDR) door elkaar om een punt te maken. Ja, de markt is krap. Maar dat verklaart nog steeds niet waarom specifiek de 5070 Ti (de value-king) geslachtofferd wordt, terwijl de 5090 (die veel meer van die "schaarse" chips vreet per unit) vrolijk geproduceerd blijft.
Als het puur om een tekort ging, stopte je de productie van de 5090 om met die chips drie keer zoveel 5070 Ti's te maken. Dat doen ze niet. Ze kiezen voor marge boven volume. Dat is geen "complot", dat is een simpele allocatie-keuze in het nadeel van de mainstream gamer.
Je toon is heel vijandig en agressief en dat mag best minder. [...] Als je de nederigheid zou bezitten...
Mijn toon is fel omdat ik allergisch ben voor mensen die corporate greed staan te verdedigen alsof het een onvermijdelijk natuurverschijnsel is.
Jij noemt het "kruispunt van AI" en "beurskoersen". Ik noem het: Nvidia die de gamer laat stikken omdat ze liever AI-accelerators verkopen, en de overgebleven kruimels (gaming GPU's) zo duur mogelijk in de markt zetten door de betaalbare opties te killen.

Dat jij die dynamiek weigert te zien en mij liever aanspreekt op "nederigheid", laat precies zien wat het probleem is. Wees jij maar lekker nederig en dankbaar terwijl ze je portemonnee leegkloppen. Ik pas.
5060ti 16gig, voor een meerprijs boven de 5070. puur vanwege de vram, klinkt dat interessant in jouw oren?
en weet, dat voor e-sport titels, die heel wat gespeeld worden, 8gb vram nog zat is ;)

[Reactie gewijzigd door JWL92 op 15 januari 2026 14:59]

Die begrijp ik niet zo: ik mag NVIDIA ook niet zo maar als ik hun CEO was zou ik exact hetzelfde doen: geheugen wordt veel duurder dus vooral goedkopere kaarten met relatief veel geheugen worden relatief duurder t.o.v. krachtiger exemplaren met relatief minder geheugen. Dus knijpen maar: alles onder RX 5070 8 GB, 16 GB vanaf de 5080 meer eerder naar de 5090. Dat is niet leuk voor de klanten, maar goedkope kaarten met veel RAM worden te duur en dus slecht verkoopbaar.
Sorry hoor maar nvidia is gewoon een commercieel bedrijf. Dus zo ongelooflijk is het niet. Ik snap de verontwaardiging wel maar het is wel begrijpelijk. Ze doen aan product- en marktsegmentatie en optimalisatie zoals de meeste bedrijven.
ja precies dit, ik ben echt zo blij met mijn 5070TI voor 750 (!) euro! :) een OC model! love it!

echt een monster kaart voor QHD gaming op 32 inch!
Ik zag laatst een youtube video waarin diverse configuraties getest werden, en volgens die video kon je bij veel games nog weg komen (60+ fps) met 8gb ram zo lang je een 16gb vram gpu hebt.

Met de prijzen van ram leek me dat een hele interessante optie, maar dan moeten ze er wel zijn. Jensen Huang met zn kekke leren jasje heeft echter weer een ander plan.
De 5070 Ti is ongeveer 850 euro en is maar ~19% goedkoper dan de 5080 (1050 €) en benchamrks tonen dat de 5080 gemiddeld 10-15% sneller is (vaak 10-12% bij 1440p/4K met DLSS en ray tracing). Voor dat kleine prijsverschil krijg je dus een solide prestatie-upgrade, geen slechte deal... voor mij al helemaal niet gezien ik het vooral voor AI ook gebruik en daar heb ik bijna 20%(!) extra performance tov mijn 5070Ti.

Dus het prijs verschil is te verantwoorden.
Dat ze er mee stoppen is natuurlijk raar gezien het gewoon een logische stap naar beneden is, het killen van de 5060Ti 16gb snap ik ook niet, het is een killer voor die prijs, alhoewel die de 8gb eruit duwt.

Het is allemaal nog steeds achterlijk veel geld en de GPU was altijd de grootste kostenpost, nu is die redelijk naar beneden gegaan mijn inziens en is het veel gelijekr verdeeld, een computer in het algemeen is gewoon duur(der) geworden, ligt niet alleen aan het debacle rondom de chips.
Even uit de losse mouw geschud waarom je dat als consument niet zou willen:
  1. Hobby, interesse, en behoefte
  2. Niet afhankelijk willen zijn van een andere partij die de servers op elk moment de lucht uit kunnen halen
  3. Niet afhankelijk willen zijn van een partij die op elk moment ervoor kan kiezen om de maandelijkse prijzen gezellig te verdubbelen
  4. "Wil je geen advertenties meer zien? Dat kan met een premium account, voor slechts drie keer zoveel geld!"
  5. Technische zaken als ping
  6. Niet meer kunnen gamen zonder internet - ook geen single-player games
En zo zijn er nog wel tientallen zaken te bedenken waarvan er één al voldoende is voor mij om toch echt sterk de voorkeur te hebben bij het hebben van m'n eigen desktop.

[Reactie gewijzigd door Fillask op 15 januari 2026 14:56]

@Bananaman123124
Optie 3 is geen 'optie', dat is pure capitulatie.

Dat mag dan misschien het natte droom-scenario zijn van de aandeelhouders bij Nvidia, maar als consument moet je wel knettergek zijn om daar vrijwillig in mee te gaan. Cloud gaming is fundamenteel inferieur aan native rendering.

We hebben het hier over de mensen die in de markt waren voor een 5070 Ti. Die groep geeft om latency, hoge refresh rates en scherpe textures. Die ga je echt niet afschepen met een gecomprimeerde videostream vol compressie-artefacten en variabele input lag.

Daarnaast is het argument "waarom eenmalig verkopen als je een abo kan slijten" precies het probleem. Je wordt gemolken tot op het bot en aan het einde van de rit bezit je niets. Als jij blij wordt van "You will own nothing and be happy", prima, maar val hardware-enthousiastelingen daar niet mee lastig. Cloud is leuk voor de casuals op de bank, maar voor serieuze pc-gaming is het een belediging.
De markt laat zich niet zo dwingen, en de vraag naar videokaarten gaat niet ineens weg. Als Nvidia uit de markt zou stappen voor consumentenkaarten dan is het enige resultaat dat de concurrentie vrij baan krijgt.

Ik kan niet ontwikkelen op GeForce Now dus wat heb ik daaraan? De meeste games hebben ze ook niet. Dan koop ik toch gewoon Intel, AMD, of zelfs Apple? Qualcomm word ook steeds meer een optie.

Dus nee, dit lijkt me geen succesvolle strategie.
Je neemt afstand van het idee van je eigen hardware en gaat gamen in de Cloud.
Dit gaat naar mijn mening echt nooit compleet populair worden, voor vele redenen
  • Niet iedereen heeft de internet verbinding ervoor
  • Het is en zal denk ik nooit vergelijkbaar zijn met gewoon lokaal gamen, zeker competive games zullen nooit aanslaan in de cloud.
  • Nog meer afhankelijk zijn van andere partijen of je wel of niet kan gamen
  • Wie zit er in godsnaam te wachten om NOG meer abonnementen te betalen per maand?
Stel dat het lastig wordt voor kaartproducenten om genoeg Vram te voorzien. Zouden we dan games met betere optimalisatie krijgen?
Dat zou je verwachten en hopen en zal wellicht deels waar zijn. Immers, de Steamdeck was al voor een aantal developers reden genoeg om hun games zo te optimaliseren dat dat ding óók hun spellen kon spelen. Ook worden de Steam charts veel gebruikt als "wat voor specs gebruiken de meeste spelers?" en dan komt er toch vaak uit dat 1440p op een RTX3060 (en dus 8GB VRAM) nog steeds de voorkeur heeft.
Maar omdat we nu ook steeds meer in het einde van de huidige console generatie terecht komen, wordt er sowieso steeds meer geoptimaliseerd, immers consoles blijven wat ze zijn.
De RTX 3060 was een 12GB VRAM kaart bij zijn release. Pas later is er een 8GB budget versie bijgekomen.
En die budget versie (incluis de eerdere RTX20 serie met 8GB aan geheugen) blijft veruit de populairste onder de Steam gebruikers.
Verwacht het niet heel eerlijk gezegd. Sinds NVIDIA al jaren te weinig vram in hun videokaarten stopt zijn ontwikkelaars nou niet echt gemotiveerd geraakt om AAA games te optimaliseren al zeg ik het zelf.
Veel moet toch van drivers gehad hebben of "AI upscaling"...
Optimaliseren betekent toch heel plat gezegd dat een game minder resources nodig heeft om hetzelfde te bereiken in prestatie/kwaliteit verhouding?

Dus dat een videokaart te weinig RAM heeft en dus ontwikkelaars niet willen optimaliseren is voor mij totaal niet logisch.

Maar misschien dat je wat anders bedoelt?
Niet alles kan weggeoptimaliseerd worden. De technologieën die het belangrijkste zijn voor de toekomst van gaming, ML Upscaling & Hardware RT, hebben nou eenmaal een hoge basishoeveelheid aan VRAM nodig.
Publisher prefereren de goed te marketen gfx . Daarom zijn games zwaarder en gaan ze voor upscaling.

Optimalisatie is ook tijd en dus productie budget resource vretende bezigheid. Bij te grote of te zware resultaat wordt er eerder in gehakt dan weer kwartaal refinement iteratie te doen. Er is dus optimalisatie budget. Waar je het probleem heb van krappe of ruime productie tijd. Als eindigt in crunch time weet ja dat wat gepland had niet paste in productie planning en wordt q&A bug fixing en polish al helemaal volledig of deels opgeofferd. Naast dat soort game ook veel meer Q&A nodig hebben bijvoorbeeld corridor vs sandbox games.
Goede vraag. Als je naar een game als Arc Raiders kijkt, zie je dat het wel kan. De ontwikkelaars gebruiken Unreal Engine 5, maar dan zwaar geoptimaliseerd en allerlei inefficiënte UE5‑onderdelen uitgezet, vervangen of opnieuw geschreven. Daardoor draait de game verrassend soepel, zelfs op een patato-pc’s.
Ik mag toch hopen, want het gros van geheugengebruik komt van inefficiente software en bloated hoeveelheid polygonen en high-res textures, terwijl je met gewoon net ontworpen textures en goede belichting of goed toegepaste HDR soepeler en mooiere resultaten kan halen...
640kb is all you'll ever need!
Het verschil tussen Crysis1 en Farcry1

Slimme manier om textures op te bouwen uit meerdere basis textures rn detail textures.

Ik had vroeger in dx2 directdraw bijvoorbeeld gras texture van 64x64 waar ik random 32x32 tile op enorme grid zette waar je dus een enorme game world gras texture kreeg . Dacht met ongeveer 80 samples zag het er als 1 geheel uit. En kon ik heel lang van de ene kant naar de andere kant scrollen.

Dat van farcry is dan complexere 3D texture variant waar meer textures mixed om gedetailleerde grotere te creëren. Goed gebruik van multi texture feature.

Farcry zag er op low settings FHD nog steeds mooi uit. 8600GS en R600

Crysis op low zag er niet uit. Medium was te zwaar voor 8600GS waar R600 mix medium high kon.
Zijn dit nu niet juist net de concurrenten van de rx 9070 (xt)? Als ze die markt zo weggeven moet het wel heel slecht ervoor staan...
of het boeit ze niet, ze borduren op Ai chips, gpus. het is geen tijd meer voor pc bouwen. ik raad ook veel van mijn klanten omeen console aan te schaffen, een beetje fatsoenlijke pc zit je nu al rond de 3000k+ wat absurd is.

Console is 670é of soms meer, maar hoef je geen zorgen te maken of het wel of niet werkt op je tv.
Qua prijs per performance deels met je eens

Echter, niet alle games die mensen willen kunnen op een console
Ik wil zelf niet voor de TV, maar gewoon muis/toetsenbord
Ik wil met vrienden spelen die op PC zitten

Deze combinatie van factoren zorgde ervoor dat ik vorig jaar een compleet nieuwe PC gebouwd heb (dank tweakers best buy guide) en gelukkig nog net voor de ergste DDR prijsstijging een set 32GB ddr5 heb kunnen kopen en een 9070XT.

Nu hopen dat er niks kapot gaat aankomende paar jaar :)
Hoeveel PC-only games zijn er nou helemaal nog, vandaag de dag?
Behoorlijk veel, als je het Indie segment meetelt.
Als ik alleen AAA games zou spelen, had ik ook een console gehaald mede met de reden wat theduke1989 aangeeft.

[Reactie gewijzigd door JacOwns7 op 15 januari 2026 15:30]

tripple A valt mee,

Indies staat steam/itch.io vol mee.
Hangt compleet van het genre af dat je wil spelen.

Bij mij zijn dat RTS en strategie spelen alsook wat indie spelen. Hoewel enigszins beschikbaar op console is dat toch echt niet hetzelfde. Met een console ben ik dus alvast niet geholpen.

Geen PC meer kunnen bouwen is een halve doodsteek voor mijn gaming hobby. Al ontdek ik momenteel massaal veel oudere games die wél draaien zonder nieuwe hardware. Nu maar hopen dat er niets stuk gaat.
een beetje fatsoenlijke pc zit je nu al rond de 3000k+ wat absurd is.
Je kan niet onder de prijs van een PS5 (pro) ofso komen maar om dat te evenaren hoef je ook nog steeds geen 3000 euro uit te geven hoor, eerder de helft oid...

CPU: 200 euro
Moederbord: 150 euro
Geheugen: 250 (16GB)
Videokaart: 450 (9060XT)
SSD: 100 euro
Kast: 50/100 euro
Voeding: 50/100 euro

Totaal 1250 euro voor een prima PC voor 2000 euro stop je er 32GB in en een 9070XT ofso...

Hoe kom jij bij die 3000 euro en wat voor PC heb je dan? Er is waarschijnlijk geen console die zich daar aan kan meten qua snelheid...
Kan beide, maakt niet zo veel uit, DDR4 ben je nog wat goedkoper mee uit waarschijnlijk, kan je nog prima gamesysteempjes mee bouwen.

[Reactie gewijzigd door watercoolertje op 15 januari 2026 15:59]

Op dit moment kun je 16 Gb DDR4 3600 MT/s kopen voor ca 130 euro. En een 5700 voor 142 euro of bv een 5800x voor 185 euro Een AM4 moederbord kun je kopen voor onder de 100 euro. Je gaat immers toch deze niet meer upgraden. Dat laat aardig wat meer ruimte in het budget voor een betere videokaart. De voeding zou dan misschien wel net wat duurder moeten worden dan je in de gedachten had.
(Ik zat vandaag toevallig benchmark vergelijking op youtube te kijken van de 5600X met de 9060XT 16 Gb en de 5060Ti 16 Gb. Het lijkt iig daar niet dat de CPU de bottleneck is?)
250 voor 16gb... daar had je een jaar geleden 5 x een setje van 32gb voor (ddr4)
DDR4 is dus nog niet zo dramatisch duur. Rond de 130 euro zie ik verschillende 3600 MT/s 2*8 Gb kitjes staan.
(Maar ik zie dus wel dat sommig eerder door mij aangeschaft nu 4x zo duur is. 2x16 Gb Cl16 3200 Mhz DDR4)

[Reactie gewijzigd door AtariXLfanboy op 16 januari 2026 21:31]

wat valt onder fatsoendelijk dan? top of the line? of sorteren op duurste eerst?

een beetje hier in de pricewatch gesnuffeled

7800x3d met een 9070XT 32gb ram midrange moederbord en redelijke kast zit je op 2300 euro

duur ja, fatsoendelijk ja, maar geen 3k+
De 5070 en 5070 Ti zijn inderdaad net eronder/net boven de 9070XT ja. Dit zijn populaire kaarten onder mensen die iets van 2k te besteden hebben voor een pc. Beetje hogere middensegment.

Het is simpel, de 5080 en 5090 hebben ook geheugen nodig, maar dat is gekoppeld aan een dikkere gpu. Als je je geheugen wilt verkopen met een gpu samen is dat gunstiger als dat de topmodellen zijn natuurlijk. Hopelijk kan AMD gewoon met een wat hogere prijs voor het geheugen doorgaan met de verkoop, zal goed zijn voor hun marktaandeel.
De conclusie is behoorlijk duidelijk. De grootste concurrent hier is niet de 9070 (xt) maar de 5080. Dit is een logische stap om het productaanbod te versimpelen.
Ook voor klanten is het nu duidelijker, 5060-70-80 is telkens 4GB meer. Zeker voor prebuilts is dat een vooruitgang.
Met een prijs van inmiddels weer ruim boven de €1200 vind ik de 5080 niet echt een goed alternatief.. Maargoed, de goedkoopste 5070Ti kost inmiddels ook alweer meer dan €850, meer dan wat ik er vorig jaar mei voor betaald heb.. Covid, crypto, nu AI elke keer weer wat wat de markt enorm verstoord.. Gelukkig is mijn PC nu uptodate en kan ik wel weer wat jaren vooruit..
Bijzondere keuze, nu word AMD alleenheerser in het middensegment. De 5060Ti 8GB is de moeite niet echt waard.
AMD zal ook snel volgen verwacht ik. Grote kans dat ze 9060 XT 16GB en 9070 (non-XT) productie gaan afschalen om alleen op 9070 XT te focussen in het 16GB-segment.

Dus hetzelfde idee als Nvidia maar waarschijnlijk iets minder impactvol, aangezien GDDR6 geheugen gemakkelijker toegankelijk zou moeten zijn dan GDDR7.
And so it begins.

Het was te verwachten. Geforce is voor Nvidia ondertussen niets meer dan een veredelde hobby. Het spreekwoordelijke wisselgeld tussen de kussens van de bank.
Maar het is ook zeker geen markt die je eigenlijk aan de kant moet schuiven.
Als je de complete consumentenmarkt verliest, dan verlies je ook de veel ontwikkelaars die met jouw tools leren te werken.
CUDA is groot geworden door de gamers, mocht AMD dit marktaandeel wegsnijden dan zullen steeds meer applicaties gebruik gaan maken van de AMD technologie, wat uiteindelijk ook weer doorstroomt naar de zakelijke en server markt.
CUDA is absoluut niet groot geworden door gamers, maar door data scientists en AI onderzoekers. De kaarten die daarvoor gebruikt worden maken waarschijnlijk amper game uren...
Ik denk eerlijk gezegd dat de hele CUDA markt inmiddels wel groot genoeg is om ook zonder de gaming developers zijn broek op te houden. Hoeveel doorstroom is er nog vanuit de game developers richting de serverkant?
Tsja, ik geloof dat geforce vorig jaar 5-6 procent van de omzet was. De overige 94 tot 95 procent was data center.

uiteindelijk gaat het gewoon om de centjes. Nvidia verdient relatief weinig aan de consumentenmarkt. Het is een AI bedrijf geworden wat toevallig ook nog wat consumentendingen erbij doet. Dat is de realiteit. Het is jammer dat er (nog) geen andere partij is die marktaandeel af kan pakken. AMD zit ook op de AI trein en Intel is nog jaren en jaren verwijderd van een fatsoenlijke gpu tak.

voorspelling: gaming is straks (duurt nog even) alleen nog in de cloud, uiteraard met een abonnement.

You will own nothing and you will be happy.
Dat zal wel meevallen denk ik. De input lag op je game controller is gewoon erg irritant, veel mensen worden daar echt gek van.

Verder zit je met gamen ook vrij dicht op je televisie of monitor dus valt de video compressie je ook veel sneller op.

Ik denk dat we eerder gewoon tevreden moeten zijn met wat we nu al grafisch zien op de Xbox of PS i.p.v. steeds hoger resoluties en frame rates te willen hebben.
Of gaat de productie capaciteit naar AI kaarten? Winstmarges daar zijn natuurlijk bakken hoger.
Denk eerder dat ze gewoon minder keuze willen maken om zo optimaal geheugen te kunnen plaatsen op kaarten die verkopen, ipv allemaal doom denkers, als ze echt geld willen stoppen ze gewoon en doen ze enterprise only.

door de keuzes te beperken blijf je met minder vooraad zitten dus meer geheugen wat verkocht word in een schaarse markt.

Daarnaast laten benchmarks zien dat een 5060 met 16GB niet veel sneller is en soms zelfs trager dan 8GB dus is die extra geheugen nu niet verantwoordbaar , Je kunt immers 2 kaarten van 5060 8GB voorzien.
als ze echt geld willen stoppen ze gewoon en doen ze enterprise only.
Dat lijkt me op lange termijn niet zo verstandig, als straks ai bedrijven failliet beginnen te gaan en al die enterprise kaarten op de markt komen gaan die markt waarschijnlijk serieus krimpen...

Met je andere standpunten ben ik het wel volledig eens...
De prijzen voor een 5070 TI is inmiddels gestegen naar 900 tot 1300 euro. De webshops hanteren echt een "Never waste a crisis" mentaliteit.
Lijkt erop dat ik op tijd een RTX 5070Ti gekocht heb vorig jaar.. Was toen voor mij de sweetsport qua prijs/prestatie.. Zat qua prijs dichter bij de 5070 dan bij de 5080 en je krijgt infeite dezelfde chip als de 5080 (met iets minder cores actief) en ook 16GB VRAM.. Dat Nvidia nu met de Ti's wil gaan stoppen past in het plaatje van steeds minder aandacht voor consumenten GPUs en meer focus op de zakelijke (AI) markt waar veel meer geld valt te verdienen voor ze.. Prijzen van GPU zullen hierdoor weer flink gaan stijgen ben ik bang.. Zou mij trouwens ook niks verbazen als vanuit AMD binnenkort soortgelijk nieuws komt..
Uh huh? End of life? Wat houdt dit in qua driver support? Ik heb net 4 maanden deze kaart?

Edit; Goed misschien had ik mijn vraag beter moeten stellen.
Hoelang blijven ze dan nog driver support leveren als iets end of life is.

Gelijk -1 holy moly

[Reactie gewijzigd door Trithereon op 15 januari 2026 15:41]

Driver support blijven ze gewoon jaren ondersteunen. Ze komen geheugen te kort.
Het meeste gaat naar A.I Data centers.
Oh oke, ik had namelijk deze kaart gekocht omdat die naar mijn mening het beste was.
Mijn 1080 was aan vervanging toe al doet die het ook nog steeds maar daar stoppen de drivers wel van. Die heb ik wel echt uitgespeeld :) !
Het bedrijf heeft de 5070 Ti daarom als 'end-of-life' aangemerkt. Dat betekent dat er geen nieuwe kaarten meer geproduceerd zullen worden, hoewel ze wel gewoon drivers blijven ontvangen
letterlijk de volgende zin uit t artikel

Om te kunnen reageren moet je ingelogd zijn