Gerucht: Nvidia RTX 5070 Ti heeft 256bit-geheugenbus en 350W-tbp

Wccftech heeft nieuwe vermoedelijke specs van de Nvidia RTX 5070 Ti gedeeld. De videokaart zou niet enkel over 8960 CUDA-cores en 16GB GDDR7-geheugen beschikken, maar ook over een 256bit-geheugenbus en een geheugenbandbreedte van 896GB/s. De maximale tbp zou 350W bedragen.

Bronnen hebben aan Wccftech bevestigd dat de RTX 5070 Ti een GB203-300-gpu bevat. Dat is naar verluidt dezelfde gpu als in de Nvidia RTX 5080. De gpu in de RTX 5070 Ti zou wel een gereduceerde variant zijn, met mindere prestaties. De total board power zou volgens de techwebsite op 350W komen te liggen. Dat is 50W meer dan voorheen door leakers werd aangenomen. Betrouwbare leaker Kopite7kimi bevestigt de tbp op X, maar vermeldt ook een andere tbp van 285W.

Wccftech bevestigt dat de Nvidia RTX 5070 Ti 16GB aan GDDR7-geheugen meekrijgt. De snelheid van de geheugenchips ligt op 28Gbit/s. De totale geheugenbandbreedte ligt hierdoor op 896GB/s. Ter vergelijking: de Nvidia RTX 4070 Ti uit begin 2023 heeft 12GB GDDR6X-geheugen aan boord, met een snelheid van 21Gbit/s. Deze videokaart heeft een 192bit-geheugenbus. De geheugenbandbreedte bedraagt hierdoor 504GB/s. De Nvidia RTX 4070 Ti heeft overigens ook een tbp van 285W.

Er doen al langer geruchten over de aankomende Nvidia RTX50-videokaarten van Nvidia. Het Amerikaanse bedrijf zou enkele van de nieuwe gpu's willen introduceren tijdens de eerstvolgende Consumer Electronics Show in Las Vegas. Ceo Jensen Huang houdt op dinsdag 7 januari 2025 een keynote tijdens de CES. Tweakers meldde al op basis van bronnen dat de RTX50-videokaarten in het begin van 2025 op de markt zouden verschijnen.

Videokaart Nvidia RTX 4070 Ti Nvidia RTX 5070 Ti (op basis van geruchten)
Architectuur Ada Lovelace Blackwell
CUDA-cores 7680 8960
Geheugen 12GB GDDR6X 16GB GGDR7
Geheugensnelheid 21Gbit/s 28Gbit/s
Geheugenbus 192bit 256bit
Geheugenbandbreedte 504GB/s 896GB/s
Tbp 285W 285W-350W
Release Voorjaar 2023 Voorjaar 2025

Door Jay Stout

Redacteur

15-12-2024 • 10:11

358

Submitter: Vurenvos

Lees meer

Reacties (358)

358
356
96
9
0
215
Wijzig sortering

Sorteer op:

Weergave:

16GB, voor een kaart die over de 900 euro gaat kosten, op basis van de TI super prijzen nu. Je kunt nu nog een 7900XT voor 699 halen met 20GB. Nvidia loopt hier altijd op achter, zodat hun kaarten nooit té lang mee kunnen gaan.

En toch hebben ze met deze planned obscolescence zoveel marktaandeel. Marketing + Advertenties > specificaties/prestaties. De meesten laten zich toch verleiden ipv overtuigen.
16Gb is meer dan genoeg?
Indiana Jones gebruikt reeds meer dan 16GB met de grootste texture pool size in 4K, je moet al een stap terugnemen en op 1440p spelen om net onder de 16GB te komen...

Voor een kaart die meer dan €650 gaat kosten (prijs van een 4070 Super), mag je toch verwachten dat deze geen problemen heeft met alle huidige games op de markt.
20 zou voor mij de minimum moeten zijn in dit segment en 24GB zou meer dan genoeg moeten zijn.
Je geeft hier juist een voorbeeld dat er geen probleem is. De game heeft letterlijk een texture pool size setting, los van quality. De pool size bepaalt hoeveel vram er gealloceerd mag worden. Wat je vooral ziet in je video is dat er op 4k zelfs met dlss (waarbij de game op lagere resolutie draait en vervolgens upscaled wordt) nog maar 30 fps wordt behaald. Dat is te laag, daarom moet de resolutie omlaag. Lagere resolutie vereist minder rekenkracht.

[Reactie gewijzigd door sdk1985 op 15 december 2024 13:17]

Dus jij vind het normaal dat je voor 900 euro een nieuwe game niet op ultra 4k60 kan spelen? Nvidia doet dit overduidelijk bij wijze van planned obscolescence...
Dus jij vind het normaal dat je voor 900 euro een nieuwe game niet op ultra 4k60 kan spelen? Nvidia doet dit overduidelijk bij wijze van planned obscolescence...
Dat is eigenlijk altijd het idee van Ultra geweest. Dat je op de high-end resolutie eigenlijk geen 60 fps meer haalt, meer een setting voor de volgende generatie. Denk aan games als cyris maar ook aan GTA 4. Wellicht dat er tijdens de komkommertijd waarbij de games nauwelijks meer zwaarder werden daar een vertekend beeld is ontstaan omdat je toen ineens met mid-range kaarten ultra kon draaien, maar dat is nooit normaal dan wel vanzelfsprekend geweest.
Je praat over een poos terug, tegenwoordig heeft iedereen wel een scherm met 120hz+ en dan ga jij beweren dat het de bedoeling is dat de games niet hoger dan 60fps draaien terwijl ze er tegenwoordig amper beter uitzien dan de games van 6 jaar geleden?
Kijk eens naar de nieuwste Indiana Jones, 11 fps op 4K voor een RTX 4080, 34 fps voor 1440p; YouTube: RTX 4080 SUPER gets CRUSHED in Indiana Jones and the Great Circle!. De games worden tegenwoordig weer mooier en zwaarder.

Ik ben overigens persoonlijk altijd erg gevoelig geweest voor fps, onder de 90 vond ik voor een shooter helemaal niks, het liefst 120 fps. Ook al in de tijd van de 60-75 Hz monitoren. Maar tegenwoordig met adaptive sync is bijvoorbeeld 50 fps vaak ook prima te doen. Tijden veranderen wat dat betreft.

[Reactie gewijzigd door sdk1985 op 17 december 2024 01:07]

Dus jij vind het normaal dat je voor 900 euro een nieuwe game niet op ultra 4k60 kan spelen?
Ultra, what’s in a name? Ultra = uw fps fps nemen een duiken en moet je frame per frame met ‘high’ vergelijken met 100% zoom om een verschil te zien. Beetje zielig,

Als je wel op ultra kan draaien, is dat dan zijn geld waard? Dit is puur sentimenteel en heeft niets de in game beleving te maken.
Je hebt nu eenmaal mensen nodig die graag het beste van het beste willen.
Zij zorgen op hardware niveau voor vooruitgang.

Je moet alleen niet te veel van die gekken hebben en je moet ook geen mensen hebben die het dubbele neerleggen voor midrange kaarten omdat er schaarste is. Ik denk dat vooral het tweede nu het probleem is in de markt

Die paar tweakers hier die patsen met hun high end pc kun je vergelijken met alpha mannetjes die patsen met hun dure auto
Je hebt nu eenmaal mensen nodig die graag het beste van het beste willen.
Zij zorgen op hardware niveau voor vooruitgang.
Het lijkte me straf. Het is net de midrange waar het grote geld zit.
je moet ook geen mensen hebben die het dubbele neerleggen voor midrange kaarten omdat er schaarste is
Er is geen schaarste. Dat is echt onzin. Wat er wel is dat game devs games die op console moeten draaien een nutteloze ultra setting geven. Dat in combinatie met native 4K zorgt voor extreem dure kaarten om ‘ultra 4K te draaien.

Wat is er toch zo mis met 1440p met alles op high? Dan draai je alles boterzacht in hoge resolutie en mooie graphics. Als je meer wil, ga dan high-end.

Het is niet omdat Nvidia je een duurdere 4K kaart wil aansmeren dat je dat ook moet doen.
Ja dan moet je zoiezo een 5090 wil je een beetje fataoenlijke fps halen op je 4k 240 hz scherm. Mag je nog steeds blij zijn dat je 120+ fps haalt. En wel native al die upscaling onzin benchmarks dat is geen 4k
en @GeertBoer

Ik wil jullie even erop attenderen dat Indiana Jones geen rasterizatie ondersteund en alleen full Ray tracing, oftewel Path tracing is.

Zoals ik in mijn bericht had geschreven, er is geen enkele hardware in staat om games fatsoenlijk te draaien in native resolutie met full ray/path tracing. Daar zijn eenmaal softwarematige toepassingen voor nodig.

Kijken wat de 50xx serie's gaat doen, maar ik verwacht dat zelfs met de 50xx full ray/path tracing nog niet volledig haalbaar is zonder softwarematige toepassingen.

[Reactie gewijzigd door Toonen1988 op 15 december 2024 14:17]

Ik wil jullie even erop attenderen dat Indiana Jones geen rasterizatie ondersteund en alleen full Ray tracing, oftewel Path tracing is.
Dat is gewoon niet waar. Er zijn maar een handje vol effecten die echt en alleen moeten met RT in de game (en die daarom een RT GPU vereist). Ze gebruiken nog steeds allerlij hybride en rasterized technologieen voor de verlichting precies omdat de "full" RT mode die ze er net hebben in-gepatcht op 4K alleen met een 4090 met DLSS Performance en FG de 60 FPS haalt.

(Cascaded) Shadow maps, cube map reflections, screen space reflections, extra virtuele (cinematic) lichtbronnen (die niet bestaan in de game maar alleen voor de verlichting van indoor-locaties nodig zijn) en ga zo maar door. Allemaal non-RT licht-rendering-technieken uit de pre-RT era die er gewoon nog in (moeten) zitten. Path tracing kan ze vervangen, maar dan zou het spel misschien net op de PS5 Pro kunnen en op PCs niet met minder dan een 4070 te spelen zijn (op 1080p/60/DLSS-Q+FG).

Digital Foundry heeft gisteren nog een mooie vergelijking gepost

[Reactie gewijzigd door Darkstriker op 15 december 2024 23:42]

Is dat niet wat CP2077 doet in raytracing overdrive mode op een 4090?
Wanneer je Overdrive mode (path tracing) activeert zonder softwarematige technieken zoals DLSS, FG (frame generation) en RR (Ray Reconstruction) behaal je nog geen 20 FPS met een RTX 4090 in CP2077.

YouTube: Cyberpunk 2077 Ray Tracing: Overdrive Technology Preview on RTX 4090

[Reactie gewijzigd door Toonen1988 op 15 december 2024 17:16]

Oh ja maar DLSS werkt uitstekend. Het ziet er fenomenaal uit.
Wat is ultra? Die grens wordt iedere keer opgetrokken.
Wat 5 jaar geleden ultra was is nu low.
Wen er maar aan.
900 euro is een middenmoter tegenwoordig.
Waar mee je de nieuwste games 1440 native of 4k via DLS op high kan spelen.
Ja, het is compleet normaal dat 'ultra' of hoe je de top setting ook wil noemen alleen op de top kaart een top prestatie neerzet. Wil je de setting voor een x090 kaart gebruiken op een x070 kaart, dan betaal je daar de prijs voor in FPS.

Zou ook wat worden anders, dan hadden de kopers van een 4090 pas reden tot klagen. Dubbel zo veel uitgegeven, niet beter dan een 4070.
Ligt dat dan niet aan het spel/developer? Hoe meer objecten in beeld hoe zwaarder het wordt, het is niet alsof je oneindig door kunt gaan. 4k100+fps is totaal geen probleem om te halen, mits je maar niet teveel tegelijk op het scherm toont.
De reden waarom Indiana Jones een zwaar spel is, heeft meer te maken met full-ray Tracing, oftewel Path Tracing. Onze huidige hardware is nog niet in staat om games in 4k native resolutie te draaien met volledige full ray/path tracing. Zelfs nog niet eens in 1080p.

Wanneer Indiana Jones ook rasterisatie zou ondersteunen, zou het spel veel beter draaien, zelfs met dezelfde textures.

We hebben eenmaal softwarematige oplossingen nodig om games te kunnen draaien met full ray/path tracing. Niet alleen DLSS, ook render technieken veranderen of worden verbetererd, waaronder ReSTIR.

In CP2077 haal je ook maar iets van 15 fps met een RTX 4090 in native resolutie, wanneer je Overdrive activeert zonder softwarematige toepassingen.

[Reactie gewijzigd door Toonen1988 op 15 december 2024 14:06]

De reden waarom Indiana Jones een zwaar spel is, heeft meer te maken met full-ray Tracing, oftewel Path Tracing. Onze huidige hardware is nog niet in staat om games in 4k native resolutie te draaien met volledige full ray/path tracing. Zelfs nog niet eens in 1080p.

Wanneer Indiana Jones ook rasterisatie zou ondersteunen, zou het spel veel beter draaien, zelfs met dezelfde textures.
Helemaal mee eens. Als ik kijk naar CP77 dan heb je al een hele potente kaart nodig om op path tracing te draaien. Ik doe dat wel en mijn 4080 heeft soms al moeite met 60 fps in bepaalde stukken op nota bene 1080p mét frame generation. Dit spel ziet er nóg gedetailleerder uit en dat gaat wat worden. Ik denk dat mijn systeem hier flink moeite mee gaat krijgen terwijl er nog genoeg tweakers zijn die een 4080 belachelijk vinden op 1080p. Nou, hier komt ie dan: het gaat met dit spel noodzaak worden.

Je gaat buiten dat verplicht worden om flink aan die texturepool te draaien wil je Vram niet overlopen.

Mijn oprechte vraag: is het nu werkelijk zo dat een 5090 al tekort gaat komen op 4K?!
Ik mag oprecht hopen dat game developers hier wat mee gaan doen. Als maar weinig mensen hem lekker kunnen draaien krijg je negatieve reviews en zal het spel uiteindelijk minder verkopen. Een beetje teveel ambities.
Mijn oprechte vraag: is het nu werkelijk zo dat een 5090 al tekort gaat komen op 4K?!
Ik mag oprecht hopen dat game developers hier wat mee gaan doen. Als maar weinig mensen hem lekker kunnen draaien krijg je negatieve reviews en zal het spel uiteindelijk minder verkopen. Een beetje teveel ambities.
Hangt af van wat ze nog allemaal aan games gaan toevoegen en hoe groot ze de wereld uitbouwen.
Reken maar dat net zoals bij de recente Indiana Jones er alsmaar meer games gaan uitkomen met geîntegreerde raytracing/pathtracing. Wil je zo'n game op Ultra settings spelen kom je er niet met een RTX4090 24GB vram .. die haalt nu met ULTRA settings zelfs al geen 50fps.

Het is natuurlijk ook wel eens nodig de volgende generatie van games grafisch naar een hoger niveau te tillen. Je kunt niet games blijven uitbrengen die grafisch achterhaald zijn of telkens de mogelijkheid hebben alle grafische functies in te stellen zodat ook de verouderde systemen het telkens nog kunnen (mee) draaien. Zoiets zoals het PS4-blijven ondersteunen verhaal, waarbij voor een zeer lange tijd games die voor zowel PC als console uitkwamen grafisch onderdrukt werden om ze toch ook maar op PS4 te laten werken. Wat voor bijvoorbeeld AC: Odyssey het geval was. .

Zo ga je nooit een volwaardig game van de volgende generatie kunnen uitbrengen en dit is niet anders dan vroeger .. toen werden er ook tal van games uitgebracht die grafisch zo'n pareltjes waren dat geen enkel betaalbaar systeem dat voor de consument op de markt was het grafisch aankon. Je moest dan het absolute high end systeem aanschaffen met hardware die nog moest uitkomen wou je net aan de minimum requirements voldoen van zo'n game. Van sommige van die games konden we pas 5 tot 8 jaar later ten volle genieten. Hebben die games kritiek gekregen .. JA .. maar nu worden ze vereerd voor hun innovatie en zijn meer verkocht geweest dan andere games uit dezelfde tijdsperiode.

Hetzelfde verhaal komt nu terug zoals voorheen .. schaf gewoon niet meer de nieuwste games aan als je ze toch niet kan spelen op je PC .. ;)


.

[Reactie gewijzigd door MPIU8686 op 15 december 2024 16:49]

Dit klopt helemaal, games en hardware is toegankelijker geworden dan jaren geleden. Je had inderdaad games die toen ter tijd op de gemiddelde computer niet konden draaien. Kan nog herinneren toen Medal of honor Allied Assault uitkwam, dat iedereen nieuwe GPU's moesten kopen, omdat de nieuwe OpenGL drivers niet compatible waren met oudere GPU's.

Had je net een splinter nieuwe high-end GPU, kon je jaar later weer een nieuwe kopen. :D

Het klopt wat je zegt, dat we een beetje terug gaan naar die tijd. Niet dat oudere hardware niet meer wordt ondersteund kwa drivers, maar meer dat sommige games te zwaar zijn voor onze huidige generatie hardware.

Dit proberen ze te verlichten met softwarematige toepassingen, die sommige mensen zien als "luiheid" van de ontwikkelaar om de slechte performance van games te verbergen. Maar ze hebben totaal geen benul wat bijv. Path tracing doet.

[Reactie gewijzigd door Toonen1988 op 15 december 2024 16:19]

Goed verwoord en ik begrijp je standpunt zeker, maar dit is wel een heel grote sprong.

Zo was dat met The Witcher 3 in het begin ook. Niemand kon het spel fatsoenlijk op ultra spelen zonder veel lag. Toen kwam de next gen update uit en weer was het spel een te grote match voor huidige hardware.
Het spel is uitgebouwd vanaf 2015 en nu mag je een rtx4090 hebben wil je deze game fatsoenlijk op 4K ultra+ spelen.

Tevens schakel je AMD hiermee aardig uit want die kan patch tracing echt niet bijhouden omdat deze de hardware er niet voor heeft.
Sorry maar je post suggereerd dat Path tracing de enige render methode is die gesupport word.

Kan me niet voorstellen dat dit klopt. De game zou anders totaal onspeelbaar zijn op alle AMD GPU's.
De game heeft als minimum eis een RX6600. Die kan godonmogelijk full path tracing aan.

Er zal dus nog wel degelijk gebruikt gemaakt kunnen worden van rasterzation. De game heeft ook een path trace optie. Dat is wat anders dan path tracing required.
Full Ray/Path tracing is niet exclusief Nvidia. Ook AMD kaarten kunnen games draaien met full Ray/Path tracing.

Indiana Jones kan alleen gespeeld worden met GPU's die Ray Tracing ondersteunen. De Global Illumination die ze gebruiken, werkt op basis van Ray Tracing.

Ik heb het spel zelf niet, dus geen idee welke opties je allemaal hebt. Je kunt dus Path tracing uitschakelen, zeg je. Dan heb ik me daar in vergist, dan is het minimale wat het spel ondersteund, Ray tracing + Rasterization.

nieuws: Bethesda noemt engine reden dat Indiana Jones-game altijd raytracing-...

[Reactie gewijzigd door Toonen1988 op 15 december 2024 22:42]

Ik vind niet dat je mag verwachten dat je alles op 4k ultra kan spelen met een mid-range kaart. Ja, het zijn relatief veel euro's maar het is gewoon een mid-range kaart. Daarnaast is volgens mij Indiana Jones (en een handvol andere spellen) wel echt een uitzondering. Voor een schamele 60FPS met alles op ultra heb je al een 4090 nodig, MET upscaling EN frame generation. Dat is gewoon bizar. 99% van alle spellen heeft nu en komende 10 jaar voldoende aan 16Gb. En als dat niet zo blijkt te zijn dan mag je me daar over 10 jaar op wijzen en dan zal ik mijn woorden nederig inslikken.
900 euro moet ook niet een midrange kaart zijn. Weetje nog de tijden dat je met 500 a 600 de top end of the line haalde? juist ik ook. Natuurlijk heb je inflatie etc maar dat verklaard maar een kleine fractie
Helemaal mee eens natuurlijk! Maar dit is helaas de realiteit nu.
yelop: "900 euro moet ook niet een midrange kaart zijn."
Trick7: "Helemaal mee eens natuurlijk! Maar dit is helaas de realiteit nu."

Die realiteit bepaald 'de markt' (wij, gamers) toch echt voor een groot deel ook zelf.

Het feit is dat er echt zoveel mensen zijn die telkens weer Nvidia kaarten kopen dat ze bij Nvidia daardoor ook telkens weer de kans krijgen om 'de grens op te zoeken', oftewel; kijken hoe hoog je de winstmarge kan opvoeren tot het punt dat de verkoop aanzienlijk terugloopt. En dat blijkt nogal ver te gaan...

Als jij voor 900 Euro een (high?-)midrange kaart wil kopen, doe vooral wat je niet laten kan. Maar ga niet beweren dat de prijs die je betaald 'een onvoorkomelijke realiteit is' en dus niet ook goeddeels aan jezelf (en anderen die hetzelfde doen) te wijten is!
Dit klinkt hezelfde als: we moeten deze week met z'n allen niet gaan tanken om de overheid te dwingen de accijnzen omlaag te doen!

Het is wel degelijk een onvoorkomelijke realiteit dat de prijs gezocht gaat worden die mensen willen en kunnen betalen voor een goed of dienst.
De rokers hebben dat aardig voor elkaar.

Dikke accijns verhoging.
Stik er maar in we halen het wel elders.

Nu doen ze niet meer mee met extra inleggen voor de extra zorg die ze later nodig gaan hebben.

Allemaal omdat de overheid er een nog grotere melkkoe van die groep wilde maken.
Laat me raden, jij bent een roker?

Weet je wat ik grappig vindt? Ik ken vooral mensen die zijn gestopt met roken vanwege de prijs en omdat ze geen zin hebben om de extra belasting van brandstof en tijd te betalen om de grens over te gaan of een hogere prijs te betalen aan iemand die het voor ze regelt (die maar lichtjes lager ligt dan de inmiddels normale prijs van sigaretten).

Accijnzen verhogen werkt het is de bewezen beste manier om mensen van het roken af te helpen. Ja, ze zullen zeuren. Heel heftig zeuren, en de industrie zal met bullshit onderzoekjes komen waarvan jij de clou op dit moment herhaalt.

Even on-topic omdat het kan....
Ik hoop dat AMD de Intel route kiest, een top/goede kaart voor een fenomenale prijs. Het zal vast ijdele hoop zijn. Maar goed.... hoop doet leven,
Nee ik rook niet, maar ik woon wel in de buurt van de grens.

Elk pompstation in Duitsland lijkt wel een vuurwerk verkoper in Nederland met al die opgestapelde sloffen en grote potten tabak.

Wat er in emmerich/Elten aan tabak wordt verkocht is absurd.

Terug naar topic, eens maar ik hoop wel dat AMD wat hoger inzet.

De B580 is een goed alternatief in een praktisch genegeerd marktsegment. Maar ik hoop zelf meer op een echt dikke kaart voor 400-500 euro.

[Reactie gewijzigd door BarnET op 16 december 2024 09:47]

Nja de eerste lekken rondom de 8800XT zien er goed uit. Nu hopen dat het geen bull is. De 7900XTX was om eerlijk te zijn ook een fantastische inbreng in de markt.

Om weer terug te komen op de rokers, wanneer je in een grensgebied woont kan ik me voorstellen dat het zo aandoet. Nu woon ik in 's-Hertogenbosch, niet te ver van de grens maar er zeker niet bovenop.

De meeste rokers in mijn omgeving hebben echt geen trek in de tijd en moeite die ze moeten doen voor iets dat hen hoofdzakelijk schaad en gaan meer betalen, minder roken en velen stoppen.

Inertie is machtig.
Dit zie je bij roken.
Dit zie je ook bij onderzoek naar goede videokaarten.

Of uberhaupt naar onderzoek, want ik ken genoeg mensen die het helemaal niet zien als ze hun slider van Ultra naar High zetten. Ik ben gewend om even te moeten vogelen met mijn 6900XT en 4K 240Hz scherm. Want sinds ik dit scherm heb weet ik 100% zeker dat ik aan de sliders moet pielen voor ongeveer 10 minuten.
De rokers hebben dat aardig voor elkaar.

Dikke accijns verhoging.
Stik er maar in we halen het wel elders.

Nu doen ze niet meer mee met extra inleggen voor de extra zorg die ze later nodig gaan hebben.

Allemaal omdat de overheid er een nog grotere melkkoe van die groep wilde maken.
https://accijnsmonitor.nl...ns-en-accijnsopbrengsten/
De cijfers schetsen en ander, genuanceerder beeld.

Net zoals bij GPU's zie je dat de gebruikers nogal nukkig zijn en het weglekeffect zeer beperkt is. Men blijft gewoon stug doorpaffen bij Nvidia alsof er geen alternatief bestaat.
Je moet drinken, eten, naar het toilet, bewegen en slapen, anders red je het niet erg lang, daarnaast onderdak met wat andere basisvoorzieningen en genoeg sociaal contact, je belasting netjes betalen en je anderszins ook naar redelijkheid aan regels houden. Om dat voorelkaar te krijgen moet je meestal; werken.
Verder is er toch echt bizar weinig te 'moeten' in het leven!

Met 100% zekerheid is een nVidia videokaart geen eerste levensbehoefte! En ook geen tweede, derde of vierde. Dus, hoezo moeten? Misschien is een videokaart voor gaming jou persoonlijke 27e (ik roep maar wat) 'bijna levensbehoefte' maar dan zijn er ook nog gewoon AMD en Intel. Beweren dat je een Nvidia kaart moet hebben voor gaming is hoe dan ook een belachelijke overdrijving...
Misschien heb je mijn post niet goed gelezen of probeerde je op een ander bericht te reageren? Ik begrijp je tirade over het woord 'moeten' namelijk niet.
Wat wij toen top end noemden aan 500 a 600€, noemden velen ook midrange, want voor top end moest je er 2 hebben in SLI.
Belachelijke bedragen. Een high-end kaart zoals de rtx4090 kost je al rap 2 ruggen. Dat zijn geen prijzen voor de gemiddelde gamer en hier hoop ik op een antwoord van kamp rood. Zoals Nvidia weinig echte concurrentie heeft en ze kunnen doen met de prijzen wat ze goeddunkt. Een rtx4080 kost al zeker 1100 euro en dat zijn geen prijzen voor jan modaal. Nu kan de 4070 ook al heel wat tegen een prijs van 600 euro, maar dit is geen high-end kaart, maar zit er tegenaan. De 4060 is echt te zwak en misschien kun je dit spel spelen met DLSS ultra performance op 1080p zodat je 640*360 zit te renderen 8)7
Dat soort GPU's waren sowieso nooit voor de gemiddelde gamer gedacht. Men laat zich gek maken door websites en Youtube kanalen die alles maar langs de allersnelste hardware op de markt leggen. Daardoor ontstaat het beeld dat de 4090 de norm is en een ieder die dat niet op kan hoesten een sloeber is.

Nvidia speelt hier natuurlijk gretig op in, niet in de laatste plaats door hun halomodel als eerste op de markt te brengen waardoor de rest er wat bekaaid van af komt. Zeker door de prijs-prestatiecurve te hebben aangepast van een exponentieel stijgende lijn, naar een haast regressieve curve.

Ergo, laat je niet gek maken door de commercie. Met een GPU van 500 EUR worden games er echt niet minder om. Hele volksstammen spelen op een console, en die kunnen dergelijke GPU's nog niet eens bijbenen...

Ik heb de hoop onderhand eerder op kamp blauw. Want kamp rood speelt het spelletje ook gewoon graag mee. Die halen de volumes wel uit de consoles, de PC is er voor de marge. Tenzij men ineens massaal AMD gaat kopen en het Nvidia een significant deel van de markt kost, dat Nvidia met de prijzen gaat zakken, en AMD meemoet.. Ik zie het niet meer gebeuren. Het lijkt wel Apple vs Android inmiddels.
Het is het wel - zowel bij team rood als bij team groen.

De kaarten die je 10 jaar geleden voor 5-600 euro kocht, waren aanzienlijk minder complex dan de huidige kaarten. GPU's zijn tegenwoordig een stuk duurder om te ontwerpen en te produceren dan toen.

Plus dat de schaarste van 3 jaar geleden de fabrikanten heeft doen inzien dat jij en ik blijkbaar meer geld over hebben voor een midrange kaart dan ze dachten. Want de kaarten bleven verkocht worden aan gamers, ondanks de schaarste door cryptomining. Tja, en dan gaan de prijzen omhoog. Vraag en aanbod!

Dus stem met je voeten, koop een tweedehands kaart of een instappertje en laat alles boven de RTX 4060 lekker op het schap staan. Alleen dan gaan de prijzen weer naar beneden.
Ja, het zou niet moeten zijn, maar het is wel de realiteit.
Die 10 jaar is wel een erg boude voorspelling, maar midrange en 4K op ultra is inderdaad niet redelijk. 4K en midrange kan wel, maar dan moet je genoegen nemen met minder toeters en bellen én doorgaans lagere fps.

Met mijn 7900XT zie ik bij veel spellen dat die 20GB ruimschoots volstaat bij 4K, maar dat de GPU zelf niet krachtig genoeg is voor alle toeters en bellen voor minimaal 60fps (dus neem ik daar genoegen mee).
Maar dan moet AMD zoals in de tijd van de toen veelste dure GTX 8800 ultra. Met een product (HD4870) komen wat bijna 2x zo snel is als zijn voorganger. Zonder dat de GPU veel groeit. Of duurder wordt.

Ik denk niet dat AMD in staat is dat nog een keer te doen.

Wel hebben ze een voordeel mbt geheugen bus vanwege hun chiplet ontwerp.

Ze kunnen daardoor ook met een kleinere chip een grotere geheugenbus hanteren.

Geheugen interface schaalt namelijk niet lekker met een duurder kleiner procedé.
Je hebt gelijk in dat het een mid-range kaart is. Hoe duur die ook zijn geworden en hoe kunstmatig dat ook door de fabrikant zo weggezet wordt.

Maar met de trage maar gestage gang richting 4K en de ontwikkelingen in snelheid van de GPU's en VRAM is het logisch dat game developers meer en grotere textures gaan gebruiken, omdat het kan.
De hoogste settings van games worden ontwikkeld op PC's met de snelste processor en zelfs soms met/voor een GPU die voor consumenten (nog) te niet te koop is.
Die ontwikkelingen hebben nooit stilgestaan en hoewel het nu wel wat vlugger gaat en zeker raytracing e.d. een enorme aanslag op de rekenkracht plegen, is het absoluut niet bizar.
Ook gezien dat 'realistisch' uitziende games alleen maar realistischer gaan worden is het niet meer dan logisch dat games de komende jaren meer VRAM nodig gaan hebben.

Wat mensen individueel nodig hebben of genoeg vinden is in de GPU-markt al een tijdje niet meer relevant.
Ik lees en hoor de laatste jaren steeds meer meningen als 'het hoeft voor mij niet zo realistisch', '4K is leuk maar ik ben ook tevreden met minder', 'ik heb liever fps i.p.v. toeters en bellen'. Wat heel natuurlijk is als die GPU's met iedere generatie duurder en duurder worden.
Maar er blijft ook een enorme groep mensen high-end GPU's kopen en game developers zullen altijd met het mooiste, nieuwste uit willen komen om zieltjes te winnen, ook al is het niet voor iedereen haalbaar.
99% van alle spellen heeft nu en komende 10 jaar voldoende aan 16Gb
Beetje flauw om dat zo ongenuanceerd te stellen. Wat is 'voldoende'?
Het zal best zo zijn dat games die over 10 jaar gemaakt worden nog met 16GB kunnen draaien.
10 Jaar geleden had de GTX 980 4GB en de 960 2GB. Ik betwijfel of je daar nu 'voldoende' aan hebt om plezierig te gamen.
Zou het niet logisch zijn die lijn door te trekken en verwachten dat er een reële mogelijkheid is dat we over 10 jaar games hebben die 32 GB of meer nodig hebben?
Bovendien is het dus ook niet alleen een kwestie van wat hardwarematig nodig is, maar ook waar de games voor gemaakt worden en het waarschijnlijk dat er ook dan games uitgebracht worden die net als die Indiana Jones game simpelweg geen boodschap meer hebben aan verouderde budgetsystemen met maar 16GB VRAM.
Klopt maar wel een kleine verdediging voor Nvidia.

Normaal werd het elk kleiner procedé de kosten per transistor kleiner.

Dat is helaas niet meer zo omdat de kosten per wafer vanwege onder andere EUV harder stijgt dan dat de transistor dichtheid toeneemt.

De realiteit is dan ook dat de klant veel meer moet betalen voor een midrange kaart als we kijken naar de die size.

Dat Nvidia anders hun producten sowieso kwijt kan aan AI server farms of cryptominers helpt uiteraard ook niet mee.

De gebrekkige competitie ook niet.
Hopelijk kan AMD meer met hun 2de poging met chiplets.
Ik ben met je eens maar helaas zal het niet genoeg zijn.

4k ultra is nu het max, dat dacht ik ook met full HD, meer dan 4k begint het beetje te lijken met het aantal pixels op een telefoon scherm.

Maar het is ronduit bizar.
Niet 10 jaar. Tot dat PS6 er is. ;)
99% van alle spellen heeft nu en komende 10 jaar voldoende aan 16Gb. En als dat niet zo blijkt te zijn dan mag je me daar over 10 jaar op wijzen en dan zal ik mijn woorden nederig inslikken.
Met 16GB vram kom je er helemaal niet en nog niet eens voor de komende 2 jaar wil je de nieuwste toptitels spelen met alles op Ultra (en dan spreek ik hier niet over indie games .. )
Momenteel worden er alsmaar meer games ontwikkeld met Raytracing en Pathtracing.
Als dit standaard net zoals bij Indiana Jones gaat geïntregeerd worden om het gehele spel naar een hoger niveau te tillen ben jij verplicht een nieuwe PC met een high end GPU aan te schaffen wil jij nog meewillen. Want uitschakelen is geen optie, omdat pathtracing bij Indiana Jones nu eenmaal verweven zit in de gehele game, vandaar ook dat het er zo fantastisch uitziet.

Ik heb net Indiana Jones uitgespeeld
op een recent samengestelde PC (zeg maar geleend, want is nu alweer terug)
RTX4090 / AMD Ryzen7 9800X3D / 64GB DDR5 RAM
alle instellingen op Ultra
en deze 24GB GPU rekte het maar nauwelijks om in dat spel nog de 50fps te halen .. :D

Stel je dus voor, dat de helft van alle games die er de volgende jaren zit aan te komen standaard met raytracing of pathtracing komt, omdat het natuurlijk ook wel eens nodig is de volgende generatie van games grafisch naar een hoger niveau te tillen. Je kunt niet games blijven uitbrengen die grafisch achterhaald zijn of telkens de mogelijkheid hebben alle grafische functies in te stellen zodat ook de verouderde systemen het telkens nog kunnen draaien. Zoals het PS4-blijven ondersteunen verhaal .. |:(
Zo ga je nooit een volwaardig game van de volgende generatie kunnen uitbrengen en dit is niet anders dan vroeger .. toen werden er ook tal van games uitgebracht die grafisch zo'n pareltjes waren dat geen enkel betaalbaar systeem dat voor de consument op de markt was het grafisch aankon. Je moest dan het absolute high end systeem aanschaffen met hardware die nog moest uitkomen wou je net aan de minimum requirements voldoen van zo'n game. Van sommige van die games konden we pas 5 tot 8 jaar later ten volle genieten.

Unreal, Crysis, Skyrim, Battlefield 3 en The Witcher 2 mag hier ook nog best bij.
Dit een midrange kaart hahahahahaha
Hahhahahahahhahaha
Hahahhahahahhaa
Hahhahahhaha
Hahahhahah
Dezelfde hoeveelheid geheugen en geheugenbus dan de 7800XT en 7900 GRE.

Kijken naar de specificaties
verwacht ik een 4070TI super + 10-15%
De kaart zit natuurlijk maar twee stappen boven de budget range ;). Het is jammer dat de prijzen voor GPUs zo uit de hand gelopen zijn.
Ja, de consument heeft bevestigd dat men deze prijzen wil en blijft betalen, besef van waarde is zoek, dus ja?...
Of een typisch kenmerk van een monopolist, de waarde voor de klant (gecorrigeerd voor de prijs) neemt dramatisch af.
4K en dan klagen dat een 4070 Ti niet genoeg VRam heeft. Dan had je een 4090 moeten aanschaffen die voor 4K bedoeld is.

Dit is gewoon een "you" probleem bij mensen met 4K die een midrange GPU's kopen en dan vreemd opkijken als ze van een koude kermis thuis komen.
Bijna €900 is geen midrange.
Dat jij dat niet vindt is prima maar daar denken ze bij Nvidia blijkbaar anders over.
Laten we misschien beginnen met de absurde prijsinflatie niet meer goed te praten? Het probleem erkennen is de eerste stap om er hopelijk verandering in te krijgen.

900 was minder dan 10 jaar geleden een mooi budget voor een hele midrange pc. Ja het is normaal dat de prijzen een stukje gestegen zijn, maar op die periode verwacht je niet dat ze x2 of zelfs x3 gaan.

Je kan zelfs gaan kijken naar Apple. 10 jaar geleden had je het instapmodel 13" MacBook Air voor net iets meer dan 1000 euro, en vandaag gaat dat nog steeds. Als zelfs Apple, notoir voor hun hoge prijzen, de prijzen ongeveer stabiel kan houden, dan zet dat de Nvidia prijzen wel even in context.

Nvidia is gewoon op hun hoofd gevallen met deze prijzen, en AMD ook omdat ze denken dat ze die gewoon kunnen volgen. Het wordt hoog tijd dat de AI bubbel barst, zodat ze weer met hun voetjes op de grond gezet worden. De woekerwinsten die ze nu maken zijn gewoon obsceen.

Ik koop alleszins alleen maar tweedehands kaarten meer.
10 jaar geleden had je het instapmodel 13" MacBook Air voor net iets meer dan 1000 euro, en vandaag gaat dat nog steeds.

Dit zegt mij dat Apple al 10jaar meer dan ruim voldoende marge neemt om dezelfde prijszetting aan te houden...

Als die 13" toen 300€ kostte om te bouwen en nu 450€ maken ze nog steeds genoeg winst en moeten ze hun prijsrange niet aanpassen
Je kan voor 1000€ nog steeds een hele mooi gamepc bouwen. Niet met rgb of water koeling, of exotisch ram. En neen, je moet er ook geen 4k scherm op aansluiten. Maar je kan je enorm amuseren met een pc van 1000€. Dat jij denkt dat je een 5070 nodig moet hebben om een beetje te kunnen gamen ligt volledig aan jou oren en ogen die teveel naar marketing materiaal hebben gezien en geluisterd.
@BlaDeKke Voor 1000 euro? Dat is echt krap hoor. Spec het maar eens uit. En ik had het over 900 euro, en wat ik eigenlijk vroeger aangaf als richtprijs voor een mooie mid-range PC was 800 euro.

Ik heb zelf even de oefening gedaan op Megekko:

Ongeveer het goedkoopste AM5 moederboard dat te vinden is, de goedkoopste AM5 CPU, basic voeding, basic case, basic 1TB SSD en de allergoedkoopste 4060 8GB. Daarmee kom je maar net onder de 900 euro uit. Gelukkig dat Megekko op dit moment kerst sales aan het doen is, want anders kwam je er niet:
https://www.megekko.nl/wl/8KNM2G4P

Wil je niet gegarandeerd in de problemen komen met de 8GB VRAM, dan moet je bij AMD zijn. Doe de goedkoopste 7600XT in je winkelmandje en plots zit je alweer 25 euro over budget.
https://www.megekko.nl/wl/RJD5SY79

Met dus alles het meest low-end dat je kan vinden dat redelijkerwijs nog een upgrade pad geeft, zit je dus al aan die 900 euro. Dat is echt niet mooi hoor. Dat is gewoon droevig. Zwijg maar van die 4k, met dit systeem geraak je niet verder dan 1080p.

En het ergste van deze hele zaak is dat je met die computer ook in het absoluut slechtste performance/euro segment zit. Vroeger zat je rond die 900-1000 euro in de sweet spot. Nu zou ik dit eigenlijk nooit aanraden. Spaar wat verder en ga ineens naar ~1200-1400 euro is wat ik zou aanraden. Het is gewoon echt zijn geld niet waard. Je betaalt veel en krijgt net de basics...
Dus computer zelf kost 480€ zonder GPU. Vul aan met GPU naar keuze, ik zie niet in hoe je niet leuk kan gamen op een pc als dit met een GPU van 400 a 500€.

Je kan sowieso alle spelletjes met je vrienden meespelen, en de meeste games draaien hierop gewoon met alle registers open aan een mooie frametime.

En dat kan zeker nog goedkoper ook, maar dan begin je wel serieuze compromissen te maken.

[Reactie gewijzigd door BlaDeKke op 16 december 2024 16:21]

Wat je daar stuurt is nog erbarmelijker. Daar zit je dan op 3 generaties oud qua CPU (zonder X3D), met maar 16GB RAM. Dat is dus net een generatie nieuwer en exact de hoeveelheid RAM voor de minimum specificaties van die nieuwe Indiana Jones game. Wat je daar dus voorstelt voldoet dus maar net aan de minimum requirements voor de games van vandaag. Goed voor online argumenten, maar ga je echt iemand die build aanraden nu het praktisch 2025 is?

Als ik je even mag quoten: "Je kan voor 1000€ nog steeds een hele mooi gamepc bouwen". Laten we dan even kijken naar de best buy guide van in 2014 (thanks @Cid Highwind om die op te graven): review: Desktop Best Buy Guide: mei 2014

In 2014 had je dus voor die 900-1000 euro een high-end videokaart en een current-gen platform. Jouw voorstel is een platform van 3 generaties oud dat nu al op het randje zit van ondersteuning en dan een lower-midrange GPU. Er is gewoon geen "nog steeds". Die build zit in een heel ander klassement. Natuurlijk kan je er nog veel plezier uit halen, veel games draaien op verouderde hardware nog goed. Voor 900 euro in 2014 kon je recente games op ultra draaien. Vandaag moet je vanaf dag 1 alles al terugschroeven naar bijna het minimum. Wat je krijgt voor je geld is gewoon heel veel minder, en dan heb je hier een hoop mensen die doen alsof het altijd al zo geweest is. Dat is gewoon niet zo. De GPUs zijn absurd veel duurder geworden, en het is Nvidia die met de meerprijs gaat lopen. Laten we het gewoon benoemen zoals het is.

[Reactie gewijzigd door Niosus op 16 december 2024 16:54]

Mijn punt blijft staan. En jij bent serieus aan het overdrijven.

Je kan met die build zowat elke game spelen, en de meest met alles op high. Gewoon niet in 4k en niet die ene game die je aanhaalt.

Dat jij vindt dat je voor een prikkie op de eerste rij moet kunnen zitten is jou probleem. Er is sinds 2014 wel heel veel veranderd, als je enkel wil kijken naar inflatie dan maak je jezelf blind. Sinds corona is er veel meer vraag naar high end gear. En de markt wordt gedreven door vraag en aanbod. Aangezien Nvidia meer geld raapt bij multinationals dan bij ons gamers sinds kort betekend dat Nvidia niet geïnteresseerd is in meer aanbod, en al helemaal niet sinds scalpers hebben bewezen dat er toch wat volk veel over heeft om een game op de hoogste settings te kunnen draaien, in 4k tegen 120fps.

Je kan terug grijpen naar vroeger, maar de wereld veranderd sneller dan ooit tevoren. En het systeem dat ik daar neer zet is een prima systeem om mee te gamen. Je hebt geen X3D nodig, je hebt geen AM5 nodig, die 32GB ram kan je er in krijgen voor een kleine meerprijs op deze build en dan mik je op 1000€ ipv 900€.

Geef mij 1 voorbeeld aub waar een X3D of het AM5 platform performance wint in de prijsklasse waar we nu naar kijken.

Degene die nu met hun watergekoelde super duper high end build dagelijks Minecraft of Fortnite spelen wil ik de kost niet geven.

Mijn raad, stop met kijken naar specs en marketing en speel games voor de fun!

[Reactie gewijzigd door BlaDeKke op 16 december 2024 18:30]

Sorry hoor, maar 10 jaar geleden was 900 euro ook al niet genorg voor een midrange PC, tenzij je misschien dingen ging hergebruiken.

Het gebruik van steeds kleinere technologieen is wat de prijs ook steeds hoger maakt, en kijk naar alles rondom ons, alles is dubbel zo duur geworden.

[Reactie gewijzigd door SuperDre op 15 december 2024 21:52]

review: Desktop Best Buy Guide: mei 2014

En daar zat een R9 290 in, met een 512bit geheugenbus en 4GB geheugen. Deze presteerde op het x80 niveau van Nvidia.

Nee, PC gaming is weldegelijk flink duurder geworden. Verder wel aardig in lijn met andere zaken, zoals huizen. Maar naar mijn idee heb je juist op consumentengoederen uitzonderingen omdat die zich niet in de lokale bubbel bevinden. Neem je TV's, dan heb je een product wat juist nauwelijks duurder is geworden in dezelfde tijd.
De technologie ansich wordt gewoon steeds duurder omdat ze sneller overschakeken op de nieuwste kleinere technologie waardoor het langer duurt om de kosten er uit te halen. Die verkleining wordt steeds duurder om te fabriceren/bedenken.
Moet je eens even kijken naar de winstmarge van Nvidia. Hun winst van het laatste kwartaal is verdubbeld ten opzichte van een jaar geleden (toen zo ook al hoog vlogen) naar 20 miljard. 20 miljard winst op 3 maanden tijd.

Dagobert Duck wil zijn zwembad terug.

Ja de procedés zijn duurder geworden, maar dat neemt niet weg dat er bovenop dit stijging gewoon keihard gegraaid wordt. En ja, het klopt absoluut dat een heel groot deel van de groei van Nvidia door de AI chips komt (waarbij ze nog grover zijn in hun gegraai). Maar om dan eerst te gaan claimen dat het 10 jaar geleden ook al zo was, keihard fout bewezen te worden, om dan te gaan zeggen dat dit nodig is "om uit de kosten te geraken"... Sorry hoor... Dat is gewoon gaslighting. Ik weet niet hoe ik op zo'n standpunt moet reageren.
Mensen verdienen dit. Als je maar blijft aangeven dat je bereid bent om het dubbele te betalen bij schaarste, dan gaan bedrijven vanzelf de prijzen verhogen.
En deze gaan bijna nooit omlaag.

Tenzij iedereen gewoon een generatie overslaat en nog 1 totdat de prijzen weer omlaag gaan.
En dus zijn mensen vrij om dan voor AMD te kiezen, wat ik persoonlijk voor deze prijs ook zou doen.
Laat nu net amd uit deze markt stappen. En geen goed alternatief hebben. Dus mensen kopen toch wel.
Mensen kopen wel ?
Welke kaart?
Welke mensen?

Niet ik in iedergeval....te duur
Wat ik niet kan aanraden voor de vreemdste chenanigans. YMMV, maar ik kan mensen absoluut geen amd gpu aanraden, toch geen mensen die graag een stabiel systeem hebben.
Maar vergelijkbare kaarten kosten bij AMD nagenoeg net zoveel.
Dat mag maar dat maakt het nog niet waar.
De term mid range is nergens gedefinieerd. Dus rammelen over zo’n term is verspilling van tijd, energie en bandbreedte van de tweakers.net servers.
Vroeger was dat Al high end. Maar Nvidia verdubbeld prijzen per 6-7 jaar, waar normale dingen meer dan 10 jaar voor nodig heeft. Das Nvidia voor je.
Er is dan ook geen deftige concurrentie. Je kan op iedereen boos zijn behalve Nvidia. Die doen wat logisch is.

Of wil je de prijzen van GPUs gaan reguleren?

Iedereen die wil reageren met amd, of nog beter, Intel. Yeah, moest het waardige concurrentie zijn zoals je van plan was neer te pennen, dan zaten we nu niet met die overpriced Nvidia GPUs.

[Reactie gewijzigd door BlaDeKke op 15 december 2024 20:11]

Wat heet waardig?
Als je qua compute bepaalde software gebruikt waarmee je aan CUDA gebonden zit, kan ik het nog begrijpen.

Voor het spelen van wat games waar zaken als RT enkel wat grafische extraatjes zijn zonder verder ook maar iets aan de gameplay of spelplezier te veranderen, dan kan je het gewoon waardige concurrentie noemen. Nvidia biedt leuke extra's, maar ook zonder DLSS valt er gewoon goed te gamen, kwestie van je verwachtingen wat hercalibreren.

Wanneer je jezelf hebt aangepraat dat DLSS en Nvida RT absoluut onmisbare en onvervangbare features zijn, heb je jezelf effectief in een vendor lock-in geredeneerd. Soms moet je een keuze maken als consument. En soms komen keuzes met gevolgen. Net zoals we nu dus de vruchten plukken van het realiseren- en in stand houden van een de facto monopolie van Nvidia.
Waardig als in, de mensen zijn er zo in geïnteresseerd en tonen dat met hun aankopen. Zoals Ryzen CPUs destijds. Zoveel interesse in de concurrentie dat Nvidia er bang van wordt. (niet dat gaming nvidia nog veel uitmaakt, maar dat is een andere zaak :) )
De prijs bepaalt niet of iets mid-range is, dat zijn de specs. Dat het absurd is dat een mid-range kaart tegenwoordig 900 euro cost is wat anders.
470.000 euro is geen normale prijs voor de gemiddelde koopwoning maar op dat punt zijn we ook al een tijdje aanbeland in Nederland. Je kunt erover klagen maar 900 euro is wel degelijk wat je voor een midrange GPU neertelt momenteel. Daar zitten flink goedkopere en flink duurdere kaarten onder en boven dus je kunt kiezen wat je met je geld doet. Prestaties zijn er ook naar. Men verwacht tegenwoordig blijkbaar op 8K 10.000 fps met alle settings op ultrasupermastergodlike te kunnen gamen met een instapkaart.
Komt ook omdat de bouwkosten zelf gestegen zijn.
Die voor de productie van videokaarten amper.
Men verwacht bij iedere nieuwe generatie videokaarten een miljoen keer meer rekenkracht maar het wordt nog altijd vergeleken met de prijs van een budgetkaart van 10 jaar terug. Simpelweg onrealistisch. Geldt voor alles trouwens, ik hoor ook mensen klagen over prijzen van nieuwe auto's maar daar zit ook een veelvoud aan componenten in ten opzichte van vroeger.
De inflatie is max 25 procent op die compenenten. Prijs is echter verdubbeld.

Deze prijzen hebben niets met kostprijs maar alles met winstmarge van doen.
Nvidia moet gewoon een goed product op de markt brengen.
Als VRAM de bottleneck is (en VRAM is in vergelijking met je aanschafprijs, echt niet duur) dan brengen ze doelbewust een inferieur product op de markt met als doel dat je of iets duurders koopt wat je anders niet gewild had, of dat je dwingt eerder je oude GPU te upgraden.

Vrije markt, het mag allemaal. Maar hier kun je wel kritiek op hebben.
Heb sinds de GTX 285 nog geen slecht product van NVIDIA gehad.

Had voor mijn 4070 Ti een 1070, 680 4GB en 580, en dat waren allemaal goede producten.
Haha, de marktleider moet gewoon een goed product op de markt brengen 8)7

Wat je eigenlijk wil zeggen is dat AMD of Intel eindelijk eens een goed product op de markt moeten brengen. Zodat Nvidia hete adem in zijn nek voelt.

[Reactie gewijzigd door BlaDeKke op 15 december 2024 20:14]

Klopt. Het probleem is dat de voorsprong zo groot is dat ze hiermee wegkomen. Het is gewoon bloed irritant.

Als je zelf een systeem bouwt zorg je er toch ook voor dat er gewoon genoeg RAM in zit?? NVIDIA stopt gewoon structureel 50% te weinig VRAM in de GPU's.

Peins er zelf ook niet over wat anders dan Nvidia te kopen. Al was het alleen maar omdat je gewoon minder last hebt van compatibiliteitsproblemen en de optimalisatie beter is.

Maar je wordt opgelicht waar je bij staat.
De 5090 heeft met 32GB ook te weinig geheugen.. dat moet minimaal 42GB zijn zodat je llama kunt draaien of efficiënt kunt kwantificeren en voor de 5070 eigenlijk minimaal 24GB dat je dan alle audio modellen kunt trainen.

[Reactie gewijzigd door djwice op 15 december 2024 13:49]

Wat? De 5090 moet 2048GB hebben! En een onboard batterij. Dan moet ik geen ssd meer gebruiken als opslag.

[Reactie gewijzigd door BlaDeKke op 15 december 2024 20:17]

Flauw hoor.

Je loopt bij een aantal modellen die nu veel worden gebruikt anders tegen aan dat het niet past en je dus een data centrum GPU nodig hebt.

Dat heeft heel veel meer voeten in de aarde bij overheid en vele bedrijven dan een lokale machine.

En ook nog andere budgetten in plaats van een paar duizend euro voor een kaart wordt het dan tienduizenden euro's. En je data moet dan beter geïsoleerd worden etc. en automatische geheugen cleaning jobs etc.
Dat is vele malen complexer dan een lokale dedecated GPU.

42GB is heel normaal voor dezelfde chip op een ander board. Die zijn vaak 48 of 80 GB. En komen vaak met 8 stuks in een machine die dan meer dan een ton kost.

Qualcomm leverd inmiddels laptop chips waar de NPU en GPU 32GB geheugen hebben de de CPU daar bovenop ook 32GB.
Laptops met die dingen zijn inmiddels minder dan €2.000,-.
Dus een topmodel van NVIDIA met 'slechts' 32GB - ondanks dat ie rete super snel is - voelt gewoon krap, zeker als je weet dat veel gebruikte modellen net iets meer nodig hebben.

Wellicht komen ze op de CES met een verassing, dat er ook een 48GB model komt van de 5090. Ik denk dat er dan een run op zal komen. Die wil iedereen die AI doet.

[Reactie gewijzigd door djwice op 15 december 2024 21:16]

Dat het flauw was wist ik zelf ook, probeerde dat te accentueren met de smiley. Ik weet exact waar je op doelt.

De producten zijn er wel hoor. Je vind het gewoon te duur voor wat je er mee wil doen. Dat heb ik met veel in mijn leven.

En zoals ik hierboven en hieronder heb aangehaald. Je kan daarvoor naar Nvidia wijzen, maar eigenlijk wil je naar de concurrentie wijzen. Als uw Qualcomm voorbeeld, of de rest hun amd voorbeeld effectief zo de moeite zou zijn. Dan hadden we nu niet zo’n dure Nvidia GPUs gehad.

Zolang Nvidia geen hete adem in de nek voelt, waarom zouden ze dit dan niet blijven voortzetten?

[Reactie gewijzigd door BlaDeKke op 15 december 2024 22:14]

Het is meer wat @MSalters hieronder zegt. Het prijsverschil met de datacenterkaarten is zeer groot, en dat alleen voor een geheugen upgrade van 32GB naar 48GB. De datacenterkaarten hebben extra dingen, zoals virtualisatie van de GPU: je kunt meerdere gebruikers de GPU gelijktijdig laten gebruiken, zonder dat ze elkaars geheugen kunnen lezen.

Maar dat soort dingen heb ik niet nodig, maar betaal je natuurlijk wel voor uitvoering: PNY Nvidia L40
ongeveer een factor 4 of meer.
Ik heb het al eerder gezegd, maar de grootste concurrent van nvidia is nvidia. 48 GB op een 5090Ti voor AI? Om zo de professionele kaarten uit de markt te drukken? Dat is een snel einde van je carrière bij nvidia.
En @djwice, ik ben mee hoor. In het huidig klimaat zou het gewoon van de gekke zijn als nvidia dat zou doen, 48GB op een consumentenkaart aan een consumentenprijs. Dus wat moet er veranderen zodat nvidia niet anders kan, dan meer ram op consumentkaarten te plaatsen?

Dit voelt een beetje aan als het Intel quadcores vs Intel hexacores/octacores verhaal voor de introductie van Ryzen CPUs. Die waren ook ridicuul duur, als ze al bestonden in een niet Xeon reeks, met als enige reden, het kan.
Ja, eerst moet er software zijn die onafhankelijk is van de GPU - bijvoorbeeld WebGPU als basis - en dan concurrenten die er hardware voor maken die concurreert met NVIDIA.

Nu ben je meer geld kwijt aan het ombouwen en hercompileren van open source frameworks dan dat NVIDIA datacenter dingen duurder zijn.
Een vorm van lock-in zeg maar.
En geen garantie dat je bij de volgende lib of release van een van de dependancies niet nog een keer aan de bak moet.

Het software ecosysteem dat NVIDIA heeft gemaakt is ijzersterk. Hopelijk komt er concurrentie.

Zelfs voor LEGO bouwen op de computer is NVIDIA vereist. Ik heb inmiddels een voorstel ingediend hoe ze dat kunnen doorbreken, er wordt een stok oude blender versie (2.80) met een custom overlay gebruikt. Maar het team is nog niet zo happing.

[Reactie gewijzigd door djwice op 16 december 2024 19:49]

Amai, dat geeft weinig hoop als je dat voor de eerste keer leest.

Zijn er noemenswaardige projecten die het potentieel hebben om hoofd te bieden aan cuda of cuda ooit van de troon zou kunnen stoten?
Ja, er zijn meerdere initiatieven, maar het kost denk ik nog een paar jaar. Qualcomm moet nog aansluiten bij die projecten.

HuggingFace, Intel en AMD en de grote Cloud providers werken al samen.

Safetensors is stap 1.
Transformers is ook mooi.
En dan https://huggingface.co/docs/optimum/en/index

Maar ja, uiteraard sluit NVIDIA ook aan.

Intel en AMD maken https://docs.openvino.ai/2024/index.html

Als Apple haar GPU verdubbeld in cores is ze NVIDIA voorbij. Ik vermoed dat ze dat ook kunnen, maar nog werken aan iets en de timing right kiezen.

En
https://developer.mozilla.org/en-US/docs/Web/API/WebGPU_API
is ook mooi, maar de vraag is: gaan we de switch maken?
WebGL kan real-time foto realistisch elk 3D object met shaders etc in een foto realistisch achtergrond om een moderne laptop laten bewegen door de eindgebruiker. Met een spiegel bal er bij en vele anderen objecten bewegend en met interactie met 60fps. Toch hebben we LEGO Studio dat gemaakt is in Unity - dus ook naar webgl kan, nog als exe file niet foto realistisch en oude inefficiënte versie van Blender die veel te lang doet over 1 foto (frame). Het zelfde LEGO model in gltf formaat staat om een fractie van een seconde klaar op je scherm voor vele malen snellere interactie van in LEGO Studio.

We hebben https://chat.webllm.ai/ draait ook volledig lokaal.

Verandering kost tijd, en gebeurt soms gewoon niet.

Qualcomm biedt Qualcomm Hun om de modellen die je wil gratis voor je om te zetten naar de CPU/GPU/NPU van je keuze. Maar het is niet triviaal in gebruik, nog hard in ontwikkeling, wel fijne en snelle support. Maar je krijgt een binary in plaats van een JSON (zoals safetensors en gItf wel zijn).
En je krijgt extensies / scripts die menu's toevoegen in plaats van dat bestaande werken op je gpu/npu.
En dat komt weer door de weerbarstigheid van open source: de ontwikkelaars hebben meestal zelf een NVIDIA kaart, dus merken niet dat ze een afhankelijkheid inbouwen die niet op elk systeem werkt. Dus patch voor een versie, volgende versie weer een nieuwe in afhankelijkheid die niet compatibel is. Dwijlen met de kraan open.
Zij de modellen open, draaien ze in Python scripts die volledig afhankelijk zijn van NVIDIA. Waarom? Omdat de ontwikkelaar het malen van het model het leukst vindt en de Python code alleen ter demonstratie is.

Dus pas als er voldoende andere hardware ook even efficiënt en performant is, gaat de open software om, tenzij de onafhankelijke libs ook op NVIDIA hardware beter presteren.

En guess what, er is een partij die dat goed zou kunnen doen: NVIDIA.
Dus wellicht pas bij politieke dwang dat het gaat gebeuren.

[Reactie gewijzigd door djwice op 16 december 2024 22:09]

dat moet minimaal 42GB zijn zodat je llama kunt draaien
Nope, daarvoor moet je niet bij een consumenten GPU zijn, die zijn voornamelijk bedoelt voor gaming en dan is 32GB echt voorlopig wel genoeg.
Licht understated, aangezien de meeste computers dat nog niet als werkgeheugen hebben.

Welk spel proberen mensen hier toch te spelen, dat je daar 32GB VRAM voor nodig hebt. 8)7
We spelen met AI modellen :)
Die hebben graag de hele context in het geheugen omdat elk stapje in de berekening die helemaal nodig heeft.
Dan moet je een insteekkaart kopen die daarvoor bedoelt is. Zo'n RTXxxxx kaart is voornamelijk bedoelt voor gaming en een beetje voor een hobbyist voor AI.
Dit doen ze om hun eigen marktaandeel in het hogere segment niet te undercutten. Het zwaarste spel op de hoogste resolutie, daar heb je de krachtigste kaarten voor en de x070ti reeks is high-midrange. Hiervoor zal je dus naar x080 of x090 moeten of genoegen nemen met een lagere resolutie of kwaliteit.
Niet iedereen speelt games met alle instellingen op maximum. Voor Indiana Jones kan je de texture pool size verkleinen, en andere instellingen omlaag zetten.
Precies! Belachelijk idee inderdaad
Een 5070 ti is dan ook geen kaart om op 4k te spelen. Daarvoor heb je de 5080 en 5090...
Precies, we gaan we langzaam terug naar meer frames. En een 5070 Ti op 1440p is daar perfect voor.
Onderschat de snelheid waarmee GDDR7 alle binnenkomende en uitgaande data kan verwerken ook niet., tegenover gddr6(x).

Gooi vervolgens de geheugenbus omhoog en je zou kunnen merken dat je met minder geheugen evenveel werk kan verzetten.

..of zit ik er helemaal naast?
De geheugenbus is 256-bit
Dat heeft de 4070 ti super ook.

Waarom zou je nu nog de normale 4070 ti kopen? Ik snap ook niet waarom tweakers die versie pakt. Nvidia heeft die niet voor niets de grootste mid cycle upgrade gegeven.

Een 4070 super is goedkoper en doet ongeveer hetzelfde. De ti super loopt er rondjes omheen.
zwaar over de top vind ik.
Met mijn RTX 3060Ti 8 GB op een MSI 165 Hrz Full HD monitor op max ziet het spel er gelikt uit. Zo kun je met mindere middelen toch maximaal genieten met gamen.

maar ja ieder zijn ding.
Hij heeft toch ook geen probleem.

Probleem wat jij maakt is 4k .

Iemand anders vind weer 8k.

Meschien moet je kijken in steam stats wat de meste gebruikte resolutie is.

Ik zit zelf nog altijd op 1900 te gamen hoger heeft geen enkel nut op 24 inch.
Dus dan heeft AMD RX 8800XT (rdna4) met 16GB ook geen lang leven meer?
Indiana Jones gebruikt reeds meer dan 16GB met de grootste texture pool size in 4K, je moet al een stap terugnemen en op 1440p spelen om net onder de 16GB te komen...
Dan heb je de verkeerde grafische kaart gekocht. 4K is highend, voor dat segment heb je momenteel de 4080 en 4090.
Voor een kaart die meer dan €650 gaat kosten (prijs van een 4070 Super), mag je toch verwachten dat deze geen problemen heeft met alle huidige games op de markt.
Nee, dat is een midden-segment kaart. Daarvan mag je van verwachten dat die alles prima op 1440P kan draaien.
Nee, dat is een midden-segment kaart. Daarvan mag je van verwachten dat die alles prima op 1440P kan draaien.
1440p trekt hij ook vlotjes vol. De discussie gaat niet over over het feit of de kaart wel/niet 4k kan draaien, het gaat er om dat 16GB zelfs bij 1440p voor een beperkt aantal games onvoldoende blijkt.
Ik wil nog opmerken dat de 4070 TI Super meer dan €900 kost (ik had de gewone 4070 Super gebruikt als prijspunt).
Ene meneer Gates heeft ooit gesteld dat 64k genoeg zou zijn.
Maw: de ontwikkelingen zullen nooit stoppen.
Persoonlijk zie ik me de eerstkomende jaren nog niets missen met mijn 4070ti.
Behalve MSFS heb ik er ook geen zwaar werk voor..
Als je foute quote citeert, doe het dan tenminste goed fout. '640 kB is enough'.
En dat was natuurlijk onzin in de context van de eerdere 8 bitters die een tiende daarvan hadden.

640 kB RAM was voldoende op een 8086 die in totaal maar 1024 kB kon adresseren, video en ROMs inbegrepen.
Dat weet ik uiteraard ook wel:-)
Alles wat ooit werd bedacht/uitgevonden door de mens wordt continu herzien/verbeterd enz.
Dat is een wetmatigheid en Gates wist dat ten tijde van zijn stelling uiteraard zelf ook wel.
Tot je op 4k gaat gamen...... Dan wordt die 16gb vram toch ineens krapjes aan in bepaalde games
Niet doen dan, tenzij je het geld er voor over hebt.
Het schijnt dat de hoeveelheid videogeheugen ook beperkt wordt gehouden zodat de consumenten-GPU's van Nvidia niet al te geschikt worden voor AI-doelen. Een betaalbare middenmoter met 20-24GB zou waarschijnlijk veel gekocht worden voor dat doel. Dat zou snijden in Nvidia's AI-afdeling, waar ze een chip waarschijnlijk voor relatief meer geld kunnen verkopen. Door alleen die AI-chips genoeg geheugen te geven voor de grotere AI-modellen, houden ze het meer gescheiden.

Hoeveel waarheid hierin zit weet ik niet, maar het zou me niks verbazen als dit de achterliggende gedachte is. Waarschijnlijk vooral voor de winst, maar misschien ook om de GPU-markt meer voor gaming te houden en minder AI-vraag in die markt te hebben. Want dan kopen grote partijen alle 5070's bijvoorbeeld, en zitten gamers zonder. Dus deze bescheidenheid met VRAM kan een positieve kant hebben wellicht.

Nvidia geeft in dat geval hun concurrent AMD wel een opening in de gaming-markt; AMD geeft hun GPU's al wat meer videogeheugen over het algemeen, en games hebben er steeds meer van nodig. Maar omdat AMD minder ver is met hun AI-hardware en CUDA-equivalent worden die kaarten niet zoveel gebruikt voor AI.
Exact dit. En niet enkel voor AI doeleinden, ook voor 3D rendering is de hoeveelheid VRAM erg belangrijk. Nu kan je niet echt consumentenkaarten gebruiken als je serieus wilt renderen, behalve dan de 3090 of 4090, maar die hebben al niet echt een 'consumentenprijs' meer. Dat extra VRAM kost NVidia niet zoveel, maar ze willen het dus niet aanbieden in het goedkopere gamma om hun eigen winst niet te kannibaliseren.

Bij AMD speelt dat veel minder, omdat er in de renderwereld veel geoptimaliseerd wordt voor CUDA (Iray), maw, het draait sowieso niet op AMD.

Voorbeeldje: de RTX 3090 en de A6000 hebben dezelfde GPU (GA102), de A6000 heeft enkel 2% meer cores unlocked. Het grote verschil: de 3090 heeft 24GB VRAM en de A6000 48GB. Je kan dus stellen dat het grofweg dezelfde kaarten zijn, enkel met dubbel VRAM. De 3090 kostte 1500$ bij launch, de A6000 kostte 4600$...
Je vergeet is de prijs wel de driver garantie. Dat is een van dingen waarom die quadros zo duur zijn
Het probleem is niet die paar extra geheugen modules.

Het probleem is dat de geheugen bus fysiek groot is op de chip. En dit kan niet kleiner ook niet met een geavanceerder productie process. In tegenstelling tot de cuda cores En Nvidia maakt hun GPU’s monolithisch.

Een aanzienlijk groter chip met die geheugenbus is significant duurder om te produceren.

Hier heeft AMD een groot voordeel. Dit zijn namelijk kleine losse chiplets die gemaakt worden op een goedkoper procedé.
Het schijnt dat de hoeveelheid videogeheugen ook beperkt wordt gehouden zodat de consumenten-GPU's van Nvidia niet al te geschikt worden voor AI-doelen. Een betaalbare middenmoter met 20-24GB zou waarschijnlijk veel gekocht worden voor dat doel. Dat zou snijden in Nvidia's AI-afdeling, waar ze een chip waarschijnlijk voor relatief meer geld kunnen verkopen. Door alleen die AI-chips genoeg geheugen te geven voor de grotere AI-modellen, houden ze het meer gescheiden.
Absoluut, daar zie je nu ook relatief veel gebruik van bijvoorbeeld 4090s.
En terecht, als je die immense prestaties gebruikt is het gewoon een fantastisch product.

Dik beter dan wat de rest ook maar heeft.
Nee, want hun AI (high performance) GPU's maken gebruik van High Bandwidth Memory
(HBM3 momenteel).

En dat wordt niet meer gebruikt voor hun gaming GPU's (AMD gebruikte HBM en HBM2 in het verleden wel voor hun gaming GPU's, heb zelf nog zo'n Vega GPU gehad).
Dat verschil is er inderdaad, maar bijvoorbeeld een 5070 met 24-32GB GDDR7 zou alsnog klanten afsnoepen van de AI-afdeling. Misschien niet de grootste klanten - die willen wellicht elk voordeel inclusief HBM3-bandbreedtes - maar vast wel een deel.

Hoe dan ook, ik weet niet of dit een grote overweging is voor Nvidia maar het zou goed kunnen.
Met hoe goed open source AI modellen nu zijn, kan het best interessant zijn om als bedrijf je eigen AI server te bouwen met je bedrijfsinterne data. Als je dat zou kunnen doen met een paar consumentenkaarten van 32GB dan ben je al gauw een stuk goedkoper uit dan wanneer je dure datacenter kaarten moet moet aanschaffen. Denk dus wel degelijk dat NVIDIA hier rekening mee houd.
Of mensen vinden het toch om andere redenen waard om een Nvidia te kopen? Het ligt natuurlijk aan de generatie, maar lang heeft Nvidia significant lager energieverbruik te hebben. Voor VR betere ruwe prestaties en betere encoders om te streamen naar de headset wanneer geen HDMI / DP wordt gebruikt. En voor mij persoonlijk, ik heb altijd beste prijs/prestatie gekocht, en vaak was dat AMD. Na de 5700XT en de puinhoop die ze bij AMD drivers noemde heb ik een 3070 gekocht, en nooit enig driver probleem gehad. Hij doet het gewoon. Dat is mij ook wel wat waard.

En ja, misschien is het ondertussen beter, maar het is niet dat ik nu 20 jaar het verleden in kijk.
Dat was wellicht een excuus voordat HUB zoveel video's gemaakt had om het probleem aan te tonen. 3070 die je aanhaalt is daar wel echt een schoolvoorbeeldje van. Hoeveel concessies je moet maken mbt settings vanwege het gebrek aan vram, en dan nog slechte 0.1% en 1% lows hebben. Waar de 6800 en 6700XT nergens last van hebben.

Dit gaat niet over AMD vs. Nvidia, maar op een per-product basis. Het is alleen dat dit een Nvidia beleid is om er zo weinig op te doen, dus dan wordt het altijd neergezet als dusdanig. Ik zou een GPU voor zo'n prijs met 16GB niet kopen, noch zouden ze aanbevolen moeten worden zonder dit te vermelden.

Je gaat toch voor zo'n prijs niet iets kopen wat "genoeg" is, of "net genoeg". Dan wil je toch het gevoel hebben dat het de toekomst aankan...
Ik heb één keer een VR spel gehad waarbij ik denk dat VRAM mij parten speelde. Dus volgende keer wil ik meer VRAM hebben, maar verder heeft die kaart prima gedaan wat hij moest doen. Itt de 5700XT dus.

En ondertussen las ik toevallig weer dat iig voor VR je de oude AMD drivers moet gebruiken, omdat de nieuwe drivers problemen hebben.

Voor mij zou extra VRAM van een 5070Ti tov een 5070 wel een reden zijn om die te kopen, maar ik ga echt geen 350W kachel willen hebben. Als het 285W is misschien, maar meer niet.
VRAM te kort merk je anders heel hard. Dat is niet gewoon een dipje in je framerate, dat zijn harde stutters en bij een groter tekort kijk je naar een slideshow. Tekort aan VRAM overigens ook op te lossen zonder geld. Textures verlagen, resolutie verlagen, AA verlagen, schaduwen verlagen…
Hoeveel procent van de spellen hebben nu en komende jaren niet genoeg aan 16Gb dan? Ik had 10, nu 12 en loop echt nooit tegen problemen aan. Moet nvidia al haar 'midrange' kaarten met 24Gb VRAM uitrusten omdat 3% van haar klanten microsoft flight simulator speelt? Kom eens met harde bewijzen dat een substantieel deel van de spellen substantieel slechter draait op kaarten met 12-16Gb VRAM.
Het probleem is dat veel mensen met een 12GB kaart op 4K willen spelen, en dat is daar niet voor gemaakt, dan hadden ze een 4090 moeten kopen.
Volgens mij hebben alleen mensen met 4K een problem met de toekomst van hun GPU.

En dat is dan een "you" probleem.
Hehe, realiteit hit voor velen hard bij het lezen van deze reactie :)

Daarom raad ik iedereen ook aan voor gaming niet hoger te gaan dan 1440p ivm deminishing returns aan een hoge kostprijs.

Nog steeds lekker aant gamen op een laptop met een 2070 super maxq :Y)

[Reactie gewijzigd door BlaDeKke op 15 december 2024 19:39]

Zit zelf nog op 1920x1200, vind het voorlopig wel prima.
Of mensen vinden het toch om andere redenen waard om een Nvidia te kopen?
...
Na de 5700XT en de puinhoop die ze bij AMD drivers noemde heb ik een 3070 gekocht, en nooit enig driver probleem gehad. Hij doet het gewoon. Dat is mij ook wel wat waard.

En ja, misschien is het ondertussen beter, maar het is niet dat ik nu 20 jaar het verleden in kijk.
Er zijn zeker meerdere goede redenen om een Nvidia kaart te kopen, je noemt er al een aantal.
En problemen met AMD drivers waren er zeker, heb er zelf ook genoeg last van gehad! Maar... De RX 5700 XT is inmiddels vijfeneenhalf jaar oud en 2 (op 1 maand na 3 zelfs) generaties geleden, het is simpelweg 'oude koeien uit de sloot halen', gezien de staat van drivers sinds de RX 6000 en RX 7000 series.

Ik ga er geen vergelijkingen bij maken, want die zijn altijd scheef, maar als je wil kan je het 'jaren geleden waren er problemen mee' argument op bijna alle fabrikanten, merken, producten, software, etc. toepassen, en zal dat vandaag (en in de toekomst) nog maar zelden terecht en/of relevant zijn.
Ik snap je punt van de vijf jaar, maar vanuit mijn persoonlijke oogpunt (en ja, ik weet dat het N=1 ervaring is, tegelijk de puinhoop bij de RX5700 was meer dan N=1): AMD één grote puinhoop met drivers daar (granted mijn Vega daarvoor had minder issues, al ook wel wat). Eén generatie Nvidia die ik heb gekozen, en hoewel je hier kan lezen dat de RTX3070 een verschrikkelijke kaart is die zonde van het geld is en nauwelijks bruikbaar is door zijn VRAM, heeft hij het voor mij altijd zonder problemen gedaan.
Mijn ervaring is dat men altijd erg uit eigen referentiekader spreekt.

Ik heb hier twee game-PC's staan met beiden een RTX 4060 erin. Je weet wel - die kaart waarover zowel HUB, LTT en GN video's gemaakt hebben waarin ze de kaart afbranden en NVidia de kaart daarom nooit had moeten uitbrengen.

Maar guess what? Ik heb nergens last van. Ik speel op ultrawide 1440p en de meeste games die ik speel (recentelijk Jedi: Survivor, Uncharted 4, Spider-Man Remastered) draaien als een tierelier op de hoogste settings of een-na-hoogste settings. Wel met DLSS Frame Generation aan, dat wel, maar dat is volgens de heren van de genoemde kanalen dus een doodzonde. In de praktijk werkt dat echter prima - dus ik zie niet in waarom ik dat niet zou gebruiken.

Als ik terugga naar 2560x1080 (ultrawide) is er zelfs voldoende vermogen om raytracing aan te zetten en nog steeds boven de 60fps uit te komen.

Zelfs Cyberpunk 2077 draait op 2560*1080 met RT op low-medium en alle settings verder op high, met fps boven de 70 (met DLSS en FG aan dus).

Mij zal het een worst wezen: de kaart was een stuk goedkoper dan een RTX 4070 (en ik had er twee nodig!), is heerlijk stil en zuinig, en alles wat ik wil dat er draait, draait ook. Over twee jaar zien we wel weer verder.

[Reactie gewijzigd door Heroic_Nonsense op 15 december 2024 13:43]

Over twee jaar zien we wel weer verder.
Dat is ook de enige correcte manier om over GPUs te gaan. Je hebt overduidelijk de juiste keuze gemaakt door niet te luisteren naar het lawaai maar naar stats, specs en je eigen behoeftes op het moment van aankoop. En je bent er automatisch tevreden van want het is meer rekenkracht dan waar je op hebt gehoopt.

Ik daag je uit even tevreden te zijn van een gpu die 2000€ kost maar wel 3 keer zo krachtig is.
Ik kom van een 4090 en heb nu als tussenoplossing een 4060 Ti met 16 GB VRAM. Ook deze kaart wordt in zowat elke review afgebrand en ook dat de 16 GB nutteloos zou zijn voor deze kaart. Dat is echter niet waar als je een 4K monitor hebt en DLSS + Frame Generation gebruikt met de hoogste instellingen. Forza 5 bijvoorbeeld neemt dan 12 GB in en draait met gemiddeld 75 fps prima. Evenzo Deliver Us Mars, hoogste instellingen inclusief RT en DLSS + FG draait met zo'n 75 fps en neemt 11 GB in. Tenslotte Returnal, hetzelfde verhaal, pakt tot 10 GB VRAM en draait vloeiend. De 8 GB variant van de 4060 Ti is pas nutteloos, Indiana Jones draait daar niet eens op 1080p soepel.
VRAM allocatie is iets anders dan een absolute ondergrens. Het wordt pas een probleem wanneer je gaat swappen en dat punt kan ver onder de allocatie liggen die jij ziet.
Het is moeilijk met zekerheid te zeggen, maar ik heb nu bijvoorbeeld bij de Doom 1 + 2 heruitgave het probleem dat de performance ineens in elkaar gezakt is. Eerder kon ik dat oplossen door te rebooten, nu is het terug en krijg ik het niet meer opgelost (nog geen zin en tijd gehad om echt mijn hele systeem opnieuw te gaan installeren). Ligt dat aan AMD? Had het niet gebeurd bij Nvidia? Tja dat kan ik niet met zekerheid zeggen, maar het spookt wel door mijn hoofd. Ook omdat ik toch ook andere kleine dingetjes wel gehad heb met de AMD software (ik kan ze even niet zo opnoemen... het is ook niet dat ik iemand probeer te ovetuigen, alleen uitleggen waarom het niet per se alleen iets uit het verleden is). Het is niet zo erg als het vroeger was, maar zo probleemloos als de Nvidia software bij mij altijd gewerkt heeft is het zeker ook nog niet.

Tegelijk heb ik in de meeste games wel goede 4k prestaties met een €700 kaart wat me bij Nvidia echt niet gelukt was, dus there's that.
Gebeurd ook andersom , gisteren hele tijd lopen stowien met een T2000 quadro die op low aan het stotteren was waas een intel arc integrated op high zonder problemen draaide.

Uiteindelijk ander pc moeten pakken.
Nou is een quadro ook niet bedoeld voor gaming, zou me niks verbazen als de drivers voor dat ding daar gewoon ook minder aandacht voor krijgen.
nee hoor,

game al jaren met quadro`s , gaat als een trein , zelfde performance als de consumenten kaarten.

Alleen af en toe net als bij een consumenten kaart heb je wel eens een driver issue combinatie or iets dergelijks , het is zelfden , 1 keer in 3 jaar tijd weer met deze setup. kan ook zomaar aan windows liggen .
Nope, de problemen van het HD5870 tijdperk zijn er nu gewoon nog. Soms exact dezelfde. Linus heeft hier nog geen jaar geleden een video over gemaakt. En het zijn van die subtiele dingen die je nog op jezelf of je specifieke build zou kunnen steken, maar het was gewoon de amd gpu. Ik kan dan ook niemand een amd gpu aanrijden, toch geen mensen die hun vrije tijd waardevol vinden.
Hoezo "nope"? Linus ervaring is ook maar 'gewoon n=1', net als jij en ik ervaringen hebben, hij heeft alleen wel een miljoen keer meer impact op de beeldvorming!

Van mijn laatste 3 AMD kaarten, de 480 8GB, 5700 XT en 7600 XT 16GB, heb ik een tijdje (net als vele anderen) met de 5700 XT serieuze problemen gehad, maar gemiddeld over al die jaren gewoon zeer tevreden.
Linus zijn ervaring in die betreffende video is eerder een n=5 en is met de modernste amd gpus, en exact dezelfde ervaring als ik een decennia geleden met een ati hd5870, kwam toen nog maar net in beeld van amd.
Ik kan ook niemand een nvidia kaart aanbevelen.slechte drivers en kaarten doorbranden.of coilwhine hebben.
Coilwhine vindt je in beide kampen terug, als jij nvidia slechte drivers vindt hebben dan is het sowieso reeds kiezen tussen de pest en de cholera. En kaarten die doorbranden, ik vermoed dat jij op die nieuwe 12vhpwr kabel doelt, dus jij raadde mensen een 4090 aan?
;) ik zie en lees de ervaring.

Het is ook ieder zijn keus toch?

Ik vind het te duur worden.

[Reactie gewijzigd door xaradine op 16 december 2024 16:41]

Dat sowieso, en dat het te duur is beaam ik ook. Maar ik zie niet echt in waarom je nu de dikke grafische titels uberhaupt zou willen spelen en dan daarvoor ook nog eens 1000e euros neer gaat tellen. Fun genoeg te vinden in games die geen rekenmonster vereisen.
Klopt....ik ga geen 1000 euro uitgeven.
Die tijd is voorbij voor mijzelf.
Gamen moet leuk blijven deze prijzen slaan nergens op.
_/-\o_

Komt ooit nog wel een keer goed. Er is nu gewoon heel veel vraag, een (kunstmatig) laag aanbod, en de marktleider is atm niet meer geïnteresseerd in gaming GPUs.
We zullen zien ;)

Fijne feestdagen straks.....ik weer verder met koken
Ik heb gelukkig deze puinhoop wat overgeslagen door wat later pas een kaart te kopen denk ik. Ik ben verassend vlekkeloos overgegaan van een RX480 naar een RX7900GRE. De laatste keer dat ik driver issues had was denk ik met de overgang naar dat 'nieuwe' control panel (2017 of 18 ofzo) en met een zeer obscure surround configuratie (dat was meer mijn fout denk kk(

Het is een beetje zoals met franse autos denk ik. ze kunnen wel iets goeds maken, ze vergeten alleen zo nu en dan hoe het moet.
Tja waarom zouden ze meer geheugen er op zetten als mensen de kaarten toch blijven kopen. En ze verdienen waarschijnlijk veel meer aan de AI hype. Dus ze willen liever hun voorraad geheugen aan de Silicon Valley AI tech bros en FAANG slijten die veel meer afnemen.
Tja... maar ik heb nu een 7900XT en op zich blij mee... maar waarschijnlijk wordt een volgende kaart toch weer Nvidia.
Deels omdat AMD al aangegeven heeft zich niet op de high-end te richten dus waarschijnlijk komt er van hun kant voorlopig ook geen echt upgrade pad vanaf deze kaart, maar ook omdat Nvidia gewoon een beter totaalplaatje biedt. AMD doet hard hun best, maar je merkt toch aan veel dat zij de volgers zijn en niet de leiders. Toch nog af en toe software jank, FSR die het toch eigenlijk meestal net niet is waar DLSS bij mijn vorige kaart (3070) wel veel bruikbaarder was, raytracing performance die toch steeds belangrijker wordt (is natuurlijk afwachten wat de volgende generatie van AMD daarin gaat doen)...
Goed, misschien dat ik iets langer grotere textures kan blijven gebruiken op die AMD kaart, maar dat is ook niet zaligmakend en maakt niet alle andere punten gelijk goed.
Het is dat AMD veel goedkoper is, dat moeten ze namelijk ook wel zijn omdat ze gewoon geen gelijkwaardig product kunnen bieden. Helaas.
Tjsah, wat is "high end". De aankomende 8800 kaart van AMD gaat volgens geruchten ongeveer zelfde performance als een 4080 Super krijgen. Alleen de 4090, 5080, 5090 zouden daar dan bovenuit steken, dat noem ik dan toch een best high-end kaart. Genoeg om op 4k te gamen in ieder geval.

Even afwachten wat de praktijk gaat brengen natuurlijk.
Ik denk dat je de term "planned obscolescence" eens moet opzoeken. Daarnaast belet niemand je een kaart van AMD te kopen als jij denkt dat die beter geschikt is voor je behoefte.

Wat jij wil is een goedkope kaart met de beste specs, en die krijg je dus niet, en daarom ben jij niet blij. Nvidia, als bedrijf met winstoogmerk, vraagt gewoon een prijs die een balans weet te slaan tussen vraag en aanbod.
Planned obscolescence wordt online en in dit geval gebruikt voor het te karig zijn met VRAM in het kader van Nvidia videokaarten.
Waarbij keer-op-keer weer blijkt dat er in de toekomst een tekort is aan VRAM op bewuste videokaarten.
Dat is wellicht niet de echte/juiste definitie van de term.

Ik wil een goedkopere kaart (versus Nvidia) waarbij de RT performance mij niet boeit en waarbij ik wél genoeg VRAM heb.
Want ik heb liever een soepele en vloeiende game ervaring, zonder zorgen over VRAM tekort.
En kijk eens wat ik wil en wat ik heb zijn een feit: 16gb VRAM.
Dus ik ben blij dat ik al een paar jaar (!) een goed presterende kaart heb met 16gb VRAM.
De hoeveelheid VRAM op mijn kaart is voor mij geen reden om te upgraden.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 12:22]

16GB is prima voor 1440p.

Mijn GTX 1070 ging 7 jaar mee, elk jaar willen upgraden is je eigen probleem.
Ik snap wat je bedoeld, de gpu en vram staan dusdanig in verhouding dat de laatste minder lang meegaat dan de eerste voor een consument die in de toekomst nieuwe games speelt.

Als gpus te weinig rekenkracht hebben schaalt het ongeveer linear, laten we zeggen 10% minder frames per seconde voor 10% minder kracht. Bij 120fps is dat een marginaal verschil denk ik voor de meesten. Zelfs 50% tekort is dan nog 60fps.

VRAM tekort van ongeveer 10% (schatting, hangt af van verdeling tussen veel gebruikt en weinig gebruikt video geheugen) en de framerate stort in door buffering in gewoon RAM.

Het is dus voor de consument beter om meer VRAM te hebben als ze toekomstbestendig willen zijn. Er kunnen uiteraard instellingen veranderd worden in games om minder vram te gebruiken. Maar dan maakt men ook minder gebruik van de gpukracht, denk ik, waardoor de componenten dus weer niet optimaal gebruikt worden.

Nvidia maakt soms goedkopere kaarten met meer vram, hoewel het geheugentype dan vaak minder is. Ik durf niet te zeggen of die dan beter zijn, maar misschien gaan ze langer mee. Anders is AMD idd een optie.

Veel mensen die ik ken kopen meer dan ze nu nodig hebben om daar langer mee te gaan, of houden ruimte voor upgrades in achterhoofd. In dit geval is vram apart upgraden niet mogelijk. Men moet dus of voor een veel te dure kaart gaan die ze eigenlijk niet nodig hebben om voldoende vram te krijgen voor de spellen van 6 jaar later, of later upgraden en dan de oude kaart misschien met verlies doorverkopen.
Het is beter en sneller geheugen en genoeg voor gaming. Je hebt vrijwel geen voordeel aan de 20gb op de AMD kaart. Mensen denken vaak dat meer geheugen beter is maar dat is de marketing waar ze intrappen.
Dat zeiden dezelfde mensen ook bij de 3070 8GB. Waarom mensen actief argumenteren om minder te krijgen voor meer geld, is mij een compleet raadsel, maar je ziet dit soort denkwerk iedere generatie weer om het achteraf te rationaliseren.

Maar wel 2-3 jaar later zitten klagen op AAA steam forums dat de textures niet uitzien of de game stottert. "Muh poor optimization".

[Reactie gewijzigd door Majestici op 15 december 2024 11:19]

Meanwhile klagen Majestici en ik niet met een 6800 XT met maarliefst 200% meer geheugen dan die 3070.

Men kan ook naar instapkaartjes kijken: de Intel B580 12gb en de 7600XT 16gb.
16gb vram is eigenlijk het nieuwe minimum.
En niet meer en niet minder dan wat de consoles hebben, die ook al wat jaartjes meegaan!

De 5070 wordt helemaal een naaistreek met opnieuw 12gb, men is knettergek als men die gaat kopen voor de geschatte (geruchten) prijzen.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 11:31]

Toen waren er ook games die over de 8gb heen gaan. Nu heb je vrijwel geen games die over de 10gb-12gb heen gaan op 4k. Het is een beetje voor de E-peen om maar zo veel mogelijk videogeheugen te hebben voor gaming. 20 lijkt mooier dan 16.
Dat is onzin, kijk eens naar Unreal Engine 5 games en naar MSFS2024.
12gb is echt een hoeveelheid voor het lagere segment.
Een 5070 12gb is weer typisch een Nvidia kaart/streek.

Dat is net zo bizar als dat Nvidia 12gb op de 3060 deed en een 4060ti met 16gb heeft uitgebracht.
Dat zijn echt positieve uitschieters voor Nvidia.
Maar dat maakt het juist zo idioot dat ze weer met 12gb aankomen voor een xx70 kaart.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 11:32]

De RTX 5070 krijgt 16gb wat genoeg is. In Unreal Engine 5 games gaat het vervruik niet over de 12gb heen zie zie techpowerup gamereviews.
Ze testen geen Starship Troopers Extermination en ook geen Gray Zone Warfare :)
Ik geloof eerder mijn eigen ervaring (met een 16gb 6800XT) dan hun gamereviews.
En met 16gb weet ik dat ik voorlopig nog "ok" ben.
Met 12gb vram dus niet.

De 5070 krijgt volgens de geruchten 12gb.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 11:37]

Nvidia kaarten gebruiken minder vram in games dan AMD kaarten, dat zie je ook altijd in de tabellen van Techpowerup. Ik geloof ook eerder mijn ervaring waar ik dat zie met de RTX 4090 want in Gray Zone Warfare gaat niet eens over de 10gb heen met maximale instellingen.
Ik zal dadelijk nog eens kijken naar GZW.
Zelf gebruik ik framegeneration (want ik heb geen videokaart van een paar duizend Euro), wat ook al meer VRAM vraagt.
En misschien is er iets veranderd in het VRAM gebruik van GZW met de laatste update(s)?

https://www.pcgamer.com/h...zone-warfare-performance/

Oud artikel, met een 4090 getest:
Op 4k wordt er 17.8 gb allocated gerapporteerd.
Op 1440p wordt er 16.5 gb allocated gerapporteerd.

Afijn dat is niet hetzelfde als daadwerkelijk gebruik, maar dat soort VRAM allocation waardes bij GZW klinken mij realistischer/meer in lijn met mijn eigen ervaring.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 11:50]

Uhm het gaat hier om een 5070 ti.

Dan kan de 5070 gewoon 12 GB hebben.

Is nu ook het geval met de super versies.
Nee de 5070 ti krijgt 16 gb
Nu heb je vrijwel geen games die over de 10gb-12gb heen gaan op 4k.
En dan heb je games die de 17GB aantikken...
Toevallig speel ik die game op 4k en kom ook niet over de 12gb vram heen.
https://www.computerbase....chmark-test.90500/seite-2

Alle videokaarten onder de 12gb kakken enorm in.
De Intel A770 16gb verslaat de RTX 3080 10gb.
Daarom zei ik dus al: 16gb is het nieuwe minimum.

Let wel: Indiana Jones is daar getest op "Hyper" preset instellingen.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 13:45]

Want op een minimum GPU moet je met textures spelen die niet op ultra staan, die niet op giga staan, maar die op instelling "hyper" staan? Dus twee stappen boven ultra nog?
Dat moet niet.
En met een 3080 10gb is dat dus ook af te raden.
Terwijl ik met een 6800 XT 16gb dan nog 70-80 fps haal op 1440p.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 13:35]

Als je op "hyper" instellingen wil spelen inderdaad. Maar goed, we zijn het dan erover eens dat het niet hoeft om op hyper te spelen, dus misschien is 16GB nou niet echt een hard minimum.
16gb is naar mijn mening (over het algemeen, niet alleen w.b.t. Indiana Jones) de nieuwe standaard.
In de games die ik speel, op 4K, met upscaling en frame generation en very high / maxed zie ik het gebruik vaak over de 12gb gaan.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 13:37]

Daar kan ik het mee eens zijn, en ik vind het bij een 5070 echt wel een serieus minpunt als hij 12GB inderdaad krijgt zoals verwacht. Maar voor een 5060 / AMD equivalent lijkt mij dat verder weinig problematisch.
Je hebt ook inderdaad een goed punt dat die game op die ("hyper textures") wel een vreemde keuze is voor de lagere segment kaarten en dat men (ik) daar rekening mee moet houden.
Ik heb dat even genuanceerd in mijn post.

Juist die lagere segment kaartjes hebben eerder het gebruik van framegeneration nodig, omdat ze eerder snelheid te kort komen.
En daardoor gaat het VRAM gebruik ook weer omhoog.
Het is even de vraag of Nvidia de 5060 8gb gaat meegeven of dat het meer wordt.
Mede door AMD en Intel (B580) denk ik dat ze wel moeten om afgang onder de gamers te voorkomen.
Maar ze hebben het met de 4060 ook gepresteerd en die verkoopt blijkbaar ook.

Die 3080 10gb is wel weer gewoon een typisch voorbeeld.
Qua snelheid zou het die game gewoon makkelijk moeten kunnen draaien op "hyper"; kijk eens naar de 6700 XT & 7700 XT (met grappig genoeg ook "maar" 12gb).
Een 3080 10gb zit qua snelheid eerder op 6800 XT niveau.
Helaas is het VRAM dus de bottleneck, dat was eigenlijk mijn punt.
Afijn 3080 10gb gebruikers kunnen de game wellicht prima spelen met lagere texture settings.

De 3060ti is een beetje hetzelfde verhaal, die zou zich bijna met de 6700 XT moeten kunnen meten.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 13:49]

"Actief argumenteren om minder te krijgen"

Het heeft meer te maken dat sommige zich gek laten maken dat meer altijd beter is. 20GB tov 16GB geheugen, als dat je 20fps oplevert, goed. Maar meestal zit het in de 5fps marge. Dan is het ook geen argument dat het beter is.

Helikopterview denk ik dat 16GB op zo'n high midrange prima is anno 2025. Mensen gaan voorbij dat je het ook gewoon kan oplossen door een paar gamesettings te optimaliseren. We zijn toch tweakers. Ik speel nooit enig PC spel met standaard settings. Ik ga meteen de ini files etc. in om settings echt custom te maken naar wat ik wil.
Krijg je echt minder? Wat is de geheugenbandbreedte van de 20GB AMD kaart die word aangehaald? Meer ram gaat toch al snel ten koste van prestaties op een ander vlak. Uiteindelijk zoek je een bepaalde balans en als meer ram maar in een beperkt aantal games voordeel bied is dat niet persé de beste optie. Als de kaarten verder helemaal gelijk zijn dan zou iedereen vast wel voor die extra ram gaan, maar ze zijn helemaal niet gelijk. Of wil je hier gaan argumenteren dat een Mac Studio met 192GB als vram aanspreekbaar geheugen deze kaarten uit het water blaast?
Waarschijnlijk de 7900XT
Die heeft 20Gb dacht ik

Nee meer RAM gaat nooit ten koste van iets anders mbt. Prestaties
Alleen mbt. Productie kosten

En juist op dit vlak heeft AMD een troef ten opzichte van Nvidia. Hun memory modules zitten op losse kleine dies die op een goedkoper process node worden gefabriceerd.

Deze aanpak heeft wel potentiële nadelen met betrekking tot efficiency.
We moeten eens kappen met dit argument want dit is niet zo. Al jaren weten wij dat er "met name bij Unreal engine" meer VRam nodig is door de slechte optimalisatie van games. Plus de meeste gamers willen tegenwoordig ook instaat zijn hun eigen gameplay te recorden, editen & streamen. Dit argument is echt niet meer van deze tijd.
Door te recorder en streamen gaat het vram gebruik niet om hoog. En ja UE5 is meer vram nodig maar niet meer dan 12gb.
1440p gaming zou al jaren de standaard moeten zijn. VRam is zeker belangrijk bij OBS als je met overlay effecten gaat werken/ meerdere cams etc. Editen idem, meer Vram = complexere projecten soepel laten lopen en snel encoden. Opkomst van ai computaties meer Vram? Het is eerlijk om te zeggen dat sinds de coronacrisis en bitcoins nvidia de markt niet veel goeds heeft gegeven. Ze hebben te lang comfortabel op een plek zonder concurrentie gezeten.
Als je met OBS werkt en 5 cams gebruikt en gaat streamen naar 5 kanalen dan heb je ook wel een rtx 4090. Al klopt het niet dat het meer VRAM vereist.
Zover ik weet behandeld "correct me if I'm wrong" OBS elke source/image/video/layer /tekst etc als een texture. Voordat de rendering "gpu intensief" plaats vind gebruikt OBS de texture in de VRAM voor effecten & scaling etc. Uit mijn eigen ervaring schiet bijv een rtx 3070 al snel tekort bij streamen.

[Reactie gewijzigd door Greybeard op 15 december 2024 12:57]

1440p werd rond 2014 geintruduceerd met Crysis 3 & bf4. De 900 serie en de 10 serie waren al met 4k aan het promoten. We zijn inmiddels 10 jaar verder en 4k gaming is nog steeds alleen mogelijk bij een premium prijs. De 10 serie was echt een gamechanger, 20 serie mwah met introductie RTX, 30 serie was een sterke stap voorwaards maar toen was echt al duidelijk dat VRAM een bottleneck was. De 40 serie liet zien dat Nvidia niets geeft om de game community en bezig was met het binnen harken van meer profit en nu flikken ze het dus weer met de 50 serie.

Kortom, it is fair to say dat Nvidia sinds 2020/2022 met de 30/40 serie de consument echt een middelvinger geeft en bewust 4k gaming op een premium price point houdt.

How Much VRAM Do Gamers Need? 8GB, 12GB, 16GB or MORE?
Fake Optimization in Modern Graphics (And How We Hope To Save It)
Ik deel deze mening niet. De bottlenek ligt altijd nog bij de GPU core en niet zo zeer het VRAM.

[Reactie gewijzigd door Demonslayer op 15 december 2024 14:04]

Idd, had liever 32gb ofzo voor zo'n model.
Prestaties op welk gebied? Je moet naar ray tracing prestaties kijken als je future proof wil zijn. Daar is Intel sterk maar AMD niet.
Eens, NVIDIA bottlenecked kaarten bewust met te weinig VRAM zodat je eerder bent gedwongen een upgrade te doen.
De kosten doen er namelijk niet toe, er zit al echt heel veel marge (voor NVIDIA) op die GPU's.
Nou, het is meer dat AMD kaarten nog steeds worden geplaagd door heel veel wazige problemen.

En die slechte naam raken ze maar niet kwijt. (met de radeon vii als hoogte of beter absoluut dieptepunt)

En dus overweegt 50% van de klanten ze niet eens (meer). Inclusief ondergetekende.

Fool me once? Shame on you. Fool me twice....

We hebben het niet over een Nvidia tax, we hebben het over de AMD korting.

[Reactie gewijzigd door redniels op 15 december 2024 12:57]

Ik heb nergens last van; 0,0 problemen met mijn 6800 XT.
Nvidia raakt het niet meer kwijt dat ze te weinig VRAM geven, daar trap ik dus niet meer in ;)

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 13:55]

Die kaart was inderdaad echt troep.

Tussen de HD7870-7970 en de RX 470-480 hebben ze louter troep geproduceerd overigens.

Alhoewel met die Fury’s hoefde je geen pantoffels te kopen.
Ik heb meerdere kaarten gehad zoals 7950 en 5700xt en nu 7800xt nooit problemen gehad met drivers.
Straks ga ik voor de nieuwe 8800 kaart.

Ik vind nvidia te duur en een vos verliest haar streken niet he.
Voor nvidia zijn de meeste dollar tekens :)
Veel AI libs hebben de focus op Nvidia. Daardoor ben je vele extra uren kwijt als je iets dat direct op Nvidia draait ook wil draaien op AMD.
En dat elke keer weer als je iets nieuws probeert.

Maar ik ben het met je eens dat 16GB te weinig is tegenwoordig voor o.a. AI toepassingen willen we graag een stuk meer.
42GB ofzo.

[Reactie gewijzigd door djwice op 15 december 2024 13:44]

Nvidia "wint" omdat generatieve AI veel makkelijker inzetbaar is onder nVidia. Hopelijk wint ONNX ook meer terrein, waardoor deze kant van het verhaal sterker wordt.
Het grappige is dat Nvidia uiteindelijk AMD hier mee in leven houdt. Stel je voor Nvidia kaarten op het prijsniveau van AMD. Hoeveel of hoe weinig denk je dat AMD dan zal verkopen. Nu is al 80% Nvidia wat verkocht wordt.
Nee, het is ook VRAM hoeveelheid.
Hoe het is doet er niet zo erg toe.
Uiteindelijk houdt Nvidia hier AMD in leven.
16GB is prima, als ze op AMD prijsniveau zouden gaan zitten koopt niemand afgezien van AMD fanboys nog een AMD, hetgeen voor de gamers natuurlijk niet zo fijn is.

Doordat Nvidia het VRAM aan de lage kant houdt (en 16GB is prima, 12 GB is te laag) om zijn afzet van professionele kaarten te beschermen heeft AMD nog een kans.

[Reactie gewijzigd door Arjant2 op 15 december 2024 18:29]

Dus jij stelt eigen dat Nvidia e.e.a. doet om AMD (nog) een kans te geven? :P
Het liefste zou Nvidia de volledige monopoly willen hebben, volgens mij.

Voor de goede orde: ik ben zelf geen AMD fanboy maar ik koop al een tijd geen Nvidia meer om de VRAM reden en omdat ik hun kaarten te duur vind.
In het verleden wellicht vaker Nvidia kaarten gehad dan AMD.
Vroegen waren AMD (Ati) en Nvidia wel eens wat realistischer bij elkaar geprijsd en meer gelijk wat betreft prijzen.

[Reactie gewijzigd door HugoBoss1985 op 15 december 2024 18:36]

Nee ze doen het om hun eigen (professionele) duurdere kaarten te beschermen, hetgeen schijnbaar erg goed werkt gezien de winsten die ze maken.
Bijkomend voordeel is het dat ze daarmee AMD een kans geven.

En voor de goede orde ik ben niet tegen AMD, ik heb een AMD processor, maar wel een Nvidia kaart, al een oudere 2080ti, maar dat is ook omdat ik toendertijd veel streamde op twitch en Nvidia voor streaming toen (en nog steeds) wel een voorsprong heeft op AMD.

[Reactie gewijzigd door Arjant2 op 15 december 2024 18:47]

En toch hebben ze met deze planned obscolescence zoveel marktaandeel.
Planned obsolesces is meer als het defect raakt net buiten de garantie periode toch? Ik heb een 3080ti met 12GB die nog steeds lekker meedraait en waar ik al meer dan drie jaar plezier van heb.
De 40 serie is een tijd gereleased "pandemie" met bizar veel vraag door mining en indoor COVID hobbies. De 30 series had het al duidelijk gemaakt dat er meer VRAM nodig was en de Bottleneck was in die serie. Ze hebben in de 40 serie de zelfde architectuur als de 30 alleen wat hogere klok snelheden en efficientie. Ook was het niet duidelijk welk model er GDDR6 en GDDR6X gebruikte. Ze hadden express een namescheme toegepast om meer onduidelijkheid te scheppen de 3050 werd de 4060, de 4070 lag dichterbij de 3060 ti, de 4080 was waardeloos en werd de 4070 ti.

In mijn ogen was de 40 serie een easy money grab en wist Nvidia dat te weinig Vram niet toekomst bestendig zou zijn. Door VRAM beperkt te houden en minimaal performance te increasen, heeft het er voor gezorgd dat er sneller veroudering wordt gevoeld, wat bijdraagt aan een snellere upgradecyclus. Helemaal als bij een volgende generatie je Key Selling Point meer Vram wordt. Dit is zeker een vorm van planned obsolessence.

Het mooie woord hier achter is Incrementalistische Innovatie. Omdat Nvidia marktleider is hoeft het niet aan disruptieve innovatie te doen. Neem Intel als voorbeel die al jaren op de alleen heersende troon zat door. Ze voerden Incrementalistische Innovatie "kleine, stapsgewijze verbeteringen per productgeneratie" waardoor de concument niet veel verbetering kreeg en Intel de winst maximaliseerde. Pas nu AMD weer op de markt is gekomen door Intel om de oren te slaan met enorme performance gains "disruptieve innovatie " gaat Intel opeens weer hun best doen.

Nvidia doet overduidelijk aan Kunstmatige Marktsegmentatie en ik hoop dat ze snel om de oren worden geslagen door AMD en of Intel. De enige innovatie die ze op dit moment toevoegen is de Value Perception van de consument verranderen.
De 30 series had het al duidelijk gemaakt dat er meer VRAM nodig was
Waar dan wel?
Je zag dat met de absurde 4060 16gb die ze uitbrachten omdat er zoveel om vroeger.
Ding is nog steeds amper tot niet sneller dan de 8gb versie.
De 40 serie 4060 is een low/mid-end instap kaart met minder CUDA Cores, en voor mensen met een strak budget niet te doen want de 16gb was ruim 150 euro duurder dan de 8gb terwijl de hele 40 serie al 1.25x de prijs was van de de 3050 en gelijk/ iets duurder dan de 3060. De 30 serie presteerde nog prima dus mensen wilde eerder een 3070. Als je de verkoop cijfers ziet gingen de wat serieuze gamers minimaal voor een 4070/4070 ti.

[Reactie gewijzigd door Greybeard op 15 december 2024 16:54]

De 4060 en 4060 ti zijn veel populairder dan de 4070/4070 ti

De 4060 was altijd een 30-50 euro duurder dan de 3060 geen idee waar je dubbel haalt en die is ook gewoon zoveel beter.
De 4060 is een heel goed budget kaart en de 16gb versie is amper sneller.
Je reactie was te snel, ik had hem al aangepast:) 40 serie is voor lowbudget populair, met het vervallen van een 4050 ook de enige instap optie in de 40 serie dus het is best logisch aangezien hij de schoenen vult van 2 modellen. Neemt niet weg dat de 4070 de pupulaire keuze was/is voor gaming.

"According to Jeff Fisher (NVIDIA SVP), gamers that usually bought budget GPUs (from the $300 to $400 range) now buy higher-end SKUs for over $699, specifically the RTX 4070 Ti. With Ampere, most users bought a GPU for $200 to $300, pricier than their previous products. Ada buyers upped the price by another $300 to $400."

De 4060 is nooit zoveel beter geweest though

[Reactie gewijzigd door Greybeard op 15 december 2024 17:17]

Er was ook geen 2050 bijvoorbeeld, en de verkoopcijfers spreken dat tegen.

Je kan dat ook gewoon in de praktijk zien 4060 draait
Indiana Jones and the Great Circle 1440p high met dlls Quality 60fps
stalker 2 4k medium dlss Q & FG : 60 FPS.

Nieuwe games die met wat updates nog beter gaan draaien maar perfect speelbaar op 1440p op die budget kaart met "maar" 8gb.
Een 7900XT is dan weer niet zo goed in ray tracing en het ligt in de verwachting dat steeds meer games ray tracing only gaan worden.

Dus echt een toekomstbestendige keuze is een 7900XT wellicht ook niet. Tenminste als je er de nieuwste games op wilt gaan spelen de komende jaren.

AMD lijkt dat overigens ook in te zien. Het gerucht gaat dat de RX 8000 serie een enorme boost gaat krijgen op het gebied van ray tracing
Want vram is het enige wat telt?
Een 4070ti nu is sneller dan een 7900xt (zonder dlss met dat is het veel sneller ) en verbruikt een pak minder.
planned obscolescence
Sorry je kraamt complete onzin uit, een 4070 ti met 12gb is sneller dan die 7900xt een 5070 met 16gb zal absoluut wel meekunnen.
In huidige spellen wel. Maar toekomstige spellen die meer dan 12gb gebruiken zullen waarschijnlijk in verhouding beter presteren op een kaart met meer dan 12gb.

Een analogie, een traag persoon met een grote emmer kan sneller water vervoeren dan een snel persoon die heen en weer moet met een kleine emmer als de totale hoeveelheid water die voor een frame vervoert wordt voorbij die kleine emmergrootte gaat.

Ik weet niet hoeveel vram normaal is voor games in 2028. Maar als de hoeveelheid vram achterblijft op de rekenkracht dan is dat erger dan andersom, zie mijn andere reactie.
Indiana Jones and the Great Circle gebruikt een 10GB op 1440p/high textures.
Als je alle eye candy begint te activeren (path tracing ed) dan zakt de FPS teveel in voordat je aan te weinig vram geraakt.
16GB, voor een kaart die over de 900 euro gaat kosten, op basis van de TI super prijzen nu. Je kunt nu nog een 7900XT voor 699 halen met 20GB. Nvidia loopt hier altijd op achter, zodat hun kaarten nooit té lang mee kunnen gaan.
Nvidia loopt hier altijd op achter? Zijn we toevallig de Fury X vergeten? :+ Die kaart is totaal in de vergetelheid geraakt en kon dus vanwege zijn 4GB letterlijk niet meer meekomen ondanks dat het een 980Ti moest verslaan, sommige games blokkeerde letterlijk videokaarten van minder dan 4GB en recentelijk God of War Ragnarok vereist 6GB.

Niet dat ik het er niet mee eens ben dat dit nogal schaars is, dit zijn gaten die gecreerd worden om straks de Super/Ti line-ups nog een plek te geven, helaas een soort-van double-dipping voor dubbele marketing aandacht al werden soms de reguliere kaarten vervangen door de Super/Ti uitvoering voor een betere prijs maar die details heb ik niet echt bijgehouden de laatste jaren want het was een wildgroei aan modellen.

Overigens heeft Nvidia ook prima kaarten in het verleden uitgebracht die zó goed waren dat ze eigenlijk ook met moeite tegen zichzelf aan het concurreren waren, zoals de GTX 8800 en de GTX 1080Ti, waarbij die laatste bijna een verdubbeling was t.a.v. de 980Ti in performance (ongekend hoog) omdat AMD met Vega hoge ogen in de geruchtenmolen smeet waar Nvidia op reageerde en achteraf AMD niet kon waarmaken wat ze probeerde te beloven. En dat voor pakweg €900,- in 2017 die nu nog steeds presteert alsof het een RTX 4060 is op rasterization vlak.

Die 1080Ti FTW3 van EVGA gebruik ik nu na bijna 8 jaar nog steeds, voor de meeste zaken nog steeds voldoende VRAM ook op 1440P i.c.m. G-sync op een 165Hz scherm, recente spellen als Hogwarts Legacy, Ratchet & Clank Rifts Apart en ook de nieuwe Black Myth Wukong kunnen nog steeds op de hoogste instellingen draaien zonder raytracing vanwege de destijds grote VRAM pool met zeer acceptabele framerates.

Om voor Wukong maar een voorbeeldje te geven (standaard fabrieks-OC kloks):
https://imgur.com/a/vqHnDm8

Hogwarts waren eerder framerates tussen de 40-80 en dat is i.c.m. G-Sync en spelen met een controller meer dan prima, Ratchet & Clank zit ook ergens in die hoek wel met FSR actief, omdat die spellen direct bij starten zo 9GB opvreten en Windows 10 standaard al ruim 1GB vreet met DWM had je dat met een 1080 of andere 8GB GPUs daar toch wel meer problemen mee i.v.m. memory-swapping dus was het met deze GPU precies goed, dat hij geen 12GB had kwam enkel doordat ze anders in het vaarwater kwamen van hun eigen Pascal Titan Xp.

Deze 1080Ti draait op zijn standaard fabrieks-overklok op 1949Mhz stabiel met 5008Mhz op geheugen (11Gbps) als GPU boost met 117% powertarget (280 > 320W) en ik kan er zelfs nog meer uithalen want hij draait 3DMark benchmarks op 2062Mhz (+70) i.c.m. 6004Mhz (+500, 12Gbps) op het geheugen. Enkel voor Unigine Heaven moest dit een stapje terug naar +60 (2050Mhz) om stabiel te blijven terwijl de temperatuur met zijn 2-slots koeler veelal onder de 50-55°C gehouden wordt.

Met wat hogere temperaturen en wat agressiever fan-profiel lijkt hij het prima te doen onder +50 (2025-2037Mhz) i.c.m. +500 op het VRAM (6004Mhz).
Tja voor 200 euro verschil ga ik toch liever voor een 4070TI. Heeft niks met overtuigen te maken, maar al mijn monitors zijn nog hardware G-sync en DLSS is ook de betere techniek (helaas werken devs nu ook met DLSS en TSA in het achterhoofd).

Uiteindelijk heb ik gewoon mijn 2080 gehouden, want de 7900XT bracht mij ook niet de oplossing en ik was helemaal klaar met de hardware prijzen (Nvidia voorop). En zelfs die doet het nog aardig op 1440 ulrawide.
AAA games boeien mij ook steeds minder eerlijk gezegd dus ook nog helemaal niet zeker of ik bij de 50 serie weer instap.
Planned obscolescence ben ik het absoluut niet mee eens, nVidia blijft hun kaarten heel lang ondersteunen. Maandelijkse updates alles.

Dat game developers steeds meer eisen is een ander verhaal en dat veel mensen steeds maar het nieuwste van het nieuwste moeten hebben omdat ze die prikkels niet kunnen weerstaan is een totaal ander verhaal.

Indiana Jones is het eerste spel in een hele lange tijd die bij mij niet wil draaien vanwege de hardware eisen, voor de rest heb ik het echt lang uit kunnen houden.
Wat moet jij met een gaming kaart met meer dan 16 Gb, meer dan genoeg.
Er zijn meer factoren dan alleen pure reken kracht of specs. Ik heb nu de amd 7800xt en hoewel ALS die werkt het heel goed doet, is het vooral de driver die randomly soms besluit dat ik niet meer een spelletje mag spelen, en de boel vastloopt en ik vaak de boel moet herstarten.
Drivers van nvidia zijn een stuk stabieler wat dat betreft.
Het is natuurlijk wel een klein beetje appels met peren vergelijken als de één 20GB GDDR6 heeft tov GDDR6X of in dit geval de ander met het nieuwe (dus duurdere) 16GB GDDR7.

Je kan ook op die manier stellen dat AMD tot nu toe altijd achterloopt met de gebruikte geheugenstandaard, is mijm optiek maar net hoe je het bekijkt en/of wat jouw voorkeur heeft.
Bandbreedte beinvloed de fps een beetje, maar je kunt 8GB GDDR7 hebben, als je te weinig hebt kakt je prestaies net zo hard in. Hoeveelheid > bandbreedte, zeker in dit segment waar het meestal 1440p betreft.

Beter 16GB GDDR6 erop prikken, dan 8-12GB GDDR6X. Misschien niet voor de benchmarks de beste keuze, maar voor de consument op de lange termijn wel.

En als je alleen maar kijkt naar day-one reviews, dan moet je ook niet klagen na 2-3 jaar als je textures blurry zijn omdat je maar 8-12GB VRAM hebt.
Misschien kun je die 5070ti beter met de actuele 4070ti super vergelijken.
4070 Ti S - 5070 Ti
Cores: 8448 - 8960
Geheugen: 16GB GDDR6X - 16GB GDDR7
Geheugenbus: 256bit - 256bit
Bandbreedte: 672.3GB/s - 896GB/s
Vooral voordeel van GDDR7 geheugen dus.

[Reactie gewijzigd door Wolfos op 15 december 2024 12:16]

Hoe zit het met het aantal tensor cores?
De prestaties op AI gebied zijn relevant denk ik.
Staat niet vermeld. Ook op wccftech niet.
Kijk, hier hebben we aan. 👍
Los van het extra geheugen (waardoor ze eindelijk ook op 16GB zitten) lijkt het een marginale upgrade.
Hoe kom je op marginaal?
Ben daar gewoon echt benieuwd naar.
16% meer cuda cores, 4GB meer geheugen, bijna dubbele geheugen snelheid. Als dat marginaal is?
Lijkt me nu juist een flinke upgrade voor de 5070Ti en dat belooft ook wat voor de 5080.
CUDA-cores: +16.67% > Geen schokkende verhoging
Geheugen: +33.33% > Eindelijk zit Nvidia ook op 16GB, waar AMD dit al veel langer heeft voor een lagere prijs
Geheugensnelheid: +33.33% > Leuk, maar hoeveel verschil gaat dit onderaan de streep opleveren?
Geheugenbus: +33.33% > Leuk, maar hoeveel verschil gaat dit onderaan de streep opleveren?
Geheugenbandbreedte: +77.78% > Dit is naar mijn idee de enige noemenswaardige upgrade. En ook hierbij is het in de gemiddelde games maar de vraag hoeveel verschil dit zal maken.

Los van de Geheugenbandbreedte vind ik dat een marginale upgrade. En we kunnen er volgens mij vanuit gaan dat de 5070Ti niet goedkoper zal worden dan de 4070Ti, hij zal eerder duurder zijn.

Als ik de feiten (genoemde specificaties) en het feit dat de kaart duurder zal zijn naast elkaar leg, dan kom ik tot de conclusie dat het een marginale upgrade zal zijn.
Tuurlijk zul je meer FPS en betere Raytracing hebben, maar hoe groot is die verbetering in verhouding met de hogere kosten?

(CC: @napata @Hans1990)

[Reactie gewijzigd door Saeverix op 15 december 2024 12:26]

+16.67% cores is wel precies wat NVIDIA de generaties van de laatste 10 jaar heeft gedaan:

GTX970: 1664 CUDA cores
GTX1070: 1920, +15.3%
RTX2070: 2304, +20%
RTX3070: 5888, +27.8% (worden anders geteld waardoor het er 2x zoveel lijken)
RTX4070: 5888 (zucht)

Voor de RTX4070 dus stilstand, en op geheugenbus zelfs krimp. Die gaat nu gelukkig weer terug naar 256-bit, in combinatie met meer geheugen (zoals je langzaam mag verwachten, hoewel NVIDIA er erg zuinig mee is). Die combinatie maakt een veel hogere bandbreedte. Hoeveel % elke factor gaat opleveren valt moeilijk te zeggen. Ik plak er ook maar zonet wat getallen aan om de minima verwachte 30% FPS boost te krijgen. Ik mag hopen dat NVIDIA echter wel iets meer uit de kast kan halen.

De vraag is alleen of NVIDIA hier voor wilt vragen. De techpress zet specs tabellen niet voor niets in hun reviews. Die weten ook heel goed wat NVIDIA je wel en niet geeft (of gaf) voor je geld.

[Reactie gewijzigd door Hans1990 op 15 december 2024 13:36]

Ja maar bij de 4070 kreeg men 12gb versus 8gb op de 3070 dus "vooruitgang" :+
Wat maakt het uit, het is toch de gek die het er aan uit geeft. Nvidia gaat niets meer doen zolang er geen concurrentie is, het grote geld zijn ze nu aan het rapen bij de multinationals.
Consoles zijn de main target. Zen2 met UMA gericht op 30 60 120fps en 16GB met directdrive optie.
Console lean mean OS Vs generieke abstracted bloated window os , heb je meer sysmem nodig , maar je hebt krachtigere cores gens. Ivm meer achtergrond task wat extra hardware threads nodig. Zou voor Vram 12GB zat zijn dan ben je gelijk aan console zit op max 75% memory voor gpu task en 16gb mem voor windows en toepassing de game 50%.
Dus bij deze spects voor 5070ti met veel meer memory bandbreedte en 16GB vram heeft dus een groter voordeel bij 4K gaming met of zonder DLLS op quality. Bij 1080p zal er veel minder van merken bij veel games.
Dan neem je ook aan dat er nul verbetering zit in de CUDA cores. Is dat bekend, of een aanname?
Nee, ik ben het wel met Saeverix eens. De geheugen bandbreedte is wel een prima upgraden, maar verder een beetje meh.

Als we de prijs verhogingen even negeren,
De 4070TI had vergeleken met de 3070ti 25% meer Cuda cores... en 4GB meer vRAM omdat NVIDIA echt niet meer weg kwam met 8GB. Dus je zou kunnen zeggen dat het minstens zo'n grote sprong was. De 4070Ti was toch best wel een meh kaart toen die uit kwam. De 4070ti Super werd pas gezien als een fatsoenlijke upgrade over de vorige generatie...
De 3070ti zelf was juist weer een forse upgrade qua rekenkracht. Die was sneller dan een 2080 ti en maakt gehakt van de 2070 super (soort van TI):

https://www.techpowerup.c...-founders-edition/28.html

Ik vind het wat rekenkracht betreft op het oog best wel een hele matige upgrade.

[Reactie gewijzigd door Thekilldevilhil op 15 december 2024 12:05]

Nvidia heeft mid cycle de 4070 ti al opgevolgd met de 4070 ti super.

Als die er nu naast legt is het enige noemenswaardige verschil GDDR-7 VS G-DDR6X
Hoe kan je dat nu zeggen zonder review? Je hebt niks om je op te baseren. Cuda cores misschien? Maar dat is nog zinlozer dan naar Tflops te kijken en die zeggen al weinig.

Als je puur naar bandwidth kijkt, dan is het een gigantische sprong maar ook dat zegt niets op zichzelf.

[Reactie gewijzigd door napata op 15 december 2024 10:44]

Deze kaart zal minder terugvallen bij hogere resoluties
De geheugenbandbreedte stijgt met 80%. Alleen dat al kan sommige kaarten/spellen vrij in de loop laten gaan. En zoals @Arjant2 zegt.. 17% meer cores. Als die cores ook nog eens 10% beter presteren (bvb clocks), dan ga je naar onderin de range van een degelijke GPU generatie upgrade (30-50% upgrade tussen dezelfde GPU modellen van een generatie).

Dus het ziet er niet heel slecht uit. De vraag is alleen hoeveel deze kaart moet gaan kosten. We hebben afgelopen 2 generaties enkel maar verkapte prijsverhogingen gezien. Daarvoor moet dan wel concurrentie zijn in dit segment van de markt, en het liefst ook andere segmenten (mid-range) die extra druk daar op zet (zonder gekke keuzes voor VRAM tussen 6/8 en 12/16GB).
Ik heb even snel de kaart en specs vergeleken met kaarten van een ander merk, en het valt mij op dat een gelijkwaardige videokaart (zoals de 7900XT) vrijwel net zo goed is en ook een heel stuk goedkoper is.

Wat is de reden dat Nvidia die hoge prijs zal hanteren als een vergelijkbare videokaart veel goedkoper is?

[Reactie gewijzigd door mugenmarco op 15 december 2024 12:06]

Prestaties op het gebied van raytracing, upscaling en frame generation. Dat en door ai gestuwde schaarste maakt dat nvidia geen fuck geeft om redelijke prijzen.

[Reactie gewijzigd door Mark_88 op 15 december 2024 12:01]

AMD heeft geen Ray Tracing performance wat nodig gaat zijn in de nabije toekomst.
En zo heerlijk is Ray tracing niet! Sterker nog, het ziet er vaak niet uit al dat op kokende water lijkende beelden. Dus bij mij gaat Ray tracing uit.
Daarom is de toekomst ook path tracing.
Path tracing is gewoon ray tracing.
Zijn twee heel verschillende dingen.
Nee hoor. Path tracing is gewoon ray tracing. Is geen fundamenteel verschil tussen. In gamerkringen is het enige verschil de hoeveelheid bounces tussen objecten wat blijkbaar een fundamenteel verschil is tussen path tracing en ray tracing.

[Reactie gewijzigd door JoeB2C op 15 december 2024 21:59]

Traditional ray tracing involves calculating the exact path of reflection or refraction of each ray, and tracing them all the way back to one or more light sources. With path tracing, multiple rays are generated for each pixel but they're bounced off in a random direction. This gets repeated when a ray hits an object, and keeps on occurring until a light source is reached or a preset bounce limit is reached.
Dat is niet bij alle games zo. De path tracing versies van CyberPunk 2077, Alan Wake 2 en Indiana Jones zien er fantastisch uit.

Overigens kan ray tracing niet meer uitgezet worden in sommige nieuwe games zoals Star Wars Outlaws en Indiana Jones.

Het ligt in de verwachting dat in de komende jaren steeds meer games ray tracing only gaan worden omdat het er beter uit ziet én goedkoper is voor de developer om te implementeren.

Je kan het dus niet meer uitzetten. Als je een toekomstbestendige GPU wilt aanschaffen en de komende jaren de nieuwste games wilt spelen is RT performance dus zeker een belangrijke overweging.
Dus het geld voor 1 game

WHO cares about star wars Outlaws?
Dat was de op 1 na grootste flop van het jaar.
Nee natuurlijk gaat het me niet om 1 game, haha.

Het ligt in de verwachting dat dit voor meer en meer games gaat gelden de komende jaren omdat het er beter uit ziet en makkelijker / goedkoper is om te implementeren dan handmatige verlichting.
Een toekomstbestendige GPU bestaat niet. De enige raad die ik kan geven is games spelen omdat ze leuk zijn, en niet omdat ze nieuw zijn.

Wat had je gedaan toen crysis net uitkwam?

[Reactie gewijzigd door BlaDeKke op 15 december 2024 22:57]

Ik denk dat mijn punt het volgende is: de meeste mensen kopen een GPU om die over een periode van 3 tot 5 jaar te gebruiken. Als blijkt dat steeds meer games in die periode alleen nog RT ondersteunen, is het wellicht niet de beste optie om een GPU te kiezen die niet goed presteert in RT.

Zelfs als je niet van plan bent om nieuwere games op hoge settings te spelen dan nog kan elk beetje RT performance helpen om ze in elk geval speelbaar te maken in medium of low settings.

Eigenlijk geldt hetzelfde voor een kaart met weinig VRAM, al kun je daar nog kiezen voor medium textures om het probleem te verhelpen. RT kan niet worden uitgeschakeld in RT-only games, dus de prestatieproblemen die daar mee verbonden zijn zullen merkbaar zijn ongeracht de settings die je gebruikt.

[Reactie gewijzigd door DLSS op 15 december 2024 23:55]

Raytracing is voorlopig nog een gimmick, HDR doet veel meer in games.
Het is geen gimmick als het niet uitgezet kan worden.

Overigens ben ik het met je eens dat HDR meer doet dan RT op consoles of low settings, maar op pc met hoge settings of path tracing in de juiste games doet RT veel meer dan HDR imho.

[Reactie gewijzigd door DLSS op 16 december 2024 16:17]

Tot heden is Raytracing bij elke game uit te schakelen/verlagen bij de PC tenminste.
Wanneer je een OLED monitor hebt heb je liever HDR, sommige IPS panelen hebben het maar dat is een gimmick en geen echt HDR.

[Reactie gewijzigd door mr_evil08 op 16 december 2024 22:30]

De eerste games waarbij ray tracing niet meer uitgeschakeld kan worden zijn dit jaar al uit gekomen. Star Wars Outlaws en meer recentelijk Indiana Jones and the Great Circle.

Dit zullen er vermoedelijk veel meer worden in de komende jaren, omdat het goedkoper is. Ray tracing automatiseert en vereenvoudigt bepaalde complexiteiten in het belichtingsproces, terwijl het er visueel beter uitziet.

De reden waarom developers dit tot nu toe nog niet veel hebben toegepast, is dat vermoedelijk dat te weinig mensen hardware hadden die ray tracing ondersteunt. Inmiddels heeft meer dan de helft van de gebruikers een RTX-, ARC- of RX 6xxx/7xxx kaart.

Het is erg duur, en het wordt relatief steeds duurder, om een fallback te maken voor een steeds kleinere groep gebruikers die geen RT capable gpu's hebben.

[Reactie gewijzigd door DLSS op 16 december 2024 22:38]

Oke dus we gaan in jou voorbeeld mee. Je koopt nu een GPU om ook games die over 5 jaar uitkomen met alle pracht en praal te spelen. Je weet nu dat games dan RTX only gaan zijn, niet te disablen of nog erger, volledig path traced, helemaal geen rasterizing meer. Welke GPU koop je dan vandaag?

Er is geeneen GPU op de markt die dat vandaag kan, laat staan binnen 5 jaar.
Met een low of midrange kaart kan je natuurlijk niet verwachten om in de toekomst met alle pracht en praal de nieuwste games te kunnen spelen.

Maar wel dat je ze een beetje fatsoenlijk kan spelen op lagere settings. Met betere RT performance zullen ze in elk geval een stuk beter speelbaar zijn op medium of low settings. Het verschil in RT performance met de huidige AMD kaarten is vrij groot.

Dus ik zou op dit moment geen AMD kaart aanraden als speelbaarheid van toekomstige titels belangrijk is. Voor de rest is het afhankelijk van budget. Ik denk dat de B580 een redelijke low end optie is met betere RT performance voor de prijs.

Voor midrange zou ik even wachten op de RX8000 en RTX 5000 serie want zowel de AMD en Nvidia hebbes geen goede midrange kaarten op het moment. Nvidia heeft te weinig vram en AMD matige RT performance.

Als ik MOET kiezen zou ik voor nvidia gaan want vram issues kan je oplossen door textures op medium of low te zetten. RT performance zal altijd matiger zijn op een AMD kaart voor het budget. Of je nu op low, medium of high speelt. Dat is in die zin niet op te lossen en dus is er een permanente performance deficiëntie in RT only games. Het lijkt me echt beter om te wachten op RX 8000/RTX 5000.

Met high-end is het vrij overzichtelijk. De 4090 heeft (helaas) geen concurrentie. Duur maar fors veel sneller dan al het andere, en al helemaal met RT.

Als het gerucht waar is dat AMD eindelijk haar RT performance op orde gaat brengen met de 8000 serie dan hebben we straks misschien Intel voor low-end, AMD voor midrange en Nvidia voor high-end 😅

[Reactie gewijzigd door DLSS op 16 december 2024 17:14]

AMD heeft sinds de 6000 series Ray Tracing.
Heb het over de performance.
Ja maar de performance met die kaarten is helaas zo matig dat je het vaak beter uit kan zetten. Zeker in zwaardere games.
Omdat een 4070 ti nu al sneller is dan de 7900xt zeker als je dlss/fsr aanzet EN midner verbruikt.
Een 5070 ti zal daar dus nog een hele stap bovengaan en daar kan nvidia dus gewoon meer geld voor vragen.
Een stroomvreter kaart....het is gewoon weer een mininale uograde van de 4 serie met hogere energie.

Keertje niet kopen is verstandiger.
En laten voelen dat wij geen makke schapen zijn.....
AMD kaarten verbruiken veel meer, en als de prestaties erop vooruit gaan zoals de geruchten zal het zeker meer dan een miniamle upgrade zijn.
Bij de 4000 kaarten zat dat meestal dik in orde.
Ik heb het nu niet over amd....dit gaat over nvidia :)
Hoe kunnen nvidia stroomvreter kaarten zijn als de beide andere merken die dit aanbieden meer verbruiken voor dezelfde prestaties?

De 4000 series maken zowat de hele top 10 uit van meest effiente kaarten (watt/fps) die er bestaan en zijn veel effcienter dan de 2000 & 3000 series?

Denk dat je geen idee hebt waar je over praat :-)
Jij begint over andere merken of niet?
Ik zelf vind het dus wel een stroomvreter 350 is veel.
De 1070 was 180w ....dat is dus nu 2x zoveel.
Als jij vind dat ik er geen verstand van hwb prima.

Ik denk het zelfde als over jij ;)
Het is ook goed dat wij verschillende mening hebben

[Reactie gewijzigd door xaradine op 16 december 2024 13:46]

Ja en een 4070 is 3 keer zo snel. (en nee een 4070 pakt een 50-60% meer vermogen niet 100%)

Hint 1.5 is kleiner dan 3 dus de 4070 is veeeeeel efficienter dan de 1070 .

Wiskunde is gelukkig geen mening :-)

[Reactie gewijzigd door k995 op 16 december 2024 13:58]

Lol een kaart dat 8/10 jaar op de markt is de 1070 haha.
Tuurlijk gaat ie beter met de prestaties om.

Kan je zien dat zij niks hebben geleerd dat alles kleiner en warmer word en meer stroom vreet....dit is toch de omgekeerde wereld?
? Kan je rekenen?
Een 4070 verbruikt 150 watt en geeft je 150 fps
Een 1070 vebruikt 100 watt en geeft je 50fps.

Jij: "REEEEEE DIE 4070 VERBRUIKT MEER"
Idd maar geeft je wel 3 keer de performance.

Nvidia heeft elke generatie gewoonweg zo verbeterd in tegenstelling tot wat jij jezelf wijsmaakt.
Prima....ik ga niet verder met u in discussie.
Appels en peren koop ik wel op de markt.

Fijne avond nog.

P.s....1+1=? ;)
Gezien je er niks van kent lijkt me dat het beste :)
Wat kinderachtig gedrag zeg.
Bent u tevreden nu.
Andere zeggen hier ook in andere post dat teveel energie verbruikt en te duur is.
Daar zie ik u niet opreageren?
Zijn zij slimmer dan u?
Of speelt u graag op de man of vrouw af?
U zelf begon over andere merken of haalt andere info naar voren of niet?
Schijnbaar weet u alles beter of niet? En hoe anderen het ervaren interseert u niks
Kijk gerust naar je eigen posts
Je denkt dat een kaart die meer performance (fps) per watt heeft slechter is dan een kaart met minder performance /watt.
Je denkt dat max tdp gelijk staat aan het verbruik dat een kaart altijd heeft
Je negeert alle andere kaarten en merken die er bestaan en die slechter presteren qua verbruik
En al dit zijn gewoon feiten die elke review aantonen.

Dus ja met al dit zeg ik dat je er geen verstand van hebt.

https://www.techpowerup.c...-founders-edition/42.html

Wat staat er daar van boven? Juist zowat de hele 4000 series.
Wederom hetzelfde....u valt in herhaling
Yep omdat feiten feiten blijven :-)
Nope jijzelf vergelijkt feiten.jij zelf komt info waar ik niet over heb zoals amd.
Jij verdraait de woorden.
Daarom kinderachtig bezig.
En jij vergelijkt iets oud met iets nieuws |:(
En dan ook nog beweren dat ik nergens van op de hoogte ben?

Ik hoop dat de moderatie mee kijkt en u op de fingers tikt....want dit is gewoon belachelijk van uw kant.
Mening geven prima feiten verdraaien ?

In deze tijd is het te duur en teveel stroom verbruik in realiteit.
https://tpucdn.com/review.../images/power-maximum.png

Snap je een beetje waarom ik zeg dat je er niks van kent en de feiten negeert?
De 4060 bij gaming verstookt een 108watt.
De 3060 182 watt
de 2060 165 watt
de 1660 127 watt


De 4060 is dus zuiniger dan de laatste 3 gelijkaardige generatie van kaarten EN is enkele malen sneller.
Alweer zo'n 350W heethoofd. Ik heb mijn 3070TI op 250W gekregen op dezelfde clocks, enkel door een simpele undervolt. Waarom doet Nvidia daar niet wat meer moeite voor ipv alles af fabriek op standje BBQ te zetten?

[Reactie gewijzigd door MadMarky op 15 december 2024 20:27]

Omdat ze over de hele wereld moeten draaien. Veiligheidsmarge moet in oorden als Florida of Thailand een stuk hoger zijn dan in Nederland of Canada. Dat is met alles zo, auto's zelfde verhaal.

Daarom is undervolten of tunen (wat je het ook wilt noemen) populair hier. Mijn auto is getunt en gaat veel sneller nu maar is ook nog zuiniger. Ik verdien de investering makkelijk terug.
Het zijn geen autos met verbrandingsmotor, het zijn stukken electronica. Minder energieverbruik is altijd een voordeel ongeacht klimaat.
De enige variatie is verschil in yields en daarmee kwaliteit van chips, maar als deze na een 20% undervolt nog steeds op dezelfde manier werkt is Nvidia wel heel conservatief danwel lui geweest met de instellingen.
Niet helemaal. Een videokaart wordt veel warmer wanneer je ermee gamed in Thailand. Daardoor gaat hij ook meer stroom verbruiken voor dezelfde prestaties. En dat moeten de GPU makers incalculeren als veiligheid. Anders krijgen ze een hoop stabiliteits claims uit de warmere landen uit deze wereld.
Dit verhaal klopt niet. Een gpu wordt inderdaad sneller warm als de omgevingstemperatuur hoog is (zoals in Thailand), maar het gevolg daarvan is niet dat hij meer stroom gaat verbruiken maar dat de fans harder gaan draaien / hij terug zal klokken.

De reden dat er zoveel marge op het voltage zit, is zoals @MadMarky al aangeeft enerzijds vanwege verschillen in chipkwaliteit (sommige chips hebben meer voltage voor een bepaalde kloksnelheid nodig dan andere), en anderzijds omdat men rekening houdt met de kwaliteit van de gebruikte voeding. Met een redelijke chip en een goede voeding klopt die 20% headroom in voltage in mijn ervaring inderdaad (mijn 4070 Super loopt op 1 mV / 170W gemiddeld, t.o.v. 220W op stock settings bij gelijke prestaties - idem voor 3070 / 1660 Super in het verleden).

Wat betreft auto's tunen; meer prestaties voor minder verbruik kan, maar de vraag is wel wat de gevolgen voor je uitstoot zijn. Bovendien zorg je voor meer slijtage in je aandrijflijn, onderstel, remmen en banden dus die investering terugverdienen is onwaarschijnlijk.
Mijn 4070 Ti draait op 200W met 5-6% minder performance :)

Doe ik gewoon via nvidia-smi.
Dus de RTX 5090 beschikt dan over 21.760 CUDA-cores, 32GB aan GDDR7-geheugen en een 512bit-bus.
Mogelijk 600W

RTX 5080 Ti of Super .. ?? .. die zien we dan wel eens komen .. :D

De RTX 5080 moet beschikken over 10.752 CUDA-cores, 16GB aan GDDR7-geheugen en een 256bit-bus.
Mogelijk 400W

De RTX 5070 Ti over 8960 CUDA-cores, 16GB aan GDDR7-geheugen en een 256bit-bus.
Mogelijk tot 350W

En de RTX 5070 over 6400 CUDA-cores, 12GB aan GDDR7-geheugen en een 192bit-bus.
Mogelijk tot 250W


.
Vraag me af wat de exacte prijzen gaan worden voor de MSI SUPRIM modellen en welke daarvan het best in mijn 4K gaming plaatje gaat passen .. dat gaat wel minstens een 16GB vram of hoger moeten worden .. buiten de RTX 5090 gerekend natuurlijk, want die extreem dure Titan opvolgers hoef ik helemaal niet .. :)

Ben benieuwd wat die RTX 5080 Ti / Super gaat worden .. die gaan we wel zien komen met een minimaal van 20GB tot 24GB VRAM


.

[Reactie gewijzigd door MPIU8686 op 15 december 2024 10:57]

Ben benieuwd naar het prijs en prestatieverschil tussen de 5070ti en de 5080, aangezien er volgens de bekende geruchten alleen iets meer cudacores aanwezig lijken te zijn.
Als ze de 5070 ook 16GB geven zou ik pas tevreden zijn, maar we weten allemaal dat dat niet zal gebeuren.
Ik ben benieuwd naar de nieuwe generatie. Ben al wat onderdelen aan t verzamelen voor een nieuwe pc maar ben nog niet uit wat wordt met gpu. Ben ook benieuwd naar amd. Als die met een 7900xtx komen maar dan met 40% meer RT performance, neig ik toch daar naar toe. Ben bang dat alle hype met ai, de aandelen van Nvidia etc., dat zij niet echt de budget vriendelijke 4K gpu gaan uitbrengen.

Nooit de gezever gesnapt van amd drivers. Dat is echt napapegaaien van iets dat 15 jaar oud is. Heb zowel de 6800 xt als de 3090 evenlang gebruikt en had meer problemen met drivers van Nvidia.
Die driver gezever snap ik wel, zeker met oude games. Audiosurf bijvoorbeeld draait op onstabiele fps, tot je de performance overlay aanzet... Rara hoe kan dat!

Maar bij moderne titels zijn de drivers zeker geen probleem meer, dat is zeker waar.
Ik hoor vooral niks over het absurde vermogen van 350 w. Nog even en je he t een aparte voeding nodig voor je videokaart

Lijkt me wel raar in deze tijden. Van energiecrisis en algehele globale stijging van temperaturen.

Heb ik het nog niet over de absurde prijzen
Laat je niet gek maken door klimaatdrammers. Komt allemaal wel goed.
Nee, maar als ik zit te gamen en je prijs is 91ct per kW/h, dan word ik niet gek van die klimaatdrammers!
per kW/h
kW×h, want W is 1 Joule per seconde dus er zit al een "per" in (de seconde). Het is de meest verwarrende eenheid in dagelijks gebruik maar de logica is:
1 Watt voor een uur =
1 »energie-eenheid per seconde« voor een uur =
3600 »eenheden« (want er zitten 3600 seconden in een uur), dus
3600 Joule = 1 Wattuur (of 3600 kJ = 1 kW×h).
Vind het zelf niet logisch dat vermenigvuldiging weggelaten mag worden (waarom deze uitzondering? En je moet toevallig maar weten wanneer een woord of element-afkorting als zodanig bedoeld wordt, of wanneer het twee of meer variabelen zijn die je met elkaar moet vermenigvuldigen) maar vandaar, denk ik, dat we bij kWh zonder vermenigvuldigingsteken uitkomen

[Reactie gewijzigd door Lucb1e op 15 december 2024 14:57]

Klimaatverandering vergt actie, zie hoeveel brandstof we in totaal hebben kunnen verbruiken voordat er een merkbaar verschil begon op te treden (en het is nog altijd nauwelijks merkbaar als individu in Nederland; zonder meetapparatuur of opgravingen zouden we niet weten dat dit aankomend is). Zo'n gigantische actie terugdraaien gaat niet vanzelf
Ik wens je veel plezier ermee.

Op dit item kan niet meer gereageerd worden.