Nvidia bereikt recordmarktaandeel van 94 procent in levering losse videokaarten

Nvidia heeft een marktaandeel van 94 procent bereikt in de verkoop van losstaande gpu's aan andere videokaartfabrikanten. Dat meldt analistenbureau Jon Peddie Research. Geen enkele gpu-fabrikant heeft dit aandeel weten te evenaren.

Jon Peddle Nvidia marktaandeel gpu-leveringen94 procent van alle gpu-leveringen aan boardpartners was in het tweede kwartaal van 2025 afkomstig van Nvidia, aldus Jon Peddie Research. Uit historische data van 3dCenters blijkt dat geen enkele gpu-fabrikant ook zo'n hoog marktaandeel in bezit had. Het marktaandeel van AMD ligt op circa 6 procent, terwijl Intel minder dan een procent in handen heeft.

Nvidia leverde in totaal 7,7 miljoen gpu's aan boardpartners, 27 procent meer dan in het kwartaal daarvoor. Boardpartners zijn fabrikanten die de gpu's van bedrijven als AMD en Nvidia gebruiken om hun eigen videokaarten mee te ontwerpen.

Jon Peddie Research verwacht dat videokaartfabrikanten in het vorige kwartaal massaal gpu's inkochten bij partijen als Nvidia om de aankomende importheffingen van de Verenigde Staten voor te zijn. Die zullen naar verwachting tot hogere prijzen leiden voor boardpartners.

Door Kevin Krikhaar

Redacteur

03-09-2025 • 19:46

188

Submitter: TheProst

Reacties (188)

188
186
97
5
0
53
Wijzig sortering

Sorteer op:

Weergave:

De enige manier voor AMD om serieus marktaandeel (terug) te winnen is flink onder de prijs te gaan. Het moge duidelijk zijn dat de huidige strategie van AMD niet werkt!
nee, dat doen ze al meerdere decennia en dat werkt gewoon weg niet.

Realiteit is en blijft dat Nvidia ondertussen hoog gehouden worden door o.a. fanboys en de reclame die zij hiervoor maken. De afgelopen decennia hebben we gewoon gezien dat beide producenten AMD (ATI) & Nvidia goede en slechte producten op de markt hebben gebracht danwel in kwaliteit van de hardware, software, performance of prijs en ondanks dat AMD in het verleden een beter product in de markt heeft gezet Nvidia het altijd wint om een legio van redenen die hierboven staan. Wil noch AMD of Nvidia de lucht in prijzen of de grond in boren maar het is gewoon realiteit dat Nvidia het beter doet ondanks wat AMD probeert. Ja beide partijen hebben rotzooi gemaakt maar ook goede producten gemaakt en ja ze maken zich allebei schuldig aan dubieuze praktijken.

Heb zelf de trend gezien dat sinds Vega AMD het wel welletjes vind en gewoon Nvidia volgen qua prijs en er onder gaan zitten om redelijke prijs/kwaliteit te behouden. We hebben dit zelf gefaciliteerd de afgelopen decennia, AMD (ATI) was altijd zogenaamd rommel en allen NVidia was goed spul dus iedereen koopt dan Nvidia en hier zitten we met een bedrijf dat in de GPU markt Monopolie positie heeft en daar kan niemand wat tegen gaan doen zolang de IGPU meegenomen word in de statistieken.
Nvidia komt er ook gewoon mee weg dat hun GPU afbranden door slecht ontwerp! mensen klagen al sinds de 4000 serie, ze gaan er gewoon mee door en mensen kopen het toch wel. de 6090 zal weer duurder worden, mensen klagen dan wel maar kopen het ook gewoon.
Altijd maar hetzelfde uitvlucht, maar nooit tot de kern van de zaak komen: amd heeft geen goed product. Ze lopen hopeloos achter met prestaties en technologie. Ze concurreren noodgedwongen enkel op prijs. Nooit is het de fout van amd, nooit komt er kritiek op de gevaren koers. En als klap op de vuurpijl ga jij nu beweren dat NVIDIA een marktaandeel van 94% heeft enkel en alleen door fanboys? Ik hoop dat je jezelf niet al te serieus neemt.
volgens mij moet jij mijn post nog eens goed doorlezen waar ik gewoon zeg dat Nvidia het beter doet dan AMD/ATI. Hier stel ik ook dat beide fabrikanten in het verleden goede en slechte producten op de markt hebben gezet en beide dubieuze handelswijzes hebben toegepast om de markt te manipuleren. Dit zijn alle feiten en geen verzinsels.

mijn geheugen van de afgelopen 20 jaar is ook niet alles maar gelukkig hebben we google:
  • Radeon 9000-serie (2002–2003)
  • Probleem: liep qua performance vaak achter op Nvidia’s GeForce 4 Ti.
  • Drivers: Catalyst-drivers waren instabiel en gaven compatibiliteitsproblemen.

    Radeon X800 / X1800 / X1900 (2004–2006)
  • Lanceervertraging van X1800 (R520) door bug in 90 nm chipbibliotheek; herontwerp was nodig.

    Radeon HD 2000 (2007)
  • Probleem: R600 (HD 2900 XT) was groot, heet en inefficiënt.

    Radeon HD 3000 / 4000 (2008–2009)
  • Sterk, weinig grote problemen, vooral 4000-serie werd populair (prijs/prestatie).

    Radeon HD 5000 (2009–2010)
  • Probleem: aanvankelijke schaarste, maar technisch sterk (eerste DX11-kaarten).

    Radeon HD 6000 / 7000 (2010–2012)
  • Probleem: 6000-serie vrij lauw, weinig innovatie.

    7000-serie: sterk, maar Graphics Core Next (GCN) bleek later moeilijk op te schalen → efficiëntieproblemen.
  • Radeon RX 200 / 300 (2013–2015)

    Probleem: grotendeels rebrands, waardoor marktpositie verslechterde.
  • Radeon RX 400 / 500 (2016–2017)
  • Probleem: Polaris bleef hangen op 14nm → energiezuinigheid achter op Nvidia Pascal (GTX 10-serie).

    Radeon RX Vega (2017)
  • Probleem: zeer hoge stroomvraag en hitte, moeilijk beschikbaar door mining.

    Radeon RX 5000 (2019, Navi 10)
  • Probleem: launchdrivers instabiel, black screen bugs.

    Radeon RX 6000 (2020, RDNA2)
  • Probleem: hardwarematige ray tracing veel zwakker dan Nvidia.
  • Radeon RX 7000 (2022–heden, RDNA3)
  • GeForce FX (2002–2003)
  • Probleem: FX 5800 ("Dustbuster") had lawaaiige koelers en slechte DX9-prestaties.

    GeForce 6000 / 7000 (2004–2006)
  • Overwegend sterk, weinig problemen.

    GeForce 8000 (2006–2007)
  • Oververhittingsproblemen bij G84- en G86-chips (bijvoorbeeld 8600-series) — leidde tot rechtszaken omdat Nvidia dit mogelijk verborgen zou hebben.
  • Recall van de 8800 GTX vlak voor de lancering vanwege een defecte weerstand.
  • Class-action rond defecte 8600M-chips in MacBook Pro's; Apple verlengde garantie en dit kostte Nvidia miljarden in marktwaardelaptops (GeForce 8400M/8600M).
  • GeForce 200 (2008–2009)

    Probleem: GTX 280 zeer duur ($650 launch).
  • GeForce 400 (2010)
  • Probleem: heet en stroomslurpend (Fermi).
  • GTX 480: berucht om lawaai en hoge temperaturen.

    GeForce 500 (2011)
  • Verbeterd Fermi, maar nog steeds heet en gulzig.

    GeForce 600 / 700 (2012–2013)
  • Sterk: Kepler efficiënt en populair.
  • Probleem (700-serie): GTX 780 Ti duur → Nvidia pushte snel naar Maxwell.

    GeForce 900 (2014–2015)
  • Probleem: GTX 970 “3,5 GB VRAM”-controverse (segmentatiegeheugen).

    GeForce 10 (2016–2017, Pascal)
  • Probleem: zeer lang aangehouden generatie, bijna geen concurrentie.

    GeForce 20 (2018–2019, Turing)
  • Probleem: RTX 2080 launch traag door hoge prijzen en matige ray tracing-prestaties.

    GeForce 30 (2020–2022, Ampere)
  • Probleem: cryptomining en scalpers → extreem slecht verkrijgbaar.
  • Verbruik: hoog, vooral bij RTX 3090.

    GeForce 40 (2022–heden, Ada Lovelace)
  • Probleem: RTX 4090 extreem duur, voedingskabels (12VHPWR) smolten bij slechte montage.
  • GeForce RTX 50-serie (Blackwell, 2025)
  • Smeltende voedingskabels opnieuw een probleem met de 12VHPWR/12V-2×6 connector, ook bij de 5090 FE
  • Ontbrekende ROP-units bij sommige 5090, 5080 en 5070 Ti als productie-anomalie (< 0,5 %)
  • Black-screen bugs na driverinstallatie: Nvidia stuurde firmware/drivers uit als oplossing
  • Stabiliteitsproblemen in drivers (572.xx en 576.xx) werden breed bekritiseerd; ontwikkelaars raden rollback aan
  • Controversie rondom reviewbeleid: vooral bij RTX 5060-serie—Nvidia weigerde of vertraagde reviewmodellen
  • DLSS 4 benchmarkkritiek: beschuldigingen van misleidende performance claims
dus als we alles bekijken kan je volgende concludeen:

AMD/ATI heeft historisch gezien vooral mindere/slechtere drivers gehad, warmte en prestatie problemen welke alle 3 samenhingen maar ook zichzelf een issue waren.

Nvidia heeft historisch gezien toch wat meer op zijn kerfstok staan, hardware defecten, misleidende marketing (erger vergeleken met AMD wat AMD niet vrijspreekt uiteraard, want dit dezen zij net zo goed). bovenstaande heeft geleid toch rechtzaaken, terugroep acties en negatieve publiciteit,

ondanks dit allemaal heeft Nvidia toch een superieur marketingsteam die dit toch zeer goed weet te verkopen.
Ik had graag AMD deze generatie weer een kans gegeven maar FSR legt het gewoon in alles af tegen DLSS. De paar spellen die FSR 4 ondersteunen zijn leuk maar ik weiger per spel te klooien met injectors om zelf te ondervangen wat AMD kennelijk niet voor elkaar krijgt.

Qua prijsverschil was mijn 5070ti redelijk vergelijkbaar met de 9070XT en enkel wanneer dit een aanzienlijk prijsverschil was geweest had ik mogelijk toch voor AMD gekozen ondanks de mindere feature set.

In de afgelopen 26 jaar heb ik afwisselend NVIDIA en AMD (ATi) gehad en ging eigenlijk altijd voor de kaart die mij het meeste bracht voor het geld. Helaas voor AMD is dit, voor mij, al tijden (10+ jaar) niet meer. En dit gat lijkt sinds ray tracing en DLSS alleen maar groter te worden.

Tot de 9070 was FSR gewoon slecht vergeleken met DLSS en was de ray tracing performance ook ondermaats. Dat heeft niets met een fan boy te maken….
Wat je aan het verkondigen ben in dit geval is gewoon misleidend en precies wat aangegeven wordt als een probleem.

In het verleden had je gelijk.aar met FSR4 dus niet meer. FSR 4 and DLSS4 zijn nagenoeg gelijkwaardig.

En ja... Dat zeg jij ook in een bijzin. Maar dan nog... Je gaat het nu ook niet meer hebben over de 4080 of 3080 qua technologie of wel?

Ja, er is nog een verschil op raytracing. Maar ook dat begint erg klein te worden. De Nvidia fanboy blijven met achterhaalde informatie komen en het verkondigen als courante informatie.

[Reactie gewijzigd door HandheldGaming op 4 september 2025 15:08]

Heb je mijn opmerking over FSR 4 en de beschikbaarheid in spellen wel goed gelezen? Het is geen misleiding maar feiten!
Maar 80+% van de mensen zal dat niet boeien. Het is niet relevant voor die mensen. Het is enkel relevant voor de enthousiastelingen. Dat mag, geen probleem, maar voor het gros is een AMD net zo goed als een NVidia.


Ik heb mensen altijd aangeraden om vooral ook goed naar ATI / AMD te kijken. Ook al gaf marketing (gevoed door verhalen die niet het hele verhaal vertellen) anders aan. Marketing is in mijn ogen precies dat en totale bullshit. Je kijkt gewoon wat voor jou voldoet. Voor mensen die gewoon "lekker" een potje willen gamen maakt het echt niet uit of ze wat frames extra hebben of dat het er vloeiender uitziet.
Het probleem voor AMD m.i. is dat NVidia bij het grote publiek meer gezien wordt als de grote innovator, Ray Tracing, Path Tracing, RTX Remix, Frame Generation, DLSS, Neural Texture Compression etc, etc, en dat AMD moeite heeft om al deze innovaties bij te houden, laat staan te overtreffen hoe goed hun hardware ook is.
Drivers zijn de minste van hun problemen, die zijn momenteel gewoon goed, terwijl NVidia daar de laatste tijd juist steken heeft laten vallen...
In alle eerlijkheid, de meeste van die innovaties zeggen mij weinig en ik kom hier nog regelmatig - kan me niet voorstellen dat het grote publiek er meer van weet. Heb zelf een AMD, maar dat was meer omdat ze net iets goedkoper zijn en ik graag iets van de underdog koop.
Tja dat zijn zaken die jij belangrijk vindt, maar de gemiddelde gamer zal niet snel de settings induiken om alles te optimaliseren. Begrijp de toegevoegde waarde van DLSS en FSR ook niet, je gaat jezelf maar vooral je klanten voor de gek houden dat je fatsoenlijk product neerzet wat niet zo is. Games moeten Native gewoon fatsoenlijk draaien en ik verwacht als ik een high-end kaart koop (voor mij was dat de 6800XT een paar jaar geleden) dat ik dan ook op dat moment alle spellen op mijn gewenste resolutie (1440 voor mij)op de hoogste settings kan draaien boven de 60 FPS. Als je als hardware koekenbakker dan technieken ontwikkeld zoals DLSS om die frames te halen vind ik dat je niet goed bezig bent met je hardware ontwerp.

RT is sowieso altijd een een dingetje geweest, leuk maar voorlopig nog niet volwassen genoeg qua hardware om dit gebruiken. Schakel RT ook gewoon uit omdat ik ondanks de kwaliteit die het brengt niet het offer waard is qua resolutie en frames.

Vind Nvidia sowieso hufterig duur worden de laatste jaren en dan ook nog met het onderbuik gevoel dat al jaren met de SKU's aan het rotzooien zijn, door de chips hoger in de markt te zetten dan ze eigenlijk zouden moeten zijn. in het verleden kocht ik om de generatie een nieuwe GPU, dat krijg ik nu niet meer verantwoord voor mijzelf op basis van prestatie winst en dan nog eens de prijs. Dan wacht ik maar een generatie extra.
Fsr 4 is minder games klopt. Komt ook omdat fsr 4 net uit is vergeleken met dlss. Fsr 4 zal alleen nu veel meer komen omdat het open source is en ontwikkelaars het gewoon kunnen downloaden de plug ins.
hebben dit zelf gefaciliteerd de afgelopen decennia, AMD (ATI) was altijd zogenaamd rommel
Dat heeft ATI / AMD gewoon over zichzelf afgeroepen door heel lang matige drivers te releasen. Pas sinds 2015 (?) zit er wat meer schot in. En op Linux kwam de enorme sprong toen ze zich op Mesa en radv gingen focussen in plaats van amdvlk.

Nvidia kon door hun dikke marktaandeel ook gewoonweg veel meer investeren in drivers. Hun drivers zaten en zitten altijd stampvol met hacks en workarounds voor specifieke games, vandaar ook dat een Nvidia kaart meer voordeel heeft van een sterke CPU. Die games draaien daardoor sneller en stabieler, maar het is enorm veel werk. En daarnaast doet Nvidia gewoon heel veel outreach naar studios, al heel lang. Bijvoorbeeld met de Nvidia Gaming SDK waarmee Reflex antilag makkelijk geïntegreerd kan worden, maar vroeger ook al met Nvidia - The Way Its Meant to be Played, of later met PhysX.

[Reactie gewijzigd door Halfscherp op 4 september 2025 15:29]

Dan praten we over 10 jaar geleden! Wat heeft Nvidia in die tijd allemaal uitgevreten en voor problemen gehad? Ik volg het niet op de voet, dus het is een open vraag. Ik geloof er echter niets van (denkende aan verhalen van rebranding van oude chipsets) dat Nvidia het wel zo goed doet.

Overigens heb ik altijd ATI / AMD kaarten gebruikt en nooit problemen ervaren. Wel met derden waarvoor ik een computer samengesteld had, maar dat bleek achteraf altijd aan iets anders te liggen dan de videokaart (maar door het geneuzel dat het aan ATI / AMD zou liggen werd die kaart door betreffende mensen ontvangen, werkte een weekje en de boel ging weer fout).
Jaren geleden ben ik na twee keer een Nvidia kaart eenmalig overgestapt naar een AMD. En niets dan problemen daarmee gehad, daarna terug naar Nvidia en geen issues. (Dit waren trouwens altijd top of the range kaarten aan beide kanten)

Misschien had ik pech met die ene AMD kaart maar mijn keuze heb ik toen wel gemaakt. Geen AMD meer. En ik ben blijkbaar niet de enige.
Ik hoor dit soort verhalen vaker. Ik heb zelf eigenlijk nooit problemen ervaren met AMD/ATI kaarten. Wat voor issues had je precies?
heb zelf de afgelopen 20 jaar regelmatig Nvidia of AMD/ATI gehad afhankelijk van prijs/kwaliteit en nooit issues gehad. Veel mensen vergaten ook altijd de drivers fatsoenlijk te verwijderen van beide kanten en dit leverde nog wel een wat issues op als je dat niet fatsoenlijk deed (1 van de redenen, wil niet zeggen dat dit de reden is maar vaak toen en zelfs nu). heb toendertijd een maxwell kaart in mijn pc gehad waarna ik overstapte naar een Vega64 en niks dan problemen mee gehad totdat Nvidia drivers eraf knikkerde door DDU.
En dan word je gedownmod door de laatste amd fanboys hier op tweakers.
Ook niet alle producten van Nvidea waren even succesvol en ze hadden of hebben ook nog veel driver issues. En toch stapt men niet over, terwijl AMD lineup van de RDNA4 toch wel echt beter is dan de Blackwell lineup.
Of juist een techniek ontwikkelen waardoor de performance stukken beter wordt. Een beetje zoals de X3D voor de cpu's. Ze kunnen misschien ook iets ontwikkelen voor de videokaarten wat nvidia nog niet heeft
Die hebben ze al dat heet Infinity Cache voor het eerste gebruikt bij de RNDA2 GPU's. Dat was ook de rede dat de 6900XT het met een 256Bit bus kon opnemen tegen een 3090 met een 384Bit bus.
RDNA3 en 4 gebruiken nieuwere versies die kleiner zijn maar nog steeds effectief zijn. nVidia heeft inmiddels ook wel meer cache in de GPU's zitten maar die lossen het op door vooral veel L2 cache toe te voegen. Waar infinity cache een L3 cache is. Groter maar wel trager dan de L2 die de GPU's ook hebben.

Maar inderdaad ze zouden nog wat vooruitstrevender mogen zijn zoals ATi vroeger was. Echter vrees ik dat AMD net als nVidia nu vooral focus heeft op AI performance, datacenter compute second en gaming pas op de derde plek heeft staan.
Enige voordeel wat AMD wel heeft is de samenwerking met Sony die wel zo'n goed mogelijke architectuur willen voor hun consoles en daar werken ze wel actief samen om RDNA en straks UDNA features te geven die aansluiten bij de visie die ze hebben voor hun consoles. Dat zie je ook wel aan de custom APU's die ze momenteel gebruiken.

[Reactie gewijzigd door Astennu op 4 september 2025 00:45]

Het ligt eraan hoe je dit natuurlijk ziet. AMD heeft zich meer en meer gefocused op bedrijven die hun chips integreren volgens laatste transcript van de annual business summit. Dit zijn dan o.a. partners zoals Nintendo, Sony en andere handheld devices, hier kunnen ze in een bulk run produceren en onderaan de streep meer overhouden, daarnaast wil AMD meer market share genereren in de laptop markt, denk hierbij aan Lenovo, HP en Dell als grotere business partners. Daarnaast ligt er een focus op embedded technology, hier is de graphics chipset in de CPU getrokken, denk hierbij aan automotive applicaties (headunits), industriele/medische apparaten etc. https://www.amd.com/en/products/embedded.html#applications

Onderaan de streep houdt AMD meer over door de focus op de CPU markt, incl. Datacenter & embedded tech, dan de oorlog op de gaming graphics markt aan te gaan.
Om marktaandeel te winnen zullen ze vooral AI performance moeten verbeteren, want het overgrote deel van deze Nvidia chips wordt momenteel gebruikt voor AI.
Inderdaad, AMD moet innoveren in plaats van achter Nvidia aan te hobbelen, hetzelfde leveren met iets minder prestaties en een paar tientjes goedkoper te zijn.

Een écht sterk vlaggenschip dat Nvidia eindelijk eens het vuur aan de schenen legt, gecombineerd met een opvallende nieuwe feature waarop Nvidia moeten reageren, zou misschien het tij kunnen keren.

Ik denk dat Nvidia juist zo’n sterke merkperceptie heeft bij het grote publiek omdat ze al generaties lang de krachtigste kaart in het topsegment leveren. Ook al koopt de meerderheid van de consumenten die kaarten niet, het straalt wel af op het merk.

Bovendien introduceert Nvidia telkens nieuwe features, waarna AMD er vaak met een zwakkere variant achteraan komt (zoals FSR) en met mindere prestaties bij nieuwe opkomende technieken (in elk geval bij ray tracing/path tracing).

[Reactie gewijzigd door DLSS op 4 september 2025 17:49]

Nee, het is als game devs stoppen met het gebruiken van Nvidia's rommel. Graphics zien er slecht uit omdat de technieken niet goed geïmplementeerd worden (al helemaal door Epic met unreal engine 5). De nvidia proprietaire rommel laat het beter lijken met een enorme kost aan performance.
Heb je voorbeelden? Als ik game met UE5 ziet het er prachtig uit met perfecte FPS. Dat het slecht zou zijn had ik nog niet gehoord.
Ik heb zelf niet echt ervaring met allemaal graphic technieken, maar ik heb wel alle filmpjes van Threat Interactive gezien en daar is wel duidelijk in te zien waar de kwalen zijn in de graphics van vandaag de dag. Zeker een aanrader om eens naar te kijken.

Een laag hangend stuk fruit is dat TAA verkeerd gebruikt wordt en spellen vaak heel wazig uit zien. Of dat er overal dithering patronen te zien zijn, bijv ook bij het nieuwe spel van Dune, waar dit overduidelijk overal te zien is, al helemaal bij de vleugels van de "helicopters".
Threat Interactive heeft geen idee waar hij het over heeft en gebruikt heel veel jargon om slim over te komen. Hij heeft zelf nog nooit iets zinvols bijgedragen aan 3D graphics.

Als het aan hem ligt gaan we allemaal oude technieken gebruiken die nog veel meer problemen en ugliness hadden dan de huidige technieken.
En toch zijn de 'oude' technieken zo goed dat games zoals Ghost Recon Wildlands nog steeds erg, erg, erg goed uitzien en 60 fps halen op een aardappel. Op 1440p.

Threat Interactive heeft meerdere malen letterlijk laten zien wat het probleem was met werkelijke data, dus wat jij hier zegt is gewoon onzin: er is bewijs voor tegendeel.

Als ie nou niets liet zien en niet zelf letterlijk de frames uit elkaar trok (wat spreekt van zeer zekere ervaring in 3D en engines) zou je nog misschien, heel misschien, een punt hebben.

Maar dan kijk je naar de vaseline die op moderne games zit, en zie je toch letterlijk wat hij bedoelt.
Tja wat je nu 60 fps op een aardappel halen noemt, was toen die game uitkwam in 2017 (8 jaar geleden!) een game die op een redelijk high end GPU uit die tijd (GTX 1070) moeite om op 60 FPS te draaien op 1080p.

Die game gebruikt trouwens ook gewoon TAA waar mensen de meeste vaseline klachten vandaan lijken te komen.

En ja je kan met heel veel trucjes oudere technieken zoals shadow maps er goed uit laten zien, maar het schaalt gewoon niet goed als je honderden area lights in je scene wilt, dan is een ray tracing techniek zoals ReSTIR gewoon een veel beter idee.

Ik zeg ook niet dat huidige technieken niet hun eigen problemen hebben, maar als je conclusie (zoals die van Threat Interactive) is, we moeten terug naar oude technieken die meer maar andere problemen hebben en niet schalen ipv vooruit te kijken naar hoe je de nieuwe technieken verbeterd ben je naar mijn mening gewoon niet handig bezig.
Wildlands heeft idd TAA: de goede versie er van waar moeite in is gestoken! Ziet er best scherp uit ook!

Niemand zegt trouwens dat we geen nieuwe technieken moeten gebruiken. Graag zelfs! RT alleen al scheelt devs echt weken aan lighting doen.

De conclusive van TI heb je of niet goed begrepen, of met opzet vertrokken: De hele opzet is dat op dit moment zowel Epic als veel grote ontwikkelaars tegen consumenten zeggen ' jullie zijn dom, het is allemaal prima en helemaal geen probleem: de problemen met nieuwe technieken die jullie zien zijn onzin'.

Ti bewijst gewoon dat dit geen onzin is. Hij zegt meerdere keren per video dat ie juist voor verbeteringen wil zorgen in de NIEUWE technieken. Hij noemt de oude technieken als counter op de argumenten van de 'professionals' dat ' het niet anders kan' en ' het is nooit beter geweest'. Jawel. Dat is het wel geweest.

Hoe goed heb je zijn videos bekeken om tot de conclusie te komen dat ie terug wil naar de oude?
Dan moet je toch echt eens wat beter kijken naar de vergelijkingen. Zelfs de config wijzigingen van bijv TAA die ze doen laten al duidelijk zien dat het beter kan zonder überhaupt te kijken naar andere technieken. Verder laten ze ook de flaws van bepaalde nieuwe technieken zien die niet waren met de oude technieken. Oud betekent niet meteen slecht.

En ja, jargon hoort erbij, en het wordt ook uitgelegd (maar je kunt het ook opzoeken). Gebruik van jargon is in dit geval geen manier van slim lijken.

Maar los van hun manier van het overbrengen van informatie, je kunt toch gewoon je ogen gebruiken en de verschillen en kwalen/tekortkomingen zien van de gebruikte technieken?

[Reactie gewijzigd door FPSUsername op 4 september 2025 10:46]

Zo-goed-als-elke game die afgelopen halfjaar met ue5 gereleased is... al helemaal als je kijkt naar de gfx presets.

Veel te vaak upscaling en frame generation voor een fidelity niveau dat 6 jaar geleden met traditionele technieken ook al kon door de degradation van die techniek; whoop-dee-doo.


Iemand die de nadelen van upscaling niet letterlijk kan zien, moet zich niet in de discussie willen mengen want of die hebben slecht zicht of leggen de lat veel te laag.


Tegelijkertijd verstookt de gemiddelde kaart het dubbele VRAM tegenover toen, en gelukkig is dat ook hoofdzakelijk waar nvidia onnodig op bekrimpt want stel-je-voor dat deze cijfers niet kunstmatig inflated zouden worden door een super serie te moeten verkopen en niet gewoon meteen al een gebalanceerde kaart op de markt kunnen zetten. Kúnnen ze wel hoor overigens...

[Reactie gewijzigd door Annihlator op 3 september 2025 20:52]

Iemand die de nadelen van upscaling niet letterlijk kan zien, moet zich niet in de discussie willen mengen want of die hebben slecht zicht of leggen de lat veel te laag.
… en, als je nu tevreden bent, misschien ook niet verder willen weten inderdaad. What is seen, cannot be unseen. ;)
Met nadelen bedoel je het haar dat alleen uit pixels bestaat? Op 1080 lijkt elke game er wel last van te hebben. BO6 en RDR2 echt extreem
review: Mafia: The Old Country - Een maffiafilm die je zelf speelt

Mafia is wat aan de zware kant. Maar goed, 40FPS gemiddeld op een zeven jaar oude GPU. 1080p, medium, geen upscaling? Volgens mij hebben we het weleens slechter gehad qua PC ports.

Dark Souls 1 was vastgezet op 720p30, als ik het me goed herinner :+

Valt allemaal wel een beetje te relativeren. 30FPS op consoles was al sinds de jaren '90 de standaard, en is nu een uitzondering. Ik ken meer games die op 120FPS draaien dan 30. Gaat prima met prestaties. Is echt niks nieuws dat een game af en toe z'n targets niet haalt.

[Reactie gewijzigd door Wolfos op 3 september 2025 20:44]

Have fun:https://www.youtube.com/@ThreatInteractive/videos

Hij spreekt over alles met bewijzen hoe zaken slecht zijn geimplementeerd, analyse van elke frame, waar tijd verloren wordt en hoe zaken zouden geoptimaliseerd kunnen worden. Ook slechte AA implementaties en hoe alles gewoon blurry is terwijl het niet zou moeten. Het is heel technisch, maar ik kijk ze graag allemaal: als je ergens wil beginnen: YouTube: Why The "Most Optimized" UE5 Game is a Hideous, Slow Mess

Of deze... YouTube: The Cursed "Optimization" In TES:Oblivion | UE5.6 is NOT 30% faster (Context Explained)

en deze: YouTube: Dynamic Lighting Was Better Nine Years Ago | A Warning About 9TH Gen's Neglect.
Of gewoon allemaal :D

[Reactie gewijzigd door Nees op 4 september 2025 03:26]

YouTube: Why Video Game Graphics Degrade — And Who's to Blame?

Er is wel een trend van slechtere optimalisatie doordat oa upscaling het toch wel oplost. Dit soort luie gedrag verslechterd games.
ehh niet de slechte gamedev bij epic leggen,

UE is echt wel goed alleen alleve gamedev wereld snapt niet hoe ze moeten optimaliseren, kijk je naar echte goede games dan zie je dat ze het daar wel snappen.

veel uitgevers willen snel geld maken van een blueprint game. en niet de implementatie doen zoals hij hoort in ue .
Van wat ik weet is dat Unreal Engine vergelijkbaar is met Altium Designer. Matige half werkende features toevoegen puur zodat ze goed uitkomen bij marketing.

En ja, devs hebben niet altijd de ruimte en keuzes om het beter te doen, zij zitten immers niet aan het begin van het proces.
Deels mee eens, het onderliggende probleem van veel van deze games is dat pas achteraf wordt gedacht over optimalisatie. Je kan ze overigens niet helemaal kwalijk nemen dat ze er van uit gaan dat hardware krachtiger word en dus je game zou kunnen draaien tegen launch.

Daarnaast zegt Epic, dat met Nanite en Lumen ineens polycounts niet meer uitmaken en dat je oneindig veel lichtbronnen kan toevoegen. En hier zit een groot deel van de andere kant van het probleem. Er wordt niet meer nagedacht over dit stuk, er van uitgaande dat het toch wel werkt. En begrijp me niet verkeerd, ik vind Nanite en Lumen echt prachtige innovaties, maar ze geven een beste aanvankelijke performance hit en schalen niet oneindig, mogelijk kan je de initial cost niet meer terugwinnen in je renderpipeline.

Dan daarna krijg je upscaling en framegen om de framerate acceptabel te houden op release dag, of zelfs dat niet eens. En je eindigt met een game die gewoon enorm laggy aanvoelt.
Dat klopt laten ze ook vaak zien ze draaien zelf in UE tech demos met miljoenen polys,

Echter is de game code zelf dan niet aanwezig. Heb een paar jaar ervaring in ie programeren en ik merkte al dat 1 loopje verkeerd en je hele performance stort in.

Nanine en lumen hebben Dus niet grote impact op de render engine maar het is de combinatie van hoe je alles opbouwend.

Epic snapt dat ti's hun eigen engine daarom lopen paragon En for nite goed.

3rd part front vaak maar wat aan dat zie je meteen in game dat de ene 150 + fps doet en dat. Ander amper 30 op zelfde hardware
Ik probeer in mn assets polycounts redelijk te houden en ook de drawcalls in shaders, Nanite en Lumen staan uit in m'n development, en pas op een later moment ga ik kijken of de performance toeneemt of afneemt. Ook doe ik het meeste in development op hardware die niet extreem kraachtig is, het valt dan direct op of iets sluggish voelt. Ik weet dat ik dan misschien het stukje bleeding edge misloop aanvankelijk, maar ik heb liever iets dat goed draait op vrijwel alles dan iets dat te specifiek richting een specifieke implementatie goed draait.

Gameplay en mechanics first, graphics second. En ik denk dat er ook iets te zeggen valt voor het gebruik van blueprints, die lijken over het algemeen de performance ten goede te komen (source: trust me bro, n=1)
ik heb ervaringen met blue prints (nooit c# gedaan in UE) en bad design dat loops in between ticks lopen, waardoor de time van de loop de tick tegenhoud,

Als je dat dus doet is de loop time bepalend voor de framerate. iets wat heel hard op de performance hakt.
Ja je kan ook zulke dingen zien als je gaat casten in de memory footprint, daarom probeer ik veel met interfaces te werken en functies vaak terug te brengen tot essentiele functionaliteit. En altijd goed in de gaten houden dat wat een event is, misschien niet in een functie moet zitten. Maar als het kritiek is, misschien niet moet laten afhangen van een event, maar in een functie moet stoppen.
hoe zo wil je zeggen ik ben AMD fanboy.

AMD faalt nu gewoon net als Intel met CPU niet kan winnen van AMD, AMD kan nu gewoon niet winnen van Nvida.

maar tijden kan zo verander zie hoe nu gaat met intel op cpu mark voor gamers hoe ze eerst waren en nu zijn.
Hoe winnen ze niet dan?

In een redelijke hoeveelheid vram meeleveren voor het segment? (Bij de gehele 5000 serie excl 5090 de bottleneck)

Veel meer prestatie per watt én dollar leveren?

Inderdaad falen hoor...
Wat is jouw definitie van falen? Want als ik het zo meekrijg faalt iedereen en alles die niet het beste/snelste is. Dat zijn nogal veel bedrijven en mensen :P

AMD kan prima succesvol zijn EN maar een klein marktaandeel hebben. Net als ik succesvol kan zijn in iets zonder de absolute beste te zijn die er bestaat...

[Reactie gewijzigd door watercoolertje op 4 september 2025 09:45]

vraagje? met welke videokaart draai jij nu?

Ik heb een Taichi rx 9070 xt met de laatste drivers. alles draait goed maar!! elke game van Unreal engine geeft problemen:(

Ik krijg echt een hekel aan die Engine.

[Reactie gewijzigd door xaradine op 4 september 2025 15:04]

Ik had voorheen een gtx560ti, 650 en een 960. Nu een rx6600 op linux (en wayland draait veel beter op amd). Speel zelf niet veel spelletjes meer tegenwoordig
Hier ben ik het niet mee eens. Heb je wel eens naar Cyberpunk 2077 en Alan Wake 2 gekeken met path tracing versus diezelfde games zonder path tracing? Hier een voorbeeld

Is is een reuasachtig verschil.

Zoals ik hierboven al ergens schrijf: Ik denk dat Nvidia een sterke merkperceptie heeft bij het grote publiek omdat ze al generaties lang en de krachtigste kaart in het topsegment leveren. Ook al koopt de meerderheid van de consumenten die kaarten niet, het straalt wel af op het merk. Als ze dan ook nog eens de betere nieuwe features leveren zoals DLSS versus FSR en betere performance leveren met nieuwe technieken (zoals ray tracing/path tracing) gaan consumenten toch voor dat merk blijkt.

Mensen die een nieuwe kaart kopen willen gewoon de nieuwe toeters en bellen aan kunnen zetten... en geef ze eens ongelijk...

Ik draag als liefhebber AMD overigens een warm hart toe. In het verleden stapte ik zonder twijfel over naar AMD/ATI al ze het betere product hadden, en dat zou ik nu zo weer doen.

Ze moeten gewoon weer eens een keer leker het beste high-end product leveren, dat heeft zijn reflectie op de perceptie van het merk van top-end tot low-end.
Heb je wel eens naar Cyberpunk 2077 en Alan Wake 2 gekeken met path tracing versus diezelfde games zonder path tracing?
Dit is uiteraard peren met appels vergelijken. Uiteraard hebben de devs hun best gedaan om path tracing zo mooi mogelijk te maken. De rest op een acceptabel niveau. Ik bedoel, waarom zou je het uiterste halen van een bepaalde techniek als je daarnaast sowieso path tracing zou implementeren? Heeft het nut om twee "best graphic settings" in een spel te zetten?

Wat ik goed vind van bijv Threat Interactive is dat ze vergelijkingen maken met spellen die de alternatieve technieken wel hebben geoptimaliseerd. Uiteraard zijn de graphics compleet verschillend, maar het gaat om de details die vergeleken worden.
Dat begrijp ik, maar het uiterste dat bereikt kan worden met rt/path tracing ligt veel hoger dan bij oude technieken. (Zeker in het geval van open worlds waar te veel variabelen een rol spelen om het handmatig op een hoger plan te trekken.)

Een ander voordeel is ook dat het developers minder tijd kost om licht te implementeren als ze RT gebruiken. Dus er is meer tijd om de game op andere plekken mooier te maken met hetzelfde budget (tijd die anders naar het handmatig plaatsen / bakken van licht effecten gegaan zou zijn).

Dit is denk ook een van de redenen waarom je steeds meer games ziet waar RT niet meer optioneel is. Ik snap het ook wel, de budgetten lopen steeds meer uit de hand.

[Reactie gewijzigd door DLSS op 4 september 2025 18:47]

voorraad en drivers (als in goede fsr + support voor de devs) zou meer helpen. En goede RT prestaties. En goede prestaties in het algemeen. Niet nét aan goed. Want dat doet het hem blijkbaar niet veel goeds.
Rt is net-als upscaling in veel gevallen een fad; veel kostenefficienter om echte traditionele gpu's sterk te houden en de gimmicks voor gimmicks te laten. Rt boeit gewoon niet op het moment dat de core-performance zo lam is als bij bijv de 5000 serie dat je wel DLSS moet gebruiken.

Kan er met mn verstand geenszins bij dat 90% marktaandeel daar voor kiest


Het aantal games dat RT op enkel zinnige vlakken gebruikt en niet vooral als extra marketing overal mogelijk op plempt is ook veel te klein.

[Reactie gewijzigd door Annihlator op 3 september 2025 20:46]

Helaas is upscaling zo gemeengoed geworden dat render targets qua resolutie gewoon heel laag liggen en upscaling het goed mag maken. Dit zie je ook terug in de optimalisatie in de breedste zin van het woord.

Ik ben de laatste tijd wat oudere spellen aan het doen van 2014-2019 en het is eigenlijk belachelijk hoe erg het is geworden. Spellen zien er nauwelijks beter uit dan 5+ jaar geleden maar presteren echt aanzienlijk minder. Wil je gewoon 60+ fps dan mag je of een 5090 kopen of gebruik maken van DLSS of FSR.

Gelukkig is DLSS (inmiddels) wel zo enorm goed dat het verschil met native niet meer te zien is en in bepaalde gevallen zelfs beter is. Maar toch is en blijft het een lapmiddel om de incompetentie van developers te ondervangen...
je vergeet wel even dat we ray tracing hebben toegevoegd, nieuwe versies van tesselation, en niet geheel onbelangrijk de LOD is heel erg verschoven en daarboven op zijn de poly counts van enkele duizenden naar miljoenen gelopen.
Leuk dat de polygonen van 10.000 naar 1.000.000 gegaan zijn. Als dit in de praktijk praktisch niet te zien is maar 10x meer render time kost dan doe je gewoon iets fout. Idem met technieken zoals Lumen en Nanite. Het wordt allemaal maar aangezet door level designers zonder ook maar rekening te houden met de performance.

Een spel zoals Uncharted 4 ziet er prachtig uit op de (basis) PS4 in 2016. Ik had verwacht dat de spellen er toch wel beter uit zouden zien nu een ps5 bijvoorbeeld 8x de hoeveelheid Tflops ter beschikking heeft. Maar nee... een spel zoals MGS Delta heeft zelfs moeite om op een 5090 fatsoenlijk te draaien terwijl MGS V er op de (basis) PS5 gewoon super goed uit zag en op bepaalde vlakken zelfs beter....
Die polygons zie je echt wel maar blijkbaar zie jij het niet.

Je moet natuurlijk wel weten waar je op moet letten.

Zelfde als de dynamic lod boundaries de helemaal veranderd zijn.

Meschien een keer naar senua 2 kijken
Als je texturen moet gaan likken om de polygonen te zien doe je iets compleet verkeerd - TotalBiscuit

Nee, details hoeven niet zover omhoog. Die zie je echt niet tijdens normale gameplay. Net als je 8k textures op een vingernagel echt niet gaat zien (Stalker 2 zegt hoi).

Als je, net als met bier drinken, moet LEREN om die extra details te zien mis je echt het complete punt wat MazeWing maakt. En je hebt het wel degelijk verkeerd: mensen hoeven niet te leren waar naar te kijken. Het moet er gewoon normaal uitzien.
en het ziet er normaal uit omdat die polyies omhoog zijn,

Maar als je niet weet waar je op moet letten is een hexagon ook een rondje , maar als die hexagon ineens 200 polys heeft is het echt een rondje.

en daar gaat het nou juist over uit.

Een steen op de grond van 50 polys met een texture die goed ontworpen is ziet er meschien goed uit maar is dat zeker niet ten opzichte van een steen met 1000 polys en een goede textures.

Maar pas als je ze in de zelfde game langs elkaar legt zie je het verschil.

[Reactie gewijzigd door Scriptkid op 4 september 2025 09:23]

Het ziet er normaal uit door o.a. technieken als subsurface scattering en Tesselation, die ook van hexagons rondjes kunnen maken zonder 1 extra polygoon.

En de steen waar jij het nou over hebt zal dus juist NOOIT in de situatie terechtkomen die jij wil: ze gaan nooit naast elkaar liggen, en je gaat nooit dat verschil echt zien tijdens gameplay tenzij de steen: enorm groot is of tenzij jouw gameplay uit texturen likken bestaat. Dan zie je het wel.

Voor alle andere technieken, Visa, Mast...oh wacht, SSAO, Tesselation, PBR. Allemaal technieken die 95% van het resultaat bereiken tegen 10% performance van meer polygonen.

Ik wil best naar volledige raytracing en 10 miljard polygonen per rots, maar daar hebben we de hardware gewoon niet, dus dan moet die 60 fps prio krijgen.
Een voorwerp zoals een band (of cilinder) is een prima voorbeeld van “diminishing returns”. De band ziet er prima (lees: rond) uit met een X-aantal polygonen. Het is dus compleet zonde van je render time deze hoeveelheid polygonen te verhogen met een factor 10, puur omdat het kan.

Idem met een techniek zoals Lumen. In heel veel gevallen is een handmatige oplossing beter en tot 10x sneller. Maar wat doet men? In elke situatie Lumen aanzetten omdat het lekker makkelijk is.
Dat is toch precies wat ik al de hele tijd zeg , Het ligt niet aan UE maar aan de game dev die zo lui zijn geworden omdat met 1 vinkje het werkt wil niet zeggen dat het een oplossing is.

Heel vroeger deden we dit al in UE 1 en moest je level design matchen met je MAX 200 polys per view (ipv per object).

die poly count omhoog kunnen brengen betekend dat je geavanceerde shapes kunt maken ipv texture faken. en dat ziet er echt wel 100 keer beter uit maar dan moet je wel goed kijken hoe en waar het toegepast dient te worden.
Wat is er mis met Texture faken als het min of meer exact hetzelfde oplevert? Wat heb jij tegen smoke en mirrors are ze hun werk doen?
Met de juiste LoD's en andere technieken, waaronder zelfs PoM, zie je het juist niet.

Overall waren developers een paar jaar geleden veel beter bezig, omdat onnodige performance-hogs (zoals elke vorm van lighting middels RT te willen doen, bijvoorbeeld of niet gebruik te maken van een hybride van renderprobes en RT reflecties ipv alles maar met RT te crutchen) vermeden werden en zelfs moeilijk tot onmogelijk te realiseren. Nu lijken ze haast volledig afhankelijk van de presets en toolbox die Epic aanlevert; want te veel dingen zijn beter te configureren, direct vanuit UE5, ten opzichte van hoe het deployed raakt.

Er zijn inderdaad uitzonderingen, maar vooral jammer dat je Senua 2 als voorbeeld noemt; zeker in het vroege stadium van de release waren de expriences wel vrij mixed wanneer RT aanstaat, en een deel daarvan leek alsnog terug te schuiven naar te hoge graphics en texture settings wat vervolgens met DLSS opgevangen moet worden. kijk ook mede naar de min-specs.
Ja Senua 2 ziet er sterk uit, maar alsnog is de verhouding vereiste specs ten opzichte van hoe veel beter het er uitziet als bijv. Death Stranding (imho) loopt de vergelijking vrij mank.

Dune was ook een vreselijk voorbeeld van deze problemen bij UE5. blijkbaar getest op een vrij kleine subset dev-pc's dus allerlei rare fratsen, performance-mishaps en artifacts. bij de beta had ik dat ook verwacht, maar dat dat nog steeds gaande was in release zou niet moeten kunnen.

En als je kijkt naar de moderne development workflow lijkt resource management omgekeerd te worden. eerst bouwen ze een game met van alles op maar een zo hoog mogelijke fideliteit, om vervolgens dingen uit te kleden, comprimeren, etc. "vroegah" begon men daar haast andersom in, redelijk kaal beginnen, bottom-lines opzetten en vanuit daar verder op en uitbouwen.
En hoewel er allerlei tools zijn om automagisch LODs te beheren enzo; het resultaat spreekt naar mijn botte mening erg voor zich.
Ik vind DLSS fantastisch alleen zijn de artifacts (zoals haar) enorm op 1080p
Upscaling zoals DLSS is vooral goed als je een scherm hebt met een hoge resolutie. Op een 4k scherm is DLSS echt krankzinnig goed, in sommige gevallen inderdaad beter dan native.

Maar ik heb het een tijd ook eens op een 1080p scherm geprobeerd, misschien is het inmiddels beter, maar dat was toch echt minder.

Ik vermoed dat de beeldkwaliteit op lagere displayresoluties een onderdeel is van het probleem met de perceptie van upscaling
Wil je gewoon 60+ fps dan mag je of een 5090 kopen of gebruik maken van DLSS of FSR.
of je speelt op 1440p high ipv 4k max..
Leuk als je een 4K monitor hebt…
4k monitoren hebben we al jaren. De 980 Ti werd gemarket met 4k capabiliteit. Van wie verwacht je nou 10 jaar vooruitzicht op de techniek die elke 2 jaar verandert?

Je moet gewoon op 4k kunnen gamen op 60 fps, al dan wel op Low of Medium, punt. En als je een high end kaart hebt van 2 jaar geleden, dan ja, mag je verwachten dat je ook 4k High of Ultra kan spelen met 60 fps en dat het spel er dan nog beter uitziet dan iets uit 2016.

En dat gebeurt dus niet. We gaan op meerdere punten hard achteruit.

Dit is geen debat, dit heet vooruitgang en je reactie spreekt van....nou ja, je naam: geen achtergrondkennis, gewoon gebruiken wat anderen zeggen.
Dus ik moet maar een lagere resolutie monitor kopen omdat developers veelal de optimalisatie laten zitten?

Vergelijk MGS Delta (UE5) met een Death Stranding 2 (Decima engine) en leg mij maar eens uit waarom het ene spel er EN fantastisch uit ziet en extreem goed loopt en het andere spel moeite heeft om stabiel te lopen, gesloten gebieden heeft en er visueel ook nog eens een stuk minder uit ziet.

DLSS en frame gen is uiteindelijk een optimalisatie tool gaan worden voor ontwikkelaars. Niets meer en niets minder!
RT is niet slechts een fad. Als je het van de ground up in je rendering engine kan gebruiken kun je wel echt veel betere lighting krijgen. De nieuwste Doom game zou 70TiB aan baked light maps nodig hebben als ze de zelfde quality wilde zonder Ray Tracing.

De rede dat het als fad wordt gezien is omdat het in het begin voor een beperkt aantal effecten werd gebruikt en de first gen RT kaarten nog niet echt de ray budget hadden om de techniek echt te laten shinen.
Dat RT betere, mooiere, realistischer licht kan opleveren is een gegeven en het heeft ook voor developers voordelen. Maar we zitten ondertussen op de 4e generatie GPU's die specifiek voor RT uitgerust zijn en blijkt dat het 'ray budget' upscaling en frame generation nodig heeft om het te kunnen laten 'shinen'.

Het is ook niet vreemd nog nieuw dat mensen zich afvragen of die rekenkracht vretende technieken wel nodig zijn, als in hoeverre je de effecten van bepaalde technieken nog ziet als je een game gewoon speelt en niet bij ieder frame iedere pixel gaat ontleden. Helemaal als er op andere vlakken ook negatieve effecten op kunnen treden. Naar mijn idee wil de industrie te vlug naar een hyperrealistisch niveau terwijl de GPU's of de techniek in het algemeen) daar op het moment nog niet adequaat in kan voorzien wat heeft geleid tot een opeenstapeling van technieken die in de praktijk simpelweg nog niet goed samenwerken.
Onzin voor de nieuwste Doom game: hadden ze prima kunnen doen zonder zulke groottes.

Hoe weet ik dit? FEAR uit 2005 deed al vrij accurate lighting 'live' met minder dan een tiende aan resources. Dus het kan prima.

RT is een fad tot het overal gebruikt gaat worden. Het is voornamelijk een voordeel voor developers.
Dan zou ik toch echt een bezoekje aan de opticien aanraden ;)

De technieken uit FEAR waren goed voor de tijd, ook prima om die game nog steeds te spelen, maar die grafische technieken zijn zeer verouderd. Er is niks aan dynamisch indirect licht in die game, wat ook niet gek is voor die tijd.

Ik ga ook niet vertellen dat de huidige technieken perfect zijn, maar ze lossen veel meer problemen die de oude technieken hadden op dan dat ze introduceren. Als jij liever games met 20 jaar oude graphics speelt is dat prima, maar ik focus liever op wat we nog meer kunnen halen qua grafische kwaliteit met huidige en toekomstige GPUs.
Als liefhebber van oude games wil ik niet met modder gooien naar klassiekers als FEAR. FEAR zag er goed uit voor die tijd.

Maar sorry hoor, als je het verschil niet kan zien tussen dat en moderne games dan denk ik eerder dat je gewoon niet goed kijkt of rooskleurige herineringen hebt.

Mocht je oprecht geinteresseerd zijn: Bekijk de Digital Foundry videos over Alan Wake 2 met path tracing eens, of Cyberpunk 2077 mat path tracing. Het is een wereld van verschil.
Twee mensen die mij helemaal verkeerd begrijpen. Zal wel aan mij liggenm dan.

Ook wel mooi dat een account genaamd DLSS, DLSS verdedigt :D

Nee, FEAR ziet er niet even goed uit. Maar FEAR is 2005 en deed dus zeer goede lighting met de resources van die tijd.

Waarom ik dat noem? Omdat het complete onzin is dat we vandaag de dag niet tijd kunnen steken in optimalizatie van Nanite, van UE5, van TAA, etc. Dat is waarom ik FEAR noem: als ze toen al dit soort zieke shit konden doen, dan kunnen moderne AAA en Epic dat OOK.
Ik heb het gevoel dat het ook een beetje een influencer probleem is. Elke influencer loopt Nvidia te shillen, dus kopen mensen Nvidia. Hierbij maakt het niet uit of AMD beter is dan Nvidia. Kijk maar naar Intel vs AMD waarbij influencers voor de langste periode (en sommige nu nogsteeds) Intel lopen te shillen terwijl de processors van AMD al lange tijd gewoon beter zijn.

Dus als de marketing van AMD het lukt om AMD producten in de PC's van streamers en en youtubers te krijgen, zal het vanzelf beter gaan...
Ik weet niet waar jij kijkt, maar YouTube staat juist vol met AMD shill. Iedereen roept daar dat de 9070XT de beste kaart is, geeft benchmarks die lijken alsof het de 5080 verslaat, overdrijven de driver updates met zogenaamde 15% fps boost (dat later is ontkracht), roepen dat AMD betere 1% lows heeft (wederom ontkracht)… ook Reddit staat vol met AMD fanboys
Eensgelijks voor Nvidia producten als we het hebben over de minder populaire hardware Youtube kanalen. Maar ik heb het meer over gamende streamers en Youtubers waarvan hun fans kijken naar de hardware die ze hebben en hen daar vragen over stellen, waarna ze (de chatters) vervolgens ook hardware gaan bestellen van dat merk.
Maar wat hebben ze dan? Is dat niet vaak een 5090? Want ik kan me best voorstellen dat als jij een professionele streamer bent (in de zin van je doet het elke dag de hele dag want het is je baan) dat je betaalt voor de beste performance in je PC. En AMD heeft gewoon geen antwoord in dat segment. De 9070XT is een pracht kaart als je wat minder extreme performance nodig hebt hoor en ik heb zelf nog een 7900XT die ik voorlopig echt niet hoef te vervangen, maar ik ben dan ook geen streamer.
Ik weet niet waar jij naar kijkt? Maar ik zie juist de grootste influencers als LTT, Hardware Unboxed en Gamers Nexus juist (terecht) kei en kei hard kritiek leveren op Nvidia. En vaak AMD juist het voordeel van de twijfel geven.
Zoals aangegeven in de andere reply heb ik het over de gamende influencers, en niet de echte hardware influencers. Gamers die streamers kijken willen spul hebben dat Ninja, Faker, Shroud, Clix, etc. of hun andere favoriete streamers ook hebben.
Punt is dat dat waarschijnlijk geen optie is voor AMD
Gaat vrees ik niet genoeg helpen. Amd heeft goede prijzen (Die waren vooral hoog omdat winkels en aib's alles konden verkopen wat ze hadden dus de prijzen verhoogde) meer vram goede drivers met minder crashes geen connectors die smelten en toch gaan mensen voor nVidia. Dit ga je niet zo maar doorbreken of je moet net boven kostprijs gaan zitten en zelfs dan gaat het vrees ik lang duren. Mensen hebben veel extra over voor de nVidia stikker.

[Reactie gewijzigd door Astennu op 4 september 2025 00:39]

Ik wil daar wel een beetje tegen in gaan.

AMD heeft niet echt goede prijzen voor consumenten die graag de nieuwste toeters en bellen aan willen zetten als ze geld uitgeven aan een nieuwe GPU (en geef ze eens ongelijlk)

Ik denk dat het probleem van AMD deels een merkperceptie-kwestie is (Nvidia levert al zes generaties op rij het sterkste high-end product), deels te maken heeft met de prestaties in nieuwe technieken zoals path tracing en ray tracing, en deels met de slechte reputatie die FSR nog altijd heeft ten opzichte van DLSS.

(Hoewel FSR 4 echt heel goed is en nauwelijks onderdoet voor DLSS, wis je de negatieve indrukken van FSR 1 t/m 3 niet zomaar binnen een jaar uit.)

Met die merkperceptie en de mindere prestaties zodra consumenten moderne grafische toeters en bellen willen inschakelen, red je het niet als een AMD-kaart van honderden euro’s slechts een paar tientjes goedkoper is dan een Nvidia-kaart.

Zeker niet als je kijkt naar de prijs van een compleet systeem: wat zijn drie tientjes op een pc van 1500 euro? Mensen kiezen dan toch voor de kaart die beter presteert met de nieuwste features.

(Ik moet er overigens niet aan denken dat de markt voor dedicated GPUs straks volledig beheerst wordt door Nvidia. Ik hoop dat Intel en AMD écht gaan prijsvechten of het Nvidia vlaggenschip eens een keer van de troon stoten)

[Reactie gewijzigd door DLSS op 4 september 2025 18:15]

--------------------------------------------------
Ik wil daar wel een beetje tegen in gaan.

AMD heeft niet echt goede prijzen voor consumenten die graag de nieuwste toeters en bellen aan willen zetten als ze geld uitgeven aan een nieuwe GPU (en geef ze eens ongelijlk)
--------------------------------------------------

Heb je het dan over RDNA4 vs Blackwell of over RDNA3 vs ADA?
In beide gevallen heeft AMD volgens mij een prima prijs verhouding gehad. 7900XTX was 20% goedkoper dan een 4080 en had 8GB extra geheugen. Ja DLSS was beter maar je kreeg bij AMD meer native raster performance voor minder geld.
Bij de huidige gen moet je er vooral op letten dat je zowel bij Blackwell als RDNA4 niet te veel betaald doordat winkels de prijzen opdrijven. FSR4 komt nu heel dicht in de buurt van DLSS4 en verslaat DLSS3. RT prestaties zijn iets lager maar goed genoeg. Prijs is overal lager voor gelijke prestaties/gelijk of meer vram.
9070 XT is +- 650 euro een 5070Ti zit rond de 750 en een 5070 op 550 (al heeft die maar 12GB dus zal sneller niet meer mee kunnen er zijn nu al games die 16GB gebruiken).


--------------------------------------------------
Ik denk dat het probleem van AMD deels een merkperceptie-kwestie is (Nvidia levert al zes generaties op rij het sterkste high-end product), deels te maken heeft met de prestaties in nieuwe technieken zoals path tracing en ray tracing, en deels met de slechte reputatie die FSR nog altijd heeft ten opzichte van DLSS.

(Hoewel FSR 4 echt heel goed is en nauwelijks onderdoet voor DLSS, wis je de negatieve indrukken van FSR 1 t/m 3 niet zomaar binnen een jaar uit.)

Met die merkperceptie en de mindere prestaties zodra consumenten moderne grafische toeters en bellen willen inschakelen, red je het niet als een AMD-kaart van honderden euro’s slechts een paar tientjes goedkoper is dan een Nvidia-kaart.
--------------------------------------------------

Dat was bij DLSS1 en 2 niet anders dat was ook echt waardeloos en onbruikbaar. FSR2/3 Quality is nog bruikbaar net als latere versies van DLSS2 op quality, maar inderdaad liever had je native dat probleem is sinds DLSS3 en FSR4 opgelost.

RT werkt op RDNA4 ook prima. En huidige marktprijs is misschien paar tientjes lager maar dat komt door de markt werking. Want @ launch waren die kaarten veel goedkoper dan de nVidia kaarten in dezelfde prestatie klasse mits je een kaart voor rond de MSRP prijzen kocht en die waren er op zich wel. En nu inmiddels ook weer als je niet de meest luxe modellen koopt.


--------------------------------------------------
Zeker niet als je kijkt naar de prijs van een compleet systeem: wat zijn drie tientjes op een pc van 1500 euro? Mensen kiezen dan toch voor de kaart die beter presteert met de nieuwste features.
--------------------------------------------------

Mee eens als dat verschil klein is en je geen geduld hebt om te zoeken naar onderdelen voor een eerlijke niet door winkels opgeblazen prijs snap ik die keuze zeker als je niets weet over de historie van nVidia of je dat gewoon helemaal niets uit maakt dat ze zaken als Geforce Partner Program er door heen proberen te drukken (ja dat speelt helaas nog steeds alleen in een andere vorm en meer op de achtergrond dan toen voorgesteld)

--------------------------------------------------
(Ik moet er overigens niet aan denken dat de markt voor dedicated GPUs straks volledig beheerst wordt door Nvidia. Ik hoop dat Intel en AMD écht gaan prijsvechten of het Nvidia vlaggenschip eens een keer van de troon stoten)
--------------------------------------------------

Die kans zit er langzaam wel steeds meer in. Maar zolang AMD nog wel wat aan consoles en gaming kan verdienen zal het niet meteen helemaal verdwijnen zeker als ze met dat geld hun AI portfolio verder kunnen ontwikkelen. Daar zit momenteel het grote geld.

[Reactie gewijzigd door Astennu op 4 september 2025 20:28]

Inderdaad, AMD moet honderd euro’s goedkoper zijn en niet paar tientjes werk, dan stappen mensen massaal naar AMD anders niet.
Het zal ook niet verkeerd zijn om een vlaggenschip te hebben dat steker is dan dat van Nvidia. Nvidia heeft nu al een generatie of 6 de beste kaart, dat heeft waarschijnlijk zijn reflectie op de merkperceptie van reguliere kopers.
Ik denk oprecht dat AMD simpelweg geen betere kaart kan ontwikkelen dan de 4090/5090. De voorsprong die NVIDIA inmiddels heeft is gewoon te groot.
Denk niet dat dat verstandig is. NVIDIA is marktleider en is een paar keer groter dan AMD. Die kan ook meegaan in de prijsverlaging. Daar gaat je voordeel en je marge. Denk dat innovatie de enige oplossing is. Uiteraard heeft NVIDIA een veel groter budget maar toch is dat de oplossing.
Ik vraag me af in hoeverre ze dat echt targetten. De markt voor losse videokaarten is vele malen kleine dan integrated en business oplossingen. Kosten/baten om daar terrein te winnen zullen wel niet tegen elkaar opwegen.
Met de 9070(XT) hebben ze eindelijk fatsoenlijke ray tracing en upscaling bij AMD maar helaas kwam er niets terecht van de beloofde MSRP prijzen en inmiddels zijn de Nvidia prijzen alweer flink gezakt.
dat heeft meer met AIB's, Distributeurs en winkels te maken die de prijzen opgedreven hebben omdat het toch wel verkocht. nVidia verkocht niet of slecht daarom zijn die prijzen nu omlaag gegaan. Heeft toch met de marktwerking te maken. nVidia verkocht ook liever geen chips en bakt liever meer AI chips voor datacenters dan de kleinere chips die in bv een 5060 of 5070 gaan. Er lijkt nu wel wat meer verkrijgbaar maar maanden terug was er ook relatief weinig te krijgen.
Hmmm, jammer het zou fijn zijn als de markt wat beter verdeeld zou zijn. Gezien de kosten voor een nieuwe gpu vandaag de dag met alle "features". Wacht ik het nog wel even af, merk sinds ik de Asus rog ally Z1 extreme heb. Het eigenlijk wel prima vind om op mindere hardware te gamen. Ja het is wat minder mooi. Maar werkt prima en scheelt een bak aan vermogen.
Je kunt het ook anders zien

5070ti is high end alles daar boven is enthousiast. Net als AMD epic platform.

En dan zit je ineens met een 800 euro kaart gewoon high end top gaming en kun je alles draaien.

Vroeger hadden we ook 4x sli op een 4600ti a 700 perstuk En toen deed ook bijna niemand dat.

Waarom nu dan wel gewoon omdat er een duurdere kaart is? Het is gewoon een mind f*ck. En het is niet mooier want de feature zijn hetzelfde.

[Reactie gewijzigd door Scriptkid op 3 september 2025 22:13]

Waar zijn de mid- en low-end dan gebleven? En waarom zijn high-end videokaarten niet langer toekomstbestendig?

We leven tegenwoordig wél in een wereld waar 1440p-schermen volstrekt normaal zijn, en 4k vrij gebruikelijk is. En een 180Hz 1440p monitor heb je al voor 160 euro! Waarom kunnen de "high-end" kaarten moderne games niet consistent met maximum settings op 4k en >100Hz draaien? Als je met een "high-end" kaart nú al naar medium settings moet gaan terugschakelen, zit je dan over een jaar of 2-3 op low settings te spelen? Hoe is dat nog high-end te noemen?

Ook is een 5080 moeilijk "enthousiast" te noemen: dat is traditioneel een markt waar je flink extra mag betalen voor die laatste paar procent aan performance. Voor SLI betaalde je 2x zo veel, maar je kreeg er slechts zo'n 50% exta voor terug. Pak de prijs-prestatiecurve er bij, en hoewel de 5080 prijzig is, is alleen bij de 5090 zo'n duidelijke enthousiast-belasting te zijn.

Sterker nog, je kan een best goed argument maken dat de non-Ti 5070 een low-end kaart is! Er heeft een enorme krimpflatie plaats gevonden op de GPU-markt, en het feit dat Nvidia praktisch een monopolie heeft maakt dat dan ook een volstrekt logische ontwikkeling.

Daarnaast is de vergelijking met EPYC nogal apart: dat is namelijk een serverplatform, en zelfs Threadripper is vooral gericht op workstations. Het is gemaakt voor professionals, niet voor high-end gamers! Sterker nog, in games heb je al snel vergelijkbare of betere prestaties met een AM5 bordje! EPYC/Threadripper is gemaakt voor throughput, en ze draaien bewust met een lagere per-thread performance om de totale performance van al die tientallen cores te maximaliseren. Games gebruiken maar een relatief klein aantal threads, dus als je op deze platformen gaat gamen heb je én last van de lagere per-thread performance én een hele hoop cores die staan te nietsen. Geen enkele enthousiast gaat daar duizenden euro's extra voor betalen!
LOL


Een 5070 non TI doet 100-130 FPS in games op 1440,
Nvidia GeForce RTX 5070 Review - Tweakers

Dat is ver boven de 60 fps met 40% meer en is dus ver boven wat nodig is en dat op epic settings is dus echt wel boven gemiddled of te wel high end segment.
Heb een amd xt9060 en game daar anders best prima mee op 4k. Was minder dan 400 euro. Niet te druk over maken, over 1-2 jaar koop je wat nu nog 1000+ euro kost.

[Reactie gewijzigd door Barsonax op 4 september 2025 07:05]

Ik heb een maand geleden een Sapphire Nitro+ RX 9070 XT op de kop getikt voor $750 (Ik woon in de VS), samen met een Gigabyte X870E mobo en een Ryzen 7 9800X3D, en daar draaien alle games die ik heb op 1440p zonder problemen. Bijna zelfde prijs als in NL volgens de Pricewatch, zo'n 750 Euro.

Ik was altijd een Intel/NVidia fan, maar de laatste twee/drie generaties Intel CPU's hebben veel problemen gezien, en NVidia kaarten zijn gewoon gigantisch overprijst omdat ze gebruikt worden voor AI en Bitcoin mining. En daar geef ik helemaal niet om, wil gewoon een goede videokaart om spelletjes te spelen voor een redelijke prijs.

Dus: De overstap gedaan naar AMD voor zowel CPU als GPU, en tot zover ben ik zeer tevreden.
Ik speel op 1440p ultrawide met een rtx 3060ti, met een klein beetje tweaken zit ik in de meeste games rond de 100fps stabiel. Daarvoor met een gtx 1070 speelde ik rond de 60fps op hetzelfde scherm. Wel in combinatie met een 5800x3D.

Je hebt het over games op low binnen enkele jaren met de huidige high-end hardware. Mogelijk maar het zal er nog altijd top uitzien dan.
En dan nog is dat best een forse prijs.
Goede prestaties zijn altijd duur geweest. 22 jaar terug betaalde ik ook al 600 euro voor een FX5950 die mijn 500 euro Ti4600 verving.
De eerste losse videokaarten waren betrekkelijk goedkoop. Als ik me goed herinner heb ik 125 gulden, oftewel omgerekend zo’n € 57 betaald voor m’n eerste videokaart, in 1999. Een Mac versie van een 3DFX voodoo III of iets in die geest. Dat was toen al heel wat. € 57 in 1999 zou volgens inflatiecalculator nu € 104 zijn.

Edit: Volgens Google ai kostten de Voodoo III kaarten zo’n € 185 tot 285 wat met inflatie zo’n € 407 tot 610 euro zou zijn. Ik zal m wel in de uitverkoop gekocht hebben :+

[Reactie gewijzigd door laptopleon op 3 september 2025 21:07]

Wat ik me nog kan herinneren is dat de de voodoo2 kaart ergens tussen de 400 en 500 euro koste op de beurs in Eindhoven of den bosch.dit was volgens mij net 2 maanden na de release.. Je kreeg daar wel een game bij. Turok

Later bij Vobis voor 200 gulden er nog een kaart naast gezet in SLI.
Wat ik me nog kan herinneren is dat de de voodoo2 kaart ergens tussen de 400 en 500 euro koste
Euro of HFL?
5700ti is high end alles daar boven is enthousiast. Net als AMD epic platform.
Wat is een 5700ti?
Vroeger hadden we ook 4x sli op een 4600ti a 700 perstuk
Ti 4600?
Ondersteuden geen (4x) SLI AFAIK.
Idd, SLI werd door nvidia pas geintroduceerd met de geforce 6 serie.

Voordien was er ook een "SLI" van 3dfx... maar in de context van deze thread word er duidelijk naar de SLI van nvidia gewezen.
euhh waarom had ik er dan 2 met een SLI bridge in mijn systeem

dit waren de eerste kaarten met SLI support
GeForce 6600 / 6800 waren de eerste kaarten van Nvidia met SLI ondersteuning.

SLI met één AGP kaart is sowieso lastig, dat kon de Voodoo 5 5500 of 6000 dan weer wel. De twee of vier VSA-100 chips praten via 'SLI' met elkaar.

[Reactie gewijzigd door PD2JK op 3 september 2025 22:28]

Ik weet niet hoe je daar bij komt hoor, maar denk dat je of 2 kaarten door elkaar haalt.

Of bedoel je GTX 460? of Misschien de RTX 4600Ti? Maar die waren bij lange na geen 700 Euro per stuk, en bij de RTX 4600Ti zou ik het woord "Vroeger" nog niet gebruiken, aangezien dat de vorige generatie is.

[Reactie gewijzigd door WhiteSnake76 op 3 september 2025 23:52]

en bij de RTX 4600Ti zou ik het woord "Vroeger" nog niet gebruiken, aangezien dat de vorige generatie is.
das de RTX 4060ti....
Wou je een + geven voor je reactie aangezien je gelijk hebt, maar dat gaat niet omdat je op mij reageerde.
Een videokaart van $249,- in 1995 (Diamond Stealth 64) is inflatie correctie nu in 2025 ongeveer €449,- (NVIDIA 4060TI/16GB).
Dat krijg je als het B merk niet sterk onder de prijs gaat zitten. We moeten een jaar of 15 terug om een concurrerend ATI/AMD te vinden.
Ik denk dat de AMD RX9070XT (€700) een prima kaart is die uitstekend concurreert met de nVidia 5070ti (€800). Ook geholpen door de prima AMD drivers.
Het is een hartstikke goede kaart. Maar niet voor €100 verschil met Nvidia. NV wint het bijna op alle vlakken: betere DLSS en meer geïmplementeerd, fors betere RT en PT prestaties, CUDA voor als je meer wil doen dan gamen en een stuk efficiëntere kaart die minder vermogen vraagt voor dezelfde prestaties.
maar waarom werkt het niet dan.
Omdat Nvidia al zo lang overheersend marktleider is dat men inmiddels nog jaren op die 'premium reputatie' kan teren, ook als ze niet meer automatisch voor iedereen de beste keuze zijn.

Ik weet dat 'auto vergelijkingen' het vaak niet heel lekker doen hier, maar ik doe het toch:
Als je 'iets ouder bent' (zoals ik) weet je; Volkswagen was vroeger HET merk waar 'zo ongeveer half Nederland' in rond reed, ook toen er al een aantal jaren niet echt goede redenen meer waren (behalve de 'goede naam') om een Volkswagen te verkiezen boven de concurrentie. Over een periode van vele jaren daarna zag men pas andere merken stukjes markt van Volkswagen terugwinnen in Nederland.
En ja, die vergelijking is verre van perfect... Maar het toont wel; mensen zijn met sommige dingen 'bijna onwrikbaar merkvast'.
Nou, het probleem is denk ik ook dat Nvidia gewoon ook echt bepaalde voordelen heeft met bijvoorbeeld DLSS en RT. Ja, sommige mensen zullen roepen dat dat toch niks waard is, maar hoewel ik zelf blij ben met mijn 7900XT mis ik sommige Nvidia zaken toch wel hoor.

Dus ja, als je dan 700 voor AMD betaalt of 800 voor Nvidia, voor ongeveer dezelfde raster performance, maar Nvidia biedt wel die extra voordelen... Dan zie ik op dit moment eigenlijk niet dat enorme voordeel van kiezen voor AMD. Veel mensen die 700 euro uit willen geven aan een videokaart zullen ook niet echt hard schrikken van 800. Is dat echt veel geld voor je dan ga je waarschijnlijk juist nog een stuk lager kijken (hoewel het aanbod van goedkopere kaarten helaas vrij bedroevend is). Een kleine 15% prijsverschil is gewoon niet zo imposant dat het een kleinere featureset meteen volledig doet vergeten.
Klopt, Nvidia is in die dingen zeker beter en/of de betere keus, maar dat is niet het hele verhaal...

AMD heeft nu gemiddeld de betere drivers en daarnaast geen flinke 'driver overhead', AMD heeft nu de betere multi monitor support, AMD heeft gemiddeld nu betere stabiliteit (en daarnaast slaan er ook geen vlammen uit de aansluiting).
Dat zijn zaken die ontegenzeggelijk ook belangrijk zijn, maar vaak net iets te makkelijk nog 'onder het tapijt geveegd worden'.
Nvidia geeft, door al het AI geld, nu duidelijk zo weinig aandacht aan hun consumenten-tak dat daar de kwaliteit achteruit is gegaan. Oftewel, ze zijn al zo lang zo succesvol dat ze lui en slordig zijn geworden, precies zoals bij Volkswagen.
en daarnaast slaan er ook geen vlammen uit de aansluiting).

Laatst was er nog ergens een nieuwsbericht te vinden dat er een 9070XT was met die nvidia aansluiting.

En die was ook door gebrand.

https://www.techpowerup.com/340193/melting-12vhpwr-connector-claims-its-first-amd-rx-9070-xt-victim
en daarnaast slaan er ook geen vlammen uit de aansluiting).
https://videocardz.com/ne...ts-melted-12v-2x6-adapter
ook op videocards geropt, k vind nog steeds jammer dat dit door tweakers niet opgepakt is, en mensen dus maar blijven roepen dat t niet bij amd gebeurd....
T zit in de plug, PCI-SEG zijn schuld (nvidia is alleen schuldig aan t gebruiken van :P )

[Reactie gewijzigd door JWL92 op 4 september 2025 01:17]

De mogelijkheid tot scheiding en controle bij gebruik van de connector is er gewoon, echter heeft Nvidia gekozen om dat beide niet toe te passen/aan board partners te verplichten, in combinatie met het hoge verbruik van vooral de 4090/5090 (en in mindere mate de 4080/5080), zijn dat DE redenen waarom het letterlijk wel mis moest gaan.

Dit is ontwerp-technisch een absolute aanfluiting, van Nvidia (en dus niemand anders).
En dat verklaard waarom dit ook bij een AMD GPU gebeurd?
Wat heeft AMD precies te maken met de zelfstandige keuze van de boardpartner in kwestie (aangezien AMD die connector niet gebruikt en al zeker niet verplicht aan boardpartners)? En om hoeveel kaarten gaat het daar? Is 'een' letterlijk 1? Dat is dan natuurlijk lang niet genoeg om 'een valide argument' te zijn...

Hoe dan ook, er valt niets af te dingen aan het inhoudelijke v.w.b. de slechte keuzes van Nvidia en de gevolgen daarvan. Afleiden met praatjes als "PCI-SEG zijn schuld" is nergens op gebaseerd, complete BS dus.

Je verkondigd enkel 'fanboy onzin praat' in daarvoor typische oneliners, daarom sluit ik hierbij de 'discussie' met jou.
Je verkondigd enkel 'fanboy onzin praat' in daarvoor typische oneliners, daarom sluit ik hierbij de 'discussie' met jou.
oef... kijk ff in de spiegel aub
Ik koop AMD voor de extra voordelen van de oneindig veel betere linux drivers.
Bij Nvidia krijg je veel meer software en de 5070TI is 4.5% sneller.

DLSS. GPU training met CUDA. De 9070XT heeft niet eens meer VRAM.

De prijs-kwaliteit van AMD is misschien een heel klein beetje beter in gaming, maar bij lange na niet genoeg om hun te verantwoorden dat ze veel minder uitegeven aan marketing en geen CUDA ondersteunen.

AMD concurreert niet. En mensen moeten ophouden AMD videokaarten te kopen totdat AMD daadwerkelijk concureert. We zagen het heel even bij de 9070 tegen 5070 en toen gooide Nvidia hun prijs wel snel omlaag.
Als dev heeft de AMD kaart dan weer de voorkeur voor mij, maar dat is puur omdat ik de profilers en debugger fijner vind werken. Daarnaast is de open ISA ook ideaal voor het achterhalen van shader compilation bugs.
Da's wat overdreven. Voor genoeg situaties is AMD een prima keuze. Da's nu vandaag het geval en 5 jaar terug ook. Ze hebben niet de snelste kaart, maar kunnen prima mee doen qua FPS per Euro.

Mijn huidige 7900 XTX was toen ik deze kocht een betere keus dan de RTX 4090 voor mij. In een game als Call of Duty MW2 was ie flink sneller dan de RTX 4080, tot vrijwel net zo snel als de RTX 4090, maar dan wel een flink stuk goedkoper. Nog steeds blij met deze kaart vandaag de dag.
COD is altijd sneller op een AMD kaart, dat wil echter niet zeggen dat je concurreert met een 4090, enkel gebaseerd op deze metrics. Er zijn altijd AMD en Nvidia georiënteerde games
Tuurlijk wel, als iemand alleen maar COD speelt dan is dat toch het belangrijkste criterium?

De nvidia windows software kan wel fantastisch zijn maar ik als Linux gebruiker heb daar niets aan en gezien dat de AMD drivers op linux beter zijn dan windows dat ze daar in sommige games 1,5x performen ten opzichte van windows zou ik wel heel gek zijn om voor nvidia te gaan.
Ik verwacht niet dat iemand een GPU van €800 koopt om enkel en alleen cod te doen. Het is een hele beperkte use case en geen argument of een kaart beter is. Alleen voor deze specifieke persoon dan, maar dat is niet interessant voor het winkelende publiek. Dus je comment slaat kant noch wal.
Dan moet je je verwachting misschien bijstellen, ik koop mijn GPU specifiek op basis van performance in COD.

Ik speel ook andere spellen want die draaien gewoon prima uiteraard, maar de FPS in COD is wat telde toen ik een 6900XT kocht en de 7900XTX ook.

Nu net mijn 5950X ingeruild voor een 9800X3D en de enige vergelijking/benchmark die ik draai is die in COD zit, want dat vind ik het belangrijkste. Dat de rest er ook op vooruit gaat is leuk maar daar koop ik het niet voor.

[Reactie gewijzigd door watercoolertje op 4 september 2025 09:43]

Dat is prima, dat moet je zelf weten, maar dat was niet de discussie.
op linux beter zijn dan windows
En gek zijn om windows te draaien :+
Nou ik ben anders ZEER tevreden met mijn 9070 XT en zoals AMD eigen behaalt het nog heel veel verbeteringen over tijd met driver updates. Waar ze eerst nog iets achter de 5070TI lagen liggen ze met dezelfde spellen ondertussen iets voor en dat terwijl ze gewoon voor 150 euro minder te krijgen zijn.
Of je betaald 150 euro meer en je krijgt veel meer features wat ook nog eens beter werkt dan een AMD varaint. Niet alles draait om fps.

Dlss quality op 4k is gewoon weg beter dan de blurry mess van een FSR, en soms nog beter dan native.
Framegen met nvidia reflex wat de latency naar beneden drukt als je de gewenste fps niet haalt.
Youtube 1080p upscale naar 4k.

Een 5070ti kan leuke dingen doen op een 4k120hz oled paneel. Het zal je echt verbazen, en het voelt ook nog eens perfect aan.

[Reactie gewijzigd door Jeroentjeeuh op 3 september 2025 22:25]

Je slaat de spijker op zijn kop. De nvidia software is gewoon beter en door het geringe prijsverschil is de 5070ti een betere keus. Als AMD de 9070XT nou een stuk goedkoper had gemaakt, dan zou het een stuk interessanter zijn
FSR4 is (van wat ik begrijp) echt een prima upscaler en vergelijkbaar met DLSS 3, die ook geen blurry mess is.

Waar het probleem begint is alleen dat de ondersteuning van DLSS veeeeeeel beter is dan van FSR4. En waarom zou je ook als primair een PC dev moeite doen voor die 6%? Als je ook voor consoles het doet is het een ander verhaal, maar goed, die zitten ook niet op FSR4 hardware.
Laat we het maar nog niet eens hebben over die nvidia drivers die je eerst moet debloaten voordat je er iets aan hebt.
B merk? Die gedachtegang is waarom we in de huidige situatie zitten. Je kan alleen jezelf de schuld geven hier.

15 jaar geleden deed ATI/AMD goede producten in de markt zetten en ook slechte maar dat deed NVidia ook.
Dat krijg je wanneer fanboys van team groen de concurrent niet op waarde kunnen schatten en koste wat kost de prijs opdrijven, of laten drijven, omdat men vrijwillig een monopolie in de hand werkt.

De prijs is vaak zat goed genoeg geweest om concurrerend te zijn, de drivers zijn al jaren minstens op hetzelfde niveau, het is gewoon nooit genoeg.
Hoeveel procent gaat er daad werkelijk naar gewone consumenten ipv crypto farms?

En hoeveel namaak is er in roulatie?
crypto farms? gpu mining is volledig voorbij hoor, nu gebruikt men ASICs hiervoor.

Nog nooit van namaak gpu's gehoord, enkel chinezen die hun kaarten modden met een hoop extra geheugen :+
Dan hoop ik voor jou dat je geen "namaak" videokaart tegen gaat komen, want die zijn er genoeg, Tweekers heeft er ook meerdere keren aandacht aan besteed.

Niet echt grappig als je denkt bvb een RTX 5090 te hebben gekocht en het in werkelijkheid een RTX 4070 blijkt te zijn.
Maar dat is geen namaak.... daar is gewoon een oudere kaart geleverd / heeft iemand die swaps met BESTAANDE PCB's gedaan...
GPU is vaak een oudere generatie of een low end van de huidige generatie, net als meestal ook de PCB, maar je ziet dat ze vaak wel de koelers/afdekkingen namaken, en natuurlijk de labels en meestal ook de Firmware zodat Windows en simpele software de GPU registreert als iets anders dan het werkelijk is.
Had wel verwacht dat Nvidia aan de top stond met de LLM datacenters als klanten, maar dat het 94% was had ik nier verwacht. Beetje teveel macht als je het mij vraagt.
Dit gaat om GPU leveringen aan boardpartners (Gigabyte etc). De servermarkt werkt anders; daar is NVidia doorgaans zelf de boardleverancier.
Ik heb echt wel een zwak voor AMD en zweer bij de CPUs, maar vanwege DLSS4, framegen, cuda, etc ga ik toch voor Nvidia als GPU keuze.

Ik denk dat het ook helaas het gevolg is van de AI dominantie van Nvidia: het levert ze een absurd budget voor ontwikkeling. Als je ook AI toepassingen zelf wil hosten is wmb Nvidia de logischere keuze.
Framegen en Upscaling heeft AMD ook.
True.. uiteraard is het een kwestie van persoonlijke smaak, maar op dit moment vind ik DLSS bijvoorbeeld dat toch mooier doen dan FSR.

Ik werk ook met self hosted AI oplossingen (LLMs, TTS e.d.) en daarbij is het toch wel handig hoe breed de support voor Nvidia is. Granted, als je 24GB vram wil is AMD zeker goedkoper dan een 5090, maar als ik mij niet vergis komt er straks een 5080 super met 24GB.
Als je enkel Nederland bekijkt is dat in ieder geval niet het geval!
Hoe liggen de verhouding in Nederland dan ?
Puur interesse.
Ze hebben miljarden gestoken in het opbouwen van het CUDA-ecosysteem, en daar plukken ze nu duidelijk de vruchten van.
Het is ook een stukje naamsbekendheid en merk trouw .. als een fabrikant 90% van de markt hewft, en jij wilt dat veranderen, kan je niet aan komen met een product wat bijna net zo goed is tegen ongeveer dezelfde prijs.

Dat is het zelfde als een Frisdranken fabrikant die Cola verkoopt tegen Coca Cola prijzen die bijna net zo lekker is.. Success met dat bussiness model. ;-)

Je ben of 2 x zo goedkoop of 2 x zo lekker (of goed) liefst beide voordat mensen van hun vertrouwde merk af gaan stappen
Pepsi was dan ook lang goedkoper inderdaad. :)


Om te kunnen reageren moet je ingelogd zijn