Door Reinoud Dik

Redacteur

Nvidia GeForce RTX 4090 Round-up

Vijf peperdure grafische kanonnen

19-10-2022 • 14:20

267

Multipage-opmaak

Vijf RTX 4090-videokaarten getest

Met bijdragen van Willem de Moor en Tomas Hochstenbach.
  • MSI RTX 4090 Suprim X
  • Inno3D RTX 4090 iChill
  • Gigabyte RTX 4090 Gaming OC
  • ASUS RTX 4090 TUF OC
  • Nvidia Founders Edition

Samengevat

De MSI GeForce RTX 4090 Suprim X heeft de beste koeloplossing van de door ons geteste RTX 4090-videokaarten. De kaart is erg stil, en kan bij gelijke geluidsproductie beter koelen dan zijn concurrenten. Ook is de Suprim X hoogwaardig afgewerkt, maar tegenover de ultieme prestaties staat wel een flinke prijs.

Getest

MSI GeForce RTX 4090 SUPRIM X 24G

Prijs bij publicatie: € 2.899,-

Vanaf € 3.189,99

Vergelijk prijzen

Samengevat

De Inno3D GeForce RTX 4090 iChill X3 levert nagenoeg dezelfde prestaties als de snelste en stilste RTX 4090's, voor een iets minder astronomisch bedrag. Onder belasting is de kaart niet snel te horen en zelfs nog iets stiller dan de Founders Edition. Die kaart van Nvidia zelf is op het moment van schrijven niet op voorraad, wat de iChill X3 een voor de hand liggend alternatief maakt, mits hij zelf voor een redelijke prijs is te krijgen, uiteraard.

Getest

INNO3D GeForce RTX 4090 iCHILL X3

Prijs bij publicatie: € 2.379,-

Vanaf € 3.367,16

Vergelijk prijzen

Samengevat

De Gigabyte GeForce RTX 4090 Gaming OC valt niet zo op tussen de andere geteste RTX 4090-videokaarten. De kaart heeft een minder lage geluidsproductie dan de rest en zit qua prestaties ook net niet bij de top. Wel lijkt Gigabyte zijn verkrijgbaarheid iets beter op orde te hebben dan de concurrentie, wat in de praktijk een voordeel kan zijn.

Getest

Gigabyte GeForce RTX 4090 GAMING OC 24G

Prijs bij publicatie: € 2.449,-

Vanaf € 2.612,09

Vergelijk prijzen

Samengevat

De ASUS TUF Gaming RTX 4090 OC is een beetje een vreemde eend in de bijt. Het is niet ASUS' meest luxe model, maar in vergelijking met de concurrentie is de prijs desondanks stevig. Wat de koeling en vooral geluidsproductie betreft, komt hij vrij goed mee met de MSI Suprim X, maar de gameprestaties zijn minder goed. De ASUS is de grootste en zwaarste kaart uit de test, dus dubbelcheck de compatibiliteit met je kast voor je hem aanschaft.

Getest

ASUS TUF Gaming GeForce RTX 4090 OC Edition 24GB GDDR6X

Prijs bij publicatie: € 2.649,-

Vanaf € 3.389,99

Vergelijk prijzen

Samengevat

De Nvidia GeForce RTX 4090 Founders Edition is op papier wellicht de meeste interessante RTX 4090 omdat hij een minder hoge prijs heeft dan de custom modellen. Ondanks zijn twee ventilators doet de koeloplossing niet onder voor die van enkele andere RTX 4090's. Vooral de prijs van onder de 2000 zou de FE echter interessant kunnen maken, al kun je hem uitsluitend bij buitenlandse winkels aanschaffen - en daar is hij vanzelfsprekend stijf uitverkocht.

Getest

Nvidia GeForce RTX 4090 Founders Edition

Prijs bij publicatie: € 1.959,-

Bekijk product

De GeForce RTX 4090 is Nvidia’s nieuwste vlaggenschip en markeert het begin van een nieuwe generatie videokaarten. Deze high-end videokaart moet volgens de fabrikant een flinke stap in maximale prestaties zetten, veel efficiënter werken en dankzij slimme nieuwe technieken hogere framerates op hogere resoluties mogelijk maken. De basis voor dit nieuwe topmodel is de AD102-chip, de grootste gpu binnen de Ada Lovelace-architectuur.

Als we kijken naar de gpu die het hart van de RTX 4090 vormt, valt onmiddellijk op dat we met een topmodel van de volgende generatie te maken hebben. Met TSMC’s 4nm-productieprocedé kan Nvidia beduidend meer transistors op dezelfde oppervlakte kwijt dan het met Samsungs 8nm bij de RTX 30-serie kon. Dat betekent dat we een flinke toename in het aantal transistors zien, terwijl de totale oppervlakte van de chip juist iets kleiner is dan bij de GA102-gpu die voor de topmodellen van de vorige generatie werd gebruikt. De sprong gaat van 28 miljard naar 76,3 miljard transistors, terwijl de diesize van 628 naar 608mm² is teruggebracht. Dat de prestaties er flink op vooruit zijn gegaan, bespraken we al in onze gpu-review van de RTX 4090. In deze round-up kijken hoe vier verschillende custom RTX 4090-kaarten zich tot elkaar en tot de Founders Edition verhouden.

Videokaart RTX 4090
Gpu AD102
Architectuur Ada Lovelace
Procedé 4nm
Diesize 608,5mm²
Transistors 76,3 miljard
CUDA-cores 16.384
Tensor-cores 512
RT-cores 128
Texture-units 512
Rops 176
Baseclock 2230MHz
Boostclock 2520MHz
L2-cache 72MB
Vram 24GB GDDR6x
Geheugensnelheid 21GBit/s
Geheugenbus 384bit
Bandbreedte 1008GB/s
Tdp 450W
Adviesprijs FE
(bij introductie)
1959 euro
Uitgebracht 12 oktober 2022

De geteste modellen

Op deze pagina bekijken we de meest opvallende features en kenmerken van elke RTX 4090 die we voor deze round-up hebben getest. Hieronder bespreken we per model deze zaken en op de volgende pagina is een overzichtstabel te vinden.

ASUS TUF OC

We bespreken de kaarten op alfabetische volgorde, daarom is de ASUS TUF Gaming GeForce RTX 4090 OC Edition de eerste kaart die we behandelen. Met een lengte van net geen 35 centimeter is dit meteen de langste RTX 4090 in deze vergelijking. Ook in de breedte is de TUF OC met 15cm aan de flinke kant. De kaart wordt gepresenteerd als ‘3,65-slot’ maar neemt dus effectief vier sloten in beslag, waardoor de 2-slots i/o-bracket nog kleiner oogt. Na dergelijke afmetingen kan het gewicht van 2,3kg van de TUF OC eigenlijk ook niet meer verbazen. Wat aan de i/o-kant wel opvalt, is dat de kaart van ASUS als enige een extra HDMI 2.1-aansluiting levert, terwijl de overige deelnemers allemaal op de standaard enkele HDMI-connector zitten, met daarnaast DisplayPort in drievoud.

Asus RTX 4090 TUF OC

ASUS TUF Gaming GeForce RTX 4090 OC

De koeloplossing van de TUF RTX 4090 OC bestaat uit een grote vapor chamber die wordt gecombineerd met in totaal acht heatpipes, waarvan vijf stuks 8mm dik zijn en drie stuks 6mm dik. De drie 104mm-grote Axial-tech-ventilators draaien op een dubbele kogellager en hebben een semi-passieve werking. De luchtstroom die de achterste ventilator veroorzaakt, wordt dankzij het korte pcb en de gedeeltelijk open backplate niet tegengehouden, waardoor de kaart zijn vermogen sneller kwijt kan. De backplate zorgt samen met de shroud niet alleen voor een betere warmteafvoer, maar ook voor een stevigere videokaart die minder makkelijk buigt.

Asus RTX 4090 TUF OCAsus RTX 4090 TUF OC

Gigabyte Gaming OC

De Gigabyte GeForce RTX 4090 Gaming OC is een kaart die nog een tikkeltje langer is dan de Founders Edition. Met een lengte van 34 centimeter is de Gaming OC geen model dat je gegarandeerd in de gemiddelde behuizing kwijt kunt. In de breedte meet de kaart vijftien centimeter, wat nog ruim een centimeter meer is dan de breedte van het model van Nvidia. De grote koeler van deze RTX 4090 is eveneens opgebouwd rondom een vapor chamber, waar Gigabyte acht heatpipes aan heeft verbonden. De vapor chamber zelf maakt direct contact met de gpu; de geheugenchips worden gekoeld met een soort baseplate die daar omheen is geplaatst.

Gigabyte GeForce RTX 4090 Gaming OC
Gigabyte GeForce RTX 4090 Gaming OC

Ook Gigabyte kiest ervoor om een flinke uitsparing te maken in de metalen backplate, net zoals de fabrikant bij de RTX 3090 Ti Gaming OC deed. Gigabyte noemt dit screen cooling. Wel is het uiterlijk aangepast, met minder grijstinten rondom de ventilators, die bovendien van verlichting zijn voorzien. Daarnaast heeft de Gigabyte GeForce RTX 4090 Gaming OC ook nog power indicators; kleine leds bij de 16-pinsstroomaansluiting die eventuele problemen of afwijkingen met de energietoevoer vanuit de voeding aangeeft.

Gigabyte GeForce RTX 4090 Gaming OCGigabyte GeForce RTX 4090 Gaming OCGigabyte GeForce RTX 4090 Gaming OCGigabyte GeForce RTX 4090 Gaming OC

Inno3D iChill X3

Ook de Inno3D GeForce RTX 4090 iChill X3 is voorzien van een vapor chamber-koeler. Inno3D koppelt hier negen heatpipes aan, die bij elkaar opgeteld bijna drie meter lang zijn. Dit gedeelte van de koeler bedekt zowel de gpu als de eromheen geplaatste geheugenchips. De drie ventilators die bovenop het koelblok zijn geplaatst, meten per stuk 94mm en zijn daarmee de kleinste fans van alle RTX 4090-kaarten in deze round-up. Zoals we vaker zien, draait de middelste ventilator in tegengestelde richting, om de geluidsproductie laag te houden zonder in te leveren op airflow.

Inno3D GeForce RTX 4090 iCHILL X3
Inno3D GeForce RTX 4090 iChill X3

De kaart is vrijwel drie slots dik, maar de behuizing is net iets te vol geworden om strikt binnen die drie slots te vallen. Gebruik je het PCIe-slot eronder, dan zal dat met de meeste uitbreidingskaarten niet samen met de RTX 4090 iChill X3 passen. Omdat de kaart flinke uitsparingen in zijn eigen backplate heeft, kan de achterste ventilator met minder obstructie warme lucht afvoeren.

Inno3D GeForce RTX 4090 iCHILL X3Inno3D GeForce RTX 4090 iCHILL X3Inno3D GeForce RTX 4090 iCHILL X3

MSI Suprim X

Met de MSI GeForce RTX 4090 Suprim X zegt MSI zelf vooral creators en gamers te willen aanspreken door een erg luxe en prestatiegerichte videokaart op de markt te brengen. Alle onderdelen van de Suprim zijn tot in detail uitgewerkt, en het is duidelijk dat de fabrikant hierbij niet bespaart op materiaalkosten. Dit is te zien aan de shroud, de backplate en het frame dat langs het koelblok loopt: ze zijn allemaal van metaal gemaakt. De luxe uitstraling wil de fabrikant verder benadrukken door het abstracte logo van een diamant, dat op meerdere plekken op de kaart is geplaatst, waaronder op de backplate.

MSI GeForce RTX 4090 Suprim X
MSI GeForce RTX 4090 Suprim X

Onder al dit uiterlijk vertoon heeft MSI een koeloplossing geplaatst die in ieder geval op papier indruk maakt. Direct in contact met zowel de gpu als het videogeheugen is een grote vapor chamber geplaatst. Daarmee verbonden zijn maar liefst tien heatpipes, die op dit punt vierkant zijn gevormd om zo goed mogelijk contact te maken met een zo groot mogelijk oppervlak. De heatpipes lopen vervolgens naar de rest van het koelblok, waarop herontworpen golfvormige koelvinnen met V-vormige uitsparingen zijn gebruikt om de airflow optimaal te houden en de geluidsproductie tot een minimaal niveau te beperken.

De Suprim X telt drie Torx 5.0-ventilators, waarvan MSI zegt dat ze ook flink onder handen zijn genomen om stiller en efficiënter te werken dan de voorgaande generatie. Op het eerste gezicht valt daarbij vooral op dat steeds drie ventilatorbladen aan het uiteinde met elkaar zijn verbonden. Omdat elke fan in totaal negen bladen heeft, zijn er dus drie groepjes van drie bladen verbonden.

MSI GeForce RTX 4090 Suprim XMSI GeForce RTX 4090 Suprim XMSI GeForce RTX 4090 Suprim X

Nvidia Founders Edition

De Nvidia GeForce RTX 4090 Founders Edition van Nvidia zelf is de kaart die we voor onze gpu-review van de RTX 4090 al hebben gebruikt. Dit is een model dat je als consument uiteraard ook gewoon kunt bestellen. Dat gaat echter alleen via de webshop van Nvidia zelf; vooralsnog zul je dit model dus bij geen andere winkel kunnen kopen. Bij Nvidia's webshop is de kaart op het moment van schrijven echter niet op voorraad.

Nvidia GeForce RTX 4090 Founders Edition
Nvidia GeForce RTX 4090 Founders Edition

De RTX 4090 Founders Edition valt allereerst op omdat hij erg groot is voor een referentiekaart, zeker ten opzichte van de Founders Editions in de RTX 30-serie. De kaart is weliswaar even lang als de RTX 3090 en 3090 Ti Founders Edition, maar wel flink dikker. Het geheel neemt desondanks ‘slechts’ drie slots in beslag. In tegenstelling tot alle geteste custom modellen in deze round-up zitten er op de Founders Edition geen drie maar twee ventilators, die bovendien niet naast elkaar maar tegenover elkaar zijn geplaatst. Dit ontwerp maakt gebruik van het zogenoemde axial flowthrough design waarbij dankzij een erg kort pcb de luchtstroom helemaal door de kaart loopt, zonder obstructie.

Hoewel de Founders Edition van de RTX 4090 veel op die van de RTX 3090 lijkt, is het onderliggende koelblok volgens Nvidia flink aangepast om de airflow te bevorderen en de gehele koeloplossing effectiever te maken. Het koelblok heeft nog steeds een vapor chamber als basis, maar daaruit lopen nu niet vier maar zes heatpipes om de temperatuur over het koelblok beter te kunnen verdelen. Bij een gelijke geluidsdruk zouden de ventilators op de RTX 4090 FE vijftien procent meer airflow moeten leveren dan op de RTX 3090 FE. De ventilators zijn daarvoor ook iets groter gemaakt, van 110mm op de vorige generatie naar 116mm op de RTX 4090 FE. Ook is Nvidia overgestapt van dubbele kogellagers naar fluid dynamic bearing, om de geluidsdruk van de fans te beperken.

Nvidia GeForce RTX 4090 Founders EditionNvidia GeForce RTX 4090 Founders EditionNvidia GeForce RTX 4090 Founders EditionNvidia GeForce RTX 4090 Founders Edition

Overzicht geteste modellen

In onderstaande tabel staat een samengevat overzicht van de features en eigenschappen van de vijf hiervoor besproken RTX 4090-videokaarten.

GeForce RTX 4090 ASUS TUF OC Gigabyte Gaming OC Inno3D iChill MSI Suprim X Nvidia Founders Edition
Prijs bij publicatie € 2649 € 2449 € 2379 € 2899 € 1959
(maar uitverkocht)
Klokfrequentie 2235MHz 2235MHz 2235MHz 2235MHZ 2235MHz
Boostclock 2595MHz 2535MHz 2580MHz 2625MHz 2520MHz
Aantal ventilatoren 3 x 104mm 3 x 110mm 3 x 94mm 3 x 100mm 2 x 116mm
Backplate Ja Ja Ja Ja Ja
Bios-switch Ja Ja Nee Ja Nee
Verlichting Ja Ja Ja Ja Ja
Beeldaansluitingen 2x HDMI 2.1a
3x DisplayPort 1.4a
1x HDMI 2.1a
3x DisplayPort 1.4a
1x HDMI 2.1a
3x DisplayPort 1.4a
1x HDMI 2.1a
3x DisplayPort 1.4a
1x HDMI 2.1a
3x DisplayPort 1.4a
Lengte 34,8cm 34cm 33,4cm 33,6cm 30,4cm
Breedte 15cm 15cm 14,8cm 14,2cm 13,7cm
Dikte 4-slot 4-slot 4-slot 4-slot 3-slot
Stroomtoevoer 1x 16-pin PCIe Gen5 1x 16-pin PCIe Gen5 1x 16-pin PCIe Gen5 1x 16-pin PCIe Gen5 1x 16-pin PCIe Gen5
Gewicht (gram) 2300g 2005g 2110g 2238g 2181g

Testverantwoording

Voor de tests van de videokaarten gebruiken we ons vaste testsysteem, gebaseerd op een Ryzen 9 5950X, ASUS ROG Crosshair VIII Hero-moederbord, 32GB G.Skill Trident Z Royal-geheugen (2 x 16GB in dualchannel) op een snelheid van 3600MT/s, en twee ssd's: een Samsung 970 EVO 250GB als bootdrive en een Kioxia Exceria+ 2TB waarop alle games zijn geïnstalleerd. Verder bestaat het systeem uit een bequiet Dark Power Pro 12 1500W-voeding en een uitgebreide waterkoelset van Alphacool. Alle RTX 4090-videokaarten zijn voor deze round-up getest op PCIe 4.0.

Gpu-testsysteem
Processor AMD Ryzen 9 5950X @ 4,65GHz all-core
Moederbord ASUS ROG Crosshair VIII Hero
(bios 4006, Agesa V2 PI 1.2.0.6b, resizeable BAR-support geactiveerd)
Werkgeheugen G.Skill Trident Z Royal 32GB (2x 16GB) DDR4-3600 CL16-16-16-36
Ssd Samsung 970 EVO 250GB (OS) + Kioxia Exceria 2TB (games)
Voeding Bequiet Dark Power Pro 12 1500W
Koeling Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, bequiet Pure Wings 2-ventilatoren
Besturingssysteem Windows 11 21H2 (ver 22000.613)

Methodiek

In deze review richten we ons op de onderlinge verschillen tussen de uitvoeringen van de diverse fabrikanten. In grote lijnen zullen de gamingprestaties van alle kaarten met dezelfde gpu vergelijkbaar zijn. Om kleine verschillen te kunnen ontdekken die voortkomen uit bijvoorbeeld firmware, keuzes bij het pcb-ontwerp en natuurlijk de kwaliteit van de koeler, testen we minder games dan in een complete gpu-review, maar testen we per game een stuk uitgebreider.

We hebben drie games uitgezocht waarin het goed mogelijk is om een langere test van tien minuten uit te voeren. Tijdens elke test loggen we vrijwel alles wat er te loggen valt: prestaties met PresentMon, maar onder andere ook temperatuur, klokfrequentie en ventilatorsnelheid. Wie bekend is met het duurtestconcept, zou dit als individuele duurtests kunnen zien. Tien minuten is daarvoor ruimschoots voldoende: bij het merendeel van de kaarten worden de stabiele kloksnelheid en temperatuur al binnen enkele minuten bereikt. Alle games testen we op 4k-resolutie met Ultra-settings, om zo te zorgen dat de gpu zoveel mogelijk de bottleneck vormt.

Geluidsproductie en stroomverbruik

Naast de prestaties meten we ook de geluidsproductie en het stroomverbruik van de videokaarten. De meting van de geluidsproductie doen we in onze nieuwe geluiddichte ruimte op een afstand van 50cm, met de decibelmeter schuin op de videokaart gericht. De drempelwaarde voor onze metingen is 14dB(A); dat mag je opvatten als volledig stil. Tijdens de idle-test wordt de videokaart vanzelfsprekend niet belast. De load-test is gebaseerd op een verlengde gametest van tien minuten, zodat de videokaart tijd heeft om op te warmen en zijn maximale geluidsproductie te bereiken.

De stroommeting voeren we uit met een zogenoemde riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting vertrouwen we op verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met een dergelijke bricklet uitgerust. Om de stroom van de pegkabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.

Stroomverbruik meting videokaartenTinkerforge stroommeter

Prestaties

In deze round-up vergelijken we vijf RTX 4090-videokaarten die door aib-partners op de markt zijn gebracht. Voordat we ingaan op de onderlinge prestatieverhoudingen, geven we hieronder een overzicht van de prestaties van de GeForce RTX 4090 ten opzichte van andere gpu's. Deze Prestatiescore, gebaseerd op meerdere benchmarks, maakt ook deel uit van onze eerder gepubliceerde review van de GeForce RTX 4090. Deze globale prestatiescore laat zien dat de GeForce RTX 4090 in 4k-resolutie gemiddeld 47% sneller is dan de 3090 Ti, het voorgaande topmodel van Nvidia, en tot 65% sneller is dan de Radeon RX 6950XT, het huidige topmodel van AMD.

  • 4K Ultra
  • 4K Medium
  • 1440p Ultra
  • 1440p Medium
  • 1080p Ultra
  • 1080p Medium
Tweakers GPU Prestatiescore 2022-3 - 4k ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 4090 FE
129,3
GeForce RTX 3090 Ti
87,8
AMD Radeon RX 6950 XT
78,4
GeForce RTX 3090
78,4
Nvidia GeForce RTX 3080 Ti FE
76,5
Nvidia GeForce RTX 3080 FE
69,6
Nvidia GeForce RTX 2080 Ti FE
54,4
Tweakers GPU Prestatiescore 2022-3 - 4k medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 4090 FE
182,3
AMD Radeon RX 6950 XT
134,8
GeForce RTX 3090 Ti
134,1
GeForce RTX 3090
131,0
Nvidia GeForce RTX 3080 Ti FE
120,1
Nvidia GeForce RTX 3080 FE
105,0
Nvidia GeForce RTX 2080 Ti FE
86,4
Nvidia GeForce GTX 1080 Ti FE
60,6
Tweakers GPU Prestatiescore 2022-3 - 1440p ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 4090 FE
174,1
GeForce RTX 3090 Ti
127,5
AMD Radeon RX 6950 XT
125,0
Nvidia GeForce RTX 3080 Ti FE
116,4
GeForce RTX 3090
115,7
Nvidia GeForce RTX 3080 FE
107,3
Nvidia GeForce RTX 2080 Ti FE
83,7
Nvidia GeForce GTX 1080 Ti FE
55,9
Tweakers GPU Prestatiescore 2022-3 - 1440p medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 4090 FE
222,7
AMD Radeon RX 6950 XT
208,9
GeForce RTX 3090 Ti
195,4
Nvidia GeForce RTX 3080 Ti FE
185,8
GeForce RTX 3090
184,7
Nvidia GeForce RTX 3080 FE
166,6
Nvidia GeForce RTX 2080 Ti FE
143,0
Nvidia GeForce GTX 1080 Ti FE
97,7
Tweakers GPU Prestatiescore 2022-3 - 1080p ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce RTX 4090 FE
187,8
AMD Radeon RX 6950 XT
160,1
GeForce RTX 3090 Ti
154,3
Nvidia GeForce RTX 3080 Ti FE
144,1
GeForce RTX 3090
142,1
Nvidia GeForce RTX 3080 FE
135,5
Nvidia GeForce RTX 2080 Ti FE
107,3
Nvidia GeForce GTX 1080 Ti FE
73,4
Tweakers GPU Prestatiescore 2022-3 - 1080p medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
AMD Radeon RX 6950 XT
235,1
Nvidia GeForce RTX 4090 FE
232,5
GeForce RTX 3090 Ti
215,2
GeForce RTX 3090
210,6
Nvidia GeForce RTX 3080 Ti FE
210,3
Nvidia GeForce RTX 3080 FE
196,8
Nvidia GeForce RTX 2080 Ti FE
177,1
Nvidia GeForce GTX 1080 Ti FE
120,0

Prestaties custom RTX 4090-kaarten

We trappen de round-up af met een aantal synthetische benchmarks. 3DMark is natuurlijk geen game, maar wel een consistente test die een eerste indruk geeft van de onderlinge verhoudingen. Fire Strike is de DirectX 11-test van 3DMark, Timespy draait in DirectX 12 en Port Royal voegt daar nog eens raytracing aan toe.

Traditiegetrouw liggen de prestaties in 3DMark tussen de verschillende kaarten op basis van dezelfde chip erg dicht bij elkaar. De MSI RTX 4090 Ti Suprim X is nipt de snelste, maar het verschil met de Founders Edition is slechts 3 procent. Dat is in de praktijk niet merkbaar.

  • 3DMark Timespy
  • 3DMark Firestrike Ultra
  • 3DMark Port Royal
3DMark Time Spy - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
MSI RTX 4090 Suprim X (Gaming)
36.749
MSI RTX 4090 Suprim X (Silent)
36.284
Inno3D RTX 4090 iCHILL X3
35.926
Gigabyte RTX 4090 Gaming OC (Silent)
35.896
ASUS RTX 4090 TUF OC (Quiet )
35.884
Gigabyte RTX 4090 Gaming OC (OC)
35.881
ASUS RTX 4090 TUF OC (OC)
35.827
Nvidia RTX 4090 Founders Edition
35.640
3DMark Fire Strike Ultra - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
MSI RTX 4090 Suprim X (Gaming)
25.753
MSI RTX 4090 Suprim X (Silent)
25.544
Inno3D RTX 4090 iCHILL X3
25.227
ASUS RTX 4090 TUF OC (OC)
25.137
ASUS RTX 4090 TUF OC (Quiet )
25.078
Gigabyte RTX 4090 Gaming OC (OC)
25.042
Gigabyte RTX 4090 Gaming OC (Silent)
25.021
Nvidia RTX 4090 Founders Edition
24.880
3DMark Port Royal - FPS
Videokaart Gemiddelde framerate in fps (hoger is beter)
MSI RTX 4090 Suprim X (Gaming)
120,7
MSI RTX 4090 Suprim X (Silent)
120,3
Inno3D RTX 4090 iCHILL X3
118,8
ASUS RTX 4090 TUF OC (Quiet )
118,8
ASUS RTX 4090 TUF OC (OC)
118,7
Gigabyte RTX 4090 Gaming OC (OC)
118,2
Gigabyte RTX 4090 Gaming OC (Silent)
118,2
Nvidia RTX 4090 Founders Edition
117,4

F1 2021

In F1 meten we framerates die heel dicht tegen elkaar zitten. Alle custom kaarten zijn hier wel net een fractie sneller dan de Founders Edition.

  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
F1 2021 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Inno3D RTX 4090 iCHILL X3
225,3
Gigabyte RTX 4090 Gaming OC (OC)
224,5
MSI RTX 4090 Suprim X (Gaming)
224,0
ASUS RTX 4090 TUF OC (OC)
219,5
Nvidia RTX 4090 Founders Edition
216,9
F1 2021 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Gigabyte RTX 4090 Gaming OC (OC)
5,5
MSI RTX 4090 Suprim X (Gaming)
5,6
Inno3D RTX 4090 iCHILL X3
5,6
ASUS RTX 4090 TUF OC (OC)
5,7
Nvidia RTX 4090 Founders Edition
5,8
F1 2021 - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
ASUS RTX 4090 TUF OC (OC)
7,2
Inno3D RTX 4090 iCHILL X3
7,3
MSI RTX 4090 Suprim X (Gaming)
7,5
Gigabyte RTX 4090 Gaming OC (OC)
7,6
Nvidia RTX 4090 Founders Edition
7,8

Metro Exodus

In Metro testen we standaard alle videokaarten op de verschillende bios-modi die ze beschikbaar hebben. Opnieuw zijn de verschillen erg klein; dit keer staat juist de Founders Edition van Nvidia net bovenaan als we naar de framerates kijken. In de 99p-frametimes doet hij het juist marginaal slechter dan de aib-kaarten.

  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Metro Exodus - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia RTX 4090 Founders Edition
163,3
Inno3D RTX 4090 iCHILL X3
161,8
MSI RTX 4090 Suprim X (Silent)
161,1
MSI RTX 4090 Suprim X (Gaming)
160,7
Gigabyte RTX 4090 Gaming OC (OC)
160,3
ASUS RTX 4090 TUF OC (OC)
160,1
ASUS RTX 4090 TUF OC (Quiet )
159,1
Gigabyte RTX 4090 Gaming OC (Silent)
157,2
Metro Exodus - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
MSI RTX 4090 Suprim X (Silent)
8,2
ASUS RTX 4090 TUF OC (Quiet )
8,4
Gigabyte RTX 4090 Gaming OC (OC)
8,4
ASUS RTX 4090 TUF OC (OC)
8,4
MSI RTX 4090 Suprim X (Gaming)
8,5
Inno3D RTX 4090 iCHILL X3
8,5
Gigabyte RTX 4090 Gaming OC (Silent)
8,6
Nvidia RTX 4090 Founders Edition
8,7
Metro Exodus - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
ASUS RTX 4090 TUF OC (Quiet )
9,4
MSI RTX 4090 Suprim X (Gaming)
10,2
ASUS RTX 4090 TUF OC (OC)
10,2
Gigabyte RTX 4090 Gaming OC (Silent)
10,3
Inno3D RTX 4090 iCHILL X3
10,3
Nvidia RTX 4090 Founders Edition
10,4
MSI RTX 4090 Suprim X (Silent)
10,7
Gigabyte RTX 4090 Gaming OC (OC)
11,5

Cyberpunk 2077

In Cyberpunk zijn de kaarten van Inno3D en MSI gemiddeld net iets sneller dan de Founders Edition. De Gaming OC van Gigabyte en de ASUS TUF OC vallen hier juist tussenin, met opnieuw marginale verschillen.

  • Ultra
  • Ultra (99p)
  • Ultra (99.9p)
Cyberpunk 2077 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Inno3D RTX 4090 iCHILL X3
77,2
MSI RTX 4090 Suprim X (Gaming)
76,8
ASUS RTX 4090 TUF OC (OC)
74,9
Gigabyte RTX 4090 Gaming OC (OC)
74,6
Nvidia RTX 4090 Founders Edition
73,5
Cyberpunk 2077 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Inno3D RTX 4090 iCHILL X3
14,6
MSI RTX 4090 Suprim X (Gaming)
14,7
Gigabyte RTX 4090 Gaming OC (OC)
15,1
ASUS RTX 4090 TUF OC (OC)
15,3
Nvidia RTX 4090 Founders Edition
15,6
Cyberpunk 2077 - 3840x2160 - Ultra (99.9p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Inno3D RTX 4090 iCHILL X3
15,5
MSI RTX 4090 Suprim X (Gaming)
15,9
ASUS RTX 4090 TUF OC (OC)
16,2
Gigabyte RTX 4090 Gaming OC (OC)
16,3
Nvidia RTX 4090 Founders Edition
17,1

Temperatuur en geluidsproductie

Aan de prestaties van een koeler zitten altijd twee kanten: de temperatuur en de geluidsproductie. We testen hoeveel geluid een videokaart produceert onder volle belasting en noteren de maximale temperatuur tijdens deze test. Daarnaast meten we de geluidsproductie in idle, evenals de maximale geluidsproductie als de ventilatoren op volle snelheid draaien. Omdat alle geteste videokaarten in deze vergelijking beschikken over semipassieve koeling, staan de ventilatoren in idle volledig stil. We meten dan 14dB(A) voor alle kaarten, wat de noisefloor in onze geluidskamer is.

Tijdens belasting in-game meten we voor de Gigabyte Gaming OC met afstand de hoogste waarde, maar deze kaart is met zijn bios op Silent Mode al een aardig stuk stiller te krijgen. Nvidia's Founders Edition blijft onder belasting desondanks net iets stiller, en Inno3D zet daar vervolgens weer een betere score bovenop. De laagste geluidsproductie onder volle belasting wordt echter gerealiseerd door de ASUS TUF OC in zijn stille modus. MSI's Suprim X behoort ook tot de stilste kaarten; met het Gaming-bios geactiveerd is hij al duidelijk stiller dan veel van de andere kaarten, en hij kan zelfs nóg iets stiller werken wanneer we het Silent-bios activeren. In de 'luide' modi is de MSI van dit tweetal juist nipt de stillere, maar in de praktijk kunnen we beide kaarten gewoon als prettig stil betitelen.

Bij de maximale gpu-temperatuur zien we relatief weinig verschillen tussen de verschillende fabrikanten. Het valt op dat geen enkele videokaart een echt hoge temperatuur rapporteert onder volle belasting, zelfs niet in Silent mode.

  • Geluid ingame
  • Temp. GPU (max)
  • Geluid idle
  • Geluid 100% fan
  • Temp. hotspot (max)
Geluidsdruk load ingame (50cm)
Videokaart Gemiddelde geluid in dB(A) (lager is beter)
ASUS RTX 4090 TUF OC (Quiet )
27,2
MSI RTX 4090 Suprim X (Silent)
29,7
MSI RTX 4090 Suprim X (Gaming)
31,2
ASUS RTX 4090 TUF OC (OC)
31,5
Inno3D RTX 4090 iCHILL X3
34,1
Nvidia RTX 4090 Founders Edition
34,8
Gigabyte RTX 4090 Gaming OC (Silent)
35,4
Gigabyte RTX 4090 Gaming OC (OC)
40,0
Temperatuur GPU (maximaal)
Videokaart Gemiddelde temperatuur in °C (lager is beter)
ASUS RTX 4090 TUF OC (OC)
63
Gigabyte RTX 4090 Gaming OC (OC)
64
MSI RTX 4090 Suprim X (Gaming)
66
Nvidia RTX 4090 Founders Edition
66
ASUS RTX 4090 TUF OC (Quiet )
67
Gigabyte RTX 4090 Gaming OC (Silent)
68
Inno3D RTX 4090 iCHILL X3
70
MSI RTX 4090 Suprim X (Silent)
72
Geluidsdruk idle (50cm)
Videokaart Gemiddelde geluid in dB(A) (lager is beter)
Nvidia RTX 4090 Founders Edition
14,0
Gigabyte RTX 4090 Gaming OC (OC)
14,0
Gigabyte RTX 4090 Gaming OC (Silent)
14,0
MSI RTX 4090 Suprim X (Gaming)
14,0
MSI RTX 4090 Suprim X (Silent)
14,0
Inno3D RTX 4090 iCHILL X3
14,0
ASUS RTX 4090 TUF OC (OC)
14,0
ASUS RTX 4090 TUF OC (Quiet )
14,0
Geluidsdruk 100% fan (50cm)
Videokaart Gemiddelde geluid in dB(A) (lager is beter)
Inno3D RTX 4090 iCHILL X3
53,1
Gigabyte RTX 4090 Gaming OC (OC)
53,4
Nvidia RTX 4090 Founders Edition
56,4
ASUS RTX 4090 TUF OC (OC)
57,2
MSI RTX 4090 Suprim X (Gaming)
59,2
Temperatuur Hotspot (maximaal)
Videokaart Gemiddelde temperatuur in °C (lager is beter)
MSI RTX 4090 Suprim X (Gaming)
74
ASUS RTX 4090 TUF OC (OC)
75
Nvidia RTX 4090 Founders Edition
75
Gigabyte RTX 4090 Gaming OC (OC)
76
ASUS RTX 4090 TUF OC (Quiet )
77
MSI RTX 4090 Suprim X (Silent)
79
Gigabyte RTX 4090 Gaming OC (Silent)
80
Inno3D RTX 4090 iCHILL X3
80

Koelefficiëntie en stroomverbruik

Als je zelf het fanprofiel wilt instellen of simpelweg de videokaart met de best mogelijke koeler wilt kopen, is de efficiëntie van de koeler van groot belang. Je wilt immers zoveel mogelijk koeling met zo min mogelijk geluidsproductie. Om dit te testen, meten we bij welk fanprofiel de kaart het dichtst bij de 35dB(A) zit, gemeten op 50cm afstand. Vervolgens stellen we de kloksnelheid en spanning in op vaste waarden. Zo trekken we het stroomverbruik van alle kaarten zoveel mogelijk gelijk. Het stroomverbruik is immers de 'belasting' van de koeler.

Onder deze gelijke omstandigheden zet MSI overtuigend de beste score neer in koelefficiëntie, met de ASUS TUF OC als goede tweede. De overige deelnemers zitten allemaal erg dicht op elkaar in deze test.

  • Gpu-temperatuur
  • Hotspot-temperatuur
Gpu-temperatuur - 35dB(A) en vaste klok
Videokaart Gemiddelde temperatuur in °C (lager is beter)
MSI RTX 4090 Suprim X (Gaming)
56
ASUS RTX 4090 TUF OC (OC)
59
Nvidia RTX 4090 Founders Edition
63
Inno3D RTX 4090 iCHILL X3
64
Gigabyte RTX 4090 Gaming OC (OC)
64
Hotspot-temperatuur - 35dB(A) en vaste klok
Videokaart Gemiddelde temperatuur in °C (lager is beter)
MSI RTX 4090 Suprim X (Gaming)
62
ASUS RTX 4090 TUF OC (OC)
69
Nvidia RTX 4090 Founders Edition
70
Inno3D RTX 4090 iCHILL X3
72
Gigabyte RTX 4090 Gaming OC (OC)
76

Stroomverbruik

Onder volle belasting verbruiken de custom kaarten Inno3D iChill X3 en Gigabyte Gaming OC grofweg hetzelfde, terwijl MSI's Suprim X en ASUS' TUF OC daar iets boven zitten en Nvidia's eigen Founders Edition juist wat lager uitkomt. Elke kaart blijft onder de opgegeven maximale tdp van 450W, maar in het geval van de Suprim X is het verschil nog maar heel klein.

In idle is geen van de kaarten echt zuinig. De MSI maakt het met bijna 36W in idle wel erg bont. Nu is de kaart weliswaar voorzien van de nodige rgb-verlichting, maar dat is bijvoorbeeld de Inno3D ook, dus we vermoeden dat MSI op dit vlak nog wat zou kunnen optimaliseren middels bios-updates.

  • Opgenomen vermogen in-game
  • Opgenomen vermogen idle
Opgenomen vermogen ingame - Metro Exodus
Videokaart Gemiddelde vermogen in watt (lager is beter)
Nvidia RTX 4090 Founders Edition
419,60
Inno3D RTX 4090 iCHILL X3
432,79
Gigabyte RTX 4090 Gaming OC (OC)
435,79
ASUS RTX 4090 TUF OC (OC)
439,11
MSI RTX 4090 Suprim X (Gaming)
445,93
Opgenomen vermogen idle
Videokaart Gemiddelde vermogen in watt (lager is beter)
Nvidia RTX 4090 Founders Edition
16,04
ASUS RTX 4090 TUF OC (OC)
18,90
Inno3D RTX 4090 iCHILL X3
20,13
Gigabyte RTX 4090 Gaming OC (OC)
22,18
MSI RTX 4090 Suprim X (Gaming)
35,83

Conclusie

Elke fabrikant van de vier geteste RTX 4090-videokaarten in deze round-up houdt de AD102-gpu goed in bedwang, met nette temperaturen. Met een vermogensafgifte van bijna 450W is dat een knap resultaat, maar wellicht ook weer geen verrassing, aangezien elke geteste kaart gebruikmaakt van een vapor chamber als basis voor de koeloplossing. Zoals gebruikelijk verschillen de gameprestaties tussen de geteste modellen slechts marginaal, meestal in het voordeel van de custom versies van de RTX 4090.

Als we kijken naar koelefficiëntie, is de MSI GeForce RTX 4090 Suprim X de winnaar. Dat betekent dat de kaart zowel goed kan koelen als stil kan werken. Met de bios-switch heb je daar eenvoudig wat controle over, maar uiteraard is het aanmaken van een geheel custom fanprofiel ook mogelijk. Bovendien is de Suprim X, zij het met een klein verschil, gemiddeld de allersnelste RTX 4090.

Daar staat tegenover dat de MSI Suprim X een van de duurste modellen zal zijn, ook in een wereld zonder opgeblazen prijsstellingen. Maar als geld geen rol speelt en je wél op zoek bent naar de allerbeste luchtgekoelde RTX 4090, dan is de MSI Suprim X alsnog de ultieme keuze. Daarom voorzien we de kaart van een Ultimate-award.

Bij het uitdelen een Excellent-award speelt ook de prijs een rol. Om eerlijk te zijn, kunnen we daar op dit moment simpelweg niets zinnigs over zeggen. De verschillende modellen zijn mondjesmaat leverbaar en de prijzen verschillen niet per dag, maar per uur.

Van de kaarten die in theorie minder duur zouden moeten zijn, en dan hebben we het over die van Inno3D en Gigabyte, komt de Inno3D GeForce RTX 4090 iCHILL X3 positief naar voren. Hij presteert op ieder vlak vergelijkbaar met de Founders Edition. De kaart van Nvidia zou vooral gezien zijn prijs van 1959 euro minstens zo interessant kunnen zijn, maar is juist door die vaste prijs stijf uitverkocht. En om de gekkigheid compleet te maken, zou in de praktijk juist de iets minder goede Gigabyte Gaming OC de beste keuze kunnen zijn, omdat deze fabrikant zijn verkrijgbaarheid het beste op orde lijkt te hebben. De enige juiste conclusie is dat de prijzen op dit moment nog te volatiel zijn om Excellent-awards uit te delen.

  • MSI RTX 4090 Suprim X
  • Inno3D RTX 4090 iChill
  • Gigabyte RTX 4090 Gaming OC
  • ASUS RTX 4090 TUF OC
  • Nvidia Founders Edition

Reacties (267)

267
261
210
12
0
21
Wijzig sortering
Zon kaarten te duur ?
Dat heb je pas als je de resolutie ook tot het oneinige blijft opkrikken en de graphics op de hoogste stand. Zo heb je nooit genoeg. Ik heb tijden gekend waar we alles deden met een 640x480 de maximum was. En toen ging alles. De zwakke pc s en te zwakke gpu power bestond toen niet. Wordt het niet eens tijd om iedere keer de brug om de specs maar weer eens op te drijven voor meer power compleet te stoppen en gewoon eens games te schrijven die optimaal van die kaarten gebruik maken zonder overdreven systeem eisen met de hardware die er is.Ik ben van mening dat we nu wel power genoeg hebben en het mag van mij eens stoppen met die power honger naar meer vermogen. Straks hebben we een kaart van 4000 watt nodig voor een video game. Ik zie ook het nut niet waarom software zo veel van een pc moet vragen om een game te kunnen draaien. En dat doen we al verkeerd sinds dag 1, software schrijven dat de hardeware meer en meer belast, ipv het omgekeerde een olifant die op je hardware gaat liggen de technologie die je hebt ook optimaal eens gebruikt. Vroeger draaide men alles op een pentium mmx met een voodoo kaartje en dat ging allemaal.
Ik heb de Inno3d gekocht (bewuste keus, ik had hiervoor een 3090 van inno3d, en ik vind het fijne kaarten)
Belangrijk om te weten is, dat als je wilt overklokken (voor zover dat nog kan, er valt niet heel veel winst te behalen volgens verschillende youtubers), je niet de inno3d moet kopen. Deze heeft namelijk maar 3 connectors, en een max powerbudget van 450 watt, dat je dus ook niet hoger krijgt. Als je wilt overklokken ga dan voor de suprim of een andere met 4 connectoren die tot 600 watt kan.

Daarnaast nog even iets over de efficientie, die is bizar in vergelijking met de vorige generatie!
Ik speel veel Apex legends op 4k(niet helemaal 4k, 3860x1600) 144 fpz/hz het liefst met het detail op allerhoogst. De 3090 had moeite om die framerate overal vast te houden en gebruikte daarbij constant 350 watt. De 4090 houdt probleemloos 144 fps vast en daar cap ik het spel dan ook op, vervolgens gebruikt hij dan ongeveer 250 watt. 100 watt minder dus, met betere performance! En hij blijft dan ook heerlijk koel :)

Sowieso een tip, voor veel games is zo'n kaart overkill, je kan met rivatuner, maar tegenwoordig ook in het nvidia control panel je max fps instellen, dat scheelt je veel warmte, en geld, zeker als je ook wat oudere games speelt die 300 fps halen wat je misschien helemaal niet nodig hebt.

[Reactie gewijzigd door OriginalFlyingdutchman op 22 juli 2024 15:42]

Weet je wat nog meer geld scheelt? Geen kaart kopen die overkill is :+

Oprecht benieuwd wat je reden is van een al peperdure 3090 te upgraden naar een nog duurdere 4090? Áls ik al een kaart als de 3090 zou hebben gekocht, zou ik die echt jaaaaren gebruiken :o
Een kaart kost je: (de aanschaf prijs van je kaart - de verkoopprijs van je oude kaart).
Dat maakt het als hardware enthusiast vaak aantrekkelijk om te upgraden.
Ik zie 3090's op V&A gaan voor €900 of zelfs minder. De goedkoopste 4090 kost €2200. Aantrekkelijk is een heel sterk woord voor €1300 naar mijn mening.
Als volwassen man zijn de hobby budgetten vaak iets anders dan voor jongeren.

Om motor te rijden 20 zondagen in het jaar word ook lachend een 10.000 euro kostende motorfiets voor gekocht. Dat kan economisch ook nooit uit. Wellicht dat die 1300 euro upgrade, waar de persoon misschien zelfs wel meer tijd aan spendeert dan beter te verantwoorden is.
Het gaat mij niet zo zeer om een absoluut budget, maar meer om het feit dat je het geld dat je in zo'n kaart steekt simpelweg niet terugziet in de prestaties.

Die vergelijking gaat naar mijn mening ook niet helemaal op - als je motor wilt rijden dan heb je geen andere keuze dan om maar gewoon een motor te kopen, waarbij instapprijzen voor een beetje een normale motor bepaald geen €300 zijn zoals bij een videokaart. Dit is meer alsof je elke 2 jaar je motor doorverkoopt om maar weer het nieuwe top-of-the-line model te kopen, terwijl je huidige motor gewoon nog perfect werkt.

Goed, uiteindelijk is het niet mijn geld en maakt het mij ook niet uit wat mensen met hun geld doen, ik vond alleen het statement dat het aantrekkelijk is om te upgraden voor zo'n prijs/prestatie-verhouding onzinnig.
Hij presteert zo'n 70% beter dan zijn voorganger, dus lijkt me dat je het geld wel degelijk terugziet in de prestaties.

Degenen die zulke kaarten kopen gamen op 4K en willen alle toeters en bellen aan kunnen zetten en dan nog speelbare framerates krijgen. Dat kreeg je bij de vorige generatie niet bij elke game; bij deze wel, en hij is relatief gezien nog zuiniger ook.
Je geeft aan de FPS te cappen (in het spel wat je vernoemd) dus in deze situatie zijn die prestaties totaal overbodig. Mogelijk speel je nog andere games waar je wel wat aan de prestaties hebt maar afgaande op deze informatie is een upgrade gewoon geld weg gooien.

Het geld zou je dan inderdaad wel terug zien in benchmark software, maar of menig mens daar een 1300 euro upgrade voor wil aanschaffen....

Maar als je het kan betalen en jij hecht er meerwaarde aan why not? Hoop dat je er heel veel plezier van hebt! :)

[Reactie gewijzigd door itaalol op 22 juli 2024 15:42]

Wellicht gebruikt hij dan veel minder stroom en is hij veel stiller (bij dezelfde fps). Dat zou ik wel interessant vinden, alhoewel ik bijna 3000 euro ook wel echt te veel vind voor een videokaart...
Ja volgens mij verbruikt de kaart inderdaad flink minder stroom, en zal vast stiller zijn.

Maakt dat veel stiller zijn alleen veel uit? Ik heb persoonlijk nog NOOIT een systeem gehad wat veel geluid maakte en ik heb altijd el cheapo Amazon fans o.i.d. gehad, budget behuizingen met side panel, wel verschillende stock en upgrades voor cpu koelers en de kast stond naast me. Het enige wat ik nooit gedaan heb is overclocken, dus misschien is dat net hetgene wat veel geluid veroorzaakt?
Flink minder stroomgebruik is tegenwoordig ook wel interessant. Het prijsplafond is gezet op 0,70 euro per kWh en de prijs per kWh wordt mogelijk nog veel hoger. Hoe meer je achter je computer zit, hoe sneller je het ding terugverdient in vergelijking met de vorige generatie.

Veel stiller zijn vind ik wel heel erg fijn, je hebt ook mensen die hun computer in een kamer verderop zetten. Dat lijkt mij nou luxe :)

Ik underclock juist graag, i.p.v. overclocken :)

Tsja, om te vergelijken wat wij nou lawaaiig vinden zouden we een decibel-meter moeten hebben. Ik heb er nog geen, jij? :) Mijn huidige systeem is als een constante fluister.

[Reactie gewijzigd door Siaon op 22 juli 2024 15:42]

Ik lees toevallig net op de Essent site dat er een voorstel is om het plafond vast te zetten op 0,40 euro per kWh tot 2.900 kWh stroom per jaar. Maar ik weet niet wat de status hier van is, ik volg het allemaal niet echt... Bespaart weer een hoop ergernis ;)
Het prijsplafond is voorgesteld op maximaal 40 cent per kWh stroom en 1,45 euro per m3 gas tot een verbruik van 2.900 kWh stroom per jaar en 1.200 m3 gas per jaar. Dit voorstel is nog niet definitief en wordt binnenkort besproken in de Tweede Kamer.
Als je echt een bakbeest van een machine zou hebben zou dat ideaal zijn inderdaad! Een app op de telefoon maar of die nu zo betrouwbaar zijn weet ik niet, haha!

Als je al die performance niet nodig hebt why not!

Als ik niet aan het gamen ben hoor ik eigenlijk alleen de casefans draaien. Die maken een neuriënd/zoemend geluid en soms ratelen ze een klein beetje, dit zijn wel echt goedkope RGB fans. Ik heb het even opgezocht maar ik heb vorige winter €45 voor 5 casefans incl. hub betaald dus ik verwachtte niet de beste/stilste fans. Meestal heb ik toch iets van muziek o.i.d. zacht op staan en dan hoor ik het systeem al niet meer. Als ik zonder headset aan het gamen ben wil ik de videokaart fan nog wel eens horen blazen maar tijdens het gamen moet je je daar al op concentreren wil je dat horen.
Ware het niet dat de prestatie verbetering inherent was aan elke nieuwe generatie. (en de games werden ook steeds veeleisender).

Ik spiegel het liever af tegen de verschillende marktsegmenten (low end, mid end, high end, etc). Binnen die cycli komt er elke generatie een nieuwe kaart, die qua prijs redelijk constant bleef ten opzichte van laatste generatie, inflatiecorrectie etc daargelaten.

Bij de meeste producten ga je ook niet ineens 2x zoveel betalen als de opvolger van een bepaald model ineens een paar functies meer heeft. Dat is inherent aan de technologische ontwikkeling, je krijgt bij technologie altijd meer dan bij vorige versie. Je gaat bij een auto ook niet ineens meer betalen omdat de accu efficiënter is geworden bij nieuwere model Y.

Mag wel gezegd worden dat de procentuele verbetering van de 4090 wel bovengemiddeld is volgens mij.
Bij de meeste producten ga je ook niet ineens 2x zoveel betalen als de opvolger van een bepaald model ineens een paar functies meer heeft. Dat is inherent aan de technologische ontwikkeling, je krijgt bij technologie altijd meer dan bij vorige versie. Je gaat bij een auto ook niet ineens meer betalen omdat de accu efficiënter is geworden bij nieuwere model Y.
2x weet ik niet (volgens mij was de 3090 geen 1000 euro trouwens), maar bij de meeste technologische producten betaal je wel steeds meer. Auto's zijn ook steeds duurder geworden, omdat er meer en meer techniek in zit. Dit is vrij logisch. Ik zie ook liever dat een 4090 even duur is als een titan van 10 jaar geleden, maar dat lijkt me niet erg realistisch. Het ontwikkelen van de techniek van deze nieuwste kaarten komt ook niet voor hetzelfde geld aanwaaien. Er wordt verwacht dat er bij elke nieuwe generatie kaarten steeds een paar stappen omhoog worden gezet, en om aan die verwachting te kunnen voldoen zal het ongetwijfeld steeds meer geld gaan kosten, omdat het steeds uitdagender wordt om die stap omhoog te kunnen blijven zetten.

[Reactie gewijzigd door Kubrix op 22 juli 2024 15:42]

Maarja bij veel games is de optimalisering ook slecht.
Wie ziet verschil tussen 200fps - 240fps!?
Op 4k kan ik me dat nog wel voorstellen ....
Maar iedereen mag zijn/haar geld uitgeven aan wat hij/zij wil.
Anoniem: 454358 @yar200020 oktober 2022 08:53
2500 euro, dat is toch niks? Zeker als het je hobby is, al heeft die 10% betere prestaties. Als 25 jarige me studieschuld, huurhuis en starter inkomen misschien veel, maar als je al jaren werkt toch niet meer? Hij zal er geen elke week eentje halen
2500 euro, dat is toch niks? Zeker als het je hobby is, al heeft die 10% betere prestaties. Als 25 jarige me studieschuld, huurhuis en starter inkomen misschien veel, maar als je al jaren werkt toch niet meer? Hij zal er geen elke week eentje halen
Los daarvan, zullen er ook tweakers zijn die een jaar geleden misschien wel de vraagprijs voor de 3090 in al z'n verschijningsvormen hebben betaald. Vraagprijzen die nog maar een jaar geleden tot soms wel ruim boven de 3500 euro opliepen... Dan is 2500 euro voor het nieuwste topmodel in eens niet zo heel gek meer.

Het is alleen wel jammer dat je voor die 'oude' 3090 in het tweedehands circuit nu niet meer dan ca. 900 zult ontvangen, dus je hebt die kaart dan in erg korte tijd voor driekwart afgeschreven :X
Ah, het eeuwenoude "maar het kan nog duurder!" excuus :)

Dat is vorig jaar nóg idioot veel duurder was, vind ik (voor mijzelf) geen reden om met iets minder idiote prijzen akkoord te gaan :). Je zegt het zelf al, die enorme afschrijving geeft al aan dat die verkoopprijs compleet scheef was.

Maar goed, zolang het mijn geld maar niet is, moet iedereen vooral doen wat ze willen. :) Wellicht vergis ik me in het besteedbaar inkomen van de gemiddelde IT-er. Misschien die switch toch eens gaan maken :+

[Reactie gewijzigd door Sjekster op 22 juli 2024 15:42]

Tegelijkertijd zullen een hoop met hun gaming kaart gemined hebben. Mijn 3080 had zichzelf letterlijk 3x terugverdiend in een jaar tijd.
2500 euro is toch niet niks? Of je hebt een hele dikke erfenis of je hebt een héél dikke baan. 2500 euro is een enorme smak geld, ook voor het gros van werkend Nederland. Voor dat is voor mij anderhalve hypotheek, vind ik toch behoorlijk wat.
Anoniem: 454358 @itaalol20 oktober 2022 12:31
Het is geld voor een hobby, en hobbies kosten geld. Sommigen hebben een motor van 10k voor 3 rondjes rond de kerk per jaar. Je geeft het niet elke dag uit, maar 1x per 2,3 jaar. Dan vind ik dat inderdaad niets.
Dan heb je geen idee hoe de rest van Nederland er voor staat, laat staan de rest van de wereld. Een bedrag van 2.500 euro is voor de meeste mensen meer dan een netto salaris wat ze in de maand ontvangen. Voor een significant deel meer dan wat ze bruto verdienen.

Dat "niets" noemen getuigt niet van een bijzonder reëel of empathisch wereldbeeld. Dat het voor een hobby is doet daar niet veel aan af. Zeker niet in een tijd dat grote groepen mensen hobbies weg moeten bezuinigen die een fractie van die 2.5K kosten.

Nog even los van het gegeven dat het verbruik van deze monsterkaarten ook niet helemaal meer okay is.

Tuurlijk, het is geld voor een hobby en een hobby kan geld kosten. Maar deze hoeveelheid geld aan een hobby kunnen uitgeven, of aan een motor van 10K, is simpelweg een luxe. Bon voor de mensen die dat kunnen of willen veroorloven, maar doe niet als het "niets" is.
dat kun je natuurlijk vinden, ik vind het persoonlijk voor een hobby idd niets. En idd dit is natuurlijk geen kaart voor iedereen, die kopen maar een kaartje van 500 euro oid, Dit is voor als je het beste van het beste wil hebben. En die markt wordt steeds groter, niet kleiner
Voor de veel mensen is 500 euro nog steeds een enorm bedrag.

Ik ken je situatie niet, of je omgeving, maar je klinkt alsof je een behoorlijke disconnect hebt over wat de waarde van geld is voor de meeste mensen.

Je kan in deze tijden van voedselbanken, energiearmoede en inflatie niet volhouden dat zoveel geld aan een videokaart uitgeven iets anders dan simpelweg luxe is. Op het decadente af wellicht. Dat is niet niets.

Dat jij, of anderen, het wel kan en/of wil uitgeven terwijl sommige leerlingen letterlijk in de klas omvallen omdat er geen geld was voor eten, is niet niets. Dat is vooral een inzicht in over hoe de welvaart verdeeld is hier.

Tuurlijk, je mag je eigen geld uitgeven op welke manier dan ook. Maar doen alsof dat "niets" is, is niet chique.
Let's agree to disagree. Ben dan wel jaloers op je als je 2,5k niets vind, ruilen van salaris? ;)

[Reactie gewijzigd door itaalol op 22 juli 2024 15:42]

Automark :) als jij het niks vind....doe mij er ook 1tje aub:)
Zelf heb ik ook niet zoveel geld maar voor iemand met een goede baan valt dit toch wel mee dit bedrag ?
Als je het geld hebt why not inderdaad.

Ik klaag verder niet maar heb net een huis gekocht met mijn vriendin en hebben al het geld nodig om te verduurzamen etc, misschien ben ik biased dus haha
Heb geld zat. Maar vind het nog veels te duur. Het gaat me ook dat ze die kaarten voor een prikkie en dan dan 5x zoveel aan verdienen.
Ik verdien een aardige boterham durf ik te zeggen en ben echt gek op gamen. Maar ik ga niet jaar naar jaar een videokaart kopen voor wat FPS/hz meer.
Als het nu een verschil was van 100ish fps naar 150 zou ik het begrijpen.. Maar niet als je een upgrade van een kaart waar je de fps al van deed cappen...
Kennelijk was Apex Legends op zo goed als 4k, ultra settings, een stabiele 144 fps voor die geschat € 1.300 het deze persoon toch waard. Bijkomend voordeel is dat je tevreden naar bed kan, wetend dat je het beste hebt dat er te krijgen valt. Dan bedenk ik me voor zulke financiële geluksvogels toch steeds maar weer: het tevreden naar bed gevoel is onbetaalbaar, voor al het andere is er eurocard/mastercard :Y)

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 15:42]

Ook als ik het geld zou hebben, wat niet zo is zou ik het nooit doen. Maar iedereen moet dat natuurlijk zelf weten. Laat die 3070/80/90 maar komen op v&a :)
Die uitspraak kun je ook omdenken voor de goed boerende medemens: als ik toch steeds meer geld binnenkrijg dan ik normaal uitgeef, waarom zou ik het dan niet doen?
verkeerde thread sorry:)

[Reactie gewijzigd door dutchman666 op 22 juli 2024 15:42]

Voor 10.000 euro zal dat waarschijnlijk al geen nieuwe motor zijn. De gemiddelde tourrijder heeft een BMW GS of een Ducati Multistrada, en die gaan toch minstens voor 20.000 euro dacht ik.
Op lange termijn zal dat kloppen wat @unglaublich zegt.
De één koopt een nieuwe videokaart voor zijn hobby de ander besteed dat geld aan een andere hobby of meerdere hobbys. Ik zou ook best een 4090 willen hebben hoor, het is echter dat ik het niet kan verantwoorden naar het gezin toe maar anders had ik er ook één besteld.
Zijn geld en hij gebruikt zijn kaart wel op de goede manier 4k 144fps. Er zijn mensen die een 3090 halen en vervolgens alleen CSGO spelen op 720p.
Enige reden dat ik 'm zou upgraden is zodat mijn Pimax8K eindelijk werkt, haha
Welke cpu gebruik je in combinatie met 4090?
Dit wil ik ook wel weten! @OriginalFlyingdutchman
Gaaf man ! Gefeliciteerd met je upgrade en veel plezier ermee ! Je review is ook netjes en behulpzaam.
Hij heeft gewoon een product gekocht. Ik vind het nogal ver gaan om hem dan gelijk gestoord te noemen.
Ik heb het genuanceerd. Ik was heel erg kwaad toen ik dit schreef. (ook omdat ik graag een videokaart wil kopen, maar niet voor zulke prijzen).
Ik kan me als consument eigenlijk op geen enkele manier inbeelden waarom de aanschaf van zo'n RTX 4090 te rechtvaardigen valt.

Ze zijn werkelijk waar allemaal zò ontzettend duur, dat ik datzelfde bedrag nog niet eens voor een complete game PC over heb. De vorige generatie was ook al aan de prijs door gebrek aan aanbod. Maar dit spant opnieuw de kroon! :/

* InjecTioN hoopt ergens dat hij niet de enige is die zo denkt...
Op het moment kan Nvidia gewoon vragen wat de gek ervoor geeft. De prestatie-boost vergeleken met een RTX 3090 is zo groot, dat de prijs-prestatieverhouding niet eens zo gek is. "Vroeger" (lees: tot ongeveer de GTX 600-serie) kreeg je die prestatieboost voor niks omdat er keihard werd geconcurreerd, maar de laatste jaren is Nvidia de koning van top-end kaarten waardoor de (welvarende) consument eigenlijk geen keus heeft. Wil je gamen op 4K120 of zelfs 8K, dan is de RTX 4090 het model dat je moet hebben.
Afgelopen generatie stonden AMD en Nvidia anders aardig gelijk

https://static.techspot.c...info/2160/bench/1440p.png
bron: https://www.techspot.com/review/2160-amd-radeon-6900-xt/

De 6900XT, 6800XT en 6800 zijn allemaal sneller dan de 3090, 3080 en 3070 respectievelijk op 1440p en op 4K verandert het plaatje maar marginaal waardoor nvidia nét boven ze uit komt met ongeveer dezelfde marge.

Daarbij komt dat de AMD kaarten, toen de prijzen eenmaal een beetje begonnen te zakken, veel sneller omlaag zijn gegaan.

Mensen kopen gewoon Nvidia omdat dat bekend is. De afgelopen 2 jaar was er in iedere prijs range meer value te halen bij AMD, zelfs bij de high end

Later met de 6950XT konden ze zich ook meten met de nieuwe 3090Ti https://static.techspot.c...o/2463/bench/1440p-p.webp

En op 4K was nvidia maar lichtjes in het voordeel
https://static.techspot.c...info/2463/bench/4K-p.webp

Dit zie je ook terug in de kosten per FPS https://static.techspot.c...o/2463/bench/Cost1-p.webp

[Reactie gewijzigd door youridv1 op 22 juli 2024 15:42]

Eens heb beide kaarten vaak gebruikt, maar had toch echt een beter gevoel van de stabiliteit van de NVIDIA drivers dan die van AMD.
Echt? Heb momenteel 5 game pc's in beheer met zowel 6800XT, GTX1050Ti's en ouder en met geen een stabiliteits problemen. Wel videokaarten die na 8 jaar defect gaan maar dat is niks geks toch?
Ik heb stapels kaarten van beide in gebruik (zowel zakelijk als prive en zowel gamen als werk) en op een raar probleem na echt nul stabiliteit problemen. De laatste bugs waren bij mij de fan bug in de nvidia drivers en de muis cursor grootte bug in de AMD drivers. Ik heb wel een crashende NVIDIA driver gehad, maar achteraf bleef dat aan een instabiele kaart te liggen, en niet een instabiele driver.

Als we het hebben over vroegah... Man man man. Ik weet de eerste serie drivers van mijn HD5990 nog, dat was echt een ramp. Ook de drivers van mijn oude radeon 9800 pro waren problematisch. Maar de laatste jaren echt geen problemen meer.

Toch hoor ik het wel vaker over de AMD drivers als ik op tweakers kijk. Meerdere mensen melden het, maar niemand kan me eigenlijk vertellen wat dan. Ik krijg bijna het idee dat er een hoop mensen zijn die ooit naar NVIDIA zijn gegaan door de AMD (en zeker ATI) driver problemen van vroeger en daar een beetje in zijn blijven hangen?
Ik denk ook vaak dat het edge cases zijn die problemen hebben. Ik ben zo'n AMD probleemgeval.
Bij normaal gebruik zijn de drivers prima stabiel, maar mijn setup zorgt soms voor issues.
Zo heb ik 2 schermen (4k en een full hd), een TV en een Occulus aan de PC hangen.
Het aan-en-uitzetten van de TV gaat met grote regelmaat niet goed. De pc detecteert soms (random) dan geen nieuw scherm bij aanzetten en ik moet soms de tv een x-aantal keer uit en weer aanzetten voor deze ineens gedetecteerd wordt. Soms crasht de driver daarbij.

Ook de geluidscomponent zorgt voor issues hier, omdat ik bij de pc een eigen surround setje heb staan via een USB soundblaster, en bij de TV een reciever via HDMI. Tijdens het schakelen tussen deze outputs crasht de driver ook soms. En met bepaalde driver versies kon ik mijn Occulus niet gebruiken.
Recente drivers hebben deze issues trouwens wel behoorlijk verbeterd.

Deze zelfde setup had ik hiervoor met een 970GTX ook, zonder problemen te hebben gehad.
Ik heb een enorm gehannes gehad met de driver software van AMD, elke keer als ik mijn pc opnieuw inschakelde moet ik weer opniew de hele overclock en undervolt instellen. Dat werd zo irritant dat ik maar weer overgestapt ben van een 6900XT naar een 3090. Profielen instellen had geen zin. Verder was het inderdaad een prima kaart met 0 issues EN een stuk lager verbruik dan die Nvidia kaart.
Ik had zelf ook 2 AMD RX 5700 XT kaarten van Powercolor die zomaar de geest begaven binnen 1 - 2 maanden. Maar toch geef ik het voordeel aan AMD, zeker omdat de prijs stukke scherper is. Voor mij scheelde het 100 euro t.o.v. een RTX 2070 Super. Daarnaast heb ik heel veel plezier gehad met mijn Asus Strix Vega 64 kaart. Als ik op dit moment zou kiezen, zou ik toch weer AMD willen proberen.
Ik moet er altijd een beetje om gniffelen die zogenaamde driver issues.
Vroegah.... Toen heb ik mijn Nvidia G80 meerdere malen in de oven moeten reanimeren. Driemaal raden welk merk er hier nooit meer inkomt.
Nou heb vorig jaar veel te dure RX6900 XT gekocht maar kon er vervolgens maanden geen Destiny 2 normaal mee spelen en volgens mij is dat nog steeds niet geregeld…. Enigste reden dat ik Nvidia wil waar ik dit nog nooit heb mee gemaakt.

O en de AMDs werden wel erg heet vond ik…..

Wellicht volgende generatie want sta er altijd voor open.
Als het puur gaat om rasterization heb je gelijk, maar dat is al lang niet meer de enige vergelijking die je moet maken. Moderne varianten van supersampling en raytracing zijn tegenwoordig minstens zo belangrijk en daar loopt AMD helaas nog hopeloos achter.
Dat is fair. DLSS 2.0 quality mode is indrukwekkend, al is FSR2.0 lang niet slecht.

Raytracing zelf maakt mij (nog) weinig uit met RX6000 vs RTX3000. Ik vind de implementaties bij beide onbruikbaar eigenlijk. Ja het is beter dan het bij RTX2000 was, maar in te veel gevallen staat de kwaliteits verbetering absoluut in geen verhouding tot de performance penalty. Je FPS gaat helemaal naar de maan en je moet alle non RTX quality sliders compromisen en DLSS activeren om er wat van te maken. Bij de meeste games speel ik dan liever gewoon op native 4K ultra zonder RT en DLSS en dan zet ik AA wel uit om de fps wat te boosten.

Bij de 4090 lijkt het er al meer op. Die produceert bruikbare raytracing performance tov zijn rasterization performance. Hopelijk ligt de verhouding bij de andere 4000 kaarten min of meer gelijk.

[Reactie gewijzigd door youridv1 op 22 juli 2024 15:42]

Raytracing zelf maakt mij (nog) weinig uit
Jij bent dan niet de doelgroep van deze kaarten en inderdaad beter af met de veel goedkopere RX6900 XT, maar dat betekent niet dat anderen geen waarde hechten aan RayTracing. Afhankelijk van de game kan het namelijk een enorm visueel verschil maken waardoor dat voor sommigen misschien zwaarder weegt dan hele hoge framerates.
In welk spel maakt het dan een enorm visueel verschil? ik heb namelijk nog geen 1 game gezien waar je echt veel verschil ziet als je ook echt aan het gamen bent.

Voor zover ik gezien hebt wordt het bijna altijd beperkt toegevoegd (omdat de hit zo groot is) en zie je vooral verschil als je er echt op let of bij stilstaande beelden, maar wellicht heb ik wat Raytracing titels gemist
De grootste knaller (tot nu toe) is natuurlijk Minecraft, maar daar gebeurt volgens mij meer dan alleen RayTracing op het moment dat je de RTX modus start (zoals verbeterde textures). Metro Exodus is misschien een beter voorbeeld waarbij, gezien de setting, RT een flinke impact heeft op de ervaring. Ook in Cyberpunk en Control vind ik het absoluut de moeite waard. In Spider-Man Remastered is het verschil duidelijk, maar zijn er met enige regelmaat storende artifacten.
Enige spel waar je naar mijn mening een redelijk verschil ziet is Metro Exodus PC Enhanced Edition.

Maar goed, daar was de belichting in de oorspronkelijke versie gewoon slecht, en iets wat slecht is valt makkelijker te verbeteren dan iets wat al goed is. Voor de rest prima spel overigens.
Je moet hierbij wel vermelden dan de nvidea toolset gewoon beter is. Zoals bijvoorbeeld shadowplay.
ik moet zeggen dat ik weinig problemen ervaar met amd’s equivalent? Zelf heb ik een gtx 1080, maar twee vrienden zitten op een 6700XT en een 6800 en die doen dat volgensmij prima. Ze delen dikwijls clips en die zien er prima uit

[Reactie gewijzigd door youridv1 op 22 juli 2024 15:42]

Het is natuurlijk niet alleen shadowplay.

FreeSync vs GSync
DLSS vs FSR
Ultra latency mode plus reflex vs RSR
omgang met Ray tracing
Video encoding
Driver stabiliteit

hangt dus ook wel erg af welke generaties je met elkaar vergelijkt.
Op rasterization vergelijkbaar, op features wint Nvidia. AMD concureert nauwelijks meer op prijs.
Ergens ben ik wel blij dat gezien de huidige staat van de wereld het geen gemeengoed is 500W kaarten in te zetten om een beetje op te gamen. Maar wel jammer dat goede prestaties kennelijk steeds meer energie vereisen en daarmee een speeltje voor de (extreem) rijken worden.
Maargoed, misschien verrast Nvidia ons nog met een midrange kaart die ook gewoon beter is zonder het absurde prijskaartje en energieverbruik...
Maar met prijzen van €2000 is het ook totaal niet bedoelt als mainstreamkaart natuurlijk, en in huidige games haalt deze kaart zulke hoge framerates dat het eigenlijk overkill is.

Meer voor de hobbyist / freelancer die CUDA / Optix gebruikt.
Meer voor de hobbyist / freelancer die CUDA / Optix gebruikt.
Die kan dan toch beter een Quaddro kopen lijkt me?
Momenteel gaat de RTX 4090 op ieder vlak over de Quadro A5000 heen en hij is nog goedkoper ook. De A6000 is alleen interessant als je echt die 48GB geheugen nodig hebt, want hij heeft minder CUDA cores.

Ik zie die doelgroep in ieder geval meestal Geforce kaarten kopen, omdat de prijs/prestatie verhouding veel beter is. Zo te zien zijn de Quadro RTX kaarten gewoon 3090's met meer geheugen en een forse meerprijs.

[Reactie gewijzigd door Wolfos op 22 juli 2024 15:42]

Het is helemaal niet nodig om zoveel watt te gebruiken, want je hebt een heel klein prestatieverlies bij een 60% power limit. Dan gebruikt de kaart richting de 300 watt.

Dus de kaart is gewoon heel inefficient ingesteld. Datzelfde probleem zien we trouwens ook bij de nieuwe Ryzen 7000 serie. Die is op eco-modus ook veel efficiënter tegen minimaal prestatieverlies.
Is dat zo of is het een artificial boost?

Is het inderdaad een TOP kaart, dus presteerd het zonder kunstgrepen als DLSS dus op pure resolutie beter dan de AMD tegenhanger die binnenkort uitkomt? Is DLSS off inderdaad off of wordt op de achtergrond nog steeds aan upscaling van een lagere resolutie gedaan? Ergo draai ik 1440, maar krijg ik door upscaling een 4k beeld?

De prestatie is goed zelf met DLSS alleen de prijs is simpel belachelijk en niet uit te leggen behalve dat het aanbod (al dan niet expres) laag is. Dat hadden ze kunnen afvangen door te zorgen dat er een redelijk aanbod was voordat ze de kaarten de verkoop in gooide.

Zie ook:https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html

[Reactie gewijzigd door Slaiter op 22 juli 2024 15:42]

Zoals je in die link van Tom's Hardware kunt zien staat deze kaart momenteel op eenzame hoogte wat 4K prestaties betreft. Alleen met raytracing aan kun je gaan denken om DLSS aan te zetten.

Ik verwacht niet dat AMD hier overheen gaat, maar is dat nodig? AMD's top-end is over het algemeen een stuk goedkoper, en gezien de pure overkill dat de RTX 4090 momenteel is hoeven ze hier eigenlijk niet eens mee te concurreren. Deze kaart is alleen logisch voor workstation gebruik, of als je echt het beste van het beste wilt en op die gebieden legt AMD het toch wel af qua technologie.
Beter leggen ze de focus op de midrange, waar AMD wel interessant kan zijn.

[Reactie gewijzigd door Wolfos op 22 juli 2024 15:42]

Dat valt toch wel mee? Kaart is nu zo’n 2200 euro en 2 keer zo snel, over het algemeen, als een kaart die 1200 kost. Dat betekent dus dat het kwa prijs-prestatie nauwelijks is opgeschoten.
Ik heb het ook niet over de prijs-prestatie verhouding, maar over de prestatieboost. De prijs-prestatie verhouding is al sinds jaar en dag ver te zoeken bij de topmodel kaarten.
“De prestatie-boost vergeleken met een RTX 3090 is zo groot, dat de prijs-prestatieverhouding niet eens zo gek is. "

Ben ik nou gek of heb je het wel degelijk over de prijs prestatie verhouding? :+
Haha, ik ben een clown 8)7

Nu ik er zo over nadenk is de fps/euro eigenlijk best wel ok. Sterker nog, het verschil tussen de 3080 en 3090 is veel groter dan tussen de 3090 en 4090.
De prijzen hebben niks met concurrentie te maken, die zijn puur gegroeid door afgelopen serie scalp gedrag en mining markt.
Nvidia gaat hun winst voorspelling nog wel naar beneden stellen deze keer, want heel veel hebben nu prima 3xxx kaarten die het ook goed doen, en thuiswerken en een pc nodig hebben is ook minder geworden. Net als mining door de verandering van hoe crypto het best gemined kan worden.
Ok, laat ik het even rechtvaardigen voor je - althans; zo rechtvaardig is het persoonlijk:

Ik weet bijv. dat ik er 3 jaar mee zal doen - 2199 / 36 is dan ~60 EUR per maand. Trek daar nog 900 EUR van af ivm verkoop van mijn oude 3090 (dit zal natuurlijk per persoon verschillen) - en je zit (in mijn geval) op 1300 EUR of te wel ~35 per maand aka rond de 1,10 EUR per dag voor dit beest. Hoezo niet te rechtvaardigen! Dik waard joh!
Vergeet het stroomgebruik niet mee te tellen: iedere 2 uur gamen met zo'n kaart kost je ruwweg een euro. Kan best aantikken als je veel speelt...
Zeker, goed punt. Persoonlijk kom ik van een 3090 die ongeveer hetzelfde verbruik had (althans met een 450W XOC bios van EVGA). Vandaar, in mijn geval verwaarloosbaar.

EDIT: 50 cent per kW? Wel erg duur. Ik betaal zelf op dit moment gemiddeld 20-25 ivm dynamische tarieven (spot prijs). Flink lager dus. En dan tellen we zonnepanelen geeneens mee natuurlijk (die stroom leveren aan een kostprijs van 7 cent per kW).

[Reactie gewijzigd door flyas op 22 juli 2024 15:42]

Volgens diverse energiesites ligt de gemiddelde kWh prijs net onder de 90 cent op dit moment.
Lees: Dynamische tarieven. Jij quote een gemiddelde prijs van variabele contracten. Zie bijv het volgende tweakers artikel mbt dynamische tarieven en spotprijzen.. Enjoy!

EDIT: Zie hier de daadwerkelijke prijs van stroom, met BTW en ODE - van de laatste maand. Zoals je wellicht opvalt, is de electriciteitsprijs flink gezakt laatste weken. Eveneens als gas trouwens. Ik betaalde de laatse week gemiddeld 1,20 EUR per m3.

[Reactie gewijzigd door flyas op 22 juli 2024 15:42]

Stel je speelt 20 uur per week, wat vrij veel is. Dat is dan een tientje per week, met jouw extreme voorbeeld van hoge energieprijzen en maximaal energiegebruik. Valt best mee voor 20 uur entertainment.
Als je zo'n kaart koopt ben je waarschijnlijk wel bovengemiddeld actief. Zijn ook hele volksstammen die meer dan 20 uur in de week spelen (2 uur 's avonds door de week en een dag in het weekeinde zit je er al overheen).
En qua entertainmentwaarde: het is dan misschien goedkoper dan een bioscoop of uit eten, maar dat doe je geen 20+ uur in de week normaal gesproken. Ik vind het hoe dan ook significante kosten.
Ach, m'n 4090 gebruikt minder dan m'n 3080. In absolute getallen al en al helemaal relatief gezien. Spellen die nu maar 60-70% van m'n 4090 gebruiken zitten maar op 180-220W verbruik. M'n 3080 zat dan allang op 100% en dus 300W. Beiden underclocked, uiteraard.
Nee veels te duur. Rond 500 euro was het nog oke.
3080 was 750-800 euro bij introductie vorige keer, gezien de prestaties toch verantwoordbaar hoor.
Deze zijn idd te duur en zie ook niet echt de meerdwaarde mijn 3080 speelt zo goed als alles vlot af .
Met die redenatie zou mijn huidige computer een miljoen keer duurder moeten zijn dan mijn eerste computer. Uiteindelijk gaat het hier om een kaart die - tenzij je AI onderzoeker bent - gebruikt wordt voor games. (mogelijk nog een beetje cryptovaluta, maar dat lijkt ook aan z'n eind te komen)

Waarschijnlijk bouwen game ontwikkelaars nog wel even door voor de huidige generaties kaarten. Pas als dit soort kaarten goedkoper gaan worden zullen ontwikkelaars het aandurven voor kaarten met dit soort prestaties te gaan ontwikkelen.
Ik verwacht dat een aantal ontwikkelaars hun ultra settings zullen aanpassen op kaarten zoals dit, puur om te kunnen pronken. Maarja, als je een beetje wilt verkopen moet je op z'n minst nog voor consoles optimaliseren en dat moet er ook nog een beetje uit zien...
Ultra mag wat mij betreft ook best een beetje toekomst bestendig zijn. Dat hij pas over 5 jaar op een gemiddelde of zelfs high-end kaart goed zou draaien bijvoorbeeld. Er zijn zoveel games waar modders jaren later(of zelfs vlak na release) op zijn minst texture mods uitbrengen om het nog mooier te maken.

Terwijl de devs waarschijnlijk nóg betere textures hebben die op de helft of nog minder van de resolutie meegeleverd worden. Datzelfde geldt ook voor de 3D modellen. Lever die gewoon mee. Het is geen vereiste dat Ulltra op het moment van uitkomen speelbaar is. Zo lang medium of high er ook maar goed uitziet. Schaalbaarheid(of modbaarheid) zorgt voor een enorme boost in replaywaarde. Ik zie ook niet in wat je mist als je 'niet eens fatsoenlijk op ultra kan spelen'.
Textures kosten teveel opslag, en betere 3D modellen zijn er over het algemeen niet (de high-poly sculpt modellen zijn niet geschikt voor in de game). Het enige dat ze zouden kunnen doen is resoluties van effecten wat ophogen, LOD bias, drawing distance, dat soort dingen.
Modellen zijn een kwestie van één extra lod met een hoger budget. Al zou bij veel spellen een lod bias slider die nog iets hoger kan ook al een prima oplossing zijn. Maar inderdaad draw distance kan al een enorm verschil maken. Alweer een kwestie van een slider die nog iets verder gaat(in sommige gevallen is dat zelfs al via de config files te bereiken). Hogere resolutie textures kunnen ook als free DLC aangeboden worden(wat ook wel zo nu en dan gebeurt overigens).

Ik kan spellen waarbij de hoogste instellingen nog niet echt fijn lopen in elk geval goed waarderen, aangezien velen een replay doen op het moment dat ze (al lang) veel betere hardware hebben. En dan bedoel ik natuurlijk niet onspeelbaar vanwege slechte optimalisatie(vooral van de game engine). En een kubus met 6000 polygonen is natuurlijk ook zinloos. ;)

Al moet ik, dit gezegd hebbende, wel zeggen dat ik heel veel verwacht van UE5 vooral omdat die deze schaalbaarheid goed mogelijk maakt.

Als games goed schaalbaar waren was er ook een veel kleinere markt voor remasters. Het niet hebben van een remaster belemmert me soms al een 10 jaar oud spel niet weer te spelen omdat het er in je herinnering toch gedetailleerder uit zag. De resolutie kan me eerlijk gezegd nog niet eens zo heel veel schelen, zo lang er maar geen aliasing is bij 1080p(onder dezelfde voorwaarde misschien nog 720p).
Neen, de opmerking was dat de laatste generaties van grafische kaarten te duur waren voor wat ze aanboden.

De 1080 ti die ik hiervoor had was ook een 750 euro en deze 3080 is 0.5 tot 1 keer sneller.
GTX 970 OC daarvoor een 450 euro 3080 is 2 tot 5 keer zo snel.

High end heeft altijd redelijk wat geld gekost.
En voor die prijzen zijn er meer de verkoper geannuleerd dan geleverd. De prijs van de 3080 schoot al heel snel naar 1500 euro, waardoor gewoon hele modellen niet meer geleverd werden zodat ze de reserveringen konden annuleren.
Nee hoor, ik weet nog de lijsten die bijgehouden werden en daar werden honderden verkocht, deze prijzen waren er ook enkele maanden , tot ergens begin 2022.
Heb je wel eens gekeken wat racefietsen en mountainbikes kosten, of surfmateriaal, of optiepakketten op auto's, of... Te rechtvaardigen of niet mensen willen geld uitgeven aan hun hobby omdat het kan, omdat ze het hebben, omdat het gewoon leuk is, om te patsen of omdat ze denken het nodig te hebben.

Die mensen zullen er altijd zijn en dit soort prijzen zullen blijven. Fabrikanten en shops hebben in de Corona-periode gezien dat mensen het betalen dus het hek is van de dam.
En als je het niet uitgeeft aan iets leuks is het volgend jaar pakweg 10% minder waard door inflatie.
Kun je maar beter zorgen dat je genoeg hebt voor noodgevallen en genieten van de rest.
Ik denk dat het grote merendeel van de mensen zo denkt (let's be honest, met een game-pc hoor je al bij de fortuinlijken op aarde, de meeste mensen hebben at best een smartphone).

Maar toch heb je wel mensen die zeker een ton per jaar verdienen netto, en dan zijn deze kaarten zo gekocht natuurlijk als je het beste van het beste wilt. Uiteindelijk moet je dit afzetten tegen je besteedbare inkomen na belasting, huur, en dat soort zaken. Als het dan nog geen weekje sparen is voor je, dan is het niet zo gek meer.
Daarnaast heb je ook nog hier en daar een enthusiast die bewust voor dit soort kaarten sparen, niet goedkoop maar als het je hobby is why not? Je hebt ook mensen die tienduizenden-honderdduizenden euros extra spenderen voor een sportauto die ze af en toe een zondagje over de dijken jagen.

In ieder geval zal deze prijsklasse vooral erg niche blijven. Een 4050 of 4060 ga je gegarandeerd velen malen vaker zien als die uitkomen.
Ik denk dat er meer mensen zijn dan je denkt die die kaarten kopen. als je ziet wat er 2 weken geleden leverbaar was en nu,...is er nu bijna niks meer.
Wat betaal je voor een auto of voor een huis? Significant meer dan voor deze videokaart en toch kopen heel veel consumenten een auto en/of huis... Ja maar... Hoor ik iedereen al roepen: "Maar das een auto en een huis!". Het ligt er aan hoeveel geld je heb en wat je waar voor over hebt. Er zijn mensen die in een dure auto rijden of een groot huis wonen, maar het geld voor een 4090 er absoluut niet voor over hebben. Anderen zouden een (dure) auto of een (groot) huis niet kunnen betalen, maar leggen wel het geld opzij voor een 4090.

Daarnaast kloppen je aannames niet, gedurende de pandemie zat de 3090 redelijk wat tijd tussen de €3.000 en de €4.000, zeker lang boven de prijzen van de 4090. De MSRP introductie prijs van de 3090 Ti was zelfs 15% hoger dan de 4090. We hebben nu een (korte) periode van relatief veel vraag en weinig aanbod van een 4090. Maar de geïnteresseerden zullen de komende maanden allemaal voorzien zijn en ik verwacht dat het aanbod dan significant hoger zal zijn dan de vraag (met daarbij lagere prijzen).

Ik kan een aantal situaties bedenken waarbij het interessant zou zijn om een 4090 te hebben/gebruiken, in geen van die situaties zit ik momenteel in of verwacht ik de komende maanden te zitten... De geteste MSI 4090 trekt Idle meer dan mijn mini PC of Steam Deck onder full load...
Ik ben het in principe wel met je eens dat je dit soort aankopen kunt relativeren en dat mensen aan andere dingen ook veel geld uitgeven. Maar in het geval van een GPU als een RTX4090 gaan dit soort vergelijkingen natuurlijk een beetje mank. Je hebt namelijk feitelijk nergens een RTX4090 voor nodig, zeker niet als je hem vooral voor games gaat gebruiken… Een tweedehands kaart uit de 20 of 30 series kan namelijk ook alles draaien alleen moet je dan de instellingen wat terug draaien. Zelfs als je zo’n ding voor compute toepassingen gaat gebruiken is het maar de vraag of je niet veel voordeliger uit zou zijn als gewoon een cloud server zou huren. Een auto of een huis heeft meestal nog wel wat andere fundamentele kwaliteiten die daadwerkelijk belangrijk zijn en de prijs bepalen.

Iedereen moet gewoon zelf weten of het het geld waard is, het is gewoon een luxe product en als je het geld hebt en je wil het beste van het beste dan waarom niet… Ik heb het er zelf niet voor over, vond mijn 3080 al absurd duur voor €900 (en dan heb ik nog enorm geluk gehad want vlak daarna kostten ze twee jaar lang meer dan het dubbele). Maar ik snap wel dat sommige mensen het kopen, het heeft een hoge hebfactor.

Overigens ben ik het niet helemaal eens met stellingen als ‘Nvidia probeert nu gewoon de hoge prijs te pushen maar als ze erachter komen dat mensen het niet kopen of als AMD een concurrent uitbrengt dat binden ze wel in’. Voor Nvidia is dit een halo/prestige product, om te kunnen claimen dat ze de beste tech hebben. Hoeveel ze ervan verkopen kan ze waarschijnlijk weinig tot niks schelen, de grote winsten komen bij Nvidia van de professionele producten (cloud, AI, professionele workstation GPU’s, etc). Consumenten GPU’s is al lang niet meer hun belangrijkste business case
Daar komt bovenop dat huizen in waarde stijgen, iets dat ik een RTX 4090 niet zie doen, hoe snel het ook mag zijn :D

Ik heb op dit moment een AMD Radeon RX 590 (225w) met 8GB vram @ 2Ghz, en kan er alle PS4 games mee spelen in 1080p met hoge framerates. Zodra de PS5/Xbox games voor de PC uitkomen en ik een kaart nodig ben dat zonder problemen 4k aankan, dan koop ik wel een RTX 4070 of een vergelijkbare AMD. Scheelt een boel poet en een hele sloot stroom (dat ik dan weer investeer in het verwarmen van het huis).

En wie heeft er nu een kaart nodig dat een moderne PS5 game op 1000fps (?) draaien kan? Er zijn nog geen 4k pc monitoren verkrijgbaar @1000Hz gecombineerd met 0.1 ms gtg response time, dus... ;)

/edit:
@Cergorach hieronder: de persoonlijke info op mijn profiel is puur grappenmakerij. Dat je het gebruikt als een ad hominem in je reply is erg jammer, want je ontkracht er enkel alleen jezelf mee.

[Reactie gewijzigd door John Stopman op 22 juli 2024 15:42]

De 4090 is in USD juist het best geprijsde product uit de 4xxx serie. Je krijgt namelijk serieus veel performance voor een beperkt premium (meer performance gain dan price gain tussen de 4080 en 4090).
Ik zie geen extra halo-product-premium toegepast worden (zoals bijv Titan vroegah).
De zwakke Euro kan je nvidia moeilijk aanrekenen.
Desalniettemin vraagt nvidia te veel voor haar range van consumenten producten
Persoonlijk ligt het er maar net aan, dat kan om 2000 redenen uiteenlopen waarom die persoon vind van wel. Te veel geld voor een hobby die je bevalt is er altijd een reden.
Zakelijk, kijk daar zijn we dan. Als heel veel rendert of gewoonweg modelleert kan het gek genoeg sneller uit dan je denkt. Mensen die dit goed kunnen zijn ook duur en hoe meer downtime je hen moet geven hoe duurder ze worden per project. Tevens kan reactievermogen tijdens modelleren of gewoonweg een model tonen wat dichter bij de uiteindelijk render zitten al in tijd schelen.
Het makkelijkste voorbeeld van wat zakelijk uit kon was natuurlijk de cryptohype van de afgelopen jaren. Het kan uit omdat een nieuwer model binnen een bepaalde tijd meer winst maakt dan een ouder model. en als die periode binnen 2 jaar is dan is dat nog een prachtig op tijd voor een nieuwe generatie elke keer ook nog. Vooral als je de oudere generatie alsnog voor praktisch dezelfde prijs kan verkopen. (dat is volgens mij ook de tactiek van Nvidia, trickle-down-videocard-economics)
Tja, of iets duur is is behoorlijk subjectief. Maar de enige reden die ik nodig heb: 4K 120Hz scherm. De 3000 series was er niet snel genoeg voor, de 4090 wel (4080 en lager niet).

Naar de inflatie kijkend (en nog belangrijker, de toename in inkomsten) is de 4090 minder duur dan de 3090 qua adviesprijs en al helemaal op de tweedehandse markt.
Nou ja, op zich zou ik best zo'n videokaart bij elkaar kunnen sparen. Maar, om die videokaart goed tot z'n recht te laten komen, moet ik de rest van mijn setup van voeding, cpu tot aan mijn beeldscherm ook upgraden. En dat gaat aardig in de papieren lopen.
En daardoor vraag ik me af of het allemaal de moeite waard is, aangezien ik nu ook een setup heb, waar ik tevreden mee ben en prima (zij het op lagere instellingen) mee kan gamen.
Refresh rates op VR brillen met een forse resolutie zijn nog wel een ding. Dat is een stuk zwaarder dan op reguliere monitoren.

Als je dan van 20 FPS naar 40 FPS kan of misschien zelfs nog wel meer, dan is dat een heel stuk lekkerder spelen.
Wel ja, voorbeeldje:
4090 vs 3090ti in DCS World in VR

https://www.youtube.com/watch?v=SgKzk7YMTtY

Zoals iemand opmerkt: gemiddeld 15fps meer. Dat is zeker voor VR gigantisch veel en in die fps regionen zeer welkom.

Let wel, dan mag je wel een liefhebber heten... :o
Echter als je gaat uitrekenen wat andere hobbies kosten per uur, is het eigenlijk een nog lachertje.

Ik heb nog geen sluitend/grammetje bewijs gezien voor een hiernamaals, geniet nu ;)

Dus tja, als de consument het over en ervoor over heeft.
Voor de mensen die een Rtx 4090 te duur vinden en er geen geld aan uit willen geven is er gelukkig een alternatief een Intel Arc doet het wel een stuk minder maar kost ook minder
maar als jij het niet erg vind houd ik het wel bij mijn RTX 4090
Wellicht als je veel geld hebt en gamed op een 144hz 4k monitor. DLSS 3.0 is ook wel een toevoeging met dat soort schermen. Om die reden ben ik zelf van plan om een 4080 aan te schaffen.
Je bent niet de enige die zo denkt.
Dan is dit product dus niet bedoeld voor jouw. Je kan makkelijk een goedkopere PC bouwen, alleen dan kies je een andere videokaart. Ja prijzen zijn de laatste tijd gestegen, maar er is nog genoeg aanbod van de RTX 3000 serie welke niet bepaald traag zijn ofzo.

Is hetzelfde als zeggen dat de gloednieuwe Bugatti van weet ik het hoeveel miljoen niet te rechtvaardigen is. Het product is nou niet op jouw gemikt. Nvidia mikt hier op de mensen die het er wel voor over hebben. Gelukkig dwingt niemand je om deze te kopen. Als niemand koopt moeten prijzen wel gaan zakken, maar zolang er interesse is, waarom niet meer geld vragen en extreem snelle producten maken?
Helemaal met je eens hoor! PC upgrades kostten bij mij zelden meer dan 1000 euro, en dan had ik echt een prima midrange pc waar ik alle games mee kon spelen en jaren mee vooruit kon. Met de huidige prijzen, forget it.

Voor het eerst in jaren daarom ook weer een console gekocht (XSX), waar ik al mijn gaming plezier uit haal tegenwoordig.

Ik heb vorig jaar een vlotte pc gekregen van een emigrerende vriend, waar ik meeste nog mee kan doen. Misschien, heel misschien zal ik volgend jaar een gpu upgrade overweeg, als de amd nda3 kaartjes komen. Maar dat is dan eigenlijk al een investering waar ik mijn twijfels over heb...

Nu heb ik als alleenverdiener in een onlangs aangeschaft huis momenteel ook niet per se veel vrij besteedbaar inkomen, gezin gaat voor, maar zelfs als ik dat wel zou hebben, betwijfel ik of ik dit soort uitgaven zou doen. Dan maar sneller hypotheek afbetalen ofzo ;)

Maar goed, iedereen zijn ding...
Eens. Nvidia is zelf de scalper geworden. Heb voor de prijs van 2 Playstation 5’s een 3090 gekocht en was er beroerd van. Die grens gaat niet nog een keer verlegd worden.
Tsja, als je mee wilt doen op wat technisch de bleeding edge is, zal je wat moeten bloeden. En hobbies mogen doorgaans wel wat geld kosten. Spiegel dit aan wat mensen uitgeven aan zeg velgen voor een auto, of high end HiFi apparatuur, en dan is het ineens een soort van relatief betaalbare hobby.

Ik zou het er niet voor over hebben net als u, ik kan op mijn Morefine mini-pc prima CIV III spelen, dus grotere PC investeringen zal je mij niet zien doen. Wat wij aan wijn uitgeven, is een ander verhaal. Idem mijn audio hobby. (en ja, ik prijs me gelukkig dat we nog middelen hebben om aan hobbies uit te geven, dat lukt helaas lang niet iedereen op het moment)
Er zijn zoveel zaken niet te rechtvaardigen..
Over wat te rechtvaardigen is is uiteraard persoonlijk.
Een dure iPhone of iPad of auto is ook voor velen niet te rechtvaardigen en voor andere wel om wat voor een reden dan ook.

Vind +2 dan ook een hele rare moderatie want er zit niet of nauwelijks echte info in je bericht, behalve dat jij het niet kan rechtvaardigen.
Ik ben benieuwd welk cpu je minimaal moet hebben om het maximale uit de kaart te halen.
Ik heb de 8700k en ik denk dat het zonde is om zon kaart aan te schaffen. Zelfs de 4080.
Minimaal? Ryzen 7 5800X3D. Zelfs de nieuwe 7900x is niet snel genoeg om deze GPU tot 100% te loaden, je moet dan naar de 7950X. (Zen4 heeft nog geen 3D cache varianten).

Een 8700K is een Coffee Lake hexacore. Ik zou niets boven een 3070 adviseren. Even heel simpel: die 8700K heeft maar 16 PCIe lanes, en dan ook nog maar PCIe 3
I9 9900k hier maar qua fps die ik niet erg onder vergeleken met veel benchmarks. Ik heb de RTX 4090 Gaming X Trio.
Heb nog ryzen 3900x zul je dan nog wel een dikke boost krijgen, als je van 2080 super komt?
Niet echt, dan ben je beter af met een goedkoper model. Ook een 4080 zal CPU-bound zijn.
Ik game in 1440p en als de fps minimaal 60 fps is vind ik het goed. Dat moet toch nog wel mogelijk zijn met een ryzen 3900x?
Inderdaad, maar wat je dus wil doen is de goedkoopste GPU zoeken die aan je FPS-wensen voldoet. En de 4090 is zéker niet een goedkope GPU.
Ik hou het idd wel ff bij de 3070, niet echt slechte kaart nog :-)
Dat hangt totaal af van de grafische instellingen. Op 4K ultra wordt je echt geflessenhalst. Zolang je FPS niet boven de ~144 uitkomt heb je echt geen probleem.
Dat hangt natuurlijk af van de resolutie waarop je gaat spelen.
Speel je op 1920 x 1080 dan kun je minimaal het dubbele aantal frames verwachten met bv een 12600 oid,en nog meer met een 13900 om maar iets te noemen uit het snellere segment.
Op 4k is de winst (doordat de videokaart de remmende factor wordt door al het grafische geweld dat nodig is op deze resolutie) aanzienlijk kleiner.
Deels bepaalt ook de game de winst van een snellere cpu.
Maar de 8700k lijkt me op 4k wel de grens te bepalen, op 4K,dus een snellere cpu heeft zelfs op 4K wel zin, (als je behoefte hebt aan meer fps)

[Reactie gewijzigd door nutty op 22 juli 2024 15:42]

Geen prijzen meer.

Ik ben blij met mijn console van de nieuwste generatie.

Het zal best allemaal wat mooier er uit kunnen zien met deze generatie maar het plezier van spelen is er niet minder om.

Ja rts games is wat minder maar de hoge prijs en stook kosten wegen daar niet tegen op.

En er wordt helaas weer misbruik gemaakt van de schaarste...
Dat is precies wat ik dacht, dit soort prijzen zijn de nekslag voor pc-gaming, vind je het gek dat consoles steeds populairder worden.
Erger nog, ze creëren schaarste🙄
Ongelooflijk dat je anno 2022 ruim 2000 euro moet neertellen om een paar spelletjes soepel te laten draaien. Dat had ik in 1995 niet verwacht. We leven nog in de technologische middeleeuwen.
Diezelfde spelletjes doen nu 200FPS op je iGPU.

Het punt zijn de nieuwe games, waarin elk blaadje van elke boom zo ongeveer z'n eigen texture moet hebben. Worden die games daardoor veel beter?
Als je niet persee krankzinnige resoluties en framerates eist dan kan je voor een meer acceptabele prijs prima gamen.
Nadeel goedkoopste kaart (die niet bij de andere kaarten genoemd wordt):
• Duur
Mogelijk moet de review even herzien worden gebaseerd op de huidige leverprijzen. :P

Iets algemener:
Wat een prijzen! En dan te bedenken dat ik voor minder 5-6 jaar geleden een hele PC samenstelde, inclusief GTX 1080. :o

[Reactie gewijzigd door The Zep Man op 22 juli 2024 15:42]

Ik heb mijn RTX3090 strix oc flink op zijn staart getrapt met een overklok van 2040 MHz en ram + 1000mhz en mijn 5800X overgekookt naar 5ghz. Ik zit met rd2 op 45fps met alles ultra op 4k dankzij Gsynch makkelijk speelbaar. En dan heb ik dlss nog niet eens ingeschakeld.

Waarom zal ik 2k uitgeven als een 3000 serie kaart al ongelooflijk snel is. ?
4090 hier (stock) pushed makkelijk 90-100 fps @ RD2 zonder DLSS, ongelofelijk verschil - juist als je 4K 120hz+ draait. Met DLSS wordt het verschil nog exceptioneel groter. Komende van een 3090 hier ook, ik kan alleen zeggen dat voor mij is ieder geval het de investering dik waard :) - kan eindelijk mijn 4K en ultrawide schermen pushen richting de hoge framerates waar ze voor gemaakt zijn. Lukte tevergeefs niet met de 3090.
Ik denk dat het met een 3090 Ti ook wel zou lukken, mits je natuurlijk niet alles op ULTRA zet. Altijd voor high instellingen gaan en hier en daar zelfs medium, je zal het verschil echt niet zien!

Dus degenen die met plezier Ultra setting gaan gebruiken, vooral in de nieuwste games, snappen er niets van en verliezen onnodig een pak fps in hun games, wat zeer jammer is! :-)
Ik heb ruim genoeg aan 60 fps. Ik kom van consoles vandaan ik ben dus altijd lagere frames gewend 30Fps of zelfs lager.
Ik ben dus niet zo moeilijk. :*)
Ik begrijp je. Zeker - als 60fps voldoende is dan is de 3090 meer voldoende - zelfs overkill in veel situaties. Maar als je schermen hebt aangeschaft met hoge refresh rates (heb 240hz 5120x1440 ultrawide ivm simrig en 4K 120hz scherm) - dan is de 3090 niet voldoende deze ook echt te benutten. Met de 4090 lukt dit eindelijk!
Ik zou wat settings tweaken om de 60fps te halen. Er zijn veel ''ultra'' settings waarbij je het verschil nauwelijks kan waarnemen. Alles naar de max slepen is niet altijd nuttig.
Weet ik. maar ik kan prima op 30 fps gamen. :*)
Omdat je zoals je zelf al aangeeft, een 3090Ti niet krachtig genoeg is om op 4K Ultra minimaal 60fps te halen in RDR2. Met respect niet de nieuwste game meer. Persoonlijk zou ik het geld al niet voor een 3090Ti over hebben, maar de usercase voor nog meer power lijkt me best evident.
Met DLSS zit ik over de 70fps met mijn overklok.
En ik heb mijn RTX3090 gekocht voor 950 euro met en waterblock en backplate van EK.

1k is gewoon mijn max voor een GPU en daar wil gewoon het beste voor terug

2k vindt ik gewoon Asociaal, ik kan het betalen maar heb het er gewoon niet voor over, al zou ik het kopen voel ik me bedonderd.

Ik wil gewoon de beste deal maken, waar ik me goed bij voel.
En dat betekent tegenwoordig het één na nieuwste generatie aan te schaffen. :*)
Jij misschien niet, maar als je veel VR spellen (DCS bijvoorbeeld) bekijkt kan het zeker zin hebben.
Ik ken iig geen VR games die G-sync en DLSS ondersteunen.
Mijn usecase; in VR kunnen simracen zonder de render resolutie terug te hoeven zetten naar 50% icm met low settings. Maar helaas ben ik niet van een economische klasse dat deze kaarten voor mij bereikbaar zijn. Misschien over 2 jaar eens :)
ik denk dat dat overkoken nog wel eens een probleem kan worden
In de conclusie schreven we al:
.... speelt ook de prijs een rol. Om eerlijk te zijn kunnen we daar op dit moment simpelweg niets zinnigs over zeggen. De verschillende modellen zijn mondjesmaat leverbaar en de prijzen verschillen niet per dag, maar per uur.
Ik denk dat we daar nu gelijk een mooi voorbeeld van zien, en ik ben benieuwd hoe lang - in dit geval SI Computers - de MSI kaart voor deze prijs in de 'uitverkoop' zal aanbieden.. :+

[Reactie gewijzigd door Eric van Ballegoie op 22 juli 2024 15:42]

Opzich mogen alle kaarten uit deze review wel het minpunt 'Duur' krijgen lijkt mij. Minimaal 1900 euro voor een videokaart is toch gewoon te ziek voor woorden?

Een videokaart die een prijs heeft van € 2.899,- (bij publicatie) krijgt een minpunt 'Duur', maar een videokaart die € 2.649,- is bij publicatie is niet "duur"?
Minimaal 1900 voor DEZE videokaart. Je moet niet net doen of de RTX 4090 de enige videokaart op de markt is en dat iedereen deze maar moet kopen. Je kan toch ook een RTX 3080 oppikken voor 700 euro? Dat is minder dan dat ik 6 jaar geleden voor mijn 980 Ti betaalde.

Het is maar net waar je je druk om maakt.

Ja meneer ik wil graag een nieuwe BMW M3, maar die prijs slaat echt nergens op! Mijn Fiat Panda van 15 jaar oud koste maar 1/5! Echt te ziek voor woorden.
Tja, vroeger kocht je een topmodel voor de helft van de prijs. Er heeft zeker wel een forse inflatie plaatsgevonden bij Nvdiia.

Ter illustratie: De originele Titan videokaart kostte 999 dollar bij introductie. GTX690 kostte ook 999 dollar. Titan X kostte ook 999 dollar. (Overigens kostte de 980Ti maar 649 dollar).

Pas bij de 10xx serie zijn we boven de 1000 gekomen. En dan voor de Titan kaart. Dit is een xx90 kaart. nog niet eens een Ti.

Nvidia heeft gewoon dollartekens in de ogen, en denkt dat ze dit soort absurde prijzen kunnen blijven vragen na de cryprocrash.
Een groter deel heeft met normale inflatie en de eurokoers te maken.
2 jaar terug was het ongeveer 1 op 1 van US prijzen naar NL prijzen.

In de US is deze kaart 1600 dollar.

Dus laat maar zeggen. De inflatie van de afgelopen 1/2 jaar plus euro koers is al 2400-1600 = 800 euro. (inclusief dan wel de webshops die je erbij naaien, maar goed voor het bedrag 1600 waarmee je verder rekent maakt dat nu toch niet uit, was anders ook hetzelfde).
Dan houden we nog 1600 euro over.

Als we dan inflatie van 9 jaar (GTX 690 release) bekijken, nu 1600 euro was toen 1300 euro.

GTX 690 was 1000 euro.
Dan zitten we dus op een prijsverhoging van 300 euro.

Productiekosten zijn ook verhoogd door inflatie, en gewoon doordat de wafers duurder zijn geworden omdat er veel meer op een klein oppervlakte zit.
Transistors GTX 690
3,540 million
vs
Transistors RTX 4090
76,300 million

Vind je het dan nog steeds veel? van 1000 naar 1300 in 11 jaar. 650% sneller.

Er zijn veel meer componenten op de kaart zelf nodig. En ook veel meer features ingebouwd.
En ik durf ook wel de wedden dat Nvidia als bedrijf de afgelopen 10 jaar ook een stuk meer kosten is gaan maken.

Ik zeg niet dat deze prijzen fijn zijn. Maar voor bijna alle extra kosten is wel een verklaring.
"vroeger was dit zo" heb je niks aan, we leven nu. Je koopt nu een kaart voor 400 euro die rondjes drift om de kaart van 10 jaar geleden die 1000 was. Toch nog vooruitgang?

[Reactie gewijzigd door Modderhoop op 22 juli 2024 15:42]

Wat een modderhoop zeg... 8)7

Uw uitleg ook als laat dat op feiten hier en daar, interesseert niemand.
Het gaat erom dat de prijzen, en vooral van videokaarten schandalig hoog zijn geworden.

De prijs, verbruik van een top end kaart dezer dagen is gelijk aan een volledig PC build van 4-5 jaar geleden, dit zegt al genoeg hoe erg het is geworden, en maakt uw beweringen en kijk op deze evolutie gewoon irrelevant.
Scherp. En eens. Het is nu het Wilde Westen qua levering en prijzen. Alleen denk ik dat volumes van het paradepaardje van deze serie een stuk lager zullen zijn dan bij vorige generaties.
En die GTX 1080 is nog steeds een prima kaart voor bijna alles. 8-)
Mwah mijn 1080ti begon zijn leeftijd toch wel te laten zien in de nieuwste games maar als je geen hoge eisen stelt doet hij het nog meer dan prima. Daarom gebruikt mijn partner hem nu want Sims of wot gaat meer dan prima op 1080p.
De Ti variant van de 1080 heeft natuurlijk wel 3GB meer, dat maakt de houdbaarheid wel een stuk beter.
Tegenwoordig is een video kaart opzich al haast een volledig computer als je kijkt hoeveel geheugen er op zit, rekenen kracht, hoeveel componenten en vebruik.
5-6 jaar geleden ook al, en daarvoor ook al.
Alleen jammer dat je er niks mee kan met zo'n losse kaart zonder de andere toch al duurder geworden componenten eromheen, nietwaar?
Ik vind het juist frapant dat 'duur' slechts als minpunt bij een van de kaarten staat...
Ik zie ze daar al lachen bij nvidia. Lekker cashen. Voor minimale moeite
Waarom heeft de MSI de Ultimate Award gekregen? Als ik bij de prestaties kijk heeft de Inno3D bij alle games net 1 fps meer (I know, het is maar 1 fps, maar toch).

Hij is ook net ietsje zuiniger en bij 100% fan stiller (hoewel in-game is hij dan weer luider en warmer).

Ze hebben allebei hun voor- en nadelen, wat heeft de MSI over de streep getrokken om de Ultimate Award te krijgen?
Ik vrees 'omdat het zo hoort' om de MSI altijd de hemel in te prijzen. :?
Ik had ook graag een ASRock kaart in de opstelling gezien, maar misschien is die nog niet uit?

[Reactie gewijzigd door hooibergje op 22 juli 2024 15:42]

ASRock maakt geen Nvidia-videokaarten.
De gameprestaties verschillen onderling nauwelijks, en wegen dus ook niet zwaar bij de beoordeling. Daarvoor is veel relevanter hoe goed de koeler in. Bovendien hebben fabrikanten daarbij veel meer de mogelijkheid om zich te onderscheiden.
Oke, ik snap je onderbouwing. Dankjewel voor de toelichting!
Ik begrijp persoonlijk niet goed waarom bij de minst-dure kaart het nadeel "Duur" wordt gegeven, terwijl alle andere alternatieven veel meer kosten dan deze (afgezien van de niet-verkrijgbare FE natuurlijk) .
De Suprim is wel degelijk de duurste (echte prijs), dit is het topmodel, net als de ROG Strix bij Asus.
https://www.gputracker.eu...gpu.video-memory.gb_min=8

Dat MSI er een goedkoper prijsje aan heeft gehangen zegt weinig, hij zal vrijwel altijd duurder blijven dan de Gigabyte Gaming of Asus TUF.
gisteren een uur lang de 4090fe kunnen kopen, denk dat het eerder aan de mindset en een beetje moeite doen voor iets "niet verkrijgbaar" is en de gewoonljke klaagzang.

Vele andere zijn trouwens ook niet altijd in stock.
Ze zijn allemaal duur en dus zo elke kaart dat minpunt moeten hebben. De duurste noem je dan zeer duur. Dit terzijde , de echte 4080, die is pas duur.

[Reactie gewijzigd door Madrox op 22 juli 2024 15:42]

Ik verwacht dat de RTX 4060 gewoon €1000 gaat kosten, en de RTX 4070 zo'n €1400.

Wen er maar vast aan zou ik zeggen.
Volgens mij was de 4080 12gb iets van 1100 euro. Ik denk dat we een 4060 voor wat minder gaan zien.
Ik mag hopen dat een 4060 voor onder de 1k gaat, anders is pc gamen echt nog voor de "enthousiast"

[Reactie gewijzigd door Xander.M op 22 juli 2024 15:42]

Je kan natuurlijk ook voor een kaart van concurrent intel of amd gaan. Daarbij zijn de 20 serie en 30 serie kaart ook heus niet verkeerd.

Vergeet niet dat de PS5 over een gpu beschikt die ergens tussen de 2060 en 2070 presteert volgens Digital Foundry. Er zit nog heel wat licht tussen een 40 serie kaart en dat (voor veel mensen prima) mid-range niveau.
Adviesprijs misschien, maar niet de realiteit, dat is wel duidelijk met de 4090.
Mwa,nee geen 1000.
Als de voorraad 3000 zooi er doorheen is,gaat het aanbod groter worden,waardoor de prijzen gaan zakken.
Zal nog een maandje of zo duren...
Maar 4060 zal wel 600-700 worden verwacht ik wanneer de leveranciers los gaan met de kaarten.
Nou ja, we gaan het zien.

Een nieuwe kaart gaat er volgend jaar toch wel komen, mijn 1070 gaat dan na bijna 7 jaar de deur uit.

Op dit item kan niet meer gereageerd worden.