Met bijdragen van Willem de Moor en Tomas Hochstenbach.
MSI RTX 4090 Suprim X
Inno3D RTX 4090 iChill
Gigabyte RTX 4090 Gaming OC
ASUS RTX 4090 TUF OC
Nvidia Founders Edition
Samengevat
De MSI GeForce RTX 4090 Suprim X heeft de beste koeloplossing van de door ons geteste RTX 4090-videokaarten. De kaart is erg stil, en kan bij gelijke geluidsproductie beter koelen dan zijn concurrenten. Ook is de Suprim X hoogwaardig afgewerkt, maar tegenover de ultieme prestaties staat wel een flinke prijs.
De Inno3D GeForce RTX 4090 iChill X3 levert nagenoeg dezelfde prestaties als de snelste en stilste RTX 4090's, voor een iets minder astronomisch bedrag. Onder belasting is de kaart niet snel te horen en zelfs nog iets stiller dan de Founders Edition. Die kaart van Nvidia zelf is op het moment van schrijven niet op voorraad, wat de iChill X3 een voor de hand liggend alternatief maakt, mits hij zelf voor een redelijke prijs is te krijgen, uiteraard.
De Gigabyte GeForce RTX 4090 Gaming OC valt niet zo op tussen de andere geteste RTX 4090-videokaarten. De kaart heeft een minder lage geluidsproductie dan de rest en zit qua prestaties ook net niet bij de top. Wel lijkt Gigabyte zijn verkrijgbaarheid iets beter op orde te hebben dan de concurrentie, wat in de praktijk een voordeel kan zijn.
De ASUS TUF Gaming RTX 4090 OC is een beetje een vreemde eend in de bijt. Het is niet ASUS' meest luxe model, maar in vergelijking met de concurrentie is de prijs desondanks stevig. Wat de koeling en vooral geluidsproductie betreft, komt hij vrij goed mee met de MSI Suprim X, maar de gameprestaties zijn minder goed. De ASUS is de grootste en zwaarste kaart uit de test, dus dubbelcheck de compatibiliteit met je kast voor je hem aanschaft.
De Nvidia GeForce RTX 4090 Founders Edition is op papier wellicht de meeste interessante RTX 4090 omdat hij een minder hoge prijs heeft dan de custom modellen. Ondanks zijn twee ventilators doet de koeloplossing niet onder voor die van enkele andere RTX 4090's. Vooral de prijs van onder de 2000 zou de FE echter interessant kunnen maken, al kun je hem uitsluitend bij buitenlandse winkels aanschaffen - en daar is hij vanzelfsprekend stijf uitverkocht.
De GeForce RTX 4090 is Nvidia’s nieuwste vlaggenschip en markeert het begin van een nieuwe generatie videokaarten. Deze high-end videokaart moet volgens de fabrikant een flinke stap in maximale prestaties zetten, veel efficiënter werken en dankzij slimme nieuwe technieken hogere framerates op hogere resoluties mogelijk maken. De basis voor dit nieuwe topmodel is de AD102-chip, de grootste gpu binnen de Ada Lovelace-architectuur.
Als we kijken naar de gpu die het hart van de RTX 4090 vormt, valt onmiddellijk op dat we met een topmodel van de volgende generatie te maken hebben. Met TSMC’s 4nm-productieprocedé kan Nvidia beduidend meer transistors op dezelfde oppervlakte kwijt dan het met Samsungs 8nm bij de RTX 30-serie kon. Dat betekent dat we een flinke toename in het aantal transistors zien, terwijl de totale oppervlakte van de chip juist iets kleiner is dan bij de GA102-gpu die voor de topmodellen van de vorige generatie werd gebruikt. De sprong gaat van 28 miljard naar 76,3 miljard transistors, terwijl de diesize van 628 naar 608mm² is teruggebracht. Dat de prestaties er flink op vooruit zijn gegaan, bespraken we al in onze gpu-review van de RTX 4090. In deze round-up kijken hoe vier verschillende custom RTX 4090-kaarten zich tot elkaar en tot de Founders Edition verhouden.
Videokaart
RTX 4090
Gpu
AD102
Architectuur
Ada Lovelace
Procedé
4nm
Diesize
608,5mm²
Transistors
76,3 miljard
CUDA-cores
16.384
Tensor-cores
512
RT-cores
128
Texture-units
512
Rops
176
Baseclock
2230MHz
Boostclock
2520MHz
L2-cache
72MB
Vram
24GB GDDR6x
Geheugensnelheid
21GBit/s
Geheugenbus
384bit
Bandbreedte
1008GB/s
Tdp
450W
Adviesprijs FE (bij introductie)
1959 euro
Uitgebracht
12 oktober 2022
De geteste modellen
Op deze pagina bekijken we de meest opvallende features en kenmerken van elke RTX 4090 die we voor deze round-up hebben getest. Hieronder bespreken we per model deze zaken en op de volgende pagina is een overzichtstabel te vinden.
ASUS TUF OC
We bespreken de kaarten op alfabetische volgorde, daarom is de ASUS TUF Gaming GeForce RTX 4090 OC Edition de eerste kaart die we behandelen. Met een lengte van net geen 35 centimeter is dit meteen de langste RTX 4090 in deze vergelijking. Ook in de breedte is de TUF OC met 15cm aan de flinke kant. De kaart wordt gepresenteerd als ‘3,65-slot’ maar neemt dus effectief vier sloten in beslag, waardoor de 2-slots i/o-bracket nog kleiner oogt. Na dergelijke afmetingen kan het gewicht van 2,3kg van de TUF OC eigenlijk ook niet meer verbazen. Wat aan de i/o-kant wel opvalt, is dat de kaart van ASUS als enige een extra HDMI 2.1-aansluiting levert, terwijl de overige deelnemers allemaal op de standaard enkele HDMI-connector zitten, met daarnaast DisplayPort in drievoud.
ASUS TUF Gaming GeForce RTX 4090 OC
De koeloplossing van de TUF RTX 4090 OC bestaat uit een grote vapor chamber die wordt gecombineerd met in totaal acht heatpipes, waarvan vijf stuks 8mm dik zijn en drie stuks 6mm dik. De drie 104mm-grote Axial-tech-ventilators draaien op een dubbele kogellager en hebben een semi-passieve werking. De luchtstroom die de achterste ventilator veroorzaakt, wordt dankzij het korte pcb en de gedeeltelijk open backplate niet tegengehouden, waardoor de kaart zijn vermogen sneller kwijt kan. De backplate zorgt samen met de shroud niet alleen voor een betere warmteafvoer, maar ook voor een stevigere videokaart die minder makkelijk buigt.
Gigabyte Gaming OC
De Gigabyte GeForce RTX 4090 Gaming OC is een kaart die nog een tikkeltje langer is dan de Founders Edition. Met een lengte van 34 centimeter is de Gaming OC geen model dat je gegarandeerd in de gemiddelde behuizing kwijt kunt. In de breedte meet de kaart vijftien centimeter, wat nog ruim een centimeter meer is dan de breedte van het model van Nvidia. De grote koeler van deze RTX 4090 is eveneens opgebouwd rondom een vapor chamber, waar Gigabyte acht heatpipes aan heeft verbonden. De vapor chamber zelf maakt direct contact met de gpu; de geheugenchips worden gekoeld met een soort baseplate die daar omheen is geplaatst.
Gigabyte GeForce RTX 4090 Gaming OC
Ook Gigabyte kiest ervoor om een flinke uitsparing te maken in de metalen backplate, net zoals de fabrikant bij de RTX 3090 Ti Gaming OC deed. Gigabyte noemt dit screen cooling. Wel is het uiterlijk aangepast, met minder grijstinten rondom de ventilators, die bovendien van verlichting zijn voorzien. Daarnaast heeft de Gigabyte GeForce RTX 4090 Gaming OC ook nog power indicators; kleine leds bij de 16-pinsstroomaansluiting die eventuele problemen of afwijkingen met de energietoevoer vanuit de voeding aangeeft.
Inno3D iChill X3
Ook de Inno3D GeForce RTX 4090 iChill X3 is voorzien van een vapor chamber-koeler. Inno3D koppelt hier negen heatpipes aan, die bij elkaar opgeteld bijna drie meter lang zijn. Dit gedeelte van de koeler bedekt zowel de gpu als de eromheen geplaatste geheugenchips. De drie ventilators die bovenop het koelblok zijn geplaatst, meten per stuk 94mm en zijn daarmee de kleinste fans van alle RTX 4090-kaarten in deze round-up. Zoals we vaker zien, draait de middelste ventilator in tegengestelde richting, om de geluidsproductie laag te houden zonder in te leveren op airflow.
Inno3D GeForce RTX 4090 iChill X3
De kaart is vrijwel drie slots dik, maar de behuizing is net iets te vol geworden om strikt binnen die drie slots te vallen. Gebruik je het PCIe-slot eronder, dan zal dat met de meeste uitbreidingskaarten niet samen met de RTX 4090 iChill X3 passen. Omdat de kaart flinke uitsparingen in zijn eigen backplate heeft, kan de achterste ventilator met minder obstructie warme lucht afvoeren.
MSI Suprim X
Met de MSI GeForce RTX 4090 Suprim X zegt MSI zelf vooral creators en gamers te willen aanspreken door een erg luxe en prestatiegerichte videokaart op de markt te brengen. Alle onderdelen van de Suprim zijn tot in detail uitgewerkt, en het is duidelijk dat de fabrikant hierbij niet bespaart op materiaalkosten. Dit is te zien aan de shroud, de backplate en het frame dat langs het koelblok loopt: ze zijn allemaal van metaal gemaakt. De luxe uitstraling wil de fabrikant verder benadrukken door het abstracte logo van een diamant, dat op meerdere plekken op de kaart is geplaatst, waaronder op de backplate.
MSI GeForce RTX 4090 Suprim X
Onder al dit uiterlijk vertoon heeft MSI een koeloplossing geplaatst die in ieder geval op papier indruk maakt. Direct in contact met zowel de gpu als het videogeheugen is een grote vapor chamber geplaatst. Daarmee verbonden zijn maar liefst tien heatpipes, die op dit punt vierkant zijn gevormd om zo goed mogelijk contact te maken met een zo groot mogelijk oppervlak. De heatpipes lopen vervolgens naar de rest van het koelblok, waarop herontworpen golfvormige koelvinnen met V-vormige uitsparingen zijn gebruikt om de airflow optimaal te houden en de geluidsproductie tot een minimaal niveau te beperken.
De Suprim X telt drie Torx 5.0-ventilators, waarvan MSI zegt dat ze ook flink onder handen zijn genomen om stiller en efficiënter te werken dan de voorgaande generatie. Op het eerste gezicht valt daarbij vooral op dat steeds drie ventilatorbladen aan het uiteinde met elkaar zijn verbonden. Omdat elke fan in totaal negen bladen heeft, zijn er dus drie groepjes van drie bladen verbonden.
Nvidia Founders Edition
De Nvidia GeForce RTX 4090 Founders Edition van Nvidia zelf is de kaart die we voor onze gpu-review van de RTX 4090 al hebben gebruikt. Dit is een model dat je als consument uiteraard ook gewoon kunt bestellen. Dat gaat echter alleen via de webshop van Nvidia zelf; vooralsnog zul je dit model dus bij geen andere winkel kunnen kopen. Bij Nvidia's webshop is de kaart op het moment van schrijven echter niet op voorraad.
Nvidia GeForce RTX 4090 Founders Edition
De RTX 4090 Founders Edition valt allereerst op omdat hij erg groot is voor een referentiekaart, zeker ten opzichte van de Founders Editions in de RTX 30-serie. De kaart is weliswaar even lang als de RTX 3090 en 3090 Ti Founders Edition, maar wel flink dikker. Het geheel neemt desondanks ‘slechts’ drie slots in beslag. In tegenstelling tot alle geteste custom modellen in deze round-up zitten er op de Founders Edition geen drie maar twee ventilators, die bovendien niet naast elkaar maar tegenover elkaar zijn geplaatst. Dit ontwerp maakt gebruik van het zogenoemde axial flowthrough design waarbij dankzij een erg kort pcb de luchtstroom helemaal door de kaart loopt, zonder obstructie.
Hoewel de Founders Edition van de RTX 4090 veel op die van de RTX 3090 lijkt, is het onderliggende koelblok volgens Nvidia flink aangepast om de airflow te bevorderen en de gehele koeloplossing effectiever te maken. Het koelblok heeft nog steeds een vapor chamber als basis, maar daaruit lopen nu niet vier maar zes heatpipes om de temperatuur over het koelblok beter te kunnen verdelen. Bij een gelijke geluidsdruk zouden de ventilators op de RTX 4090 FE vijftien procent meer airflow moeten leveren dan op de RTX 3090 FE. De ventilators zijn daarvoor ook iets groter gemaakt, van 110mm op de vorige generatie naar 116mm op de RTX 4090 FE. Ook is Nvidia overgestapt van dubbele kogellagers naar fluid dynamic bearing, om de geluidsdruk van de fans te beperken.
Overzicht geteste modellen
In onderstaande tabel staat een samengevat overzicht van de features en eigenschappen van de vijf hiervoor besproken RTX 4090-videokaarten.
GeForce RTX 4090
ASUS TUF OC
Gigabyte Gaming OC
Inno3D iChill
MSI Suprim X
Nvidia Founders Edition
Prijs bij publicatie
€ 2649
€ 2449
€ 2379
€ 2899
€ 1959 (maar uitverkocht)
Klokfrequentie
2235MHz
2235MHz
2235MHz
2235MHZ
2235MHz
Boostclock
2595MHz
2535MHz
2580MHz
2625MHz
2520MHz
Aantal ventilatoren
3 x 104mm
3 x 110mm
3 x 94mm
3 x 100mm
2 x 116mm
Backplate
Ja
Ja
Ja
Ja
Ja
Bios-switch
Ja
Ja
Nee
Ja
Nee
Verlichting
Ja
Ja
Ja
Ja
Ja
Beeldaansluitingen
2x HDMI 2.1a 3x DisplayPort 1.4a
1x HDMI 2.1a 3x DisplayPort 1.4a
1x HDMI 2.1a 3x DisplayPort 1.4a
1x HDMI 2.1a 3x DisplayPort 1.4a
1x HDMI 2.1a 3x DisplayPort 1.4a
Lengte
34,8cm
34cm
33,4cm
33,6cm
30,4cm
Breedte
15cm
15cm
14,8cm
14,2cm
13,7cm
Dikte
4-slot
4-slot
4-slot
4-slot
3-slot
Stroomtoevoer
1x 16-pin PCIe Gen5
1x 16-pin PCIe Gen5
1x 16-pin PCIe Gen5
1x 16-pin PCIe Gen5
1x 16-pin PCIe Gen5
Gewicht (gram)
2300g
2005g
2110g
2238g
2181g
Testverantwoording
Voor de tests van de videokaarten gebruiken we ons vaste testsysteem, gebaseerd op een Ryzen 9 5950X, ASUS ROG Crosshair VIII Hero-moederbord, 32GB G.Skill Trident Z Royal-geheugen (2 x 16GB in dualchannel) op een snelheid van 3600MT/s, en twee ssd's: een Samsung 970 EVO 250GB als bootdrive en een Kioxia Exceria+ 2TB waarop alle games zijn geïnstalleerd. Verder bestaat het systeem uit een bequiet Dark Power Pro 12 1500W-voeding en een uitgebreide waterkoelset van Alphacool. Alle RTX 4090-videokaarten zijn voor deze round-up getest op PCIe 4.0.
Gpu-testsysteem
Processor
AMD Ryzen 9 5950X @ 4,65GHz all-core
Moederbord
ASUS ROG Crosshair VIII Hero (bios 4006, Agesa V2 PI 1.2.0.6b, resizeable BAR-support geactiveerd)
Werkgeheugen
G.Skill Trident Z Royal 32GB (2x 16GB) DDR4-3600 CL16-16-16-36
Ssd
Samsung 970 EVO 250GB (OS) + Kioxia Exceria 2TB (games)
In deze review richten we ons op de onderlinge verschillen tussen de uitvoeringen van de diverse fabrikanten. In grote lijnen zullen de gamingprestaties van alle kaarten met dezelfde gpu vergelijkbaar zijn. Om kleine verschillen te kunnen ontdekken die voortkomen uit bijvoorbeeld firmware, keuzes bij het pcb-ontwerp en natuurlijk de kwaliteit van de koeler, testen we minder games dan in een complete gpu-review, maar testen we per game een stuk uitgebreider.
We hebben drie games uitgezocht waarin het goed mogelijk is om een langere test van tien minuten uit te voeren. Tijdens elke test loggen we vrijwel alles wat er te loggen valt: prestaties met PresentMon, maar onder andere ook temperatuur, klokfrequentie en ventilatorsnelheid. Wie bekend is met het duurtestconcept, zou dit als individuele duurtests kunnen zien. Tien minuten is daarvoor ruimschoots voldoende: bij het merendeel van de kaarten worden de stabiele kloksnelheid en temperatuur al binnen enkele minuten bereikt. Alle games testen we op 4k-resolutie met Ultra-settings, om zo te zorgen dat de gpu zoveel mogelijk de bottleneck vormt.
Geluidsproductie en stroomverbruik
Naast de prestaties meten we ook de geluidsproductie en het stroomverbruik van de videokaarten. De meting van de geluidsproductie doen we in onze nieuwe geluiddichte ruimte op een afstand van 50cm, met de decibelmeter schuin op de videokaart gericht. De drempelwaarde voor onze metingen is 14dB(A); dat mag je opvatten als volledig stil. Tijdens de idle-test wordt de videokaart vanzelfsprekend niet belast. De load-test is gebaseerd op een verlengde gametest van tien minuten, zodat de videokaart tijd heeft om op te warmen en zijn maximale geluidsproductie te bereiken.
De stroommeting voeren we uit met een zogenoemde riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting vertrouwen we op verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met een dergelijke bricklet uitgerust. Om de stroom van de pegkabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.
Prestaties
In deze round-up vergelijken we vijf RTX 4090-videokaarten die door aib-partners op de markt zijn gebracht. Voordat we ingaan op de onderlinge prestatieverhoudingen, geven we hieronder een overzicht van de prestaties van de GeForce RTX 4090 ten opzichte van andere gpu's. Deze Prestatiescore, gebaseerd op meerdere benchmarks, maakt ook deel uit van onze eerder gepubliceerde review van de GeForce RTX 4090. Deze globale prestatiescore laat zien dat de GeForce RTX 4090 in 4k-resolutie gemiddeld 47% sneller is dan de 3090 Ti, het voorgaande topmodel van Nvidia, en tot 65% sneller is dan de Radeon RX 6950XT, het huidige topmodel van AMD.
We trappen de round-up af met een aantal synthetische benchmarks. 3DMark is natuurlijk geen game, maar wel een consistente test die een eerste indruk geeft van de onderlinge verhoudingen. Fire Strike is de DirectX 11-test van 3DMark, Timespy draait in DirectX 12 en Port Royal voegt daar nog eens raytracing aan toe.
Traditiegetrouw liggen de prestaties in 3DMark tussen de verschillende kaarten op basis van dezelfde chip erg dicht bij elkaar. De MSI RTX 4090 Ti Suprim X is nipt de snelste, maar het verschil met de Founders Edition is slechts 3 procent. Dat is in de praktijk niet merkbaar.
In Metro testen we standaard alle videokaarten op de verschillende bios-modi die ze beschikbaar hebben. Opnieuw zijn de verschillen erg klein; dit keer staat juist de Founders Edition van Nvidia net bovenaan als we naar de framerates kijken. In de 99p-frametimes doet hij het juist marginaal slechter dan de aib-kaarten.
In Cyberpunk zijn de kaarten van Inno3D en MSI gemiddeld net iets sneller dan de Founders Edition. De Gaming OC van Gigabyte en de ASUS TUF OC vallen hier juist tussenin, met opnieuw marginale verschillen.
Aan de prestaties van een koeler zitten altijd twee kanten: de temperatuur en de geluidsproductie. We testen hoeveel geluid een videokaart produceert onder volle belasting en noteren de maximale temperatuur tijdens deze test. Daarnaast meten we de geluidsproductie in idle, evenals de maximale geluidsproductie als de ventilatoren op volle snelheid draaien. Omdat alle geteste videokaarten in deze vergelijking beschikken over semipassieve koeling, staan de ventilatoren in idle volledig stil. We meten dan 14dB(A) voor alle kaarten, wat de noisefloor in onze geluidskamer is.
Tijdens belasting in-game meten we voor de Gigabyte Gaming OC met afstand de hoogste waarde, maar deze kaart is met zijn bios op Silent Mode al een aardig stuk stiller te krijgen. Nvidia's Founders Edition blijft onder belasting desondanks net iets stiller, en Inno3D zet daar vervolgens weer een betere score bovenop. De laagste geluidsproductie onder volle belasting wordt echter gerealiseerd door de ASUS TUF OC in zijn stille modus. MSI's Suprim X behoort ook tot de stilste kaarten; met het Gaming-bios geactiveerd is hij al duidelijk stiller dan veel van de andere kaarten, en hij kan zelfs nóg iets stiller werken wanneer we het Silent-bios activeren. In de 'luide' modi is de MSI van dit tweetal juist nipt de stillere, maar in de praktijk kunnen we beide kaarten gewoon als prettig stil betitelen.
Bij de maximale gpu-temperatuur zien we relatief weinig verschillen tussen de verschillende fabrikanten. Het valt op dat geen enkele videokaart een echt hoge temperatuur rapporteert onder volle belasting, zelfs niet in Silent mode.
Als je zelf het fanprofiel wilt instellen of simpelweg de videokaart met de best mogelijke koeler wilt kopen, is de efficiëntie van de koeler van groot belang. Je wilt immers zoveel mogelijk koeling met zo min mogelijk geluidsproductie. Om dit te testen, meten we bij welk fanprofiel de kaart het dichtst bij de 35dB(A) zit, gemeten op 50cm afstand. Vervolgens stellen we de kloksnelheid en spanning in op vaste waarden. Zo trekken we het stroomverbruik van alle kaarten zoveel mogelijk gelijk. Het stroomverbruik is immers de 'belasting' van de koeler.
Onder deze gelijke omstandigheden zet MSI overtuigend de beste score neer in koelefficiëntie, met de ASUS TUF OC als goede tweede. De overige deelnemers zitten allemaal erg dicht op elkaar in deze test.
Onder volle belasting verbruiken de custom kaarten Inno3D iChill X3 en Gigabyte Gaming OC grofweg hetzelfde, terwijl MSI's Suprim X en ASUS' TUF OC daar iets boven zitten en Nvidia's eigen Founders Edition juist wat lager uitkomt. Elke kaart blijft onder de opgegeven maximale tdp van 450W, maar in het geval van de Suprim X is het verschil nog maar heel klein.
In idle is geen van de kaarten echt zuinig. De MSI maakt het met bijna 36W in idle wel erg bont. Nu is de kaart weliswaar voorzien van de nodige rgb-verlichting, maar dat is bijvoorbeeld de Inno3D ook, dus we vermoeden dat MSI op dit vlak nog wat zou kunnen optimaliseren middels bios-updates.
Elke fabrikant van de vier geteste RTX 4090-videokaarten in deze round-up houdt de AD102-gpu goed in bedwang, met nette temperaturen. Met een vermogensafgifte van bijna 450W is dat een knap resultaat, maar wellicht ook weer geen verrassing, aangezien elke geteste kaart gebruikmaakt van een vapor chamber als basis voor de koeloplossing. Zoals gebruikelijk verschillen de gameprestaties tussen de geteste modellen slechts marginaal, meestal in het voordeel van de custom versies van de RTX 4090.
Als we kijken naar koelefficiëntie, is de MSI GeForce RTX 4090 Suprim X de winnaar. Dat betekent dat de kaart zowel goed kan koelen als stil kan werken. Met de bios-switch heb je daar eenvoudig wat controle over, maar uiteraard is het aanmaken van een geheel custom fanprofiel ook mogelijk. Bovendien is de Suprim X, zij het met een klein verschil, gemiddeld de allersnelste RTX 4090.
Daar staat tegenover dat de MSI Suprim X een van de duurste modellen zal zijn, ook in een wereld zonder opgeblazen prijsstellingen. Maar als geld geen rol speelt en je wél op zoek bent naar de allerbeste luchtgekoelde RTX 4090, dan is de MSI Suprim X alsnog de ultieme keuze. Daarom voorzien we de kaart van een Ultimate-award.
Bij het uitdelen een Excellent-award speelt ook de prijs een rol. Om eerlijk te zijn, kunnen we daar op dit moment simpelweg niets zinnigs over zeggen. De verschillende modellen zijn mondjesmaat leverbaar en de prijzen verschillen niet per dag, maar per uur.
Van de kaarten die in theorie minder duur zouden moeten zijn, en dan hebben we het over die van Inno3D en Gigabyte, komt de Inno3D GeForce RTX 4090 iCHILL X3 positief naar voren. Hij presteert op ieder vlak vergelijkbaar met de Founders Edition. De kaart van Nvidia zou vooral gezien zijn prijs van 1959 euro minstens zo interessant kunnen zijn, maar is juist door die vaste prijs stijf uitverkocht. En om de gekkigheid compleet te maken, zou in de praktijk juist de iets minder goede Gigabyte Gaming OC de beste keuze kunnen zijn, omdat deze fabrikant zijn verkrijgbaarheid het beste op orde lijkt te hebben. De enige juiste conclusie is dat de prijzen op dit moment nog te volatiel zijn om Excellent-awards uit te delen.
Zon kaarten te duur ?
Dat heb je pas als je de resolutie ook tot het oneinige blijft opkrikken en de graphics op de hoogste stand. Zo heb je nooit genoeg. Ik heb tijden gekend waar we alles deden met een 640x480 de maximum was. En toen ging alles. De zwakke pc s en te zwakke gpu power bestond toen niet. Wordt het niet eens tijd om iedere keer de brug om de specs maar weer eens op te drijven voor meer power compleet te stoppen en gewoon eens games te schrijven die optimaal van die kaarten gebruik maken zonder overdreven systeem eisen met de hardware die er is.Ik ben van mening dat we nu wel power genoeg hebben en het mag van mij eens stoppen met die power honger naar meer vermogen. Straks hebben we een kaart van 4000 watt nodig voor een video game. Ik zie ook het nut niet waarom software zo veel van een pc moet vragen om een game te kunnen draaien. En dat doen we al verkeerd sinds dag 1, software schrijven dat de hardeware meer en meer belast, ipv het omgekeerde een olifant die op je hardware gaat liggen de technologie die je hebt ook optimaal eens gebruikt. Vroeger draaide men alles op een pentium mmx met een voodoo kaartje en dat ging allemaal.
Ik heb de Inno3d gekocht (bewuste keus, ik had hiervoor een 3090 van inno3d, en ik vind het fijne kaarten)
Belangrijk om te weten is, dat als je wilt overklokken (voor zover dat nog kan, er valt niet heel veel winst te behalen volgens verschillende youtubers), je niet de inno3d moet kopen. Deze heeft namelijk maar 3 connectors, en een max powerbudget van 450 watt, dat je dus ook niet hoger krijgt. Als je wilt overklokken ga dan voor de suprim of een andere met 4 connectoren die tot 600 watt kan.
Daarnaast nog even iets over de efficientie, die is bizar in vergelijking met de vorige generatie!
Ik speel veel Apex legends op 4k(niet helemaal 4k, 3860x1600) 144 fpz/hz het liefst met het detail op allerhoogst. De 3090 had moeite om die framerate overal vast te houden en gebruikte daarbij constant 350 watt. De 4090 houdt probleemloos 144 fps vast en daar cap ik het spel dan ook op, vervolgens gebruikt hij dan ongeveer 250 watt. 100 watt minder dus, met betere performance! En hij blijft dan ook heerlijk koel
Sowieso een tip, voor veel games is zo'n kaart overkill, je kan met rivatuner, maar tegenwoordig ook in het nvidia control panel je max fps instellen, dat scheelt je veel warmte, en geld, zeker als je ook wat oudere games speelt die 300 fps halen wat je misschien helemaal niet nodig hebt.
[Reactie gewijzigd door OriginalFlyingdutchman op 22 juli 2024 15:42]
Weet je wat nog meer geld scheelt? Geen kaart kopen die overkill is
Oprecht benieuwd wat je reden is van een al peperdure 3090 te upgraden naar een nog duurdere 4090? Áls ik al een kaart als de 3090 zou hebben gekocht, zou ik die echt jaaaaren gebruiken
Een kaart kost je: (de aanschaf prijs van je kaart - de verkoopprijs van je oude kaart).
Dat maakt het als hardware enthusiast vaak aantrekkelijk om te upgraden.
Ik zie 3090's op V&A gaan voor €900 of zelfs minder. De goedkoopste 4090 kost €2200. Aantrekkelijk is een heel sterk woord voor €1300 naar mijn mening.
Als volwassen man zijn de hobby budgetten vaak iets anders dan voor jongeren.
Om motor te rijden 20 zondagen in het jaar word ook lachend een 10.000 euro kostende motorfiets voor gekocht. Dat kan economisch ook nooit uit. Wellicht dat die 1300 euro upgrade, waar de persoon misschien zelfs wel meer tijd aan spendeert dan beter te verantwoorden is.
Het gaat mij niet zo zeer om een absoluut budget, maar meer om het feit dat je het geld dat je in zo'n kaart steekt simpelweg niet terugziet in de prestaties.
Die vergelijking gaat naar mijn mening ook niet helemaal op - als je motor wilt rijden dan heb je geen andere keuze dan om maar gewoon een motor te kopen, waarbij instapprijzen voor een beetje een normale motor bepaald geen €300 zijn zoals bij een videokaart. Dit is meer alsof je elke 2 jaar je motor doorverkoopt om maar weer het nieuwe top-of-the-line model te kopen, terwijl je huidige motor gewoon nog perfect werkt.
Goed, uiteindelijk is het niet mijn geld en maakt het mij ook niet uit wat mensen met hun geld doen, ik vond alleen het statement dat het aantrekkelijk is om te upgraden voor zo'n prijs/prestatie-verhouding onzinnig.
Hij presteert zo'n 70% beter dan zijn voorganger, dus lijkt me dat je het geld wel degelijk terugziet in de prestaties.
Degenen die zulke kaarten kopen gamen op 4K en willen alle toeters en bellen aan kunnen zetten en dan nog speelbare framerates krijgen. Dat kreeg je bij de vorige generatie niet bij elke game; bij deze wel, en hij is relatief gezien nog zuiniger ook.
Je geeft aan de FPS te cappen (in het spel wat je vernoemd) dus in deze situatie zijn die prestaties totaal overbodig. Mogelijk speel je nog andere games waar je wel wat aan de prestaties hebt maar afgaande op deze informatie is een upgrade gewoon geld weg gooien.
Het geld zou je dan inderdaad wel terug zien in benchmark software, maar of menig mens daar een 1300 euro upgrade voor wil aanschaffen....
Maar als je het kan betalen en jij hecht er meerwaarde aan why not? Hoop dat je er heel veel plezier van hebt!
[Reactie gewijzigd door itaalol op 22 juli 2024 15:42]
Wellicht gebruikt hij dan veel minder stroom en is hij veel stiller (bij dezelfde fps). Dat zou ik wel interessant vinden, alhoewel ik bijna 3000 euro ook wel echt te veel vind voor een videokaart...
Ja volgens mij verbruikt de kaart inderdaad flink minder stroom, en zal vast stiller zijn.
Maakt dat veel stiller zijn alleen veel uit? Ik heb persoonlijk nog NOOIT een systeem gehad wat veel geluid maakte en ik heb altijd el cheapo Amazon fans o.i.d. gehad, budget behuizingen met side panel, wel verschillende stock en upgrades voor cpu koelers en de kast stond naast me. Het enige wat ik nooit gedaan heb is overclocken, dus misschien is dat net hetgene wat veel geluid veroorzaakt?
Flink minder stroomgebruik is tegenwoordig ook wel interessant. Het prijsplafond is gezet op 0,70 euro per kWh en de prijs per kWh wordt mogelijk nog veel hoger. Hoe meer je achter je computer zit, hoe sneller je het ding terugverdient in vergelijking met de vorige generatie.
Veel stiller zijn vind ik wel heel erg fijn, je hebt ook mensen die hun computer in een kamer verderop zetten. Dat lijkt mij nou luxe
Ik underclock juist graag, i.p.v. overclocken
Tsja, om te vergelijken wat wij nou lawaaiig vinden zouden we een decibel-meter moeten hebben. Ik heb er nog geen, jij? Mijn huidige systeem is als een constante fluister.
[Reactie gewijzigd door Siaon op 22 juli 2024 15:42]
Ik lees toevallig net op de Essent site dat er een voorstel is om het plafond vast te zetten op 0,40 euro per kWh tot 2.900 kWh stroom per jaar. Maar ik weet niet wat de status hier van is, ik volg het allemaal niet echt... Bespaart weer een hoop ergernis
Het prijsplafond is voorgesteld op maximaal 40 cent per kWh stroom en 1,45 euro per m3 gas tot een verbruik van 2.900 kWh stroom per jaar en 1.200 m3 gas per jaar. Dit voorstel is nog niet definitief en wordt binnenkort besproken in de Tweede Kamer.
Als je echt een bakbeest van een machine zou hebben zou dat ideaal zijn inderdaad! Een app op de telefoon maar of die nu zo betrouwbaar zijn weet ik niet, haha!
Als je al die performance niet nodig hebt why not!
Als ik niet aan het gamen ben hoor ik eigenlijk alleen de casefans draaien. Die maken een neuriënd/zoemend geluid en soms ratelen ze een klein beetje, dit zijn wel echt goedkope RGB fans. Ik heb het even opgezocht maar ik heb vorige winter €45 voor 5 casefans incl. hub betaald dus ik verwachtte niet de beste/stilste fans. Meestal heb ik toch iets van muziek o.i.d. zacht op staan en dan hoor ik het systeem al niet meer. Als ik zonder headset aan het gamen ben wil ik de videokaart fan nog wel eens horen blazen maar tijdens het gamen moet je je daar al op concentreren wil je dat horen.
Ware het niet dat de prestatie verbetering inherent was aan elke nieuwe generatie. (en de games werden ook steeds veeleisender).
Ik spiegel het liever af tegen de verschillende marktsegmenten (low end, mid end, high end, etc). Binnen die cycli komt er elke generatie een nieuwe kaart, die qua prijs redelijk constant bleef ten opzichte van laatste generatie, inflatiecorrectie etc daargelaten.
Bij de meeste producten ga je ook niet ineens 2x zoveel betalen als de opvolger van een bepaald model ineens een paar functies meer heeft. Dat is inherent aan de technologische ontwikkeling, je krijgt bij technologie altijd meer dan bij vorige versie. Je gaat bij een auto ook niet ineens meer betalen omdat de accu efficiënter is geworden bij nieuwere model Y.
Mag wel gezegd worden dat de procentuele verbetering van de 4090 wel bovengemiddeld is volgens mij.
Bij de meeste producten ga je ook niet ineens 2x zoveel betalen als de opvolger van een bepaald model ineens een paar functies meer heeft. Dat is inherent aan de technologische ontwikkeling, je krijgt bij technologie altijd meer dan bij vorige versie. Je gaat bij een auto ook niet ineens meer betalen omdat de accu efficiënter is geworden bij nieuwere model Y.
2x weet ik niet (volgens mij was de 3090 geen 1000 euro trouwens), maar bij de meeste technologische producten betaal je wel steeds meer. Auto's zijn ook steeds duurder geworden, omdat er meer en meer techniek in zit. Dit is vrij logisch. Ik zie ook liever dat een 4090 even duur is als een titan van 10 jaar geleden, maar dat lijkt me niet erg realistisch. Het ontwikkelen van de techniek van deze nieuwste kaarten komt ook niet voor hetzelfde geld aanwaaien. Er wordt verwacht dat er bij elke nieuwe generatie kaarten steeds een paar stappen omhoog worden gezet, en om aan die verwachting te kunnen voldoen zal het ongetwijfeld steeds meer geld gaan kosten, omdat het steeds uitdagender wordt om die stap omhoog te kunnen blijven zetten.
[Reactie gewijzigd door Kubrix op 22 juli 2024 15:42]
2500 euro, dat is toch niks? Zeker als het je hobby is, al heeft die 10% betere prestaties. Als 25 jarige me studieschuld, huurhuis en starter inkomen misschien veel, maar als je al jaren werkt toch niet meer? Hij zal er geen elke week eentje halen
2500 euro, dat is toch niks? Zeker als het je hobby is, al heeft die 10% betere prestaties. Als 25 jarige me studieschuld, huurhuis en starter inkomen misschien veel, maar als je al jaren werkt toch niet meer? Hij zal er geen elke week eentje halen
Los daarvan, zullen er ook tweakers zijn die een jaar geleden misschien wel de vraagprijs voor de 3090 in al z'n verschijningsvormen hebben betaald. Vraagprijzen die nog maar een jaar geleden tot soms wel ruim boven de 3500 euro opliepen... Dan is 2500 euro voor het nieuwste topmodel in eens niet zo heel gek meer.
Het is alleen wel jammer dat je voor die 'oude' 3090 in het tweedehands circuit nu niet meer dan ca. 900 zult ontvangen, dus je hebt die kaart dan in erg korte tijd voor driekwart afgeschreven
Ah, het eeuwenoude "maar het kan nog duurder!" excuus
Dat is vorig jaar nóg idioot veel duurder was, vind ik (voor mijzelf) geen reden om met iets minder idiote prijzen akkoord te gaan . Je zegt het zelf al, die enorme afschrijving geeft al aan dat die verkoopprijs compleet scheef was.
Maar goed, zolang het mijn geld maar niet is, moet iedereen vooral doen wat ze willen. Wellicht vergis ik me in het besteedbaar inkomen van de gemiddelde IT-er. Misschien die switch toch eens gaan maken
[Reactie gewijzigd door Sjekster op 22 juli 2024 15:42]
2500 euro is toch niet niks? Of je hebt een hele dikke erfenis of je hebt een héél dikke baan. 2500 euro is een enorme smak geld, ook voor het gros van werkend Nederland. Voor dat is voor mij anderhalve hypotheek, vind ik toch behoorlijk wat.
Het is geld voor een hobby, en hobbies kosten geld. Sommigen hebben een motor van 10k voor 3 rondjes rond de kerk per jaar. Je geeft het niet elke dag uit, maar 1x per 2,3 jaar. Dan vind ik dat inderdaad niets.
Dan heb je geen idee hoe de rest van Nederland er voor staat, laat staan de rest van de wereld. Een bedrag van 2.500 euro is voor de meeste mensen meer dan een netto salaris wat ze in de maand ontvangen. Voor een significant deel meer dan wat ze bruto verdienen.
Dat "niets" noemen getuigt niet van een bijzonder reëel of empathisch wereldbeeld. Dat het voor een hobby is doet daar niet veel aan af. Zeker niet in een tijd dat grote groepen mensen hobbies weg moeten bezuinigen die een fractie van die 2.5K kosten.
Nog even los van het gegeven dat het verbruik van deze monsterkaarten ook niet helemaal meer okay is.
Tuurlijk, het is geld voor een hobby en een hobby kan geld kosten. Maar deze hoeveelheid geld aan een hobby kunnen uitgeven, of aan een motor van 10K, is simpelweg een luxe. Bon voor de mensen die dat kunnen of willen veroorloven, maar doe niet als het "niets" is.
dat kun je natuurlijk vinden, ik vind het persoonlijk voor een hobby idd niets. En idd dit is natuurlijk geen kaart voor iedereen, die kopen maar een kaartje van 500 euro oid, Dit is voor als je het beste van het beste wil hebben. En die markt wordt steeds groter, niet kleiner
Voor de veel mensen is 500 euro nog steeds een enorm bedrag.
Ik ken je situatie niet, of je omgeving, maar je klinkt alsof je een behoorlijke disconnect hebt over wat de waarde van geld is voor de meeste mensen.
Je kan in deze tijden van voedselbanken, energiearmoede en inflatie niet volhouden dat zoveel geld aan een videokaart uitgeven iets anders dan simpelweg luxe is. Op het decadente af wellicht. Dat is niet niets.
Dat jij, of anderen, het wel kan en/of wil uitgeven terwijl sommige leerlingen letterlijk in de klas omvallen omdat er geen geld was voor eten, is niet niets. Dat is vooral een inzicht in over hoe de welvaart verdeeld is hier.
Tuurlijk, je mag je eigen geld uitgeven op welke manier dan ook. Maar doen alsof dat "niets" is, is niet chique.
Ik klaag verder niet maar heb net een huis gekocht met mijn vriendin en hebben al het geld nodig om te verduurzamen etc, misschien ben ik biased dus haha
Als het nu een verschil was van 100ish fps naar 150 zou ik het begrijpen.. Maar niet als je een upgrade van een kaart waar je de fps al van deed cappen...
Kennelijk was Apex Legends op zo goed als 4k, ultra settings, een stabiele 144 fps voor die geschat € 1.300 het deze persoon toch waard. Bijkomend voordeel is dat je tevreden naar bed kan, wetend dat je het beste hebt dat er te krijgen valt. Dan bedenk ik me voor zulke financiële geluksvogels toch steeds maar weer: het tevreden naar bed gevoel is onbetaalbaar, voor al het andere is er eurocard/mastercard
[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 15:42]
Ook als ik het geld zou hebben, wat niet zo is zou ik het nooit doen. Maar iedereen moet dat natuurlijk zelf weten. Laat die 3070/80/90 maar komen op v&a
Die uitspraak kun je ook omdenken voor de goed boerende medemens: als ik toch steeds meer geld binnenkrijg dan ik normaal uitgeef, waarom zou ik het dan niet doen?
Voor 10.000 euro zal dat waarschijnlijk al geen nieuwe motor zijn. De gemiddelde tourrijder heeft een BMW GS of een Ducati Multistrada, en die gaan toch minstens voor 20.000 euro dacht ik.
De één koopt een nieuwe videokaart voor zijn hobby de ander besteed dat geld aan een andere hobby of meerdere hobbys. Ik zou ook best een 4090 willen hebben hoor, het is echter dat ik het niet kan verantwoorden naar het gezin toe maar anders had ik er ook één besteld.
Ik kan me als consument eigenlijk op geen enkele manier inbeelden waarom de aanschaf van zo'n RTX 4090 te rechtvaardigen valt.
Ze zijn werkelijk waar allemaal zò ontzettend duur, dat ik datzelfde bedrag nog niet eens voor een complete game PC over heb. De vorige generatie was ook al aan de prijs door gebrek aan aanbod. Maar dit spant opnieuw de kroon!
* InjecTioN hoopt ergens dat hij niet de enige is die zo denkt...
Op het moment kan Nvidia gewoon vragen wat de gek ervoor geeft. De prestatie-boost vergeleken met een RTX 3090 is zo groot, dat de prijs-prestatieverhouding niet eens zo gek is. "Vroeger" (lees: tot ongeveer de GTX 600-serie) kreeg je die prestatieboost voor niks omdat er keihard werd geconcurreerd, maar de laatste jaren is Nvidia de koning van top-end kaarten waardoor de (welvarende) consument eigenlijk geen keus heeft. Wil je gamen op 4K120 of zelfs 8K, dan is de RTX 4090 het model dat je moet hebben.
De 6900XT, 6800XT en 6800 zijn allemaal sneller dan de 3090, 3080 en 3070 respectievelijk op 1440p en op 4K verandert het plaatje maar marginaal waardoor nvidia nét boven ze uit komt met ongeveer dezelfde marge.
Daarbij komt dat de AMD kaarten, toen de prijzen eenmaal een beetje begonnen te zakken, veel sneller omlaag zijn gegaan.
Mensen kopen gewoon Nvidia omdat dat bekend is. De afgelopen 2 jaar was er in iedere prijs range meer value te halen bij AMD, zelfs bij de high end
Echt? Heb momenteel 5 game pc's in beheer met zowel 6800XT, GTX1050Ti's en ouder en met geen een stabiliteits problemen. Wel videokaarten die na 8 jaar defect gaan maar dat is niks geks toch?
Ik heb stapels kaarten van beide in gebruik (zowel zakelijk als prive en zowel gamen als werk) en op een raar probleem na echt nul stabiliteit problemen. De laatste bugs waren bij mij de fan bug in de nvidia drivers en de muis cursor grootte bug in de AMD drivers. Ik heb wel een crashende NVIDIA driver gehad, maar achteraf bleef dat aan een instabiele kaart te liggen, en niet een instabiele driver.
Als we het hebben over vroegah... Man man man. Ik weet de eerste serie drivers van mijn HD5990 nog, dat was echt een ramp. Ook de drivers van mijn oude radeon 9800 pro waren problematisch. Maar de laatste jaren echt geen problemen meer.
Toch hoor ik het wel vaker over de AMD drivers als ik op tweakers kijk. Meerdere mensen melden het, maar niemand kan me eigenlijk vertellen wat dan. Ik krijg bijna het idee dat er een hoop mensen zijn die ooit naar NVIDIA zijn gegaan door de AMD (en zeker ATI) driver problemen van vroeger en daar een beetje in zijn blijven hangen?
Ik denk ook vaak dat het edge cases zijn die problemen hebben. Ik ben zo'n AMD probleemgeval.
Bij normaal gebruik zijn de drivers prima stabiel, maar mijn setup zorgt soms voor issues.
Zo heb ik 2 schermen (4k en een full hd), een TV en een Occulus aan de PC hangen.
Het aan-en-uitzetten van de TV gaat met grote regelmaat niet goed. De pc detecteert soms (random) dan geen nieuw scherm bij aanzetten en ik moet soms de tv een x-aantal keer uit en weer aanzetten voor deze ineens gedetecteerd wordt. Soms crasht de driver daarbij.
Ook de geluidscomponent zorgt voor issues hier, omdat ik bij de pc een eigen surround setje heb staan via een USB soundblaster, en bij de TV een reciever via HDMI. Tijdens het schakelen tussen deze outputs crasht de driver ook soms. En met bepaalde driver versies kon ik mijn Occulus niet gebruiken.
Recente drivers hebben deze issues trouwens wel behoorlijk verbeterd.
Deze zelfde setup had ik hiervoor met een 970GTX ook, zonder problemen te hebben gehad.
Ik heb een enorm gehannes gehad met de driver software van AMD, elke keer als ik mijn pc opnieuw inschakelde moet ik weer opniew de hele overclock en undervolt instellen. Dat werd zo irritant dat ik maar weer overgestapt ben van een 6900XT naar een 3090. Profielen instellen had geen zin. Verder was het inderdaad een prima kaart met 0 issues EN een stuk lager verbruik dan die Nvidia kaart.
Ik had zelf ook 2 AMD RX 5700 XT kaarten van Powercolor die zomaar de geest begaven binnen 1 - 2 maanden. Maar toch geef ik het voordeel aan AMD, zeker omdat de prijs stukke scherper is. Voor mij scheelde het 100 euro t.o.v. een RTX 2070 Super. Daarnaast heb ik heel veel plezier gehad met mijn Asus Strix Vega 64 kaart. Als ik op dit moment zou kiezen, zou ik toch weer AMD willen proberen.
Ik moet er altijd een beetje om gniffelen die zogenaamde driver issues.
Vroegah.... Toen heb ik mijn Nvidia G80 meerdere malen in de oven moeten reanimeren. Driemaal raden welk merk er hier nooit meer inkomt.
Nou heb vorig jaar veel te dure RX6900 XT gekocht maar kon er vervolgens maanden geen Destiny 2 normaal mee spelen en volgens mij is dat nog steeds niet geregeld…. Enigste reden dat ik Nvidia wil waar ik dit nog nooit heb mee gemaakt.
O en de AMDs werden wel erg heet vond ik…..
Wellicht volgende generatie want sta er altijd voor open.
Als het puur gaat om rasterization heb je gelijk, maar dat is al lang niet meer de enige vergelijking die je moet maken. Moderne varianten van supersampling en raytracing zijn tegenwoordig minstens zo belangrijk en daar loopt AMD helaas nog hopeloos achter.
Dat is fair. DLSS 2.0 quality mode is indrukwekkend, al is FSR2.0 lang niet slecht.
Raytracing zelf maakt mij (nog) weinig uit met RX6000 vs RTX3000. Ik vind de implementaties bij beide onbruikbaar eigenlijk. Ja het is beter dan het bij RTX2000 was, maar in te veel gevallen staat de kwaliteits verbetering absoluut in geen verhouding tot de performance penalty. Je FPS gaat helemaal naar de maan en je moet alle non RTX quality sliders compromisen en DLSS activeren om er wat van te maken. Bij de meeste games speel ik dan liever gewoon op native 4K ultra zonder RT en DLSS en dan zet ik AA wel uit om de fps wat te boosten.
Bij de 4090 lijkt het er al meer op. Die produceert bruikbare raytracing performance tov zijn rasterization performance. Hopelijk ligt de verhouding bij de andere 4000 kaarten min of meer gelijk.
[Reactie gewijzigd door youridv1 op 22 juli 2024 15:42]
Jij bent dan niet de doelgroep van deze kaarten en inderdaad beter af met de veel goedkopere RX6900 XT, maar dat betekent niet dat anderen geen waarde hechten aan RayTracing. Afhankelijk van de game kan het namelijk een enorm visueel verschil maken waardoor dat voor sommigen misschien zwaarder weegt dan hele hoge framerates.
In welk spel maakt het dan een enorm visueel verschil? ik heb namelijk nog geen 1 game gezien waar je echt veel verschil ziet als je ook echt aan het gamen bent.
Voor zover ik gezien hebt wordt het bijna altijd beperkt toegevoegd (omdat de hit zo groot is) en zie je vooral verschil als je er echt op let of bij stilstaande beelden, maar wellicht heb ik wat Raytracing titels gemist
De grootste knaller (tot nu toe) is natuurlijk Minecraft, maar daar gebeurt volgens mij meer dan alleen RayTracing op het moment dat je de RTX modus start (zoals verbeterde textures). Metro Exodus is misschien een beter voorbeeld waarbij, gezien de setting, RT een flinke impact heeft op de ervaring. Ook in Cyberpunk en Control vind ik het absoluut de moeite waard. In Spider-Man Remastered is het verschil duidelijk, maar zijn er met enige regelmaat storende artifacten.
Enige spel waar je naar mijn mening een redelijk verschil ziet is Metro Exodus PC Enhanced Edition.
Maar goed, daar was de belichting in de oorspronkelijke versie gewoon slecht, en iets wat slecht is valt makkelijker te verbeteren dan iets wat al goed is. Voor de rest prima spel overigens.
ik moet zeggen dat ik weinig problemen ervaar met amd’s equivalent? Zelf heb ik een gtx 1080, maar twee vrienden zitten op een 6700XT en een 6800 en die doen dat volgensmij prima. Ze delen dikwijls clips en die zien er prima uit
[Reactie gewijzigd door youridv1 op 22 juli 2024 15:42]
Ergens ben ik wel blij dat gezien de huidige staat van de wereld het geen gemeengoed is 500W kaarten in te zetten om een beetje op te gamen. Maar wel jammer dat goede prestaties kennelijk steeds meer energie vereisen en daarmee een speeltje voor de (extreem) rijken worden.
Maargoed, misschien verrast Nvidia ons nog met een midrange kaart die ook gewoon beter is zonder het absurde prijskaartje en energieverbruik...
Maar met prijzen van €2000 is het ook totaal niet bedoelt als mainstreamkaart natuurlijk, en in huidige games haalt deze kaart zulke hoge framerates dat het eigenlijk overkill is.
Meer voor de hobbyist / freelancer die CUDA / Optix gebruikt.
Momenteel gaat de RTX 4090 op ieder vlak over de Quadro A5000 heen en hij is nog goedkoper ook. De A6000 is alleen interessant als je echt die 48GB geheugen nodig hebt, want hij heeft minder CUDA cores.
Ik zie die doelgroep in ieder geval meestal Geforce kaarten kopen, omdat de prijs/prestatie verhouding veel beter is. Zo te zien zijn de Quadro RTX kaarten gewoon 3090's met meer geheugen en een forse meerprijs.
[Reactie gewijzigd door Wolfos op 22 juli 2024 15:42]
Het is helemaal niet nodig om zoveel watt te gebruiken, want je hebt een heel klein prestatieverlies bij een 60% power limit. Dan gebruikt de kaart richting de 300 watt.
Dus de kaart is gewoon heel inefficient ingesteld. Datzelfde probleem zien we trouwens ook bij de nieuwe Ryzen 7000 serie. Die is op eco-modus ook veel efficiënter tegen minimaal prestatieverlies.
Is het inderdaad een TOP kaart, dus presteerd het zonder kunstgrepen als DLSS dus op pure resolutie beter dan de AMD tegenhanger die binnenkort uitkomt? Is DLSS off inderdaad off of wordt op de achtergrond nog steeds aan upscaling van een lagere resolutie gedaan? Ergo draai ik 1440, maar krijg ik door upscaling een 4k beeld?
De prestatie is goed zelf met DLSS alleen de prijs is simpel belachelijk en niet uit te leggen behalve dat het aanbod (al dan niet expres) laag is. Dat hadden ze kunnen afvangen door te zorgen dat er een redelijk aanbod was voordat ze de kaarten de verkoop in gooide.
Zoals je in die link van Tom's Hardware kunt zien staat deze kaart momenteel op eenzame hoogte wat 4K prestaties betreft. Alleen met raytracing aan kun je gaan denken om DLSS aan te zetten.
Ik verwacht niet dat AMD hier overheen gaat, maar is dat nodig? AMD's top-end is over het algemeen een stuk goedkoper, en gezien de pure overkill dat de RTX 4090 momenteel is hoeven ze hier eigenlijk niet eens mee te concurreren. Deze kaart is alleen logisch voor workstation gebruik, of als je echt het beste van het beste wilt en op die gebieden legt AMD het toch wel af qua technologie.
Beter leggen ze de focus op de midrange, waar AMD wel interessant kan zijn.
[Reactie gewijzigd door Wolfos op 22 juli 2024 15:42]
Dat valt toch wel mee? Kaart is nu zo’n 2200 euro en 2 keer zo snel, over het algemeen, als een kaart die 1200 kost. Dat betekent dus dat het kwa prijs-prestatie nauwelijks is opgeschoten.
Ik heb het ook niet over de prijs-prestatie verhouding, maar over de prestatieboost. De prijs-prestatie verhouding is al sinds jaar en dag ver te zoeken bij de topmodel kaarten.
Nu ik er zo over nadenk is de fps/euro eigenlijk best wel ok. Sterker nog, het verschil tussen de 3080 en 3090 is veel groter dan tussen de 3090 en 4090.
De prijzen hebben niks met concurrentie te maken, die zijn puur gegroeid door afgelopen serie scalp gedrag en mining markt.
Nvidia gaat hun winst voorspelling nog wel naar beneden stellen deze keer, want heel veel hebben nu prima 3xxx kaarten die het ook goed doen, en thuiswerken en een pc nodig hebben is ook minder geworden. Net als mining door de verandering van hoe crypto het best gemined kan worden.
Ok, laat ik het even rechtvaardigen voor je - althans; zo rechtvaardig is het persoonlijk:
Ik weet bijv. dat ik er 3 jaar mee zal doen - 2199 / 36 is dan ~60 EUR per maand. Trek daar nog 900 EUR van af ivm verkoop van mijn oude 3090 (dit zal natuurlijk per persoon verschillen) - en je zit (in mijn geval) op 1300 EUR of te wel ~35 per maand aka rond de 1,10 EUR per dag voor dit beest. Hoezo niet te rechtvaardigen! Dik waard joh!
Zeker, goed punt. Persoonlijk kom ik van een 3090 die ongeveer hetzelfde verbruik had (althans met een 450W XOC bios van EVGA). Vandaar, in mijn geval verwaarloosbaar.
EDIT: 50 cent per kW? Wel erg duur. Ik betaal zelf op dit moment gemiddeld 20-25 ivm dynamische tarieven (spot prijs). Flink lager dus. En dan tellen we zonnepanelen geeneens mee natuurlijk (die stroom leveren aan een kostprijs van 7 cent per kW).
[Reactie gewijzigd door flyas op 22 juli 2024 15:42]
Lees: Dynamische tarieven. Jij quote een gemiddelde prijs van variabele contracten. Zie bijv het volgende tweakers artikel mbt dynamische tarieven en spotprijzen.. Enjoy!
EDIT: Zie hier de daadwerkelijke prijs van stroom, met BTW en ODE - van de laatste maand. Zoals je wellicht opvalt, is de electriciteitsprijs flink gezakt laatste weken. Eveneens als gas trouwens. Ik betaalde de laatse week gemiddeld 1,20 EUR per m3.
[Reactie gewijzigd door flyas op 22 juli 2024 15:42]
Stel je speelt 20 uur per week, wat vrij veel is. Dat is dan een tientje per week, met jouw extreme voorbeeld van hoge energieprijzen en maximaal energiegebruik. Valt best mee voor 20 uur entertainment.
Als je zo'n kaart koopt ben je waarschijnlijk wel bovengemiddeld actief. Zijn ook hele volksstammen die meer dan 20 uur in de week spelen (2 uur 's avonds door de week en een dag in het weekeinde zit je er al overheen).
En qua entertainmentwaarde: het is dan misschien goedkoper dan een bioscoop of uit eten, maar dat doe je geen 20+ uur in de week normaal gesproken. Ik vind het hoe dan ook significante kosten.
Ach, m'n 4090 gebruikt minder dan m'n 3080. In absolute getallen al en al helemaal relatief gezien. Spellen die nu maar 60-70% van m'n 4090 gebruiken zitten maar op 180-220W verbruik. M'n 3080 zat dan allang op 100% en dus 300W. Beiden underclocked, uiteraard.
3080 was 750-800 euro bij introductie vorige keer, gezien de prestaties toch verantwoordbaar hoor.
Deze zijn idd te duur en zie ook niet echt de meerdwaarde mijn 3080 speelt zo goed als alles vlot af .
Met die redenatie zou mijn huidige computer een miljoen keer duurder moeten zijn dan mijn eerste computer. Uiteindelijk gaat het hier om een kaart die - tenzij je AI onderzoeker bent - gebruikt wordt voor games. (mogelijk nog een beetje cryptovaluta, maar dat lijkt ook aan z'n eind te komen)
Waarschijnlijk bouwen game ontwikkelaars nog wel even door voor de huidige generaties kaarten. Pas als dit soort kaarten goedkoper gaan worden zullen ontwikkelaars het aandurven voor kaarten met dit soort prestaties te gaan ontwikkelen.
Ik verwacht dat een aantal ontwikkelaars hun ultra settings zullen aanpassen op kaarten zoals dit, puur om te kunnen pronken. Maarja, als je een beetje wilt verkopen moet je op z'n minst nog voor consoles optimaliseren en dat moet er ook nog een beetje uit zien...
Ultra mag wat mij betreft ook best een beetje toekomst bestendig zijn. Dat hij pas over 5 jaar op een gemiddelde of zelfs high-end kaart goed zou draaien bijvoorbeeld. Er zijn zoveel games waar modders jaren later(of zelfs vlak na release) op zijn minst texture mods uitbrengen om het nog mooier te maken.
Terwijl de devs waarschijnlijk nóg betere textures hebben die op de helft of nog minder van de resolutie meegeleverd worden. Datzelfde geldt ook voor de 3D modellen. Lever die gewoon mee. Het is geen vereiste dat Ulltra op het moment van uitkomen speelbaar is. Zo lang medium of high er ook maar goed uitziet. Schaalbaarheid(of modbaarheid) zorgt voor een enorme boost in replaywaarde. Ik zie ook niet in wat je mist als je 'niet eens fatsoenlijk op ultra kan spelen'.
Textures kosten teveel opslag, en betere 3D modellen zijn er over het algemeen niet (de high-poly sculpt modellen zijn niet geschikt voor in de game). Het enige dat ze zouden kunnen doen is resoluties van effecten wat ophogen, LOD bias, drawing distance, dat soort dingen.
Modellen zijn een kwestie van één extra lod met een hoger budget. Al zou bij veel spellen een lod bias slider die nog iets hoger kan ook al een prima oplossing zijn. Maar inderdaad draw distance kan al een enorm verschil maken. Alweer een kwestie van een slider die nog iets verder gaat(in sommige gevallen is dat zelfs al via de config files te bereiken). Hogere resolutie textures kunnen ook als free DLC aangeboden worden(wat ook wel zo nu en dan gebeurt overigens).
Ik kan spellen waarbij de hoogste instellingen nog niet echt fijn lopen in elk geval goed waarderen, aangezien velen een replay doen op het moment dat ze (al lang) veel betere hardware hebben. En dan bedoel ik natuurlijk niet onspeelbaar vanwege slechte optimalisatie(vooral van de game engine). En een kubus met 6000 polygonen is natuurlijk ook zinloos.
Al moet ik, dit gezegd hebbende, wel zeggen dat ik heel veel verwacht van UE5 vooral omdat die deze schaalbaarheid goed mogelijk maakt.
Als games goed schaalbaar waren was er ook een veel kleinere markt voor remasters. Het niet hebben van een remaster belemmert me soms al een 10 jaar oud spel niet weer te spelen omdat het er in je herinnering toch gedetailleerder uit zag. De resolutie kan me eerlijk gezegd nog niet eens zo heel veel schelen, zo lang er maar geen aliasing is bij 1080p(onder dezelfde voorwaarde misschien nog 720p).
Neen, de opmerking was dat de laatste generaties van grafische kaarten te duur waren voor wat ze aanboden.
De 1080 ti die ik hiervoor had was ook een 750 euro en deze 3080 is 0.5 tot 1 keer sneller.
GTX 970 OC daarvoor een 450 euro 3080 is 2 tot 5 keer zo snel.
En voor die prijzen zijn er meer de verkoper geannuleerd dan geleverd. De prijs van de 3080 schoot al heel snel naar 1500 euro, waardoor gewoon hele modellen niet meer geleverd werden zodat ze de reserveringen konden annuleren.
Nee hoor, ik weet nog de lijsten die bijgehouden werden en daar werden honderden verkocht, deze prijzen waren er ook enkele maanden , tot ergens begin 2022.
Heb je wel eens gekeken wat racefietsen en mountainbikes kosten, of surfmateriaal, of optiepakketten op auto's, of... Te rechtvaardigen of niet mensen willen geld uitgeven aan hun hobby omdat het kan, omdat ze het hebben, omdat het gewoon leuk is, om te patsen of omdat ze denken het nodig te hebben.
Die mensen zullen er altijd zijn en dit soort prijzen zullen blijven. Fabrikanten en shops hebben in de Corona-periode gezien dat mensen het betalen dus het hek is van de dam.
En als je het niet uitgeeft aan iets leuks is het volgend jaar pakweg 10% minder waard door inflatie.
Kun je maar beter zorgen dat je genoeg hebt voor noodgevallen en genieten van de rest.
Ik denk dat het grote merendeel van de mensen zo denkt (let's be honest, met een game-pc hoor je al bij de fortuinlijken op aarde, de meeste mensen hebben at best een smartphone).
Maar toch heb je wel mensen die zeker een ton per jaar verdienen netto, en dan zijn deze kaarten zo gekocht natuurlijk als je het beste van het beste wilt. Uiteindelijk moet je dit afzetten tegen je besteedbare inkomen na belasting, huur, en dat soort zaken. Als het dan nog geen weekje sparen is voor je, dan is het niet zo gek meer.
Daarnaast heb je ook nog hier en daar een enthusiast die bewust voor dit soort kaarten sparen, niet goedkoop maar als het je hobby is why not? Je hebt ook mensen die tienduizenden-honderdduizenden euros extra spenderen voor een sportauto die ze af en toe een zondagje over de dijken jagen.
In ieder geval zal deze prijsklasse vooral erg niche blijven. Een 4050 of 4060 ga je gegarandeerd velen malen vaker zien als die uitkomen.
Ik denk dat er meer mensen zijn dan je denkt die die kaarten kopen. als je ziet wat er 2 weken geleden leverbaar was en nu,...is er nu bijna niks meer.
Wat betaal je voor een auto of voor een huis? Significant meer dan voor deze videokaart en toch kopen heel veel consumenten een auto en/of huis... Ja maar... Hoor ik iedereen al roepen: "Maar das een auto en een huis!". Het ligt er aan hoeveel geld je heb en wat je waar voor over hebt. Er zijn mensen die in een dure auto rijden of een groot huis wonen, maar het geld voor een 4090 er absoluut niet voor over hebben. Anderen zouden een (dure) auto of een (groot) huis niet kunnen betalen, maar leggen wel het geld opzij voor een 4090.
Daarnaast kloppen je aannames niet, gedurende de pandemie zat de 3090 redelijk wat tijd tussen de €3.000 en de €4.000, zeker lang boven de prijzen van de 4090. De MSRP introductie prijs van de 3090 Ti was zelfs 15% hoger dan de 4090. We hebben nu een (korte) periode van relatief veel vraag en weinig aanbod van een 4090. Maar de geïnteresseerden zullen de komende maanden allemaal voorzien zijn en ik verwacht dat het aanbod dan significant hoger zal zijn dan de vraag (met daarbij lagere prijzen).
Ik kan een aantal situaties bedenken waarbij het interessant zou zijn om een 4090 te hebben/gebruiken, in geen van die situaties zit ik momenteel in of verwacht ik de komende maanden te zitten... De geteste MSI 4090 trekt Idle meer dan mijn mini PC of Steam Deck onder full load...
Ik ben het in principe wel met je eens dat je dit soort aankopen kunt relativeren en dat mensen aan andere dingen ook veel geld uitgeven. Maar in het geval van een GPU als een RTX4090 gaan dit soort vergelijkingen natuurlijk een beetje mank. Je hebt namelijk feitelijk nergens een RTX4090 voor nodig, zeker niet als je hem vooral voor games gaat gebruiken… Een tweedehands kaart uit de 20 of 30 series kan namelijk ook alles draaien alleen moet je dan de instellingen wat terug draaien. Zelfs als je zo’n ding voor compute toepassingen gaat gebruiken is het maar de vraag of je niet veel voordeliger uit zou zijn als gewoon een cloud server zou huren. Een auto of een huis heeft meestal nog wel wat andere fundamentele kwaliteiten die daadwerkelijk belangrijk zijn en de prijs bepalen.
Iedereen moet gewoon zelf weten of het het geld waard is, het is gewoon een luxe product en als je het geld hebt en je wil het beste van het beste dan waarom niet… Ik heb het er zelf niet voor over, vond mijn 3080 al absurd duur voor €900 (en dan heb ik nog enorm geluk gehad want vlak daarna kostten ze twee jaar lang meer dan het dubbele). Maar ik snap wel dat sommige mensen het kopen, het heeft een hoge hebfactor.
Overigens ben ik het niet helemaal eens met stellingen als ‘Nvidia probeert nu gewoon de hoge prijs te pushen maar als ze erachter komen dat mensen het niet kopen of als AMD een concurrent uitbrengt dat binden ze wel in’. Voor Nvidia is dit een halo/prestige product, om te kunnen claimen dat ze de beste tech hebben. Hoeveel ze ervan verkopen kan ze waarschijnlijk weinig tot niks schelen, de grote winsten komen bij Nvidia van de professionele producten (cloud, AI, professionele workstation GPU’s, etc). Consumenten GPU’s is al lang niet meer hun belangrijkste business case
Daar komt bovenop dat huizen in waarde stijgen, iets dat ik een RTX 4090 niet zie doen, hoe snel het ook mag zijn
Ik heb op dit moment een AMD Radeon RX 590 (225w) met 8GB vram @ 2Ghz, en kan er alle PS4 games mee spelen in 1080p met hoge framerates. Zodra de PS5/Xbox games voor de PC uitkomen en ik een kaart nodig ben dat zonder problemen 4k aankan, dan koop ik wel een RTX 4070 of een vergelijkbare AMD. Scheelt een boel poet en een hele sloot stroom (dat ik dan weer investeer in het verwarmen van het huis).
En wie heeft er nu een kaart nodig dat een moderne PS5 game op 1000fps (?) draaien kan? Er zijn nog geen 4k pc monitoren verkrijgbaar @1000Hz gecombineerd met 0.1 ms gtg response time, dus...
/edit:
@Cergorach hieronder: de persoonlijke info op mijn profiel is puur grappenmakerij. Dat je het gebruikt als een ad hominem in je reply is erg jammer, want je ontkracht er enkel alleen jezelf mee.
[Reactie gewijzigd door John Stopman op 22 juli 2024 15:42]
De 4090 is in USD juist het best geprijsde product uit de 4xxx serie. Je krijgt namelijk serieus veel performance voor een beperkt premium (meer performance gain dan price gain tussen de 4080 en 4090).
Ik zie geen extra halo-product-premium toegepast worden (zoals bijv Titan vroegah).
De zwakke Euro kan je nvidia moeilijk aanrekenen.
Desalniettemin vraagt nvidia te veel voor haar range van consumenten producten
Persoonlijk ligt het er maar net aan, dat kan om 2000 redenen uiteenlopen waarom die persoon vind van wel. Te veel geld voor een hobby die je bevalt is er altijd een reden.
Zakelijk, kijk daar zijn we dan. Als heel veel rendert of gewoonweg modelleert kan het gek genoeg sneller uit dan je denkt. Mensen die dit goed kunnen zijn ook duur en hoe meer downtime je hen moet geven hoe duurder ze worden per project. Tevens kan reactievermogen tijdens modelleren of gewoonweg een model tonen wat dichter bij de uiteindelijk render zitten al in tijd schelen.
Het makkelijkste voorbeeld van wat zakelijk uit kon was natuurlijk de cryptohype van de afgelopen jaren. Het kan uit omdat een nieuwer model binnen een bepaalde tijd meer winst maakt dan een ouder model. en als die periode binnen 2 jaar is dan is dat nog een prachtig op tijd voor een nieuwe generatie elke keer ook nog. Vooral als je de oudere generatie alsnog voor praktisch dezelfde prijs kan verkopen. (dat is volgens mij ook de tactiek van Nvidia, trickle-down-videocard-economics)
Tja, of iets duur is is behoorlijk subjectief. Maar de enige reden die ik nodig heb: 4K 120Hz scherm. De 3000 series was er niet snel genoeg voor, de 4090 wel (4080 en lager niet).
Naar de inflatie kijkend (en nog belangrijker, de toename in inkomsten) is de 4090 minder duur dan de 3090 qua adviesprijs en al helemaal op de tweedehandse markt.
Nou ja, op zich zou ik best zo'n videokaart bij elkaar kunnen sparen. Maar, om die videokaart goed tot z'n recht te laten komen, moet ik de rest van mijn setup van voeding, cpu tot aan mijn beeldscherm ook upgraden. En dat gaat aardig in de papieren lopen.
En daardoor vraag ik me af of het allemaal de moeite waard is, aangezien ik nu ook een setup heb, waar ik tevreden mee ben en prima (zij het op lagere instellingen) mee kan gamen.
Voor de mensen die een Rtx 4090 te duur vinden en er geen geld aan uit willen geven is er gelukkig een alternatief een Intel Arc doet het wel een stuk minder maar kost ook minder
maar als jij het niet erg vind houd ik het wel bij mijn RTX 4090
Wellicht als je veel geld hebt en gamed op een 144hz 4k monitor. DLSS 3.0 is ook wel een toevoeging met dat soort schermen. Om die reden ben ik zelf van plan om een 4080 aan te schaffen.
Dan is dit product dus niet bedoeld voor jouw. Je kan makkelijk een goedkopere PC bouwen, alleen dan kies je een andere videokaart. Ja prijzen zijn de laatste tijd gestegen, maar er is nog genoeg aanbod van de RTX 3000 serie welke niet bepaald traag zijn ofzo.
Is hetzelfde als zeggen dat de gloednieuwe Bugatti van weet ik het hoeveel miljoen niet te rechtvaardigen is. Het product is nou niet op jouw gemikt. Nvidia mikt hier op de mensen die het er wel voor over hebben. Gelukkig dwingt niemand je om deze te kopen. Als niemand koopt moeten prijzen wel gaan zakken, maar zolang er interesse is, waarom niet meer geld vragen en extreem snelle producten maken?
Helemaal met je eens hoor! PC upgrades kostten bij mij zelden meer dan 1000 euro, en dan had ik echt een prima midrange pc waar ik alle games mee kon spelen en jaren mee vooruit kon. Met de huidige prijzen, forget it.
Voor het eerst in jaren daarom ook weer een console gekocht (XSX), waar ik al mijn gaming plezier uit haal tegenwoordig.
Ik heb vorig jaar een vlotte pc gekregen van een emigrerende vriend, waar ik meeste nog mee kan doen. Misschien, heel misschien zal ik volgend jaar een gpu upgrade overweeg, als de amd nda3 kaartjes komen. Maar dat is dan eigenlijk al een investering waar ik mijn twijfels over heb...
Nu heb ik als alleenverdiener in een onlangs aangeschaft huis momenteel ook niet per se veel vrij besteedbaar inkomen, gezin gaat voor, maar zelfs als ik dat wel zou hebben, betwijfel ik of ik dit soort uitgaven zou doen. Dan maar sneller hypotheek afbetalen ofzo
Eens. Nvidia is zelf de scalper geworden. Heb voor de prijs van 2 Playstation 5’s een 3090 gekocht en was er beroerd van. Die grens gaat niet nog een keer verlegd worden.
Tsja, als je mee wilt doen op wat technisch de bleeding edge is, zal je wat moeten bloeden. En hobbies mogen doorgaans wel wat geld kosten. Spiegel dit aan wat mensen uitgeven aan zeg velgen voor een auto, of high end HiFi apparatuur, en dan is het ineens een soort van relatief betaalbare hobby.
Ik zou het er niet voor over hebben net als u, ik kan op mijn Morefine mini-pc prima CIV III spelen, dus grotere PC investeringen zal je mij niet zien doen. Wat wij aan wijn uitgeven, is een ander verhaal. Idem mijn audio hobby. (en ja, ik prijs me gelukkig dat we nog middelen hebben om aan hobbies uit te geven, dat lukt helaas lang niet iedereen op het moment)
Er zijn zoveel zaken niet te rechtvaardigen..
Over wat te rechtvaardigen is is uiteraard persoonlijk.
Een dure iPhone of iPad of auto is ook voor velen niet te rechtvaardigen en voor andere wel om wat voor een reden dan ook.
Vind +2 dan ook een hele rare moderatie want er zit niet of nauwelijks echte info in je bericht, behalve dat jij het niet kan rechtvaardigen.
Ik ben benieuwd welk cpu je minimaal moet hebben om het maximale uit de kaart te halen.
Ik heb de 8700k en ik denk dat het zonde is om zon kaart aan te schaffen. Zelfs de 4080.
Minimaal? Ryzen 7 5800X3D. Zelfs de nieuwe 7900x is niet snel genoeg om deze GPU tot 100% te loaden, je moet dan naar de 7950X. (Zen4 heeft nog geen 3D cache varianten).
Een 8700K is een Coffee Lake hexacore. Ik zou niets boven een 3070 adviseren. Even heel simpel: die 8700K heeft maar 16 PCIe lanes, en dan ook nog maar PCIe 3
Dat hangt totaal af van de grafische instellingen. Op 4K ultra wordt je echt geflessenhalst. Zolang je FPS niet boven de ~144 uitkomt heb je echt geen probleem.
Dat hangt natuurlijk af van de resolutie waarop je gaat spelen.
Speel je op 1920 x 1080 dan kun je minimaal het dubbele aantal frames verwachten met bv een 12600 oid,en nog meer met een 13900 om maar iets te noemen uit het snellere segment.
Op 4k is de winst (doordat de videokaart de remmende factor wordt door al het grafische geweld dat nodig is op deze resolutie) aanzienlijk kleiner.
Deels bepaalt ook de game de winst van een snellere cpu.
Maar de 8700k lijkt me op 4k wel de grens te bepalen, op 4K,dus een snellere cpu heeft zelfs op 4K wel zin, (als je behoefte hebt aan meer fps)
[Reactie gewijzigd door nutty op 22 juli 2024 15:42]
Ongelooflijk dat je anno 2022 ruim 2000 euro moet neertellen om een paar spelletjes soepel te laten draaien. Dat had ik in 1995 niet verwacht. We leven nog in de technologische middeleeuwen.
Ik heb mijn RTX3090 strix oc flink op zijn staart getrapt met een overklok van 2040 MHz en ram + 1000mhz en mijn 5800X overgekookt naar 5ghz. Ik zit met rd2 op 45fps met alles ultra op 4k dankzij Gsynch makkelijk speelbaar. En dan heb ik dlss nog niet eens ingeschakeld.
Waarom zal ik 2k uitgeven als een 3000 serie kaart al ongelooflijk snel is. ?
4090 hier (stock) pushed makkelijk 90-100 fps @ RD2 zonder DLSS, ongelofelijk verschil - juist als je 4K 120hz+ draait. Met DLSS wordt het verschil nog exceptioneel groter. Komende van een 3090 hier ook, ik kan alleen zeggen dat voor mij is ieder geval het de investering dik waard - kan eindelijk mijn 4K en ultrawide schermen pushen richting de hoge framerates waar ze voor gemaakt zijn. Lukte tevergeefs niet met de 3090.
Ik denk dat het met een 3090 Ti ook wel zou lukken, mits je natuurlijk niet alles op ULTRA zet. Altijd voor high instellingen gaan en hier en daar zelfs medium, je zal het verschil echt niet zien!
Dus degenen die met plezier Ultra setting gaan gebruiken, vooral in de nieuwste games, snappen er niets van en verliezen onnodig een pak fps in hun games, wat zeer jammer is! :-)
Ik begrijp je. Zeker - als 60fps voldoende is dan is de 3090 meer voldoende - zelfs overkill in veel situaties. Maar als je schermen hebt aangeschaft met hoge refresh rates (heb 240hz 5120x1440 ultrawide ivm simrig en 4K 120hz scherm) - dan is de 3090 niet voldoende deze ook echt te benutten. Met de 4090 lukt dit eindelijk!
Ik zou wat settings tweaken om de 60fps te halen. Er zijn veel ''ultra'' settings waarbij je het verschil nauwelijks kan waarnemen. Alles naar de max slepen is niet altijd nuttig.
Omdat je zoals je zelf al aangeeft, een 3090Ti niet krachtig genoeg is om op 4K Ultra minimaal 60fps te halen in RDR2. Met respect niet de nieuwste game meer. Persoonlijk zou ik het geld al niet voor een 3090Ti over hebben, maar de usercase voor nog meer power lijkt me best evident.
Jij misschien niet, maar als je veel VR spellen (DCS bijvoorbeeld) bekijkt kan het zeker zin hebben.
Ik ken iig geen VR games die G-sync en DLSS ondersteunen.
Mijn usecase; in VR kunnen simracen zonder de render resolutie terug te hoeven zetten naar 50% icm met low settings. Maar helaas ben ik niet van een economische klasse dat deze kaarten voor mij bereikbaar zijn. Misschien over 2 jaar eens
.... speelt ook de prijs een rol. Om eerlijk te zijn kunnen we daar op dit moment simpelweg niets zinnigs over zeggen. De verschillende modellen zijn mondjesmaat leverbaar en de prijzen verschillen niet per dag, maar per uur.
Ik denk dat we daar nu gelijk een mooi voorbeeld van zien, en ik ben benieuwd hoe lang - in dit geval SI Computers - de MSI kaart voor deze prijs in de 'uitverkoop' zal aanbieden..
[Reactie gewijzigd door Eric van Ballegoie op 22 juli 2024 15:42]
Opzich mogen alle kaarten uit deze review wel het minpunt 'Duur' krijgen lijkt mij. Minimaal 1900 euro voor een videokaart is toch gewoon te ziek voor woorden?
Een videokaart die een prijs heeft van € 2.899,- (bij publicatie) krijgt een minpunt 'Duur', maar een videokaart die € 2.649,- is bij publicatie is niet "duur"?
Minimaal 1900 voor DEZE videokaart. Je moet niet net doen of de RTX 4090 de enige videokaart op de markt is en dat iedereen deze maar moet kopen. Je kan toch ook een RTX 3080 oppikken voor 700 euro? Dat is minder dan dat ik 6 jaar geleden voor mijn 980 Ti betaalde.
Het is maar net waar je je druk om maakt.
Ja meneer ik wil graag een nieuwe BMW M3, maar die prijs slaat echt nergens op! Mijn Fiat Panda van 15 jaar oud koste maar 1/5! Echt te ziek voor woorden.
Tja, vroeger kocht je een topmodel voor de helft van de prijs. Er heeft zeker wel een forse inflatie plaatsgevonden bij Nvdiia.
Ter illustratie: De originele Titan videokaart kostte 999 dollar bij introductie. GTX690 kostte ook 999 dollar. Titan X kostte ook 999 dollar. (Overigens kostte de 980Ti maar 649 dollar).
Pas bij de 10xx serie zijn we boven de 1000 gekomen. En dan voor de Titan kaart. Dit is een xx90 kaart. nog niet eens een Ti.
Nvidia heeft gewoon dollartekens in de ogen, en denkt dat ze dit soort absurde prijzen kunnen blijven vragen na de cryprocrash.
Een groter deel heeft met normale inflatie en de eurokoers te maken.
2 jaar terug was het ongeveer 1 op 1 van US prijzen naar NL prijzen.
In de US is deze kaart 1600 dollar.
Dus laat maar zeggen. De inflatie van de afgelopen 1/2 jaar plus euro koers is al 2400-1600 = 800 euro. (inclusief dan wel de webshops die je erbij naaien, maar goed voor het bedrag 1600 waarmee je verder rekent maakt dat nu toch niet uit, was anders ook hetzelfde).
Dan houden we nog 1600 euro over.
Als we dan inflatie van 9 jaar (GTX 690 release) bekijken, nu 1600 euro was toen 1300 euro.
GTX 690 was 1000 euro.
Dan zitten we dus op een prijsverhoging van 300 euro.
Productiekosten zijn ook verhoogd door inflatie, en gewoon doordat de wafers duurder zijn geworden omdat er veel meer op een klein oppervlakte zit.
Transistors GTX 690
3,540 million
vs
Transistors RTX 4090
76,300 million
Vind je het dan nog steeds veel? van 1000 naar 1300 in 11 jaar. 650% sneller.
Er zijn veel meer componenten op de kaart zelf nodig. En ook veel meer features ingebouwd.
En ik durf ook wel de wedden dat Nvidia als bedrijf de afgelopen 10 jaar ook een stuk meer kosten is gaan maken.
Ik zeg niet dat deze prijzen fijn zijn. Maar voor bijna alle extra kosten is wel een verklaring.
"vroeger was dit zo" heb je niks aan, we leven nu. Je koopt nu een kaart voor 400 euro die rondjes drift om de kaart van 10 jaar geleden die 1000 was. Toch nog vooruitgang?
[Reactie gewijzigd door Modderhoop op 22 juli 2024 15:42]
Uw uitleg ook als laat dat op feiten hier en daar, interesseert niemand.
Het gaat erom dat de prijzen, en vooral van videokaarten schandalig hoog zijn geworden.
De prijs, verbruik van een top end kaart dezer dagen is gelijk aan een volledig PC build van 4-5 jaar geleden, dit zegt al genoeg hoe erg het is geworden, en maakt uw beweringen en kijk op deze evolutie gewoon irrelevant.
Scherp. En eens. Het is nu het Wilde Westen qua levering en prijzen. Alleen denk ik dat volumes van het paradepaardje van deze serie een stuk lager zullen zijn dan bij vorige generaties.
Mwah mijn 1080ti begon zijn leeftijd toch wel te laten zien in de nieuwste games maar als je geen hoge eisen stelt doet hij het nog meer dan prima. Daarom gebruikt mijn partner hem nu want Sims of wot gaat meer dan prima op 1080p.
Tegenwoordig is een video kaart opzich al haast een volledig computer als je kijkt hoeveel geheugen er op zit, rekenen kracht, hoeveel componenten en vebruik.
Waarom heeft de MSI de Ultimate Award gekregen? Als ik bij de prestaties kijk heeft de Inno3D bij alle games net 1 fps meer (I know, het is maar 1 fps, maar toch).
Hij is ook net ietsje zuiniger en bij 100% fan stiller (hoewel in-game is hij dan weer luider en warmer).
Ze hebben allebei hun voor- en nadelen, wat heeft de MSI over de streep getrokken om de Ultimate Award te krijgen?
Ik vrees 'omdat het zo hoort' om de MSI altijd de hemel in te prijzen.
Ik had ook graag een ASRock kaart in de opstelling gezien, maar misschien is die nog niet uit?
[Reactie gewijzigd door hooibergje op 22 juli 2024 15:42]
De gameprestaties verschillen onderling nauwelijks, en wegen dus ook niet zwaar bij de beoordeling. Daarvoor is veel relevanter hoe goed de koeler in. Bovendien hebben fabrikanten daarbij veel meer de mogelijkheid om zich te onderscheiden.
Ik begrijp persoonlijk niet goed waarom bij de minst-dure kaart het nadeel "Duur" wordt gegeven, terwijl alle andere alternatieven veel meer kosten dan deze (afgezien van de niet-verkrijgbare FE natuurlijk) .
gisteren een uur lang de 4090fe kunnen kopen, denk dat het eerder aan de mindset en een beetje moeite doen voor iets "niet verkrijgbaar" is en de gewoonljke klaagzang.
Vele andere zijn trouwens ook niet altijd in stock.
Je kan natuurlijk ook voor een kaart van concurrent intel of amd gaan. Daarbij zijn de 20 serie en 30 serie kaart ook heus niet verkeerd.
Vergeet niet dat de PS5 over een gpu beschikt die ergens tussen de 2060 en 2070 presteert volgens Digital Foundry. Er zit nog heel wat licht tussen een 40 serie kaart en dat (voor veel mensen prima) mid-range niveau.
Mwa,nee geen 1000.
Als de voorraad 3000 zooi er doorheen is,gaat het aanbod groter worden,waardoor de prijzen gaan zakken.
Zal nog een maandje of zo duren...
Maar 4060 zal wel 600-700 worden verwacht ik wanneer de leveranciers los gaan met de kaarten.