Door Reinoud Dik

Redacteur

GeForce RTX 3090 Ti Round-up

Vier dure videokaarten vergeleken

30-05-2022 • 06:00

211

Singlepage-opmaak

Conclusie

Van de vier geteste RTX 3090 Ti-videokaarten hebben we in deze round-up geen exemplaar met slechte testresultaten gezien. Elke fabrikant weet de hongerige GA102-gpu voldoende te koelen, zodat er geen thermal throttling optreedt, wat met een vermogensafgifte van rond de 500W toch best een prestatie is. Daarmee zijn deze custom modellen onder de streep vrijwel even snel en gaat de strijd vervolgens hoofdzakelijk om koeling en geluidsproductie.

Als het gaat om koelefficiëntie is de Gigabyte GeForce RTX 3090 Ti Gaming OC de winnaar, met een koeler die het onder gelijke omstandigheden minder warm laat worden dan de andere fabrikanten. Wanneer de bios-switch van deze kaart op Quiet Mode staat, betekent dit een lage geluidsproductie met een eveneens keurige gpu-temperatuur. In de Performance Mode is de Gaming OC goed hoorbaar, maar ook erg goed gekoeld. De gebruiker kan zelf het bios kiezen aan de hand van de eigen voorkeur.

Ten opzichte van de Gigabyte Gaming OC weten de ASUS TUF Gaming GeForce RTX 3090 Ti OC Edition, Inno3D GeForce RTX 3090 Ti X3 OC en MSI GeForce RTX 3090 Ti Suprim X niet helemaal dezelfde balans in koeling en geluidsproductie neer te zetten. ASUS komt in de Quiet Mode aardig in de buurt, maar ziet amper toegevoegde waarde van de Performance Mode. Inno3D heeft geen bios-switch en komt in de geluidsproductie vrij gemiddeld naar voren, wat gezien het relatief geringe formaat van drie slots geen gek resultaat is. MSI laat in de Quiet Mode het minst van zich horen, maar laat de temperatuur daarbij duidelijk hoger oplopen, wat met het oog op het hogere verbruik van de Suprim X ook wel valt te verklaren.

Op basis van de koelefficiëntie gaat onze voorkeur dus uit naar de Gaming OC van Gigabyte, en deze voorzien we van een Excellent-award. Omdat de TUF van ASUS in de buurt komt van deze koelprestaties, is ook deze kaart het overwegen waard zolang deze voor een lagere prijs dan de Gigabyte Gaming OC verkrijgbaar is, wat voor publicatie van dit artikel korte tijd het geval was.

Reacties (211)

211
209
74
3
0
88
Wijzig sortering
Letterlijk geen enkele kaart die als nadeel de hoge prijs of hoog stroomverbruik krijgt?
Daarin verschillen deze kaarten onderling toch amper? Dus dat is geen punt van onderscheiding in deze review. Bovendien gamers die sowieso de allerbeste prestaties wensen zijn niet of minder geïnteresseerd in het stroomverbruik en/of prijs.
In de introductie wordt dit allemaal benoemd:
Wie op zoek is naar de snelste videokaart voor gaming op 4k, kwam tot voor kort uit bij de GeForce RTX 3090. Nvidia deed daar kortgeleden een schepje bovenop en kwam met de nog iets snellere RTX 3090 Ti. Hoewel het prestatieverschil op deze resolutie nog geen 10 procent bedraagt, ligt het energiegebruik op dit nieuwe vlaggenschip een stuk hoger, zo concludeerden wij in onze review.

In hardwareland zijn de prestaties per euro en de prestaties per watt op topmodellen in de regel verre van optimaal, en met de RTX 3090 Ti is dat niet anders. Toch is er een groep gebruikers die deze zaken veel lager op het prioriteitenlijstje heeft staan, en het nieuwste GeForce-lid met open armen (en beurs) ontvangt.

[Reactie gewijzigd door Degrader op 23 juli 2024 05:11]

Daarin verschillen deze kaarten onderling toch amper? Dus dat is geen punt van onderscheiding in deze review.
In de context van deze review ben ik het helemaal met je eens. Het jammere is wel dat deze beoordeling en de voor- en nadelen ook direct in de pricewatch worden opgenomen. Als je in de pricewatch op high-end kaarten zoekt staat deze Gigabyte daar dus tussen met een excellent-beoordeling, wat onterecht de suggestie wekt dat deze kaart ook maar enigszins interessant is. Geen enkele 3090 Ti hoort wat mij betreft een met excellent-beoordeling in de pricewatch te staan, aangezien de 3090 Ti over het algemeen gewoon een slechte prijs-kwaliteit-verhouding heeft en een nog veel dramatischere energie-efficiëntie.
slechte prijs-kwaliteit-verhouding
Volgens mij bedoel je een slechte prijs-snelheid-verhouding. Kwaliteit heeft een iets andere betekenis.

En wat betreft energie efficiëntie, alles is heel erg energie inefficient in verhouding tot bv. moderne integrated graphics. Betekend dat alle losse GPUs dan maar direct de grond moeten worden ingeboord? Jij vind de ~500W te ver gaan, anderen vinden de ~200W van een PS5 al veel te ver gaan.

Hoe energie efficiënt denk je dat mijn 7.5 jaar oude GTX 970 is ivm. moderne kaarten? Ja het max verbruik ligt een heel stuk lager dan de hier genoemde ~500W, maar de prestaties zijn zo laag dat deze kaart al jaren niet meer terug te vinden is in de grafiekjes... Hoeveel mensen denk je dat nu nog werken op oude hardware door de chip tekorten van de afgelopen twee jaar. Energie efficiënt is leuk voor je ziel, zolang je maar kijkt binnen jou gedefinieerde groepje hardware.

Tweakers.net zou voor de gein eens de integrated graphics moeten meten van bv. de Steam Deck (RDNA2) en deze als baseline moeten gebruiken voor alle kaarten qua energie efficiëntie... En dan als negatief aspect bij elke review van videokaarten het stroomverbruik tov. die RDNA2 graphics noteren en bij elke kaart met een prijs van €350+ de hoge prijs... Kijken hoe dat de lezers zal bevallen... ;-)

De hoge prijs en het hoge verbruik van de kaart zijn een kanttekening waard, maar niet noodzakelijk een negatief punt. Net als imho de 3 vs 4 sloten verbruiken, het is niet alsof je er twee van in je PC propt...

[...]
Volgens mij bedoel je een slechte prijs-snelheid-verhouding. Kwaliteit heeft een iets andere betekenis.
Da's een louter semantische discussie.

De term "kwaliteit" vanuit de samengestelde term "prijs-kwaliteit" slaat op de mate waarin het product zijn primaire functie vervult. Bij een grafische kaart is dat de snelheid waarmee die kwaliteitsvolle beelden kan uitspuwen.

Misschien is de term "prijs-effectiviteit" een correctere term voor de betekenis die men er doorgaans aan geeft?

[Reactie gewijzigd door RuddyMysterious op 23 juli 2024 05:11]

Normaal gesproken gebruik je bij hardware een prijs / performance index / rating om dit weer te geven. Hardware Unboxed doet dit bijvoorbeeld door de $ per frame op te nemen in hun reviews.

Bij kwaliteit zou ik eerder, zelfs bij GPU's, denken aan bouwkwaliteit, de kwaliteit van de gebruikte materialen (metaal v.s. plastic e.d. ), hoe goed is de koeler e.d.
Bij kwaliteit zou ik extreem vermogen verbruik ook mee tellen. Gezien dat ook invloed heeft op levensduur.
Dat schaar ik onder bouw kwaliteit, als immers de componenten op het PCB van afdoende kwaliteit zijn is dat vermogen ook geen probleem en zal het ook niet direct invloed hebben op de levensduur. Bij een goed ontwerp en kwaliteitsonderdelen gaan dat soort zaken veel langer mee dan dat de videokaart courant blijft qua performance.

Zijn de onderdelen van matige of slechte kwaliteit, tja, dan kan dat inderdaad invloed hebben.

Ik zou trouwens 500W ook niet direct als extreem vermogen duiden, voor een videokaart is het inderdaad relatief hoog (al gaan datacenter kaarten soms nog wel een stap of meer hoger), er is genoeg electronica te vinden waar voor hogere vermogens doorheen gaan.
En wat betreft energie efficiëntie, alles is heel erg energie inefficient in verhouding tot bv. moderne integrated graphics. Betekend dat alle losse GPUs dan maar direct de grond moeten worden ingeboord?
Ten eerste zijn IGP en high-end discrete videokaarten compleet andere segmenten met een heel ander gebruik, een IGP kan veel games op hoge resolutie niet draaien op een werkbare framerate. Dat is echt appels en peren vergelijken. De use case van een 3090 Ti is echt gewoon dezelfde als de use case van een 3090 non-Ti, met een prestatieverschil van 10% en een verschil in energieverbruik van 40%.

Ten tweede is het algemeen bekend dat toename in energie-efficiëntie niet lineair gaat in de toename in prestaties, maar de val in efficiëntie bij de 3090 Ti ten opzichte van de 3090 is gewoon onevenredig groot, als je het vergelijkt met andere setjes van GPU's met een prestatieverschil van 10%. Dus het is niet slechts de slechte energie-efficiëntie in absolute waarden, maar ook relatief ten opzichte van de efficientiecurve uitgezet tegen de prestaties. Zo doet een RX6750 dat bijvoorbeeld ook slechter dan een RX6700 of RX6800 (om dezelfde reden als deze 3090 Ti: die dingen worden flink geOC'd om het maximale uit de chip te persen, dat is dramatisch voor de efficiëntie).
Energie efficiënt is leuk voor je ziel, zolang je maar kijkt binnen jou gedefinieerde groepje hardware.
Onzin, dat is misschien zo bij oude hardware maar dit gaat over een beoordeling van nieuwe hardware. Zo kun je nieuwe producten ook wel gaan afraden omdat tweedehands een betere prijs-kwaliteit-verhouding heeft.

Iemand die nu een nieuwe videokaart koopt kan deze plus- en minpunten gebruiken om zijn aankoop te verantwoorden, een vergelijking als "het is toch beter dan hardware van 5 jaar oud" legt de lat wel heel laag.
De use case van een 3090 Ti is echt gewoon dezelfde als de use case van een 3090 non-Ti, met een prestatieverschil van 10% en een verschil in energieverbruik van 40%.
Laten we het GPU prestatie verschil tussen een 6800U en een RTX 3090 Ti eens uitdrukken, 400% prestatie verschil tegen een 2000% energie verbruik verschil.

En nu kan jij aangeven dat het op hogere resoluties inderdaad lastig wordt om fatsoenlijke framerates te halen. Maar hoe presteert een RTX 3090 Ti op 8k, 16k resolutie? Je zou het onzinnig kunnen noemen, wat een hoop mensen exact hebben verkondigd over 4k gaming tov. 1080p gaming (en sommigen nog steeds zeggen)...

Verschillende tweakers halen energie verbruik en prijs aan als 'essentiële' waardes om 'kwaliteit' mee te meten. Maar niet iedereen ziet dat zo en dat probeer ik duidelijk te maken. Vermeld dergelijke eigenschappen, maar laat het aan de gebruiker over om te beoordelen of hij/zij dat wel/niet belangrijk vind.

Ik gebruik wanneer ik weinig power nodig heb een zuinige CPU/IGP, wanneer ik veel power nodig heb gebruik ik mijn workstation en die moet eerdaags echt eens vernieuwd worden en een 3090 (Ti) of een 4090 is echt wel een optie. Ondervolten zoals @Zenjol al aangeeft zou dan standaard een prima optie zijn. Als ik meer power nodig heb voor toepassing xyz kan ik altijd die settings nog aanpassen. Prijs... Tja, niet het grootste issue momenteel, ik spendeer al significant meer aan een extra zuinige mini PC, de meerprijs van een 3080 vs een 3090Ti is daar nog minder bij... En tegen de tijd dat het vervangen wordt heb ik 8 jaar gedaan met mijn huidige workstation. Het stroomverbruik is lastig, niet zo zeer voor de kosten en al helemaal niet voor het 'millieu'. Aangezien mijn zuinige PC zo veel minder trekt dan al die gasten die primair een 3080 draaien, dat wanneer ik een 3090 Ti zou overklokken voor een paar uurtjes, ik nog steeds significant minder verbruik dan het gros van de PC tweakers...
Verschillende tweakers halen energie verbruik en prijs aan als 'essentiële' waardes om 'kwaliteit' mee te meten. Maar niet iedereen ziet dat zo en dat probeer ik duidelijk te maken. Vermeld dergelijke eigenschappen, maar laat het aan de gebruiker over om te beoordelen of hij/zij dat wel/niet belangrijk vind.
Dan moet tweakers gewoon zijn samenvattende beoordelingen als "excellent" schrappen. Dat kan, maar dan wordt het wel de vraag wat een dergelijke review precies toevoegt. "Hier is een bak metingen en zie maar wat je eruit haalt" is een stuk minder toegankelijk dan wanneer je een samenvattende conclusie kan lezen, en in elke samenvatting zit al een stukje mening, al was het maar de mening over wat wel en niet noemenswaardig is.

Sterker nog, de selectie aan metingen die je wel of niet uitvoert geeft al sturing aan het beeld wat een lezer over een product krijgt. Vroeger werdt alleen "FPS" gemeten bij videokaarten, geen uitschieters in frame-times, toen was de conclusie over dual-GPU-kaarten heel anders dan je op basis van moderne reviews zou krijgen. Zelfs zonder expliciete conclusie door de reviewer.

Wat mij betreft zijn zulke conclusies prima, want je kunt het ook omdraaien en zeggen dat een lezer ook prima de conclusies kan negeren als hij een andere mening heeft.
Laten we het GPU prestatie verschil tussen een 6800U en een RTX 3090 Ti eens uitdrukken
Je draait een beetje om de hete brei heen: al neem je het hele segment van raspberry pi via game-pc tot supercomputer, door al die segmenten kun je een efficiëntiecurve heen trekken, en hoewel die curve van low-end naar high-end steeds meer oploopt richting inefficiënt zie je hier en daar gewoon wat pieken en dalen. De 3090 Ti is bij uitstek zo'n dal. Dat is helemaal niet zo simplistisch als "gebruik altijd een IGP want dat is efficiënter", een high-end kaart kan prima een piek vormen.

Tweakers neemt trouwens al een tijdje zulke curves op om de prijs-prestatie-verhouding van bijvoorbeeld CPU's te beoordelen. Ja, een high-end CPU kost relatief altijd meer, maar zijn die meerkosten in verhouding tot CPU's in hetzelfde segment, dat is een stuk interessanter.

[Reactie gewijzigd door bwerg op 23 juli 2024 05:11]

Op zich zijn er genoeg mogelijkheden te bedenken om energie efficiëntie binnen een bepaalde context te plaatsen. Om te beginnen zou je eens kunnen kijken wat de efficiëntie is van een chip, dus bijvoorbeeld een RTX 3090 Ti. Om dat goed te doen heb je er wel erg veel werk aan als reviewer.

Met undervolten/overclocken moet je een bepaalde S-curve kunnen vinden, waarbij de prestaties die je terugkrijgt voor het extra vermogen dat je erin stopt flink afvlakt. Ik denk dat de GPU's vroeger een stukje lager op die S-curve zaten en dus efficiënter waren, waarbij je dan thuis nog voor bijvoorbeeld 25% meer vermogen een overclock van 5-10% prestaties kon realiseren, terwijl ze nu eigenlijk uit de fabriek al die 25% meer vermogen mee krijgen en er nauwelijks headroom over is om extra prestaties eruit te krijgen.

Voor de RTX 3080 en 3090 was dit al heel erg duidelijk, zie bijvoorbeeld dit filmpje van OptimumTech. Daar zie je dat je van 2000 MHz stock terug kan gaan naar 1800 MHz op een stuk lager voltage, en dan gaat een 3080 van 318W naar 215W en een 3090 van 388W naar 275W. Die kloksnelheid is 10% lager, maar het stroomverbruik zakt dus relatief veel meer. Als je dan kijkt naar de prestaties is dan worst-case dus ook 10% lager, maar in bepaalde gevallen zoals bij de test in 4K gaat hij van 189 fps naar 185 fps.
De Steam Deck is 720p handheld gaming. 4k met hoog FPS gaming is nu nog onbetaalbaar, zo simpel is het (en daarom ben ik voor 1440p 144 Hz monitor en videokaart gegaan). Je bent veel geld kwijt voor een GPU en monitor. Dat kan en mag je best als nadeel benoemen. Vooralsnog wordt mijn volgende upgrade 4k hoog FPS nog even uitgesteld. Mijn 3900x, 6700x, en eerdergenoemde monitor zullen nog met veel plezier op 1440p worden gebruikt (met passthrough), 4k hoog FPS is nog toekomstmuziek omdat 3k EUR voor een casual gaming rig plus energielasten te hoog is. En de energiemarkt is onstabiel, ook rijke mensen vinden dat vervelend. Maar met name middenstanders kunnen beter wachten. En voor wie is deze website, voor wie is zo'n review geschreven? Toch niet voor de rijkste 1%?
En voor wie is deze website, voor wie is zo'n review geschreven? Toch niet voor de rijkste 1%?
Nee, niet de rijkste 1%, maar voor de tweakers die vaak het onderste uit de kan willen hebben. Die hun geld uitgeven aan hun computer hobby ipv. aan andere hobbies/vermaak. En denk je echt dat zo een machine met een 3090 Ti 100 uur in de week staat te stampen? Natuurlijk niet, mensen werken, hebben familie, moeten eten, etc.

Het verschil tussen een 3080 OC (want een FE is niet meer te krijgen) en een 3090 Ti is volgens Tweakers.net zelf 130-140W. 1 uurtje spelen is €0,08 meer dan een 3080 ingame (of ~€0,50 per uur gamen voor de hele setup)... Voor iemand wiens primaire hobby gaming is, is dat niet heel veel geld ivm. andere hobbies. Als je er ongein mee doet voor werk, is het gewoon een kostenpost.

En de rijkste 1% is wel heel gechargeerd, een hele hoop tweakers die dergelijke hardware hebben/gebruiken zitten heel, heel ver van die rijkste 1% af. Jij stelt gewoon andere prioriteiten dan anderen. Die prioriteiten kunnen prima veranderen als je ouder wordt en/of anders in de arbeidsmarkt staat. En als je 8 jaar doet met je PC setup, kan je ook 8 jaar sparen voor de volgende...

Ja het is niet weinig geld, er zijn modellen met een veel betere prijs/prestatie verhouding, maar we zitten hier niet om PCtjes te slijten aan doorsnee lemmings, dit is Tweakers.net. En tegenwoordig betekend dat een ruim asortiment aan verschillende mensen, met de meest uiteenlopende inkomens/prioriteiten. Die kunnen prima voor zichzelf uitmaken of ze een 500W €2000+ videokaart wel of niet in hun budget vinden passen... (of dat ze het bij voorbaat al van den zotte vinden)

Of moet Tweakers.net zich gaan houden aan de lowest common denomenator? Er dwaalt vast wel een hobo met een smartphone rond op Tweakers.net... ;-)
Vooral 1 zin quoten en niet ingaan op de rest.

Punt is dat voor het gros van de mensen een betere prijs/kwaliteit verhouding bestaat. Je hebt het over werk. Wij hebben ook servers voor bijv ML maar dan nog moet het wel een goede prijs/kwaliteit betreffen. Dat is bij deze niet het geval.

En ja de reviews zijn niet bedoeld voor een uitzonderlijke groep. Daarom zitten ze niet achter een betaalmuur. Voor het gros van de lezers is dit een dermate dure hobby, dat ze waarschijnlijk beter de boel kunnen huren en remote spelen, of gewoon een niveautje lager gaan: lagere FPS of 1440p.
Natuurlijk bestaat er voor het gros van de mensen een betere prijs/kwaliteit verhouding dat is simpelweg niet relevant bij de review van een product als dit. Vergelijkbaar - als er een nieuwe iPhone Pro Max Ultra uitkomt dan wordt deze toch ook gewoon gereviewed ondanks de prijs?

Ik denk dat je je een beetje verkijkt op die 1%, dit is een oude site en er zijn best wel wat Tweakers die dit kunnen betalen, net als de bijbehorende stroomkosten. Of ze dat willen is een tweede.
Prijs/kwaliteit is altijd relevant bij een product, zeker voor het gros van de mensen. Maar zelfs al kun je het makkelijk betalen: wie is er graag een dief van de portemonnee? Ook bij een iPhone Pro Max Ultra geldt dat. Bij andere producten gebeurt dit ook gewoon hoor. Bijvoorbeeld bij Fairphone en bij Planet Cosmo Communicator kijkt men ook wat men voor het geld krijgt. Dus waarom bij deze niet? Omdat het al een luxeproduct is? Wat betreft de (stroom)kosten voor ML kun je beter 2 goedkopere kaartjes nemen.
Excellent specifiek voor de 3090 range, wellicht dat Tweakers dat inderdaad ergens zou kunnen aanhalen binnen de pricewatch. Tegelijkertijd ergens spreekt het voor zich dat dit eigenlijk het geval is, immers als je als algemene koper op zoek bent naar een kaart laat je de 3090 links liggen, wil je het top model, dan ga je voor de excellent Gigabyte.

Daar gaat naar mijn inziens ook verkeerd met je beredenering, ja deze zijn slecht qua prijs/kwaliteit/verbruik, maar dat maakt de Gigabyte op zichzelf nog niet een minder goede kaart, sterker nog dit is op dit moment wanneer je niet kijkt naar kosten noch verbruik, de beste kaart op dit moment.
sterker nog dit is op dit moment wanneer je niet kijkt naar kosten noch verbruik, de beste kaart op dit moment.
Ja, en als je niet kijkt naar prestaties is het weer een heel slechte kaart. Hij heeft een prijs en een verbruik, of je het nou leuk vindt of niet.

Dan ligt het maar aan wat je criteria zijn voor "goed", gewoon maar alles wat hoog geklokt is het labeltje "goed" geven omdat dat nou eenmaal presteert is nogal kortzichtig en niet echt wat ik van een vergelijkingswebsite verwacht. Gewoon GPU's sorteren op scores in 3Dmark kan ik zelf ook wel.

Zeker als je deze beoordeling in een prijsvergelijker toont lijkt het negeren van de prijs me nogal dom.

[Reactie gewijzigd door bwerg op 23 juli 2024 05:11]

Je geeft dus een mening dat wat jou betreft deze kaarten niet interessant zijn. Maar er zijn echt wel use cases te bedenken waar deze kaart wel relevant is. En dan geeft de award dus aan welke binnen de 3090 serie de beste is. Dat is juist het doel van deze review: om binnen een bepaald segment het beste te vinden.
En wederom: deze beoordeling wordt niet alleen getoond binnen de context van deze review, maar ook gewoon in de pricewatch in het lijstje van videokaarten, en op de pricewatch-pagina van deze videokaart specifiek.

Het doel van die beoordeling lijkt voor de verschillende contexten dus niet helemaal op 1 lijn te liggen, want in de algemene 3090 Ti-review van tweakers wordt er juist flink gemopperd over de dramatische energie-efficiëntie, en wordt er geconcludeerd dat het juist geen goed product is.
Er staat ook ergens een excellent award voor een RTX 3060. Vet kut als je op basis van dat logo die kaart koopt in combinatie met een 4K monitor. Kortom, als je het zo ziet moet je die logos maar helemaal weghalen uit de prijswatch.

Mensen snappen heel goed dat je zo'n award moet zien binnen de context van gelijksoortige artikelen in een gelijke klasse. Met andere woorden, mensen snappen best wel dat je een 3090 niet met een 3060 moet vergelijken. Maar mocht je op zoek zijn naar een 3090, dan moet je dus de Gigabyte nemen.
Mensen snappen heel goed dat je zo'n award moet zien binnen de context van gelijksoortige artikelen in een gelijke klasse.
En dat is precies mijn punt. Een RTX 3060 scoort ook daadwerkelijk best goed vergeleken met concurrerende kaarten in hetzelfde segment, een RTX 3090 zit wat betreft prestaties gewoon in hetzelfde segment als kaarten die een derde goedkoper zijn. Dit is ook gewoon de mening van tweakers, uitgaande van hun conclusies in de review van de RTX 3090 (waar ze met andere kaarten vergelijken), dus hun "excellent"-beoordeling in deze review is gewoon niet consistent met hun beoordeling in de algemene RTX 3090-review.

"Mocht je op zoek zijn naar een 3090" is nogal een dooddoener, want "mocht je op zoek zijn naar een Inno3D" dan is de Inno3D excellent, zo kun je elk product wel als excellent beoordelen omdat dat precies is waar iemand naar op zoek is. Het hebben van een specifieke chip is een technisch detail waar je tijdens het gamen niks van merkt en is dus geen rationeel argument om op voor te selecteren.
Vindt niemand de prijzen een beetje absurd op dit moment voor grafische kaarten? We zijn van 600-1000 max. voor high end kaarten al naar boven de €2000 gegaan...
Het gaat toch niet alleen om onderling verschil, maar ook tov RTX 3090?
Nee, hier gaat het puur om de verschillen tussen de 3090 Ti-kaarten onderling, niet hoe de 3090 Ti zich verhoudt tot de 3090. Dat kun je namelijk lezen in de review van de 3090 Ti waar ook naar verwezen wordt in de introductie.
Waarom wordt dan wel genoemd dat ze 4 slots dik zijn? Is toch ook overal hetzelfde? Eeeen daar gaan we weer, wat nemen we wel of niet op. Leuk he zon discussie.
Nee kijk maar goed er zit ook een 3slots tussen :)
Klopt, er werd een vraag gesteld over stroomverbruik. Dat hij er nu niet tussen staat betekent dat ze dan alle 4 exact evenveel stroom gebruiken?
Je vaart in twee wateren.

Ten eerste word energie alsmaar duurder en ten tweede kosten de kaarten behoorlijk veel geld. Ik denk dat het verstandig is om op de 40 serie te wachten, maar die kaarten gebruiken nóg meer stroom. Behalve dat je zwaardere onderdelen nodig hebt (voeding) is de prijs gewoon te hoog voor wat je krijgt. Ik zou me tweemaal beraden eer ik zo'n kaart koop en ik ben niet armlastig.

De geproduceerde warmte die er vrij komt gaat voor de helft verloren. Waarom de helft? In de winter is die extra warmte geen probleem en zul je een fractie minder hoeven te stoken, maar in hartje zomer met dertigers op de thermometer ben je die warmte liever kwijt dan rijk. Dan loert oververhitting om de hoek en dit wil je ook weer niet.

Ik heb airco, dus geen last van warmte, maar de airco moet wel die extra warmte die er vrijkomt weer afkoelen. Zelf heb ik een RTX3080 en die doet al 300 watt TDP. Er komt dan ook een berg warmte vrij als ik aan het gamen ben en heb ik een RTX3090Ti nodig? Nee, omdat ik op 1440p game en maar hooguit 2 uur per dag aan het gamen ben.

Het stelt me niet gerust dat videokaarten zoveel hitte produceren. Behalve een zwaardere voeding moet ook de kast heel goed zijn en heb je een behoorlijke airflow nodig. Op een heet zolderkamertje kan dit nog wel eens serieuze problemen opleveren en de kaarten kosten het dubbele vergeleken met de RTX3080.

In games zit ik vaak langdurig op 144fps en ik kom niets tekort. De RTX3080 kan zelf prima 4K renderen, maar 2160p144 wordt een ander verhaal. Daar zul je met een 3080 vaak onder de 100fps blijven. Het beeld zal wat scherper zijn, maar scherp beeld is op 1440p ook prima en het is maar net hoe hoog je de lat wilt leggen. Waar is de grens? Gaan we kaarten krijgen die over de 600 watt TDP gaan...ja, de 4080 of 4090 zullen die waarden gaan aantikken.

Zelf (maar dit is persoonlijk) vind het waanzin om zoveel energie te stoken in een tijd dat energie erg duur is en moeilijker geleverd kan worden. Tennet zit vol.

Wat is nu 600 watt als er buiten een EV aan de laadpaal zit. Het is de som van beide. Dit energieverbruik valt bijna niet te verantwoorden.

Begrijp met niet verkeerd. Als je zo'n kaart wilt kopen zit ik je geen strobreed in de weg, maar ik mag er wel mijn bedenkingen over hebben :)
Het verschil tussen max. settings in een game en normale settings is bijna niet te zien terwijl je grafische kaart wel ontzettend veel zwaarder wordt belast.
Deels mee eens, in principe wel eens, maar het werkt net wat anders :)

Mensen die zo'n high end kaart kopen willen natuurlijk wel op ultra spelen al is het verschil inderdaad niet groot. Ik speel ook al mijn games op ultra settings en ik zie wel enig verschil met lagere settings, het is niet veel, maar het is net dat beetje extra eyecandy waarvoor games extra geld neerleggen.

Door in de settings lager te gaan zitten bespaar je zeker veel warmte en het is goed dat games zoveel settings hebben want je wilt ook die gene binnenhalen met een wat minder luxe GPU.

Als een game net niet lekker werkt op ultra ga ik terug naar high settings. Meestal werkt mijn kaart niet op 100% want als ik op 144 fps zit gaat mijn monitor niet verder. Eigenlijk is mijn 1440p144 monitor te min voor een RTX3080 bij de wat oudere titels, maar in RDR2 haal ik maar 60-65 fps, maar wel met alles op ultra. Misschien toch wat settings terugschroeven, maar als ik dan 90 fps haal dan moet mijn kaart alsnog voor de volle 100% aan de bak. Een GPU wordt pas minder belast als de kaart meer frames kan uitpoepen dan je monitor dit kan.

Van 1440p naar 2160p gaan kan nog wel eens energie besparen. Als je op 2160p logisch minder frames heeft hoeft de CPU ook minder aan de bak. Een hogere framerate belast de CPU dus ook meer. Dan speelt de zaak 'alles op ultra' veel minder een troef.

>alles op ultra - 1080p - 300fps = maximaal CPU gebruik en beide op max
>alles op ultra - 1440p - 144fps = maximaal CPU gebruik (GPU en GPU op max)
>alles op ultra - 2160p - 60fps =maximaal GPU gebruik en minder CPU = winst

Het is dus de framerate die de hoeveelheid energiegebruik bepaald. Het gaat niet zozeer om de instellingen van het spel, maar meer over de framerate. Je ziet verschil tussen stabiel 60 en 144 fps, maar dit verschil is minder dan het verschil tussen ultra of medium settings. Het gaat niet alleen over de GPU, maar huidige CPU's lusten ook een flinke slok.
G-Sync is in feite een echte energievreter. Niet de techniek zelf, maar laat wel de GPU continu op maximaal werken mits je de maximale refreshrate overtreft.

Het mes snijdt aan twee kanten :)
Voor rpg, waar je rustig tijd hebt om in de wereld rond te lopen kan ik nog begrijpen dat je op max. wilt spelen maar voor snelle shooters heeft het echt weinig zijn. Ik heb voor de gijn max. gespeeld en zag 0,1% verschil, niet de moeite waard maar je pc stond wel veel meer te stampen.
Hier ben ik het helemaal mee eens :)
En de "4-slots dikte" is wél iets dat onderscheiden kan worden? Ik lees ze nl. bij 3 van de 4 kaarten.
Ja, dunner is wat mij betreft een voordeel, zeker voor mensen die er twee in één kast willen plaatsen.

Wordt vrij lastig qua moederborden met de juiste pci-spacing als de kaarten 4 slots dik zijn.

Leuk voor de geluidsproductie mogelijkheden, die 4 slots, dat wel.

Deze kaarten worden niet alleen voor gaming gebruikt maar ook voor 3D rendering. Daarbij verdubbeld je performance ook wanneer je van één naar twee kaarten gaat.
Dan kan je de 3 slot zien als ook rekening met dual pro gebruik.
4 sloten als men gebruikt 95% alleen die gpu slot dus 4+ sloten is dan geen probleem.
Die oer tijd dat ik 3 of meer sloten gebruik was in de pci/vesa tijdperk en ervoor met dipswitch irq instellingen.tijdper.
Al val ik met sound kaart nog in die 5% en wil er eigenlijk nog 10gb nic erbij hebben.

Al zal ik met future mobo met psie-5.0 kijken naar 10gb nic onboard en usb4 40gb ivm DAS optie
Veel succes met het vinden van een mobo die 2 kaarten dan op gelijke snelheid kan draaien.....Meeste pci-e sloten hebben beperkte snelheid en alleen 1 of 2 sloten zijn sneller voor een grafische kaart. Ook vaak gedeelde pci-e sloten.

Voor rendering worden vaker Pro kaarten gebruikt denk ik, die voor rendering vaak wat extra truuks aan boord hebben. Ook verschillen de drivers wat ten opzichte van standaard gaming kaarten.
x16 of x8 maakt in render engines (Octane/Redshift) niets uit. Wij gebruiken 3090s, 2 builds met dual 3090. 1 keer op basis van i9 12th gen en op basis van Ryzen 5800. Het is vooral lastig mobos met de juiste spacing te vinden en het liefste hybrids of blowers.

(Kijk voor de gein eens op Hardware voor Octane Render Facebook, daar zie je builds met 12+ 3090s)

Pro kaarten worden nauwelijks gebruikt voor rendering in de motion graphics / animatie wereld.

Veel te duur voor de performance. Je ziet ze vaker terug in CAD pc's etc.
Natuurlijk. Dat kan bepalend zijn voor o.a. welk PC-kast je de kaart wilt gebruiken. Dat kan beperkt zijn tot 3-sloten.
De ASUS neemt maar 3 slots in beslag dus ja.
Ik kan niet spreken namens de auteur maar ik denk dat de prijs en de hoeveelheid verbruik bij deze kaarten niks uitmaakt.
Het is/zijn gewoon de krachtigste consumenten videokaart die er is.

Bij Ferrari/Lambo etc. van +200.000 euro heb je ook gewoon een giga brandstofverbruik en is de bang per buck ver te zoeken maar dat maakt de kopers echt geen zak uit. De verkoop is een stuk lager dan met de lager gepositioneerde kaarten en natuurlijk betaal je hier dus een ook premium voor.

Als je de beste prijs per buck wilt zal je vak moeten kijken naar bv. De 3070 of 3060’s of het gelijke daaraan van AMD’s zijde. Al is dat vanwege de (gelukkig dalende prijzen) vervelend om te doen.
En die presteren geen ene reet beter dan de high end voorgaande kaarten, waar je geen 2000 euro voor hoefde te betalen. Een Lambo en of een Ferrari heeft maar een heel beperkte oplagen, worden met de hand gebouwd, en er worden prijzige exotische materialen in gebruikt. Een 3090ti is gewoon een gecherry pickte 3080 met op geschroefde klok snelheden. De prijzen zijn zo hoog omdat die bewust zijn opgedreven door een gebrek aan gedegen concurentie. En daar gaan ze niets aan veranderen. Ik heb me hoop gevestigd op AMD, die nog wel eens de ballen heeft om gewoon een betaalbare kaart uit te brengen. Al schat ik die kans ook met de minuut kleiner, nu ze hebben aangegeven een premium merk te willen worden.
Ik heb me hoop gevestigd op AMD, die nog wel eens de ballen heeft om gewoon een betaalbare kaart uit te brengen
Verwacht voor de volgende serie ook alleen maar dure kaarten met relatief heel grote chips. De navi31, navi32 en navi33 staan op de planning en zijn fors groter dan zijn voorgangers. De navi34 (de opvolger van de navi24 die in kaarten als de RX6600 zit) is door bronnen rondom AMD nog helemaal niet genoemd, dus als die al komt is dat tijden na de introductie van de high-end kaarten.

[Reactie gewijzigd door bwerg op 23 juli 2024 05:11]

Zal wel moeten als je meerder cores op een chip wilt bakken. Er is een limiet aan snelheid in chips, dus zullen ze met multicores moeten komen wat een chip natuurlijk groter maakt. en het verbruik en warmte productie ook doet toenemen.
Ik vind het niet meer dan logisch dat AMD premium merk wordt gezien de kwaliteit onpar is met intel en ook in de server en supercomputer markt flink aan de weg timmert.
En goedkoper is 20 a 200 € goedkoper dan de concurrent.
175 vs 200
449 vs 550
1000 vs 1100
2500 vs 3000

Hangt er dus vanaf hoe nvidia presteerd en wat voor msrp zij kiezen en of zij de kroon pakken. Dat bepaald msrp en hoe de straat prijzen ontwikkelen.
Niet per se: in tegenstelling tot een sportauto is een videokaart van €2000.- betaalbaar. Tuurlijk, je moet er vaak een vakantie of zo voor laten liggen, maar voor veel mensen is het bedrag op zichzelf te doen. Dat het voor normaal gebruik niet zo verstandig is is een andere, maar ik kan zo'n ding kopen - in tegenstelling tot een nieuwe sportauto. Tenzij je de kaart voor commerciële doelen inzet of heel erg fanatiek bent moet je er natuurlijk gierend van de lach met een grote boog omheen lopen.
Letterlijk geen enkele kaart die als nadeel de hoge prijs of hoog stroomverbruik krijgt?
De prijs kan je tegenwoordig weinig aan doen. Zo kan je dat op elke kaart tegenwoordig wel als minpunt vermelden. De huidige prijs is de adviesprijs en daar mogen we al blij mee zijn. Afgelopen maanden/jaren hebben we eerder een verdubbeling van de adviesprijs gezien, waardoor ze echt niet betaalbaar waren.

Wacht ongeveer 1,5 -2 jaar, en deze kaart is vermoed ik al 30-40% goedkoper.
Maar dan is de rtx4080 waarschijnlijk al uit die sneller is dan deze. En misschien zelfs goedkoper met die 40% eraf.
Dit soort kaarten is een niche voor consumenten de top van de top (qua consumenten lijn) willen en bereid zijn daarvoor veel neer te leggen.

[Reactie gewijzigd door MeMoRy op 23 juli 2024 05:11]

Over 1,5 of 2 jaar is deze kaart denk ik niet eens meer leverbaar of er moet er nog ergens een onverkocht zijn gebleven en los daarvan betwijfel ik of deze kaart tegen die tijd zelf voor “maar” 60% van de huidige prijs wel interessant is qua prijs prestatie verhouding.

Ik kan me niet voorstellen dat het een goed idee is om deze kaart nu te kopen met de nieuwe generatie kaarten om de hoek tenzij je per se nu het allersnelste wat er is moet hebben.
Enige wat je kan doen is cao voorelkaar krijgen waar inflatie grotendeels gecompenseerd wordt.
Dat zal voor de meesten niet haalbaar zijn.
Mensen die deze kaart kopen hebben (of kopen) daar ook een dikke voeding bij ;) :)
Het is een beetje als sportauto's vergelijken. Dan kijken reviewers ook nauwelijks naar prijs of verbruik. Het gaat dan om bijv. 0-100(-200-300) tijd en luxe opties.
Een sport auto is vaak al voorbij functioneel of noodzaak en is geld smijten omdat je die luxe kan veroorloven. Of dure hobby.
Gamen heb je dit ook niet voor nodig met ouwe midrange 1080p kan je ook genieten van je games.
Mensen die heel veel verdienen en ook gamen zal 3090ti of 4090ti ook niet enigste zijn waar ze geld over de balk smijten maar voor veel wat ze kopen.
Er zullen ook van die hardcore nerd zijn die sparen voor zo een onding en elke gen upgraden met product cyclus is dat dus jaartje of 2 sparen.

Voor wie voor de meeste bang for tha buck gaan en kijken wat enigzien nodig is om van game te kunnen genieten gaan voor de meeste bang for the buck. En luxe gamen vaak ook als met sku 3 lager ook goed te doen.
Zoals ik al eerder zei: max. resolutie geeft weinig meer eye candy dan een normale setting maar je grafische kaart wordt veel zwaarder belast.
Hoge prijs kan toch nooit als een nadeel gezien worden? Dat is te subjectief.
Misschien vind ik de prijs wel erg meevallen en had ik op meer gerekend?
Jawel, het is aan iedereen persoonlijk wat wel en hoe zwaar dat mee weegt.
Review is elke nadeel gericht voor iedereen en dus een geldige nadeel. Maar voor iedereen kan relevantie van doet er niet toe tot bedenk 10 keer.

Ik val al af door de prijs dat is een killer voor mij.
Maar deze heeft meerdere killers vermogen is insane.
Zo laat tegen nextgen release is ook al killer.
Die 4090 en 4090ti en 7900 xt komen er hier ook niet.
Dan mogen alle nadelen van erg duur bij Apple producten wel de prullenbak in als we die analogie gaan volgen.
Mogen.
Het voegt helemaal niks toe aan een review.
Zowat 500 Watt/uur , voor alleen al de videokaart.
Laten we de prijs per kWh op gemiddeld €0,50 leggen,dan kun je dus 4 uur gamen voor 1 euro.
De rest van de componenten ( RAM, MB, NIC, monitor) doen hun ding ook niet gratis.
Je zou er haast je dak voor vol leggen met zonnepanelen en een powerwall aanschaffen.
Maar ok.... de ROI tijd zal aanzienlijk zijn.
Keuzes, keuzes, keuzes...
Offtopic: het is gewoon "500W", dat is al per tijdseenheid (Joule/seconde).

Ontopic: Het is bizar inderdaad. Stofzuigers moeten tegenwoordig efficient worden, auto's energiezuinig, maar de GPU-markt gaat daar dwars tegenin met steeds hoger verbruik voor een paar fps meer. In mijn huidige computer zit een 550W voeding, ding is al 8 jaar oud en destijds had ik nog flink wat capaciteit over hiermee. En ik vond dat al aardig wat, de PC daarvoor had maar 350W. Hoe ver laten we dit komen?
Met daarbovenop nog het bezopen verschijnsel dat veel van deze gpus ingezet worden voor het totaal zinloos crunchen van getallen om expres moeilijk vindbare strings te vinden waardoor we die iets waard gaan vinden.. Crypto.

Ja, dat is wel zo'n beetje de mensheid op z'n allerdomst.
Videokaarten worden gemiddeld ook gewoon iedere generatie nog altijd efficiënter. Dat iets meer verbruikt dan de vorige generatie betekend niet dat het per definitie minder efficient is.

Als de performance procentueel gezien meer toeneemt dan dat het verbruik procentueel gezien toeneemt zal de kaart nog altijd efficiënter zijn als een vergelijkbaar model van de vorige generatie.

Als Kaart A 300W nodig heeft voor 100FPS in een bepaalde game en kaart B doet een generatie later 200FPS bij gelijke settings en overige hardware, maar verbruikt 400W is kaart B nog altijd de efficiëntere kaart.
Die vergelijking slaat echt nergens op. Ten eerste is 200fps een zeer marginaal voordeel t.o.v. 100fps, dus je mag je al afvragen waarom je daar 100W extra vermogen voor nodig hebt, maar ten tweede groeit de belasting voor videokaarten alleen maar verder door, omdat games gebruik maken van nieuwe instructies die die oudere kaarten niet hebben (zie daar een andere reden waarom ze inefficiënter zijn). Dat is dus allemaal heel kunstmatig.

Als de grote fabrikanten wilden, konden ze prima GPU's ontwikkelen die <250W zouden verbruiken en toch goede prestaties leveren. Misschien niet die 100fps die ze nu halen op een hoge resolutie, maar laat het eens 80fps zijn of 100fps op een iets lagere resolutie. Het is echt het streven van beide fabrikanten om de allersnelste te zijn, die tot dit soort enorme vermogens leidt. Het zijn "gratis FPS". Zolang je niet energiezuinig hoeft te zijn, kun je Watts bijna gratis omzetten in meer fps.
Maar dat is helemaal het punt niet dat ik maak, jij claimt dat GPU's minder efficient worden:
Stofzuigers moeten tegenwoordig efficient worden, auto's energiezuinig, maar de GPU-markt gaat daar dwars tegenin met steeds hoger verbruik voor een paar fps meer. maar de GPU-markt gaat daar dwars tegenin met steeds hoger verbruik voor een paar fps meer.
Waar je lijkt te hinten naar een grotere toename in verbruik, dan dat de performance toeneemt.

Wat simpelweg niet waar is, nieuwe GPU generaties zijn efficiënter dan de vorige, de GPU markt gaat net zo goed mee in de trend dat generatie na generatie de hardware efficiënter moet zijn dan een gelijk model uit de vorige generatie.

Als het verbruik met 50% omhoog gaat, maar de performance met 100%, is het eind resultaat nog altijd een flinke efficiëntie slag qua performance per watt.

Jij lijkt te denken 'meer verbruik is minder efficient', maar dat is gewoon niet zo, ook al verdubbeld het verbruik, als de performance x3 gaat in dat geval ben je nog altijd efficiënter, ook al verbruik je meer.
Ook al verbruikt zo'n nieuwe generatie meer, hij is nog steeds energie zuiniger dan de vorige generatie qua performance per watt.

Staar je ook niet blind op FPS, zakelijk kaarten (voorheen Quadro bij Nvidia bijv.) gebruiken dezelfde chips als gaming kaarten, en daar wordt gewoon door de zakelijke gebruikers meer performance vereist (en vaak ook meer efficiëntie). Tijd is simpelweg geld, en hoe meer werk er gedaan kan worden in minder tijd hoe beter, op die vraag spelen de GPU fabrikanten dan ook in. En daar profiteren de gaming kaarten weer van mee.

[Reactie gewijzigd door Dennism op 23 juli 2024 05:11]

Maar dat is helemaal het punt niet dat ik maak, jij claimt dat GPU's minder efficient worden:


[...]
Dat zeg ik helemaal niet. Ik zeg dat ze minder energiezuinig worden, dat is toch ook gewoon zo? Die dingen verbruiken gedurende een uur gamen meer en meer energie. Het is niet dat ze, omdat ze 10x zo snel zijn als GPU's van een paar jaar geleden, ook 10x zo kort hoeven te rekenen. Als ze sneller worden, schotelen we ze gewoon complexere rekentaken voor, zodat ze altijd bijna 100% gebruikt zullen worden.

Efficientie is dus alleen interessant om naar te kijken als je binnen een bepaalde generatie van GPU's wil kijken welke videokaart je met zo min mogelijk warmteontwikkeling zoveel mogelijk fps biedt.
Waar je lijkt te hinten naar een grotere toename in verbruik, dan dat de performance toeneemt.

Wat simpelweg niet waar is, nieuwe GPU generaties zijn efficiënter dan de vorige, de GPU markt gaat net zo goed mee in de trend dat generatie na generatie de hardware efficiënter moet zijn dan een gelijk model uit de vorige generatie.
Zie wat ik hierboven al zeg: je zou gelijk hebben als de GPU door zijn hogere snelheid, korter hoeft te rekenen en daardoor toch minder energie verbruikt. Maar we voeren ze kunstmatig gewoon zwaardere berekeningen, waardoor hun absolute verbruik (je weet wel: dat wat je betaalt, wat opgewekt moet worden en wat je moet afvoeren met fans) toch hoger wordt.
Als het verbruik met 50% omhoog gaat, maar de performance met 100%, is het eind resultaat nog altijd een flinke efficiëntie slag qua performance per watt.
Je hebt er alleen niks aan als je de workload voor die 100% snellere kaart ook met 100% laat stijgen :)
Jij lijkt te denken 'meer verbruik is minder efficient',
Dat zeg ik letterlijk nergens, dat vul jij voor me in.
...maar dat is gewoon niet zo, ook al verdubbeld het verbruik, als de performance x3 gaat in dat geval ben je nog altijd efficiënter, ook al verbruik je meer.
Ook al verbruikt zo'n nieuwe generatie meer, hij is nog steeds energie zuiniger dan de vorige generatie qua performance per watt.
Ik krijg je blijkbaar niet uitgelegd dat efficiëntie alleen zin heeft als de workload gelijk blijft. Het is nu alsof je steeds zwaardere aanhangers achter steeds efficiëntere voertuigen hangt, waardoor ze steeds meer energie gaan verbruiken, omdat de workload gewoon mee stijgt.
Staar je ook niet blind op FPS, zakelijk kaarten (voorheen Quadro bij Nvidia bijv.) gebruiken dezelfde chips als gaming kaarten, en daar wordt gewoon door de zakelijke gebruikers meer performance vereist (en vaak ook meer efficiëntie). Tijd is simpelweg geld, en hoe meer werk er gedaan kan worden in minder tijd hoe beter, op die vraag spelen de GPU fabrikanten dan ook in. En daar profiteren de gaming kaarten weer van mee.
Behalve dat je in games echt geen seconde korter bezig bent met een nieuwere en efficiëntere GPU. Zo'n 3090TI staat tijdens een vlucht van 2 uur in MS Flightsim gewoon 2 uur lang 500W te trekken, waar een oudere kaart gedurende diezelfde vlucht 300W zou hebben verbruikt.

Bij een Quadro kan de workload zo zwaar worden, dat de engineer zelf gaat klagen over het gebrek aan performance. Er wordt geld mee verdiend, dus als je engineer dagelijks 10 minuten tijd verliest, doordat draaien rond zijn complexe 3D-model schokkerig gaat, verdien je de kosten van een nieuwe laptop / GPU vanzelf terug.
Het is niet dat ze, omdat ze 10x zo snel zijn als GPU's van een paar jaar geleden, ook 10x zo kort hoeven te rekenen.
Dat hangt natuurlijk volledig van de workload af, als je enkel uit gaat van 'gaming' vaak inderdaad niet, bij zakelijke workloads komt dit zeker wel voor, waardoor je simpelweg ziet dat er meer werk gedaan kan worden in een bepaald tijdsbestek, of een gelijke hoeveel werk in een korter tijdsbestek of zwaardere workloads die bijvoorbeeld eerder niet rendabel waren.
Maar we voeren ze kunstmatig gewoon zwaardere berekeningen, waardoor hun absolute verbruik (je weet wel: dat wat je betaalt, wat opgewekt moet worden en wat je moet afvoeren met fans) toch hoger wordt.
Dit is natuurlijk simpel weg een keuze, ik pas bijvoorbeeld relatief vaak een FPS limiter toe (of een undervolt), waardoor ik mijn kaart, omdat deze efficiënter is dan de voorgaande generaties ik nu met een kaart die op papier een hoger TBP heeft juist een vrijwel gelijk verbruik heb dan mijn oude kaart, terwijl ik hogere settings kan draaien en meer FPS haal.

Ik kan er inderdaad ook voor kiezen om er nog meer performance winst uit te halen bij een hoger absoluut verbruik. Maar zelfs dan is de perf / W vele malen beter dan mijn oude kaart.

Maar ook bij gaming zie je de voordelen, pak 2 kaarten uit een gelijke klasse, bijv. de GTX 770 uit 2013 met een 230W TDP / TBP https://www.techpowerup.com/gpu-specs/geforce-gtx-770.c1856 of nu de https://www.techpowerup.com/gpu-specs/geforce-rtx-3070.c3674

Bij een bijna gelijk verbruik (De RTX 3070 heeft zelfs een iets lager maximum verbruik op stock settings) bied die RTX 3070 natuurlijk een veel betere ervaring.
Je hebt er alleen niks aan als je de workload voor die 100% snellere kaart ook met 100% laat stijgen
Dat vind ik een vreemde, je krijgt meer gedaan in hetzelfde tijdsbestek of net zoveel in een korter tijdsbestek. Natuurlijk heb je daar wel wat aan.
Ik krijg je blijkbaar niet uitgelegd dat efficiëntie alleen zin heeft als de workload gelijk blijft. Het is nu alsof je steeds zwaardere aanhangers achter steeds efficiëntere voertuigen hangt, waardoor ze steeds meer energie gaan verbruiken, omdat de workload gewoon mee stijgt.
Ook dit klopt natuurlijk niet, efficiëntie helpt ook als de workload zwaarder wordt, immers het trekken van die zwaardere aanhangers uit jouw voorbeeld zou met een minder efficiëntie voertuig simpelweg niet gaan, of langer duren (en dus meer kosten). Waardoor je niets of minder gedaan krijgt, of je gebruikers ervaring een stuk slechter is.
Behalve dat je in games echt geen seconde korter bezig bent met een nieuwere en efficiëntere GPU. Zo'n 3090TI staat tijdens een vlucht van 2 uur in MS Flightsim gewoon 2 uur lang 500W te trekken, waar een oudere kaart gedurende diezelfde vlucht 300W zou hebben verbruikt.
Dat klopt, gaming kan de uitzondering zijn op de regel, al moet je de gebruikers ervaring ook meenemen. Zie mijn voorbeeld eerder deze post, de ervaring in MS Flightsim gedurende een 2 uur durende vlucht zal met een RTX 3070 een stuk aangenamer zijn (en zelfs een wat lager absoluut verbruik) dan met een GTX 770 van 9 jaar oud.
[...]


Dat hangt natuurlijk volledig van de workload af, als je enkel uit gaat van 'gaming' vaak inderdaad niet, bij zakelijke workloads komt dit zeker wel voor, waardoor je simpelweg ziet dat er meer werk gedaan kan worden in een bepaald tijdsbestek, of een gelijke hoeveel werk in een korter tijdsbestek of zwaardere workloads die bijvoorbeeld eerder niet rendabel waren.
Ik ga inderdaad van gaming uit, aangezien we het hier over een 3090ti hebben. Ja, die kan ook professioneel worden gebruikt, maar dat zullen weinig bedrijven doen. En al zouden we de Quadro-kaarten meenemen, dan nog maakt NVidia's professionele serie minder dan 10% van hun totale omzet uit (Omzet NVidia: in Q4 van boekjaar 2021 is ~$7,6 miljard, omzet uit Quadro's: $577 miljoen. Tel daarbij op dat een Quadro fors duurder is dan een RTX en dat zijn in absolute aantallen nog minder Quadro's dan de <10% doet vermoeden.

Dus dan zou het hogere verbruik in de professionele wereld wel gecompenseerd worden doordat werk sneller klaar is (al zetten die engineers echt niet na 4 ipv 8 uur hun computer uit omdat ze klaar zijn, ze doen gewoon meer werk en werken met complexere modellen, waardoor hun PC's nog steeds meer energie verbruiken dan met de generaties GPU's daarvoor). De overige >90% van de markt bestaat uit gamers en miners die geen minuut minder gamen of minen met een nieuwere, snellere, efficiëntere videokaart.
[...]


Dit is natuurlijk simpel weg een keuze, ik pas bijvoorbeeld relatief vaak een FPS limiter toe (of een undervolt), waardoor ik mijn kaart, omdat deze efficiënter is dan de voorgaande generaties ik nu met een kaart die op papier een hoger TBP heeft juist een vrijwel gelijk verbruik heb dan mijn oude kaart, terwijl ik hogere settings kan draaien en meer FPS haal.
Undervolten doen alleen Tweakers, het gros van de gamers heeft geen idee wat dat is. Ik geloof ook echt niet dat mensen games dan maar in minder hoge grafische kwaliteit gaan spelen om energie te besparen. Een GPU staat 9 van de 10 keer gewoon op 100% te draaien tijdens games.
Ik kan er inderdaad ook voor kiezen om er nog meer performance winst uit te halen bij een hoger absoluut verbruik. Maar zelfs dan is de perf / W vele malen beter dan mijn oude kaart.
Ik zei al eerder dat perf/W niks zegt. Een GPU draait bij bijna alle gamers gewoon continu bijna maximaal. Gamers die hem op 50% hebben draaien om energie en warmte te besparen, zijn letterlijk op 1 hand te tellen.
Maar ook bij gaming zie je de voordelen, pak 2 kaarten uit een gelijke klasse, bijv. de GTX 770 uit 2013 met een 230W TDP / TBP https://www.techpowerup.com/gpu-specs/geforce-gtx-770.c1856 of nu de https://www.techpowerup.com/gpu-specs/geforce-rtx-3070.c3674

Bij een bijna gelijk verbruik (De RTX 3070 heeft zelfs een iets lager maximum verbruik op stock settings) bied die RTX 3070 natuurlijk een veel betere ervaring.
Je hebt volgens mij echt wel even moeten zoeken om dit specifieke voorbeeld te vinden. Tot de GTX900-serie is het verbruik langzaam omlaag gegaan met een TDP van 148W voor de GTX970 als dip. Daarna is de TDP gewoon gestaag omhoog gegaan van 148 naar 150 (valt nog reuze mee) naar 175 (dat is al een forse stijging) naar 220W (50% erbij in 2 generaties!). Of neem de GTX1080: die had een TDP van 180W tegen een RTX3080, die dus maar 2 generaties nieuwer was, die een TDP van 320W heeft, bijna 80% hoger!

Je kunt statistieken cherrypicken om een verkeerd beeld te schetsen, maar feit blijft dat de afgelopen jaren de TDP omhoog is geschoten en de geruchten gaan dat het met de RTX4000-serie niet beter wordt. In tegendeel: er wordt gespeculeerd op een TDP tot zelfs 800W.
[...]


Dat vind ik een vreemde, je krijgt meer gedaan in hetzelfde tijdsbestek of net zoveel in een korter tijdsbestek. Natuurlijk heb je daar wel wat aan.
Hoe krijg je als gamer net zoveel spel in een korter tijdsbestek? Spelen ze GTA V ineens op 2x speed ofzo? :+ Ik legde hierboven al uit waarom de professionele markt zo marginaal klein is, dat die compleet overschaduwd wordt door de gamer markt. Een gamer gaat gewoon zitten gamen voor een X-aantal uur, dat wordt niet korter met een snellere en efficiëntere videokaart.
[...]


Ook dit klopt natuurlijk niet, efficiëntie helpt ook als de workload zwaarder wordt, immers het trekken van die zwaardere aanhangers uit jouw voorbeeld zou met een minder efficiëntie voertuig simpelweg niet gaan, of langer duren (en dus meer kosten). Waardoor je niets of minder gedaan krijgt, of je gebruikers ervaring een stuk slechter is.
Je gaat volledig voorbij dat games kunstmatig worden afgestemd op de GPU-power die voor handen is. Als NVidia en AMD (en Intel straks) echt willen, kunnen ze zuinige videokaarten maken die een fractie gebruiken van wat de huidige generatie doet. En geen gamer die daarover klaagt, want je hebt nog steeds een topmodel dat iets sneller is dan de modellen daaronder en mainstream kaarten die Jan Modaal kan betalen en instapmodellen die de "af en toe gamer" kan kopen.

Je draait daarmee oorzaak en gevolg om: doordat videokaarten steeds sneller worden, komen er vanzelf allerlei grafische effecten die die rekenkracht gaan aanspreken. Het is echt niet zo dat je een RTX3090TI koopt om Microsoft Flight Simulator op 40% GPU-belasting te draaien ipv 100% bij dezelfde settings. Je koopt die GPU om hem volledig te benutten.

En al die argumenten over efficiëntie slaan als een tang op een varken in een discussie over de TDP van een RTX3090TI. Dat ding presteert out of the box vergeleken met zijn generatiegenoten echt [ur=https://wccftech.com/nvidia-geforce-rtx-3090-ti-graphics-card-turns-into-a-high-end-efficiency-king-beats-amd-6900-xt-at-300w/]on-ge-lo-fe-lijk slecht[/url]. Sterker nog: in dat artikel wordt aangetoond dat hij heel efficiënt zou zijn, als hij gecapt was op 300W. Dus als je hem van ~500W naar 300W terug had geschroefd, was je een "whopping" 10% aan frames per seconde kwijtgeraakt. Dus 60% meer energieverbruik voor 10% meer performance. Dat is toch een absurde trade off?
[...]

Dat klopt, gaming kan de uitzondering zijn op de regel, al moet je de gebruikers ervaring ook meenemen. Zie mijn voorbeeld eerder deze post, de ervaring in MS Flightsim gedurende een 2 uur durende vlucht zal met een RTX 3070 een stuk aangenamer zijn (en zelfs een wat lager absoluut verbruik) dan met een GTX 770 van 9 jaar oud.
Een GTX770 zal dat spel niet draaien. Ik beargumenteer ook niet dat we allemaal terug moeten naar stokoude videokaarten, maar dat het verbruik hard omhoog gaat over de laatste paar generaties (grofweg vanaf de GTX1000-serie) en dat vooral de topmodellen heel veel extra energie verbruiken voor een paar procent extra prestatie.

Daarnaast is "gebruikerservaring" iets wat volkomen afhankelijk is van wat je gewend bent. Als we 2-3 generaties GPU's terug een ander pad in waren geslagen en desnoods onder druk van Europese regelgeving de TDP van videokaarten op 200W hadden beperkt, hadden games er nu een ietsiepietsie minder mooi uitgezien, had niemand daarover geklaagd (want we wisten niet beter) en waren games gewoon qua grafische specs aangepast aan wat GPU's aan konden. En bedenk je eens wat voor bak energie we dan hadden bespaard?
Ik ga inderdaad van gaming uit, aangezien we het hier over een 3090ti hebben. Ja, die kan ook professioneel worden gebruikt, maar dat zullen weinig bedrijven doen. En al zouden we de Quadro-kaarten meenemen, dan nog maakt NVidia's professionele serie minder dan 10% van hun totale omzet uit (Omzet NVidia: in Q4 van boekjaar 2021 is ~$7,6 miljard, omzet uit Quadro's: $577 miljoen. Tel daarbij op dat een Quadro fors duurder is dan een RTX en dat zijn in absolute aantallen nog minder Quadro's dan de <10% doet vermoeden.

Dus dan zou het hogere verbruik in de professionele wereld wel gecompenseerd worden doordat werk sneller klaar is (al zetten die engineers echt niet na 4 ipv 8 uur hun computer uit omdat ze klaar zijn, ze doen gewoon meer werk en werken met complexere modellen, waardoor hun PC's nog steeds meer energie verbruiken dan met de generaties GPU's daarvoor). De overige >90% van de markt bestaat uit gamers en miners die geen minuut minder gamen of minen met een nieuwere, snellere, efficiëntere videokaart.
Dit klopt natuurlijk al niet, wat bij Nvidia het 'gaming' segment is, betekent niet dat die kaart ook aan een 'gamer' verkocht. Datacenter is trouwens ook gewoon zakelijk markt, waar Perf / Watt belangrijk is en dat zit je al bijna aan de $3 miljard die Nvidia als 'gaming' specificeert.

Echter dat segment gaming moet je ook splitsen, immers kaarten verkocht in zakelijke desktops en laptops vallende onder de GTX / RTX banner zitten daar ook gewoon in, net als RTX kaarten verkocht aan miners, hou er immers rekening mee dat het overgrote deel van de kaarten gekocht voor mining geen CMP kaarten zijn, maar gewoon RTX 'gaming' kaarten (wederom een segment van de markt waar Perf / Watt king is), , al met al het is aandeel zakelijk en mining (wat in principe ook gewoon zakelijk gebruik is) een stuk groter dan jij doet voorkomen. Sterker nog, het ligt in de verwachting dat op basis hiervan geconcludeerd kan worden dat het deel van de omzet die Nvidia uit zakelijke gebruikers haalt een stuk groter is dan de omzet die daadwerkelijk uit gamers wordt gehaald. Ook al noemt Nvidia dat hele segment gaming.
Je hebt volgens mij echt wel even moeten zoeken om dit specifieke voorbeeld te vinden.
Jammer dat je zo'n verkapte beschuldiging meent te moeten uiten, het doet mijn inziens de discussie geen goed en slaat ook nergens op. De GTX 770 was letterlijk de eerste kaart die ik opzocht (omdat ik deze destijds zelf gehad heb en omdat deze binnen jouw range van <250W zou moeten vallen waar jij graag binnen zou willen blijven) om het voorbeeld mee te maken, en had verwacht allemaal procentuele berekeningen te moeten gaan maken, wat achteraf niet nodig was omdat het TBP vrijwel overeen kwam (wat ik eigenlijk niet verwacht had).

Jij houd trouwens met enkel de laatste 3 generaties wel een heel korte trendlijn aan, die eerder de uitzonderingen laten zien dan de regel. De trendlijn ligt duidelijk hoger, na even verder gekeken te hebben.

Kijkende vanaf bijv. de GTX 275
GTX275: 215W
GTX470: 215W
GTX 570: 219W
GTX 670: 170W
GTX 770: 230W
GTX 970: 148W (duidelijke outlier samen met de 1070)
GTX 1070: 150W
RTX 2070: 175W
RTX 2070S: 215W
RTX 3070: 220W

[Reactie gewijzigd door Dennism op 23 juli 2024 05:11]

De engineers máken ook elke generatie efficientere kaarten.

Alleen, marketing is nogal succesvol in het pitchen van duurdere kaarten. Als je van de 1080 via de 2070 naar de 3060 was gegaan, dan had je het pad van de engineers gezien. Maar doordat marketing je een pad 1080-2080-3080 voorschotelt, met zelfs opties daarboven zoals deze 3090Ti, ben je als koper al gauw genegen om meer geld uit te geven.

Overigens heb je zelf ook opties. Onderklokken scheelt in de fps maar ook in het verbruik, en het verlies in fps is procentueel kleiner dan de afname van het verbruik.Deze 3090Ti is wat dat betreft het meest extreem: dankzij de volledige set CUDA-cores enabled kun je'm lager klokken dan een non-Ti en toch dezelffde performance krijgen. Alleen, dat is wél een dure zuinigheid. Je betaalt de hoofdprijs voor zo'n goede GA102.
Mits 200 fps meerwaarde heeft. Alles boven de 60fps is al meer dan voldoende. 100fps is al meer dan voldoende. Voor rpg is minder al voldoende...
Je hebt gelijk..... het is 500 Watt
De gerelateerde prijs per tijds eenheid zal er niet anders door worden.
Net even gekeken wat mijn vrij nieuwe stofzuiger consumeert en het label zegt: 600 Watt.
Het ding zuigt als een ( vul iets in)
Ik heb trouwens geen hobby aan stofzuigen dus de gebruikskosten vallen errug mee.
Vroeger waren er stofzuigers met het drievoudige aan vermogen en echt niet 3x zoveel zuigkracht. Wetgeving krijgt echt wel wat voor elkaar. Als gamers moet je daar ook blij van worden: minder kosten aan stroom, maar ook minder lawaai en warmteproductie (ook fijn in de zomer :P).
Anoniem: 454358 @Grrrrrene30 mei 2022 08:22
Met de volgende lichting zullen we wel naar min een 1500 Watt voeding moeten, bizar idd.
Iedereen heeft een stofzuiger (noodzaak) , hoeveel mensen kopen dit soort GPU's?
Het gaat niet per se over deze specifieke GPU, maar over alle GPU's. Ze hebben allemaal dezelfde trend van steeds meer vermogen. Ik snap niet zo waarom mensen met veel geld, die dit soort GPU's kunnen betalen, niet mee hoeven te doen aan wat energiebewuster leven?
Valt mee. Je kunt van Apple vinden wat je wil, maar het bedrijf weet met M1 een platform neer te zetten dat bijzonder efficiënt is - zowel de processor als de GPU. Desalniettemin heb je gelijk dat de meeste game PC's vrij veel verbruiken en dat er best wat meer aandacht voor energiezuinigheid mag komen. Scheelt ook weer dat je enorme kasten met tig fans moet neerzetten, want minder energie is natuurlijk ook minder warmteproductie.
Game pc's verbruiken alleen veel als ze ook gamen. Iddle verbuiken ze nauwelijks meer dan de standaard grafische kaarten.
Hoeveel huishoudens in de wereld hebben een stofzuiger en hoeveel hebben een 3090ti draaien?
Ik heb het hierboven ook al gevraagd, maar waarom vind je dat iemand die een 3090ti kan betalen, niet wat energiebewuster bezig hoeft te gaan? Waarom komt dat alleen aan op het klootjesvolk en hun stofzuiger?
Stofzuigers zijn massa product van el cheap tot A merk.
Er is niet zoiets als halo sku stofzuiger per stofzuiger merk.
Er is wel zoiets als brushed motor conventioneel.
Of micro controled Brushles motor modern tech A premium modellen.

Dit zijn producten die in de miljoenen sales.
3090ti is een product die kwa aantallen nagenoeg niet relevant zijn om ook evengrote impact als label A vs label C stofzuiger of koelkast met global milieu invloed.
Het is echter niet alleen de 3090ti, het is de hele range van GPU's die steeds meer en meer energie gaan verbruiken. Als je alle GPU's onder de 3090ti zuiniger maakt, volgt de 3090ti (of vergelijkbare GPU's in de toekomst natuurlijk) vanzelf.
Ik heb zonnepanelen. In 3 maanden tijd mijn hele 2021 verbruik binnengeharkt. Ik kan het van harte aanbevelen, ook aan alle miners onder ons. Hartstikke top.
Klinkt goed, die kant moet ik ook maar eens opgaan.
Niet aanbevelen...

Liggen straks alle daken vol --> netbeheerder in paniek --> huizen worden afkoppeld --> Jij in tranen...
Dan kan je altijd nog voor eigen gebruik gebruiken. Alle zonnepanelen voor je GPU, kan je een aardige PC mee voorzien :)
Het gaat echt de verkeerde kant op en het is echt te bezopen.
Waar ik mij aan stoor is het verbruik.
Wat de fabrikanten MOETEN doen is het verbruik drastisch te verminderen.

Laat ze er maar voor zorgen dat die kaarten maximaal 100W gaan verbruiken op maximale prestaties.
Er moet gewoon veel uitgerekend worden.
Als iemand op 4K 100 fps wil halen, moeten er bijna een miljard pixels per seconde uitgerekend worden.
Rekenwerk kost nou eenmaal stroom. Chipdesigners komen gestaag tegen de fysische limieten aan. Bovendien worden processors steeds kleiner gemaakt, om al de rekenkracht kwijt te kunnen maar dan ontstaat er meer lekstroom door de kleinere gates, waardoor het verbruik toeneemt.

Ik vind het eigenlijk al een hele prestatie dat ze voor die paar honderd Watt zo veel rekenwerk kunnen verzetten! Dus juist verbaas ik me erover hoe zuinig dat deze videokaarten zijn.

[Reactie gewijzigd door hooibergje op 23 juli 2024 05:11]

Iemand moet 4k 100fps halen?
Wat is er mis met 1440p of 1080p is dat onspeelbaar door de resolutie beperking?
4090ti zou met de huidige games 90% 8k gamen ook mogelijk maken. Bij velen zonder DLSS en dan op 60fps.

Heb je EV 4x4 awd 3sec 0 tot 100 nodig?
In de opelkatet c tot e tijdperk was 10sec sporty

Het is niet zo als vroeger waar mode-x 320x240 alsof je 2cv hebt . Maar supercar moet hebben.

4k en halo sku is over de top luxe probleem.
En de meeste mensen doen toch rond of meer dan 3 gens met midrange.
Dus die gasten die nu voor 3090ti gaan en binnenkort die ook nog vervangen wordt 4090 / ti
Nu zeker al op 3090 zitten. Heb nihil mileu footprint
Die aantallen wegen niet op tegen wat mainstream heeft 1060 2060 3060 6500 6600 etc ondanks die 300+ kaarten zal global gemiddelde toch ver onder de 200 steken.
En heeft 3090ti op wereldschaal mogelijk promiel invloed daarop.

Als phoenix APU en intel tegen hangers er tijdje zijn zal je langzame shift van 1060 naar APU ultra low mainstream worden.
In een flightsim zijn in een airliner de instrumenten onmogelijk af te lezen op een fullHD monitor.
4K is daar zelfs eigenlijk nog niet genoeg.
Bedenk dat de displays in het vliegtuig al vergelijkbaar zijn met 1080p-tjes, en daar heb je er dan twee van in een klein deel van je scherm.

Als 8k schermen goedkoper worden gaat er zeker eentje komen, met ook een videokaart om dat te kunnen sturen.
Heb je een nieuwe bril nodig? Ik kan in flightsims alle instrumenten prima aflezen.
Als je een Cessna vliegt oid wel, met al die klokken, maar bij een airliner is dat lastiger.
Dat is helaas makkelijker gezegd dan gedaan. In principe hebben we met 100W over een paar jaar dezelfde compute power. Een RTX 3050 die 100W verbruikt heeft momenteel ook al veel meer performance dan de 250W 780Ti van een paar jaar geleden. Dus over 10 jaar heb je waarschijnlijk een kaart die dezelfde performance levert als de 3090Ti, maar dan op 100W
De nextgen midrange bied die performance .
RTX 6 serie RTX6050 bied dat misschien op 2nm ofzo.
Ze moeten helemaal niets, niets verplicht jou om die nieuwste snelste kaart te kopen. Het verbruik is het verbruik omdat dat op dit moment nodig is om die performance te kunnen halen. Minder verbruik op dit moment betekent ook minder prestaties. En blijkbaar zijn er een hoop mensen die geen probleem hebben om zoveel geld neer te tellen om die extra performance te kunnen gebruiken. Verbruik terug dringen komt met nieuwe procede die veel later pas komt, zo heeft het ook altijd gewerkt in de CPU/GPU industrie.
Als de bedrijven deze performance konden creeeren maar het verbruik ook kunnen verlagen, dan deden ze dat al lang.
Computers and small servers sold in the EU are subject to ecodesign rules. er zal vast wel ook iets zijn voor componenten. indien niet is de kaart niet intresant voor systeembouwers.
Meeste kant en klare pc's die men koopt zit een onboard gpu in of een goedkoop standaard kaartje voor je monitor. Dat zijn ook niet de mensne die zo'n 3090TI zouden kopen.
Ik heb zonnepanelen. :) Waarom MOET ik een minder stroomverbruikende GPU door mn strot krijgen? Doe eerst iets aan die rijen bij Schiphol zou ik zeggen.
Gebruik je dan je GPU alleen als de zon schijnt?

Verder ben ik het met je eens dat we óók iets moeten doen aan de rijen bij Schiphol. Maar het is tegenwoordig geen óf spelletje meer, maar een én.
Als je geen +++100watt gpu eist van de industrie als groene rakker, dan is vlieg vakantie ook niet gewenst vooral buiten contingent niet.
Je hebt gelijk hoor. Het is inderdaad beter om en en te doen.
Zolang ze worden verkocht, zullen ze worden gemaakt ;)
Persoonlijk vind ik het ook bizar en onnodig maar ja blijkbaar is er vraag naar....
Waarom moeten ze het verbruik verminderen? Bij de instapkaart begrijp ik dat, maar deze kaart is niet voor iedereen bedoeld. Misschien moet je zeggen dat deze kaart alleen is voor mensen die hem kunnen betalen en genoeg zonnepanelen op de dak hebben liggen.
Om dezelfde reden dat autofabrikanten ook moeten minderen, zelfs in de hogere klassen. Een Miele wasmachine is toch ook niet onzuiniger dan een Candy of Beko ofzo? Het kan echt wel, dan lever je een paar fps in, maar is je kaart veel zuiniger. Dat is ook wat @Koekje hierboven al illustreert. Zijn die paar fps echt dat astronomische extra verbruik waard?
Maar een wasmachine heeft ansich geen echte vooruitgang, en daarbij draait vernieuwing dus juist puur om zaken als verbruik terug te dringen. Maar bij GPU's/CPU's gaat het er om dat elke opvolgende generatie meer en meer performance kunnen leveren.
Waar leg jij de grens van 'dan lever je een paar fps in', Ik zou bv zeggen, man, 30fps is toch meer dan voldoende, want IK vind alles daarop nog speelbaar, IK vind 60fps al onnodig. Een hoop mensen zijn het daar dus mee oneens en vinden dat zelfs onder de 240fps het nog te weinig is. (Zelf vind ik dus werkelijk alles boven 120 onnodig).
Stel dat beide fabrikanten hun GPU's vanaf de volgende generatie maximaal 200W laten verbruiken. Dat kost FPS'en die we nooit hebben gehad. Games worden daarop aangepast, zodat ze gewoon soepel spelen op de nieuwe, energiezuinige hardware. Ik zie het probleem niet.

En het hoeft niet eens een stap terug te zijn t.o.v. de vorige generatie, de stap in beeldkwaliteit zal alleen wat minder groot zijn.
Jawel micro controller aansturing en wordt ook klasse Iot apparaat mogelijk gekoppelt aan smarthome met terugkoppeling van power net belasting en dus ideale moment kiest om aan tegaan
en genoeg zonnepanelen op de dak hebben liggen.
Dat verschuift het maatschappelijke probleem van energieproductie enkel, nu is het probleem dat er niet genoeg groene stroom is maar het volgende probleem is de grilligheid van zonnepanelen. Enkel productie overdag, nog een wisselende hoeveelheid ook, en nog erger, enkel veel productie in de zomer.

De enige echt goede oplossing is toch minder energie verspillen. Hetzelfde zie je bij de elektrische SUV's. Leuk hoor, elektrisch, maar je verspilt er nog steeds een bak energie mee die ook voor iets nuttigers ingezet had kunnen worden, of dat nou groen opgewekt is of niet.
Het verbruik van deze kaarten is echt te hoog. We reppen wel wat over de aanschafprijs maar als je deze kaart elke dag 8u gebruikt (diehard gamer) zit je op een extra bedrag van 2000 per jaar. Als je voeding niet helemaal efficiënt is en of je hebt een slecht energiecontract dan zit je op 2500.

Ik heb zelf een 3090 en deze is eigenlijk snel genoeg voor alles wat ik doe, ook kan je deze iets undervolten en dan zit je op 280watt met behoud van 95% van de prestaties.
Het verbruikt idd veel, maar om nou een rekensom te maken met 8 uur per dag, 365 dagen per jaar? Dan heb je wel belangrijkere problemen dan je energierekening lijkt mij.
man man, die 280watt is toch echt veel te hoog, dat heb je toch echt niet nodig.... ofwel jij zit met je 3090 al te zeuren over iemand die een 3090ti wil aanschaffen, terwijl een hoop mensen al denken dat een 3090 ansich al veel te veel slurpt.

Naast natuurlijk, een hobby mag toch wel wat kosten, het feit dat iemand al zoveel geld neerlegt voor een 3090ti (of uberhaupt al voor een 3090) dan maak je je toch al niet zo'n zorgen om de energierekening.
Het verbruik van deze kaarten is echt te hoog. We reppen wel wat over de aanschafprijs maar als je deze kaart elke dag 8u gebruikt (diehard gamer) zit je op een extra bedrag van 2000 per jaar. Als je voeding niet helemaal efficiënt is en of je hebt een slecht energiecontract dan zit je op 2500.

Ik heb zelf een 3090 en deze is eigenlijk snel genoeg voor alles wat ik doe, ook kan je deze iets undervolten en dan zit je op 280watt met behoud van 95% van de prestaties.
Maar dan zit jij volgens jouw berekening dus nog steeds op zo’n 1100-1300 euro per jaar aan stroomverbruik als je dezelfde speeltijden pakt als je zelf doet in je berekening. Da’s ook geen kattenpis. Heb je dat zelf wel in je aanschafprijs meegenomen?

Ik denk dat weinig mensen met een top-end kaart dat stroomverbruik wat interesseert. Wat wel jammer is als ze niet zelf een overdaad aan zonnepanelen met een v2g oplossing hebben.
Je kan de 3090 Ti toch ook undervolten neem ik aan?
Ah, de 'Hummer limousine' onder de GPUs. Gewoon, omdat het kan. Idioot om te zien dat deze kaart met 100W extra verbruik (om nog te zwijgen van de 800 extra euro's) nog niet eens de 6950XT kan verslaan op 1080p of 1440p.

[Reactie gewijzigd door PhWolf op 23 juli 2024 05:11]

Dat komt omdat hoe lager de resolutie is, des te meer de cpu wordt gebruikt ipv de gpu
Dat klopt, maar dat zou dan toch ook moeten gelden voor de 3090 Ti? En toch blijft deze langzamer dan de 6950 XT in de lagere resoluties. Dat de 6950 XT dan beter presteert komt voornamelijk doordat bij lagere resoluties de geheugenbandbreedte een minder belemmerende factor is, terwijl zijn rauwe GPU-prestaties over het algemeen iets beter zijn (raytracing uitgesloten). De geugenbandbreedte van een 3090 Ti is maar liefst bijna 1 TB/s, terwijl die van de 6950 XT blijft steken op 576 GB/s (al wordt dit wel wat gecompenseerd door zijn grote infinity-cache van 128 MB).

[Reactie gewijzigd door Degrader op 23 juli 2024 05:11]

Ik vind dit een beetje een obvious fanboy reactie. Ja mensen willen zulke kaarten omdat het kan (net als een hummer), blijkbaar is daar een markt voor. Sowieso momenteel een domme aankoop omdat de nieuwe generaties al weer klaar staan en waarschijnlijk een 4080 al beter presteert dan dit model. Laten we wel wezen, AMD kan dit niet uit hun kaarten persen momenteel.

Echter is dit een kaart die je niet koopt om op de door jou genoemde resoluties te gamen maar duidelijk bedoeld voor 4k met raytracing en alles wat er bij komt. Om dan selectief resultaten van een goedkoper model van de concurrentie te noemen maakt je punt nou niet bepaald sterker, maar geeft alleen maar aan dat je duidelijk nogal fan bent van AMD.

Wil je de beste full hd performance en daar 1400 euro aan kwijt zijn dan zit je bij AMD wel goed ja. Maar persoonlijk zou ik liever een 3080 halen voor rond de 800 euro ;) Kwa performance vind ik het verschil van 600 euro tussen een 6950 en een 3080 het dus ook al niet meer waard.

[Reactie gewijzigd door dstyle_nl op 23 juli 2024 05:11]

De hoeveelheid woorden die je nodig denkt te hebben om iedereen te overtuigen dat ik een 'fanboy' ben spreekt boekdelen over hoe gekwetst je zelf bent door de feitelijk onderbouwde constateringen die ik doe.
Deze kaart is niet het beste wat je kunt hebben als je op 1080p of 1440p gamet. Dat is toch in- en intriest als je bedenkt dat zowel het verbruik en de aanschafprijs zo idioot hoog zijn? Niet iedere gamer speelt op 4k resolutie, zeker niet als het een ultrawide scherm is. Hoge framerates kunnen bijvoorbeeld ook een voorkeur hebben afhankelijk van de game, en zeker met freesync/gsync is dat van toegevoegde waarde. En dat ga je gewoon niet halen op 4k, ook niet met deze kaart.

[Reactie gewijzigd door PhWolf op 23 juli 2024 05:11]

Gekwetst :'), ik care er echt niet voor. Ik wil alleen aangeven dat de hoofdmarkt voor kaarten als dit niet op die resoluties ligt die jij aangeeft maar in de high-end. Als mij dit zoveel pijn had gedaan had ik niet gezegd dat AMD de betere full hd optie is (volgens deze benchmarks overigens).

[Reactie gewijzigd door dstyle_nl op 23 juli 2024 05:11]

De kaart die toevallig van AMD is, is dus niet alleen de betere optie op 1080p maar ook op 1440p. Inderdaad volgens deze benchmark, Tweakers is immers 1 van de eerste sites die zowel de 6950XT als deze kaarten gebencht heeft. Echter zie ik bij andere reviews dat de 3090ti op veel 1440p benchmarks maar net voor de 6900XT blijft, dus ik vind deze bevindingen van Tweakers best aannemelijk.
Nogmaals deze kaart is niet bedoeld voor die markt. En zoals onder aangegeven ook eigenlijk is dat alleen interessant voor competieve gamers. Als je 2000 euro neer legt voor een videokaart heb je vast ook het geld neergelegd voor een 4k ultrawide en dus speel je waarschijnlijk niet op deze resoluties.

En dit resultaat is wel aannemelijk. Alleen zijn de games waarin full hd / 1440p getest wordt eigenlijk helemaal niet interessant om fps winsten te meten. Dat kunnen ze beter in competieve spellen doen. Niemand ligt wakker van 10 fps meer games als tomb raider. En als je niet competief gamed merkt je op de door jouw genoemde resoluties het verschilt niet tussen kaart van 800 euro of een kaart van 2000.
Om eerlijk te zijn doet mijn rtx 3060 ti het al perfect op deze resoluties... een kaart die eigenlijk 400 euro had moeten kosten.
Echter is dit een kaart die je niet koopt om op de door jou genoemde resoluties te gamen maar duidelijk bedoeld voor 4k met raytracing en alles wat er bij komt.
Competitieve FPS spelers willen superhoge framerates en die zouden best deze kaart (en de 6950 XT) kunnen overwegen samen met een 360Hz 1440p monitor. En ik zag een 3090 Ti/10900 benchmark met MSFS waar men op 1440p op gemiddeld 74 FPS uitkwam met 45 FPS 1% lows. Op 4k was het gemiddeld 61 FPS met 32 FPS 1% lows. De ervaring is dus met name door de betere lows flink wat beter op 1440p (vloeiend beeld is immers voor de meeste mensen belangrijker dan een hogere resolutie).

Voor raytracing op 4k is deze kaart nog vrij marginaal en zou ik eerder wachten op de volgende generatie.

Overigens zie ik deze kaart vooral als een Titan en is hij volgens mij het meest geschikt voor videorendering en dergelijke. Nvidia market deze kaart nu naar gamers ipv naar bedrijven, maar dat is meer het gevolg van een grotere bereidheid door gamers en miners om erg veel te betalen.
Ik ben het wel met je eens, maar wat jammer is is dat juist de games waar je competieve gamers in hebt nooit in de benchmarks zitten. Zou wel wat meer toevoegen als je dus Counter-strike (is volgens mij alleen nog cpu bottleneck), PUBG, Warzone, DOTA, EFT etc zou benchmarken. Maar integendeel wordt het altijd gebenched in games die totaal niet competief zijn.
RPG games op 200+ fps, jazeker.....Ik zou het nog enigzins kunnen begrijpen voor snelle fps games maar volgens mij worden nu meer RPG achtige games gespeeld dan fps games en heeft het allemaal weinig zin.
Ik denk niet dat veel mensen deze kaarten voor 1080p gaan gebruiken. 1440p al iets meer maar ik denk vooral ultra-wide en 4k/ meerdere schermen.
Ik snap het bestaansrecht van deze videokaarten niet.
Je moet wel heen weinig van geld houden of heer erg beïnvloedbaar zijn om per se het beste te moeten hebben maar waarom zou je €1000 meer betalen tov een 6950XT voor maar 6% prestatie winst?
tja, ik snap het bestaansrecht van een 3090 al niet.. Als iemand zoveel geld wil uitgeven aan een GPU dan moet die persoon dat zelf weten. Zelf vind ik alles boven de 500 euro al veel te veel voor een GPU, vond de 370 euro die ik voor mn RTX2060Super uitgaf al echt het maximum, daarvoor was een midrange kaart eigenlijk altijd zo max 250, en de 2060 was niet eens een echte midrange kaart.
3d rendering. In Blender doen ze het geweldig.
Tja, daar heb je ook Pro kaarten voor die het nog beter doen...
Bragging rights, we got the fastest graphics card. That's it. We zijn sneller dan de concurrent....Heeft op sommige mensen wel invloed voor aanschaf van een grafische kaart.
Die rond de 500 watt verbruik. Is dat alleen de videokaart?
Niet dat ik de kaart neem. Heb zelf als processor 3900x en met deze voeding Corsair RM850x (2018). Zal dat genoeg zijn?
zelf heb ik hier niet genoeg kennis van dus ik verwijs je graag naar componenten aankoop advies

Componenten koopadvies

lees AUB dit EERST voordat je dar post zodat ze je daar zo goed mogelijk kunnen helpen

https://gathering.tweaker...message/38246162#38246162
Zeer waarschijnlijk niet. Qua constant vermogen wel, maar de 3x serie van Nvidia heeft behoorlijk veel korte piekjes in zijn verbruik. Dus de kans op je voeding die in de beveiliging knalt is redelijk hoog (er zijn erg veel posts online te vinden over dit probleem met 3090's in combinatie met 850W psu's en 3080's met een 750W. En de 3090TI doet daar nog een schepje bovenop.

Bij een hoop werkt het prima en zonder problemen, bij een andere hoop niet ;)

[Reactie gewijzigd door CrashOverDrive op 23 juli 2024 05:11]

Zat zelf te denken om voor de 4080 te gaan in de toekomst. Zal ik dan tegen dezelfde problemen aan kunnen zitten. Of zal het ook gewoon goed kunnen gaan. Ik game wel op 1440p.
Dat is koffiedik kijken natuurlijk.
1440p zou voor de volgende generatie grafische kaarten geen probleem mogen zijn.
Bedoel je daarmee als je op een 850w voeding zit?
750-850 watt en 100fps zou geen probleem mogen zijn voor de volgende generatie grafische kaarten.
Buiten het feit dat dit voor de meeste onder ons pure overkill is, vind ik deze prijzen absurd te noemen.
Ze vreten enorm veel stroom verliezen daarmee hun werkelijke rendement door overproductie aan warmte en geluid. Wat zeker niet bijdraagt aan hun duurzaamheid.
Bovendien de 4000 serie komt eraan, waarom zal je nu dan willen investeren in een oude generatie video kaart met z'n hoge prijs??

[Reactie gewijzigd door thepeet op 23 juli 2024 05:11]

Omdat die NU leverbaar is terwijl de 4000 serie nog niet zeker is wanneer die nu precies komt, en wat voor prestaties die heeft. Sommige mensen willen gewoon het snelste van het snelste hebben, bedenk daarbij ook dat een hoop ZZP-ers mogelijk deze kaart zullen kopen, want elke versnelling die ze met hun renderwerk kunnen hebben is zo snel weer terugverdient. Als je bv normaal 60 minuten moet renderen en met deze kaart duurt het 50 minuten, dan is zo'n kaart al heel snel weer terugverdient.
Haha lol ja ZZP ers hebben heel veel aan game benchmarks. Totaal niet belangrijk om een Blender testje te doen. Tweakers fail, zal wel aan mij liggen. Bij deze geen betalende abonnee meer.
Heb je daar geen Pro kaarten voor die geoptimaliseerd zijn en dus beter geschikt zijn voor rendering?!
Ik moet even verbazen dat er toch nog een review komt voor Ti versie. Dat zal weinig waardering krijgen onder mensen. Het voelt beetje aan als sponsoring door Nvidia.
Want het gaat om aantal punten:
- het is veel te duur voor meeste mensen
- het is veel te warm en erg hoog energieverbruik (al bekend van youtubers)
- het is meer weggelegd voor "top elite" gamers en ook professionele editors die graag zo snel mogelijk wil renderen. Voor mensen met dikke geldbuidel. Die willen beste in huis hebben. Geld is money dus.

Voor meeste mensen hier helpt review maar weinig. Leuk om te lezen en weten wat de kaarten kunnen, en we weten al dat ze sneller zijn. Maar warmte / energie gaat helaas hard omhoog en tegenover hoog prijs ook nog ontstaat er veel slechter efficiency en prijs/presentatie waarde. Met andere woorden, je bent meer kwijt aan deze top kaarten, terwijl stapje lager de videokaarten beter voor staan en meer nut kennen.

Ik kan even review lezen, maar ik weet dat aandacht richten op deze kaarten verder nutteloos is omdat ze te duur en te onzuinig zijn. Daarmee laat ik de review snel links liggen en loop ik verder.
Ik weet niet waarom we moeite steken in vrij nutteloze kaarten die meer nadelen kennen dan voordelen.

Nog belangrijker: zulke kaarten met hoog verbruik en dus veel warmte kan nadeel zijn voor lange termijn. Koelpasta wordt droger, al die paddings voor koelen geheugen kan minder goed worden. Daardoor wordt kaart dus nog warmer in de toekomst en gaat eerder kapot. Dan zit je met 2000 Euro kostende kaart na aantal jaren, die je niks meer kan gebruiken. Ik zie dit als een risico op lange termijn. Minder hete kaarten houden jaren vol en nog niks veel aan de hand. Dit is goed om na te denken met zulke kaarten met hoog warmte productie.

Bovendien is RTX3090Ti géén innovatie product maar gewoon extraatje uit Nvidia productie, nog wel beste chips waarbij veel unlocked kan worden. Het springt gewoon in het tekort chips en misschien kleine behoefte voor sommigen die nog snellere kaart wil hebben.

[Reactie gewijzigd door MrDummy op 23 juli 2024 05:11]

Op auto sites zie je toch ook reviews van een nieuwe ferrari?

Dat jij het geld er niet voor over hebt betekend niet dat er geen markt/interesse voor is.

Ik wil wel een dergelijke kaart aanschaffen (rendering) dus ik ben blij met deze review. Ik wilde eigenlijk de MSI kopen maar ga nu voor de Gigabyte.
Dan ben je vast blij met de blender test die er bij zit, oh wacht.
Ik weet dat ik zelf nooit een videokaart voor dat bedrag ga kopen, maar ik vind het inderdaad gewoon interessant om het allemaal te volgen. Daarom ben ik ook blij met de diverse Youtube kanalen waarin allerlei hardware wordt getest, inclusief valtesten.
Volledig akkoord met je.

Irrelevante review. Utopisch product dat vandaag op niks slaat. En zet er tenminste 1 AMD kaart bij mss. Een Blender had nog iets nuttig toegevoegd aan deze games benchmarks.
Gewoon een vraag uit nieuwsgierigheid: is er wel publiek voor deze kaarten met de 4000 serie in aantocht?
idd, en vooral omdat oa de
- GEFORCE RTX 3050 TWIN EDGE OC 8GB GDDR6 voor 389€
- GEFORCE RTX 3060 TWIN EDGE 12GB GDDR6 voor 499€
beschikbaar zijn.

Op dit item kan niet meer gereageerd worden.