Door Reinoud Dik en Tomas Hochstenbach

Nvidia GeForce RTX 3090 Ti Review

Nóg meer Ampere, nóg meer watts

29-03-2022 • 18:00

157

Singlepage-opmaak

Conclusie

De GeForce RTX 3090 Ti is het nieuwste vlaggenschip van Nvidia op basis van de inmiddels al anderhalf jaar aanwezige Ampere-architectuur. Het is opmerkelijk dat de groene fabrikant er zo laat nog voor kiest om de volledig ingeschakelde GA102-gpu op een nieuw halo-product uit te brengen.

De rekenkracht van de RTX 3090 Ti is niet noemenswaardig veel hoger dan op de RTX 3090. Wel draait het GDDR6X-geheugen op nóg hogere snelheden dan bij eerder uitgebrachte RTX 30-kaarten en zijn de kloksnelheden van de gpu op papier ook nog hoger. Sneller geheugen levert bij videokaarten doorgaans een voorspelbare prestatiewinst op en bij de RTX 3090 Ti is dat niet anders. De verbetering ten opzichte van de RTX 3090 is niet extreem, maar met gemiddeld 8 procent nog wel significant te noemen.

Duur, dorstig en dwaas

Dat bij steeds hogere prestaties de allerlaatste extra frames duur worden betaald, bewijst de RTX 3090 Ti wel. Aan de genoemde voorsprong op de RTX 3090 zit een gigantische prijs vast en dan niet alleen de 2250 euro voor de aanschaf. Het energiegebruik van Nvidia's nieuwe topmodel kruipt richting de 500W. Met een prestatiewinst van nog geen 10 procent ten opzichte van de RTX 3090 in het achterhoofd, is het 35 procent hogere energiegebruik van de RTX 3090 Ti bijzonder lastig goed te praten. Ten opzichte van de Radeon RX 6900 XT valt het verbruik zelfs 65 procent hoger uit, en dan blijven alleen de allerhoogste resoluties over als troefkaart voor dit Ampere-monster.

Voor een enkel halo-product kan dit extreme energiegebruik wellicht nog door de vingers worden gezien. Zorgelijker is dat de aansluiting voor de voeding van de kaart, de PCIe Gen5-connector, klaargestoomd is voor de volgende generatie videokaarten die tot 600W kunnen verbruiken. Dergelijke vermogens leiden niet alleen tot uitdagingen op het gebied van koeling, ook zouden Nvidia en andere partijen zich in tijden van energieschaarste en een verschuivende focus naar duurzaamheid achter de oren moeten krabben of dit wel de richting is die toekomstige hardware moet opgaan. Dat geldt vooral voor Nvidia, dat in 2014 juist vriend en vijand verraste met de efficiënte Maxwell-architectuur, die om alle beperkingen van het destijds zwaar herkauwde 28nm-productieprocedé leek heen te dansen. Dat niet alle videokaarten van de volgende generatie de volledige 450 of zelfs 600W van de PCIe Gen5-connector zullen benutten, durven we nog wel te geloven. Toch hadden we liever gezien dat beperkingen in de beschikbare vermogens fabrikanten ertoe had gedwongen de prestatiewinsten in andere hoeken te zoeken.

Lees meer

Reacties (157)

157
152
77
7
0
44
Wijzig sortering
@Trygve
@Tomas Hochstenbach
Is het idee om onder het tabje Stroomverbruik ook iets met prestaties per watt te doen zoals jullie met CPUs al wel doen? In de huidige tijd met prijzen van €0,50 per kWh vind ik dit aspect belangrijker dan ooit te voren :P

We zien nu dat de 3090Ti ~35% meer stroom nodig heeft voor een 8% hogere gemiddelde prestatie score in games. Dat is qua prestaties per Watt natuurlijk compleet absurd wat Nvidia hier laat zien; dit is zelfs slechter dan de complete RTX2000 series line-up.

Techpowerup presenteert de data wél op deze manier als aanvulling; waardoor het in één oogopslag duidelijk is hoe weinig prestaties je krijgt voor het stroomverbruik:
https://www.techpowerup.c...090-ti-ftw3-ultra/39.html
Beetje overdreven? Wat maakt het verbruik nu uit voor een kaart van €2000? Het gaat hier over pakweg 100watt extra tegenover de gewone 3090. 0.05cent per game uur. Omdat verschil te voelen moet je je echt al dag en nacht gamen.

Ook in totalen valt het mee: Als je 2u gemiddeld per dag gamed aan 500watt = max €50cent/kwh = 365kwh/jaar = €182/jaar voor de meest badd ass overclockte grafische kaart van meer dan €2000.

Wil je echt sparen, koop dan een 1080p scherm + midrange setup en zet de verwarming een graadje lager.
Tis maar wat je 'bad ass' wilt noemen. Het zou pas badass zijn als Nvidia een killer kaart op de markt brengt met een TDP van 250W en 3090 prestaties. Dit soort producten moet je als particuliere consument links laten liggen. Het verbruik van deze kaart is volstrekt krankzinnig, als je dan vervolgens met een kWh rekensommetje komt aanzetten, dan heb je de moraal van het verhaal volledig gemist.
Ik zie echt niet in waarom dit een slechte kaart is. Paar maanden terug wilde ik een 3080ti kopen. Toen €1800 a €2000 puur om een VR bril te kunnen aansturen. Je hebt dan ook liefst 60fps per oog om je niet ziek te voelen als je met je hoofd draait. Andere willen dan weer 4K 120fps. 3080ti kan VR maar in Msfs2020 lag dat moeilijk met een 3090ti gaat het net wat vlotter.

Deze 3090ti is net daar voor gebouwd. Dure kaart, relatief veel $ voor weinig extra fps maar soms is het nuttig.

Hetzelfde met overclocken. Wat is daar het moraal van het verhaal? Het verbruikt meer en is soms nuttig. Maar moet om nu al een oordeel te vellen over deze kaart puur op efficiëntie?

Kwh som is maar om aan te tonen dat het extra vermogen waar iedereen hier in een kramp van schiet eigenlijk peanuts is in vergelijking met uw systeemvermogen en totale kost. Ook als je het met een 3080ti vergelijkt.

Moraal van het verhaal is dat je geen moraalridders mag zijn en je niet moet zeggen wat een ander mag kopen en wat niet puur op basis van uw moraal dat gevoelsmatig wordt opgedragen.

De volgende keer als je een vliegtuigticket besteld, denk dan maar aan deze post. Eens kijken hoe het met je moraal gesteld is want met die hoeveel energie in kwh ka je uw leven lang gamen met de dikste kaart.

[Reactie gewijzigd door Coolstart op 22 juli 2024 21:09]

Slecht is weer het andere uiterste natuurlijk. Ik heb ook nergens aangegeven dat het een slechte kaart is. Maar als je nu serieus kijkt naar wat er om je heen gebeurt en dan met name in de energiewereld, dan moet je naar mijn idee als leverancier je toch achter de oren krabben als je nu met een powerhouse van 600W TDP komt aanzetten met een netto fps winst van 9%.

Steek dan je resources in het ontwikkelen van een kaart die rond die snelheid zit met de helft TDP. Als we de verwachtingen mogen geloven dan gaat de 4000-serie hier nog dunnetjes overheen. Slechte ontwikkeling als je het mij vraagt.
goh,
een wagen van 20.000€ zal ook wel 220 km/u kunnen
een wagen die 400 kan of 420 ... kan snel enkele miljoenen zijn .

voor wat?
een verdubbeling van snelheid maar een factor 100 van prijs?

omdat het kan EN er mensen zijn die graag betalen om de snelste of eerste te zijn
Geld is niet het enige argument heh, het gaat om verkwisting van energie voor zeer weinig winst. Dat is gewoon niet meer te verantwoorden in 2022.
Verkwisting is een lastige uitspraak. Want wat is verkwisting? Die laatste fps er uitpersen om toch maar met VR bril deftig te kunnen spelen om om 120fps op 4k te halen?

Moeten we overclocken dan verbieden? Of gewoon de bios clocks locken want het is verkwisting?

Want dan met andere grootverbruikers? Zoals auto’s en vliegtuigen of fossiele brandstoffen die we ook gebruiken in onze vrijetijd. Is met het vliegtuig reizen verkwisting van energie?

Verkwisting tegenover jezelf of verkwisting tegenover de planeet?
Ja zo kan je alles relativeren, als je niet kan zien dat dit verkwisting van energie is, dan wil je het niet zien. Daar doet je whataboutism niks aan af.
Als je zo redeneert kun je volgens mij geen enkele kaart boven de AMD 6800 en Nvidia 3070 Ti nog verantwoord noemen
En dat is een prima redenering natuurlijk. Die moet je voor je eigen uitmaken. En dat geldt voor veel van die milieukwesties, maar als geheel, als maatschappij of community vind ik het zelf niet verkeerd om er op zijn minst over te discussiëren. Laat de consument kiezen, maar laat ze wel bewust wezen dat deze kaart stroom zuipt. Net zoals de consument ook hoort te weten dat er nogal een verschil is tussen pakweg frosties en iets gezond.
Ik vind de discussie op zich ook terecht, maar denk ook wel bij sommige reacties dat het nu even gebruikt word om weer Nvidia te bashen. Terwijl dit natuurlijk een kaart is die door zo'n gruwelijk klein select groepje gekocht gaat worden, dat die allang weten wat dit voor kaart is, en die zich niet druk maken om milieu, verbruik en al wat nog meer.

Daarnaast zijn er ook denk ook wel bij die nu moord en brand schreeuwen maar zelf wel hun CPU en gpu en ram zo hoog mogelijk overklokken om maar net dat laatste frame er uit te pushen.
Eigenlijk zouden we als consument momenteel alle videokaarten die in bovenstaande grafiek onder de 120% procent scoren, consequent links moeten laten liggen. Alleen op die manier zetten we de fabrikanten aan om zuinige kaarten te ontwerpen. De keuze wordt dan wel wat minder, maar er blijven voldoende aan high- en mid-end kaarten over. Van nVidia echter enkel de 3060 Ti en de 3070, waaruit blijkt dat nVidia wel wat meer inspanning mag doen. Zeker de 3070 Ti, de 3090 en 3090 Ti scoren erg slecht (minder dan 105%).
Nee. Sommigen willen gewoon het snelste en voorbode mensen is deze kaart pond zamelt gebracht. Er zijn genoeg zuinige kaarten om uit te kiezen mocht je dat willen.
Mensen willen wel meer. Het is prima mogelijk om met regelgeving te zorgen dat mensen nog steeds het snelste van het snelste kunnen kopen, zonder dat dat bijna 500W verbruikt tijdens gamen. Ik heb geen problemen met mensen die honderden euro's meer uitgeven aan een GPU die een paar procent sneller is, een compleet irrationele aankoop natuurlijk, maar wat mensen met hun geld doen, moeten ze lekker zelf weten. Ik heb wel een probleem bij de gedachte dat NVidia een 1kW voeding adviseert voor deze GPU, omdat het ding krankzinnige hoeveelheden stroom verbruikt. En waarom? Voor een paar fps meer?

Als "we" van het Russische gas af moeten en onze energiefootprint moeten verkleinen, hoe kun je dan een RTX3090 Ti verantwoorden?
Als iemand zonnepanelen op zijn dak zet en de eigen opgewekte stroom graag gebruikt om met zijn 1000 Watt PC te gamen, wat is dan het probleem?
Je hebt het over 'we' maar die 'we' bestaat helemaal niet. Je hebt mensen die graag de hele wereld rondvliegen, meerdere keren per jaar. Er zijn ook mensen die dat niet doen. Er zijn mensen die elektrisch rijden en jaarlijks belachelijk veel stroom gebruiken, je hebt ook mensen die de fiets pakken.
De een woont in een huis met energie label A en die merkt weinig van de gas tekorten, een ander woont in een huis met energie label F en die stookt zich letterlijk arm.
Iedereen is zo verschillend, dus nogmaals, die 'we' bestaat helemaal niet.
Als iemand zonnepanelen op zijn dak zet en de eigen opgewekte stroom graag gebruikt om met zijn 1000 Watt PC te gamen, wat is dan het probleem?
Dat die zonnepanelen geen stroom opwekken als je 's avonds zit te gamen :P Je kunt het allemaal proberen goed te praten, maar ergens is het gewoon ziekelijk om zo'n hoeveelheid energie te verstoken om een paar fps meer. En natuurlijk gaat nu iemand reageren met "maar er kan een accu achter die panelen zitten". Yeah right, dat heeft nog bijna niemand in Nederland en dan nog zal die accu in de winter meestal leeg zijn.

Maar dan nog is het een onzinnige discussie: het gaat om het energieverbruik van dit soort kaarten: dat wordt iedere generatie erger en is echt niet nodig. Je ziet dat AMD het al beter doet, maar het lijkt NVidia gewoon niet te interesseren.
Je hebt het over 'we' maar die 'we' bestaat helemaal niet. Je hebt mensen die graag de hele wereld rondvliegen, meerdere keren per jaar. Er zijn ook mensen die dat niet doen. Er zijn mensen die elektrisch rijden en jaarlijks belachelijk veel stroom gebruiken, je hebt ook mensen die de fiets pakken.
De een woont in een huis met energie label A en die merkt weinig van de gas tekorten, een ander woont in een huis met energie label F en die stookt zich letterlijk arm.
Iedereen is zo verschillend, dus nogmaals, die 'we' bestaat helemaal niet.
Dat we verschillende levens leiden, wil niet zeggen dat de een zich kan onttrekken aan een maatschappelijke verantwoordelijkheid en de ander niet. De mensen in een huis met energielabel F worden gestimuleerd (met subsidie e.d.) om hun huis te verduurzamen. Om de redenen die ik hierboven al gaf, zal er de komende jaren flink ingezet worden in het gasloos verwarmen van woningen en bedrijfspanden, of op z'n minst op het flink reduceren van ons gasverbruik. De mensen die de hele wereld rondvliegen voor de lol, worden met hogere taksen ook gecorrigeerd. Als we dat allemaal vanuit onze eigen goedheid zouden laten, was de opmerking van @LievenD niet begonnen met het woordje "Eigenlijk". Dus waarom pakken we de automobilist, de tourist, etc allemaal wel aan, maar niet de fabrikant van een kaart als deze? Doe er desnoods een milieutaks overheen...

Zelfs luchtvaartmaatschappijen zelf komen er inmiddels eerlijk voor uit dat vliegen eigenlijk toch wel beperkt zou moeten worden.
gelukkig hebben we door Nederland zelf gemaakte groene stroom die van windmolens afkomt en van zonnepanelen.Deze kaart is echt top of the bill en ook natuurlijk wat de kosten met zich meebrengt.
ik vind het een mooie kaart maar als hij alleen al in idle status al 30 watt gebruikt vind ik een beetje absurd.
Wat dat betreft heeft amd dat beter voor elkaar.en ik denk net zoals jullie schrijven dat je minimaal een 1000 watt voeding moet hebben voor dit beest aan de praat te krijgen.En zodat dat hij het daadwerkelijk goed gaat doen zonder je hele pc uitvalt omdat de voeding niet voldoende wattage niet kan leveren wat de kaart en het systeem vraagt.
Blijkbaar komt 33% van de Nederlandse elektriciteit op het moment uiit "hernieuwbaar". Daarbij wordt biomassa echter meegerekend wat zeer discutabel is. Die reken ik liever niet mee, dus neem anders 25%, ruwweg de grafiek bekijkend.
En da's dan niet op één moment gerekend.. Nee,da's opbrengst over een heel jaar.
Als jij zit te gamen 's avonds schijnt de zon niet meer terwijl dat toch weeral de helft van die hernieuwbare elektriciteit vertegenwoordigt. We zitten misschien al aan 12%.
Bekijk anders even https://app.electricitymap.org/zone/NL op 20:00 gisterenavond. Deze URL laat geen datapicking toe, maar ik zie 17% renewable staan.

TPU geeft hierboven een gemiddelde van 482W tijdens gaming. 17% of 82W daarvan is dus hernieuwbaar. De resterende 400W komt van kolen, wind, gas en een snuifje nucleair.

Ik zou maar niet te hoog van de daken roepen dat je op hernieuwbare elektriciteit aan het gamen bent. Tenzij je een serieuze vloot zonnepanelen hebt en een stevige huisbatterij om als buffer te dienen. En het geen winter is, want dan is die batterij gewoon leeg.
We wonen in een flat maar afgelopen 2 jaar hebben ze zonnepanelen hier op het dak geplaatst.
Hoeveel percentage daar vanaf komt weten we niet precies, misschien weet de provider van de stroom wat het dus aan onze flat levert misschien wel.Maar we zijn idd ook blij als we een goede zomer hebben, des te minder we betalen.Het gaat om een paar tientjes soms 100 euro per jaar wat we dan minder betalen.Dat zonnen energie word of per maand betaald en we krijgen elk jaar een afrekening ook van de zonnepanelen.
De energie van de zonnepanelen worden op het eind van het jaar erg woon vanaf getrokken zodat we niet zo een hoge eindafrekening hebben.Plus hebben we de twee winters gehad waar veel regen gevallen is en dus erg bewolkt was en dus niet 100 % van de zonnepanelen kunnen aftrekken.
Maar het maakt wel degelijk iets uit en zijn wel blij met de stand van zaken en ook van onze bouwvereniging.Als je meer plaatst zal zelfs de meter terug gaan lopen en zullen ze je echt moeten gaan uitbetalen.Btw dat is een mooie map wat je laat zien.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 21:09]

Sommigen willen gewoon het snelste en voorbode mensen is deze kaart pond zamelt gebracht.
Deze zin leest niet helemaal goed... Verder is dat 'willen' nu net het probleem, mensen willen het grootste, snelste,... maar wat ze daar allemaal voor opofferen, daar staan ze zelden bij stil.
Net nu dat wel eens het verschil zou kunnen maken...
Nou voor die enkeling. Ten 1st moet die al in klasse van 1kwatt voeding regelen. Iemand die dot gedrocht wil zal de vorige halo kaart ook al hebben en die daarvoor.
1080ti 2080 2080ti 3090 3090ti 4090 4090ti heeft waarschijnlijk al een OC custom game rig met WC en 1200 a 1500 watt voeding.
En zal voor later ook rekening moeten houden met wat 4090ti gaat trekken.
Aantal van dit volk is klein. Maar zou kunnen groot genoeg dan nv kan leveren.
De meest zitten nu op 600 a 850 watt voeding en dan wordt de vraag ga je er in mee.
Een deel van de halo sku target zal hierin ook niet mee gaan.
Je zal altijd volk hebben die V12 of hummer of huge pickup moeten hebben.
En early adopter groenen die Prius reden. Nu vol EV zijn.

Er markt voor de status of pats consument. En daarmee is onvermijdelijk dat Halo producten buiten proportioneel duur kunnen zijn. Voor e-wast en energie zijn de aantallen laag als 1 3090ti vs 10000 3070 verhouding is zuinigheid van een 3070 belangrijker. Energie footprint.
Ik kijk ondertussen naar mijn 5950X + 2080TI met custom loop en 750 watt voeding.

Als ik een stress test draai is het totaal misschien 450 watt verbruik

[Reactie gewijzigd door Gamebuster op 22 juli 2024 21:09]

Alleen op die manier zetten we de fabrikanten aan om zuinige kaarten te ontwerpen
Afaik zijn er diverse modellen te koop die (veel) minder verbruiken,zoals je zelf al aangeeft, het is simpelweg een keuze die je als consument kunt maken aan de hand van jouw prioriteiten.
Niet alle modellen hoeven te voldoen aan alle eisen van alle gebruikers.

Ow, en maak je niet druk over "consequent links moeten laten liggen" van de 3090Ti, dat zal het overgrote deel van de consument doen, simpelweg omdat het niet binnen hun budget of eisen valt.

[Reactie gewijzigd door Zer0 op 22 juli 2024 21:09]

De kaart kan niet zuiniger met dezelfde performance, en fabrikanten ontwerpen al zuinigere kaarten.
Dit model is specifiek bedoeld om de max mogelijk met de huidige technologie te behalen (binnen consumenten specificaties dan).
Natuurlijk zijn zuinigere kaarten altijd mogelijk, maar consumenten willen juist sneller. Als niemand dit zou kopen, zou deze nooit op de markt zijn gekomen. Zo werkt commercie. Fabrikant maakt waar vraag naar is, of meer zelfs fabrikanten die een succesvol product maken overleven.
Je moet dit dus niet helemaal bij de fabrikant neerleggen. Het is het hele systeem.

[Reactie gewijzigd door MeMoRy op 22 juli 2024 21:09]

Alleen op die manier zetten we de fabrikanten aan om zuinige kaarten te ontwerpen.
Het is heus geen onwil om zuiniger kaarten te maken.
Videokaarten voor de consumenten markt zijn in wezen varianten van kaarten die worden ingezet in data- en reken centers, en in die sector is een gunstige verhouding tussen vermogen en performance cruciaal. Als fabrikanten zuiniger kaarten zou kunnen maken dan zouden ze dat echt wel doen.

Dat met name de 3090Ti zoveel meer verbruikt voor een kleine toename in snelheid - vergeleken met oudere generaties; GTX1080Ti verbruikt ook ~35% meer dan de 1080 non-Ti maar dan wel met ~25% snelheidswinst - dat komt omdat fabrikanten de afgelopen ~15 jaar steeds meer tegen limieten van de huidige halfgeleidertechnologie aan lopen:
Procedé verkleining kost steeds meer tijd (en steeds meer geld) én er worden steeds meer transistors op een chip gezet die bij elkaar dus steeds meer stroom/vermogen verbruiken. Maar intussen verwacht de markt wel steeds weer meer snelheid van de volgende generatie kaarten. Fabrikanten die aan die vraag willen voldoen (NVIDIA wat mer dan AMD) ontkomen er niet aan om steeds meer de grenzen van halfgeleidertechnologie op te zoeken, en krijgen daarbij onvermijdelijk te maken met "diminishing returns".

En consumenten krijgen daar dus ook mee te maken: steeds ongunstiger performance-per-Watt én steeds hogere prijzen (over de prijzen van de RTX20-serie (2018) werd al geklaagd vóórdat Corona uitbrak).
...waaruit blijkt dat nVidia wel wat meer inspanning mag doen.
NVIDIA doet het niet slechter dan AMD: AMD's top kaarten zijn wel zuiniger maar ook minder snel en hebben geen gespecialiseerde hardware voor raytracing en image sharpening. Appels met appels vergeleken (vergelijkbare performance en features, dus zonder RTX en DLSS) zitten ze qua performance-per-Watt niet ver uit elkaar.
ACM Software Architect @!mark29 maart 2022 20:15
Het lastige van performance/watt lijkt me dat de winst heel erg subjectief is. Het is doorgaans niet zo dat je e.o.a. vaste taak aanbiedt aan de videokaart en de kosten voor die taak dan belangrijker zijn dan de tijd dat het duurt om tot het eindresultaat te komen. (en ja, er zijn uiteraard wel usecases waar dit voor geldt)

Als je zo'n dikke kaart overweegt, lijkt me dat je dat vooral doet om net dat mooiere beeld te krijgen en/of op maximale refreshrate van je (4k) monitor ook echt een nieuw gerenderd beeld te kunnen krijgen.

Los van wat rendertaken heeft zo'n 3090Ti (of zelfs de 3090) eigenlijk alleen nut als je zulke hoge eisen stelt aan het resultaat van het renderen.

Ik heb zelf nu een RTX 2070. Volgens jouw grafiek kan ik beter overstappen op een RTX 3090 omdat die net wat efficiënter is... Maar het totale stroomverbruik op "het mooiste beeld dat ie kan maken, met een fatsoenlijke fps" is uiteraard wel een stuk hoger :P

[Reactie gewijzigd door ACM op 22 juli 2024 21:09]

Tja, ik denk dat het er natuurlijk ook aan ligt hóe je je hardware gebruikt.

Je kunt er natuurlijk prima voor kiezen om je hardware flink te undervolten en/of underclocken om zo het optimale 'performance/watt' punt te bereiken.
In vele gevallen zal het mij ook totaal niet verbazen als een 'krachtige' kaart die teruggeschroefd is minder verbruikt dan een minder krachtige kaart die voor gelijke performance op volle toeren moet draaien..

Beetje hetzelfde idee als met een 1L A-segment 'city car' constant op de snelweg 130km/u rijden om vervolgens meer benzine te slurpen dan wanneer een dikkere auto met grotere motor hetzelfde doet.
Het punt is denk ik vooral dat het bij je voorbeeld van auto's allemaal getest en berekend wordt en bij videokaart vergelijkingen het niet eens standaard wordt genoemd. Dat zou best interessant kunnen zijn, bijvoorbeeld om een interactieve tabel te hebben, waarbij consumenten zelf een periode kunnen kiezen en vervolgens het aantal uur dat ze bijvoorbeeld gamen (hoge belasting, performance) en thuiswerken (lage belasting, office bijv.) om te kijken welke kaart dan het goedkoopste is in de situatie van de consument. Dat het verbruik daarmee afneemt en dit ook goed is voor het milieu en het elektriciteitsnet is voor de consument mogelijk bijzaak (of niet), maar ontstaat dan wel.

Ik denk dat ACM een goed punt maakt, over het algemeen kopen consumenten een betere kaart om daar meer performance uit te halen. Maar ik heb bijvoorbeeld ook voor een kleinere auto gekozen, omdat deze een lager verbruik heeft. Deze haalt prima de maximum snelheid, maar ik heb inderdaad naar mijn gemiddelde gebruik gekeken. Als ik zelf een minimum fps kan kiezen op de resolutie die ik gebruik, dan kan het misschien wel voordeliger zijn om een kaart van een stapje hoger te kopen en dat over 3 jaar terug te verdienen in lagere energiekosten. Om vervolgens ook nog eens een hogere restwaarde over te houden. Ik heb bij de laatste aanschaf niet eens naar het verbruik gekeken, terwijl ik wel fps/€ vergelijking heb mee laten wegen in mijn besluit. Terwijl verbruik over de jaren toch wel een grote invloed heeft in de totaalkosten, zeker nu.
Inderdaad voor 10 frames meer in de meeste spellen op 4k ultra verstook je 250 watt meer, absurd dus.
Ik moet zeggen dat ik in die context ~25% slechtere efficiency tov de naaste concurrent (de 6900XT) eigenlijk niet schikbarend vind. Heb je de verschillen in andere categorieën wel eens bekeken? Autos, koelkasten, verwarmingen, aircos om maar een paar voorbeelden te noemen in die een verschil van slechts 50% tussen de minst en meest efficiënte optie echt een utopie is. En jij hebt het hier over 35% meer stroom voor 8% meer FPS (ik neem aan tov de 3090), dat lijkt zich dus totaal niet te bevestigen in die grafiek die jij zelf linkt.
EVGA GeForce RTX 3090 Ti FTW3 Ultra powerspikes(20ms) van 570w |:(
530w piekverbruik in gamen

edit:
MSI GeForce RTX 3090 Ti Suprim X is niet veel beter

edit ll:
All RTX 3090 Ti cards come bundled with a 3x 8-pin to 12-pin adapter (the four small sense pins aren't used). While technically the ATX specification says that if the four small sense pins aren't connected, the card should limit itself to 150 W, NVIDIA made sure even the 3x 8-pin adapter scenario, which can provide 525 W total (3x 150 W + 75 W from the slot), runs the card at optimal settings.

[Reactie gewijzigd door Hackus op 22 juli 2024 21:09]

570W, Dat is toch volkomen krankzinnig.
Mwa. Het lijkt veel, maar het is allemaal relatief. Als je kijkt naar andere energieverbruikers in huis: boiler, CV, stofzuiger, koelkast. Of bijv de auto: en motor met een vermogen van 120kW=120000W. Ik neem aan dat je niet van plan bent om je videokaart 24/7 op vol vermogen te laten blazen?
Natuurlijk was het vroeger allemaal minder, tenminste in de commerciële markt. Professionele apparatuur had al wel dit soort vermogensverbruik. Je kan het ook zien als dat professionele specs nu beschikbaar komt voor consumenten.
Mwa. Het lijkt veel, maar het is allemaal relatief
Niet mee eens, jouw vergelijking gaat ook mank, want die apparaten zijn alleen maar zuiniger geworden over de jaren

Dit is gewoon achterlijk veel, hoe je het ook went of keert... zeker als je de minimale prestatie vooruitgang ook nog mee rekent
Je kan het ook zien als dat professionele specs nu beschikbaar komt voor consumenten.
Dit is al jaren het geval, dus dat vind ik echt een zwak excuus

[Reactie gewijzigd door Sinester op 22 juli 2024 21:09]

Voor stofzuigers zijn recentelijk nog regels opgesteld voor een maximum wattage.
Zouden ze voor videokaarten/computers ook wel mogen doen.

Energieverbruik is het grootste struikelblok voor de mensheid om de komende 100 jaar te gaan overleven.
Dat is piek die merk je niet op rekening, waar wel merkt als PSU strak heb gekozen dat net voldoet aan optelsom aan opgegeven tdp/tgp van ke PC configuratie.
Voor deze kaart moet je sowieso ook wat marge hebben voor elk ander component kwa piek vermogen en tel je dus minstens een 600watt piek erbij voor deze 450watt tgp.
Uiteraard is té strak kopen van een voeding met voldoende capaciteit nooit handig maar die imho vrij extreme pieken is toch iets van de laatste generatie kaarten als ik de grafiek van Techpowerup zo zie.
Slaat natuurlijk nergens op dat je een PSU zó ruim moet kopen om een 20ms piek op te vangen. En je merkt korte pieken wel niet op je rekening maar een PSU die de halve dag aanstaat en idle 5~10% van het vermogen van de PSU gebruikt is niet bepaald efficiënt.
GTX 1080 had een TGP van ±180 W als ik me niet vergis, maar prestaties en verbruik naast elkaar gezet lijkt er niet echt veel vooruitgang te zijn geboekt.
Sluit wellicht aan op de doelgroep. Mensen met geld. Daarnaast bijv. thuiswonende jongeren die een vakkenvulbaantje bekleden om te sparen voor deze GPU zal het vast niet zoveel schelen dat hun ouders de energierekening betalen :)
Ik denk dat als dit in mijn jeugd beschikbaar was en ik het aangeschaft had zonder dat mijn ouders dat zouden weten, mijn vader na constatering van een dubbel zo hoge energie rekening de pc vakkundig uit het raam van mijn slaapkamer had geslingerd. ;)
En die arme ouders vragen zich vertwijfeld af waarom de energierekening de laatste tijd toch zo omhoog ging, ondanks vervangen van alle verlichting door LED, thermostaat lager, isolatie en noem de voor de hand liggende oplossingen maar op.
Ik weet niet in wat voor wereld jij leeft, maar voor dit krankzinnige bedrag zal er geen 1 jongere zijn in de supermarkt die deze kaart zal halen hoor. Een PS5 of Xbox Series is al een heleboel geld als je zo uitgeknepen wordt.
Wel ben ik benieuwd hoe erg deze kaart in trek zal zijn bij de miners. Zit hier ook iets van een restrictie op?
Geen LHR, redelijke mining efficiency (ongeveer zelfde als 3090) maar belangrijker is dat alle geheugenchips aan de voorkant zitten en dus actief gekoeld worden door de fans.
Veel beter design als de 3090 in dat opzicht.
Ik betwijfel of de kaart in trek zal zijn bij miners, met de huidige koers/stroomkosten zal je nooit je kaart terugverdienen... Die gaan imho toch echt voor betere Watt/prestatie oplossingen kijken met de huidige prijzen...
In bepaalde gevallen inderdaad wel, heb je echter zonnepanelen en overschot kan je nog altijd prima je kaart terugverdienen, al zou ik dan alsnog als gamer die een kaart wil terugverdienen niet voor een kaart als deze gaan.

Net als voor landen waar zelfs nu stroom nog relatief goedkoop is. Maar dan nog denk ik niet dat dit de kaart voor miners is, ik verwacht hem te duur en te weinig winst over de andere kaarten in de range.
Dat overschot is zeer zeker ook geen 'gratis' stroom, naast de initiële investering, kan je ook gewoon die stroom weer terug verkopen aan het netwerk, dus gemiste inkomsten. Voor de prijs van 1 enkele 3090ti kan je voldoende AMD kaarten aanschaffen die dubbel zoveel winst maken en een stuk efficiënter omgaan met stroom...
Maar dan moet je wel een mining farm willen beginnen, ik heb het eerder over iemand zoals mezelf, koop een gpu (in mijn geval een 6900XT) en mine wanneer je niet aan het gamen bent en verdien zo je kaart terug. De ROI is dan minder van belang, als je maar langzaam terug verdient, de kaart is immers niet gekocht om mee te minen, het is een leuke bijkomstigheid dat je na een jaar of wat een 'gratis' kaart hebt.

Dat je die stroom ook kan terug verkopen klopt, maar wat je kan verbruiken, en dus salderen is voor zover ik weet nog altijd gunstiger dan tegen een lager tarief terug verkopen aan de energiemaatschappij. Al kan dat mogelijk nu anders zijn met de hogere prijzen, ik zit nog op oudere tarieven, dus terug lever vergoeding is een paar cent en eigenlijk niet de moeite).
Als dat inderdaad je use case is, dan is een 3090Ti waarschijnlijk efficiënter dan een 6900XT, het enige waar je rekening mee moet houden is. Dat je voldoende capaciteit hebt om het de rest van de dag te laten draaien (sla je zelf stroom op voor de nacht?) en dat dergelijke kaarten veel warmte produceren, welke je juist moeilijk kwijt kan in de meest productieve periode van het jaar (voor je zonnepanelen, zomer)...
Dat eerste vroeg ik me inderdaad ook af, op basis waarvan jij een AMD GPU een ROI van dubbel de Nvidia kaarten ziet halen.

Als ik mijn stoom prijs in een calculator gooi (die ik niet betaal i.v.m. overschot), dan is een RTX 3090 voor mining bijna 2,5x zo efficient als een 6900XT (ik kan met een 6900XT dan €1,21 per dag minen, met een RTX 3090 €2,95

Stroom opslaan is (nog) niet nodig, dat saldeer je gewoon (zolang dat nog kan in Nederland, wetgeving is weer uitgeteld). In Nederland mag je aan het eind van het jaar alle verbruik tegen alle opbrengst wegstrepen, en wat je overhoud wordt dan uitbetaald tegen het lagere teruglever tarief. Tegen de tijd dat die wetgeving er door is dat dit mogelijk veranderd wordt, is mijn kaart allang terugverdiend.

[Reactie gewijzigd door Dennism op 22 juli 2024 21:09]

Dat eerste vroeg ik me inderdaad ook af, op basis waarvan jij een AMD GPU een ROI van dubbel de Nvidia kaarten ziet halen.
Een aantal 'lagere' kaarten van AMD zijn relatief super efficient qua mining, waardoor je met de prijs van een 3090 TI ongeveer 5 van die kaarten kan kopen. Maar aangezien dat niet opgaat voor jou situatie, kan je daar dan moeilijk mee gaan rekenen.
Wel ben ik benieuwd hoe erg deze kaart in trek zal zijn bij de miners. Zit hier ook iets van een restrictie op?
In SLI(rtx3090Ti also supports sli) 1100W }>
Dat hangt van de miner af.
Is de Miner een gamer die het beste van het veste wil, dan zal hij als hij dat kan 1 kaart kopen, en te minen naast het gamen.
Is het een miner met een farm (groot tot klein) denk het niet, of in elk geval niet veel. Verbruik te groot voor wat het oplevert.

Denk dat de mensen die er 1 willen kopen eerder last krijgen van de scalpers die de prijs nog verder gaan opdrijven dan die 2250 die genoemd wordt.
Genoeg om je slaapkamer ermee te verwarmen. :P
Ja: de prestatie/verbruiksverhouding. XD
Bij miners is ook bang for tha buck , energie/crypto performance./prijs.
In landen waar energie goedkoop is is meer crypt performance vs prijs.
Down under is meer prijs.
Verkrijgbaarheid.
De sweets spot is afhankelijk van geolocatie 3070.
Waar je per 3 a 100stuks kan vergaren. Waar een 3090ti kwa prijs niet rendabel maakt maar ook de beperkte aantallen.
En als orde van 100stuks kijkt is ASIC rig van 5 a 20 K €£€ interessanter kwa rendement.
De trek bij de miners? Als de koers goed staat en de ROI het waard is zal hij vast op het menu staan, financiële doelen bij die jongens gaan soms absurd ver de pan uit. Het lijkt wel een digitale goldrush.
Op zich, dat stroomverbruik is niet het grote probleem.
Dat wordt vrijwel uitsluitend omgezet in warmte die je verblijf in gaat.
Daarvoor hoeft er dus niet verwarmd te worden, en dat scheelt je gas (of electriciteit als je electrisch verwarmd). Op wat ventilatie is je woning immers een gesloten systeem.

Alleen in de zomer gaat die vlieger niet op.
Het is alleen met cop-1 een zeer inefficiënte manier van verwarmen. Dus die vlieger gaat nauwelijks op.
Mensen die denken dat ze met een GPU hun huis kunnen verwarmen :z

Alleen als het mega warm buiten is merkte ik dat me kamer door me game pc nog warmer werd.

Als het koud is buiten voldoet het totaal niet, en moet je gewoon je kachel aan zetten om je huis/kamer te verwarmen
Natuurlijk niet. Een electrische kachel pakt vrolijk 2 tot 3 kiloWatt. Heb je flink wat van die GPUs voor nodig.
Maar het helpt wel. Als je electrische kachel op een thermostaat draait, zal die gewoon wat eerder afslaan.
In de winter deed ik altijd een droger slang met een koof gemaakt van karton op de voorkant van mijn kast zetten (2x120mm intake). Slang het raam uit en je kon geweldige die/vrm temps en overclocks halen. Maar het is maar net wat je ermee wilt bereiken. Met een beetje zomer is het een ramp, al is het binnen 25-29 graden dan kan dat net al teveel zijn want dan moet je echt goed gaan ventileren of je pc loopt zo warm en je onderdelen slijten dan stukken harder.

Ben laatst nog tot de leuke conclusie gekomen dat een pc case en de achterkant van een pc ook echt heel belangrijk zijn. Je kan je fans op 100% zetten maar als hij geen nieuwe aanvoer van koude lucht krijgt omdat je airflow dus slecht is (pc bijna tegen de muur in een hoek) dan lopen de temperaturen alleen maar hoger en hoger tot het dus een keertje fout gaat.
Ik heb een tijd in een flat op het westen gewoon. In de zomer werd het daar loeiheet door de zon, dus dan gebruikt ik juist een drogerslang om de warmte van de PC naar buiten te leiden. Dat scheelde makkelijk een paar graden. :-)

De case is echt heel belangrijk, ja :-)
Wow 1000euro duurder, 100w meer verbruik en maar enkele % sneller dan de 3090 in GPU rendering (octane/blender/redshift)!
Financiële zelfmoord in aanschaf en gebruik. Dat is de conclusie. De kleine gamer drukken ze weg naar de game console zoals Xbox, Playstation, enzovoorts. Toepasselijk dat het vroeger toch echt wel allemaal beter was en een stuk betaalbaarder voor iedereen tot de crypto miners eraan kwamen. Had nooit verwacht dat deze de markt zou kapot maken, de hype was al snel voorbij voor mij. Stroomvretende kaartjes die je financieel een poot uit trekken en vervolgens ook nog eens zo warm weg bakken (VRMs) dat ik me zwaar betwijfel of zo'n kaart tijdens redelijk gebruik nog wel werkt buiten het garantietermijn.
De consument heeft zich helaas zelf weggedrukt door maar te blijven kopen en maar te blijven accepteren wat er gaande is. Groot deel hiervan komt natuurlijk op conto van de miners, die de markt gewoon kapot gemaakt hebben met hun hebzucht.

Wij als simpele consument (zo noem ik het voor het gemak even) staan erbij en kijken ernaar.

Het is niet onrealistisch om te denken dat PC gaming weer een elitaire hobby gaat worden voor de gefortuneerden onder ons. Voor een medium kaartje koop je tegenwoorden 2x een XBSX ... vraag me oprecht af hoe lang we hier nog mee doorgaan. 600 EUR voor een budget kaart ala een 3600 die on par presteert met een 2070S van jaren geleden.

Het word tijd voor een nieuwe speler op de markt die de verhoudingen eens echt op scherp gaat zetten.
Exact dat dus ja. Heb zelf ook meegedaan aan de hype kwam er alleen al snel achter dat het allemaal maar een hype was en nog steeds is. In dat hele crypto gedoe heb ik ook totaal geen vertrouwen meer in.
'Met een prestatiewinst van nog geen 10 procent ten opzichte van de RTX 3090 in het achterhoofd, is het 35 procent hogere energiegebruik van de RTX 3090 Ti bijzonder lastig goed te praten.'

Toch doen jullie heel erg je best:
'De verbetering ten opzichte van de RTX 3090 is niet extreem, maar met gemiddeld 8 procent nog wel significant te noemen.'

Een van de meest waardeloze idiote producten ooit en Tweakers noemt de verbetering niet extreem, maar wel significant. 8)7
8% prestatiewinst is gewoon objectief significant. Dat is geen waardeoordeel.
8% is niks en al helemaal niet objectief significant en zeker wel een waardeoordeel. 8% haal je nog door je nog door je gpu te overklokken. En die 8% staat ook nog eens niet op zichzelf, maar er staat een enorme idiote hoeveelheid stroomverbruik tegenover en een nog krankzinnigere prijs.

Maar goed, als ik dat moet gaan uitleggen.. |:(
Dus als je volgende maand 8% meer aan huur/hypotheek/... moet betalen vind je dat ook niks en niet significant?

Er is een duidelijk verschil, in dat opzicht is het significant.

Of het dat waard is gezien wat je ervoor in moet leveren aan aanschafprijs en wat die slurpt is daarin niet relevant.
Er is een duidelijk verschil, in dat opzicht is het significant.
1. een significant verschil [groot genoeg om belangrijk te zijn]
Nee in dit geval is het dus absoluut niet significant als je het aan mij vraagt,
Dus als je volgende maand 8% meer aan huur/hypotheek/... moet betalen vind je dat ook niks en niet significant?
Als je hypotheek 100 euro per maand is, dan is 8% niet significant nee

[Reactie gewijzigd door Sinester op 22 juli 2024 21:09]

Als je hypotheek 100 euro per maand? WAAR en wie heeft dat?
is dat voor een konijnenhok?
Je snap hopelijk wel wat ik bedoel.. Het hangt er vanaf hoe hoog je hypotheek is om met 8% een groot verschil te maken, voor mij persoonlijk zal het hooguit een paar tientjes extra zijn
8% is niks en al helemaal niet objectief significant en zeker wel een waardeoordeel. 8% haal je nog door je nog door je gpu te overklokken.
Dat is toch eigenlijk ook precies wat deze kaart is? Een overgeklokte versie van iets wat er al was... Ja en iets meer cores maar dat is verwaarloosbaar...

Dat is gewoon absoluut de zwakte van snelste versies van deze generatie NVidia kaarten. Het kost zo idioot veel power om de laatste procentjes eruit te persen. Zelfs bij de 3080 kaarten al, die komen allemaal af fabriek met een achterlijk power profile waarmee de kaart loeiheet wordt. Undervolt de kaart een klein beetje en het verbruik gaat zo 10-tallen Watts omlaag zonder noemenswaardig verlies. Ik heb mijn 3080 undervolted zodat hij tegen de 50W minder verbruikt, en ik zie in benchmarks echt amper 5% prestatie verlies.

Hoe dan ook is deze kaart gewoon een belachelijk product. Ik vind het prima dat ze het maken en als mensen het willen kopen moeten ze dat lekker zelf weten, maar ik vind het geen goede reclame voor NVidia dat ze dit soort producten op de markt brengen eerlijk gezegd. Het gaat volledig tegen de trend in dat we efficientere producten willen hebben, niet producten die x% 'beter zijn' voor y% meer energieverbruik, waarbij y signficant groter dan x.

[Reactie gewijzigd door johnbetonschaar op 22 juli 2024 21:09]

Is dat stroomverbruik niet flink terug te schroeven met dezelfde prestaties? M'n 2080 ti is ook iets overklokt terwijl ik de voltage juist lager heb gezet.
Vaak wel, en dat zou eigenlijk ook een onderdeel moeten zijn van de review. Hoe doet de kaart het op stock, en hoe doet de kaart het getuned. Met zowel AMD als Nvidia kaarten kun je tegenwoordig het verbruik vaak flink tunen, terwijl de prestaties vrijwel niet afnemen, en soms zelfs toenemen.

[Reactie gewijzigd door Dennism op 22 juli 2024 21:09]

Alleen is een undervolt / overclock toch vaak ook exemplarisch. Desondanks, als meerdere sites dit doen valt er toch wel vaak een patroon te herkennen waar men een aankoop op kan baseren.

AMD heeft immers ook een aantal kaarten gehad waar men eigenlijk de chips te ver heeft gepushed om maar mee te kunnen met de concurrentie wat prijs/prestatie betreft, terwijl verbruik/temperatuur/geluid uit het oog werden verloren. De kaarten waren met een kleine undervolt/underclock eigenlijk beter terwijl je er eigenlijk met gaming amper op achteruit gaat.

Een bedrijf heeft nu eenmaal andere belangen dan de klant.
Ik mis Pascal. Hopelijk gaan we zsm terug naar dat soort efficiëntie.
Dit is wel een interessant punt. Ik heb namelijk een RTX 3070 die out of the box 220W verbruikt. Maar met een undervolt naar 875 mV loopt het verbruik terug naar 160W (zonder noemenswaardig prestatieverlies - vergelijkbaar met 2080 Ti). Daarmee zit je in de buurt van het praktijkverbruik van de GTX 1070, dus een enorme verbetering van de efficiëntie (fps per watt). Pascal liet zich trouwens ook vrij goed undervolten, dus daar was ook nog wel wat efficiëntieverbetering mogelijk. Maar goed, wat ik probeer te zeggen is: ja, de efficiëntie lijkt tegenwoordig om te huilen, maar dat is vooral bovenaan de range.
65% hoger verbruik en 100% duurder dan een 6800XT en dat voor 16% hogere prestaties. Ook tov de 3080 Ti en 3090 is dit echt een waardeloos inefficiënt product

Alleen nuttig voor overclockers en Tweakers. En voor he t behoud van de prestatie kroon tov de 6950XT. Maar qua prijs prestatie en qua performance per watt gaat hij het niet winnen.

Voor gamers is deze kaart ook af te raden dan zijn de 3080 en 3080 Ti veel betere keuzes.

Zeker met het oog op een groenere wereld moeten we kaartje van 450-600 watt die maar 10-15% sneller zijn voor 50% hoger verbruik niet willen. Maar van wat ik tot nu toe aan leaks lees gaat deze trend zich volgend jaar helaas door zetten
AMD wint gewoon echt vet hard deze generatie.
Je bent wel gek als je nog NVIDIA koopt.
Ligt aan de modellen maar de 3090 Ti hebben ze duidelijk te ver gepushed.
De 3080 Ti was volgens mij qua prestaties per watt ook niet de meest ideale kaart de 3060, 3070 en 3080 doen dat prima.
AMD heeft qua efficiëntie vooral bij de 6800(XT) en 6900XT wel een streepje voor. De lagere modellen zijn ze ook wat verder gaan pushen omdat nVidia dat ook deed met de Ti modellen.

Het lijkt er op dit moment wel op dat AMD de efficiëntie kroon gaat houden bij de volgende generatie kaarten en het gat groter gaat maken. Volgens geruchten gaat nVidia Lovelace naar 600 watt pushen om de prestatie kroon tehouden vs de Chiplett based Navi 31 chips die volgens de huidige geruchten 450 watt gaan gebruiken om prestaties te verdubbelen. Tijd zal leren of dit uit komt. Ik kan het me van nVidia wel voorstellen dat ze dit voor een eventuele 4090 gaan proberen. Maar ik hoop dat niet de hele lineup ver voorbij zijn sweetspot gepushed wordt.
Ik game vrij veel uurtjes per week en heb al besloten dat de kaart die ik ga aanschaffen er eentje is die mij de meeste frames geeft bij max 250 watt. Undervolting inbegrepen.
Ik heb nog altijd die 6800 die ik niet eens meer gebruik, want de Intel-based MacBook is eindelijk vervangen met een M1 Max die prima 4x 4K 120hz kan aansturen (en dan slaan de fans van de laptop niet eens aan...), maar de 3080 van september 2020 blijft denk ik ook nog wel een tijdje zitten. Door hem net iets slimmer af te stellen blijft ie onder de 260W piek en is daarmee erg efficient, terwijl ie alsnog de 1950MHz aantikt.

Al die geruchten over de toekomstige Nvidia GPUs geven mij weinig hoop voor een degelijk vervangend exemplaar. Over AMD kaarten heb ik nog niet veel opgevangen, dus ik weet niet zo goed hoe het daarmee voorstaat. Overigens moet ik bekennen dat dit voor een groot deel een gevolg is van het gegeven dat ik amper game. Elden Ring heeft mij nog een paar dagen weten te vermaken, maar meestal staat mijn pc weken of zelfs maanden ongebruikt stof te happen.
Nvidia loopt nog altijd voor qua features. Games die raytracing ondersteunen op AMD kaarten zijn nog steeds een zeldzaamheid, en daar lopen ze qua prestaties ook flink achter. Om nog maar te zwijgen over de professionele features zoals CUDA en Optix, waar AMD eigenlijk niet eens meedoet.

Dat neemt niet weg dat het stroomverbruik bij Nvidia wel echt belachelijk begint te worden.

[Reactie gewijzigd door Wolfos op 22 juli 2024 21:09]

Voor het geld doet het er gewoon niet toe, je kan voor de prijs van 1 nvidia 2 AMD's kopen die dan 90% sneller zijn..
Over het algemeen is de prijs/prestatie verhouding nagenoeg hetzelfde, je krijgt alleen geen RTX of DLSS. Ik zie dan ook geen enkele reden om een AMD kaart te kopen. De huidige generatie is met z'n zwakke raytracing mogelijkheden niet bepaald future proof.

Voor current-gen games zal de Port Royal benchmark de meest accurate zijn en daar legt AMD het gewoon af, met 10% verschil tussen de top-end 6900XT en Nvidia's RTX 3080.

[Reactie gewijzigd door Wolfos op 22 juli 2024 21:09]

Een 3080 kost in de pricewatch hetzelfde als een 6800xt.
Sorry maar je bent letterlijk aan het trollen als je zegt dat een RT6600 exact hetzelfde presteert als een 3080. Laatst genoemde is ruim sneller in elk aspect.

Google zelf maar de benchmarks.
Nog eens, voor het geld is 10% extra performance het niet waard...
Call me crazy! :-p

Ik heb zeker veel meer interesse in Raytracing en DLSS dan wat AMD momenteel bied op dat vlak. AMD is sterk op andere vlakken en andere doelen dan gaming met dergelijke features. Met integrated graphics, de 6000U serie en RDNA2 is AMD imho heer en meester op het laag wattage gebruik machines ivm. Intel, Nvidia is imho helemaal geen speler op die markt. Maar als ik een highend gaming rig wil en prijs is niet echt een probleem, dan ga ik voor Intel + Nvidia.

Zelfs een highend model 3090 Ti van €2500+ zou ik nog overwegen, alleen trekt die natuurlijk behoorlijk wat stroom, op 4k is 750W+ uit het stopcontact (met mogelijk hogere pieken) geen verrassing. Dat is geen issue voor een groot deel van het jaar in Nederland, maar we gaan juist weer de warme periode van het jaar tegemoet, dan zit ik niet te wachten op een straalkacheltje, terwijl na de zomer we juist weer een nieuwe generatie Intel CPUs en Nvidia GPUs verwachten... Ik zou dan eerder voor een streaming abo gaan voor de zomer, dat kan ik zelfs spelen op mijn AMD 4800U machines... En dan zie ik in het najaar wel wat de nieuwe generatie brengt, wellicht dat de rest van de GPU lineup dan ook naar de reguliere niveaus is gezakt...
Raytracing kan AMD ook, en voor het geld is het gewoon niet waard.
Je moet dan je game kamer als server ruimte in richten met airco met voldoende capaciteit om full rack aan apparatuur te koelen op tropische NL dag.
Nauwelijks ervaringen met high end NVIDIA kaarten, maar wat ik zo veel beter vind bij AMD is toch echt wel de drivers en de ondersteuning. Vaak zijn ze ook nog een stuk efficiënter en brengen ze meer nieuwe features als eerste op de markt. Dit was bij de HD 5xxx series althans zo en de HD 7xxx series. Geheugen busbreedte, nieuwer geheugen type, hogere DX versies en dergelijke. Maar of dit nu nog zo is moet je me niet vragen. Totaal geen idee van hoe dat tegenwoordig is.

Op dit item kan niet meer gereageerd worden.