Door Tomas Hochstenbach

Redacteur

Vier nieuwe RTX 3080's Round-up

Twee topmodellen en twee budgetkaarten

07-01-2021 • 06:00

238

Multipage-opmaak

Inleiding

Tot nu toe bekeken we vooral RTX 3080's uit het 'mainstreamsegment', voor zover je daarvan kunt spreken bij dit type kaarten. Gigabyte en MSI leverden onlangs ook hun absolute topmodellen af in ons testlab. Deze fabrikanten laten met respectievelijk de Aorus Xtreme en de Suprim X zien waartoe ze in staat zijn bij het ontwerpen van een ultieme GeForce RTX 3080. Dan rest vanzelfsprekend de vraag wie daarin het beste is geslaagd. Verder konden we twee kaarten testen die het juist van hun scherpe prijs moeten hebben: de MSI Ventus 3X en de Zotac Trinity OC.

Trage start, hoge topsnelheid

In eerste instantie focusten de verschillende fabrikanten vooral op modellen met een relatief lage adviesprijs. Dat had twee belangrijke redenen: enerzijds wilden ze zoveel mogelijk aan het verzoek van Nvidia voldoen om dicht bij de officiële adviesprijs te blijven, anderzijds waren er nog amper binned chips beschikbaar die geschikt zouden zijn voor de hoogste klokfrequenties. Dat had op zijn beurt weer alles te maken met de late leveringsstart van de nieuwe Nvidia-gpu's, die we in onze eerste round-up al uitgebreid hebben behandeld.

De Gigabyte Aorus Xtreme en de MSI Suprim X zijn dan ook veruit de hoogst geklokte kaarten die we tot nu toe hebben getest. Op papier was de MSI Gaming X Trio de snelste kaart uit onze eerste round-up, met een boostsnelheid voor de gpu van 1815MHz. De twee kaarten die we voor deze round-up hebben getest, zijn allebei geklokt op 1905MHz, waarbij de MSI via een schuifje in de Dragon Center-software zelfs op 1920MHz in te stellen is. Nvidia's boostalgoritme gebruikt die waarde weliswaar als referentie, maar klokt in de praktijk vaak nog een stuk verder, dus dat belooft wat.

RTX 3080 Gigabyte Aorus Xtreme vs MSI Suprim X

Een lege Pricewatch

Normaal gesproken zouden we nu vast de prijzen noemen. In de Pricewatch zijn echter nauwelijks prijzen te vinden doordat shops niet-leverbare producten vaak uit de aangeleverde feeds verwijderen. In de Hardware Info Prijsvergelijker zijn wel verschillende prijzen te vinden. De Gigabyte Aorus Xtreme kost bij diverse winkels rond de duizend euro. De MSI Suprim X is bij twee shop voor 949 euro te bestellen, maar staat elders eveneens voor 999 euro in de prijslijsten. De Zotac RTX 3080 Trinity OC kost nu minstens 859 euro, maar is eerder voor 818 euro te bestellen geweest. De MSI Ventus 3X ten slotte is op dit moment nog nergens te bestellen, maar op basis van de prijs van de iets snellere OC-versie moet dit model uiteindelijk rond Nvidia's adviesprijs uitkomen.

Naarmate de verkrijgbaarheid verbetert, zal daar vast nog wat van afgaan, maar in vergelijking met de adviesprijs van 719 euro voor de Founders Edition zijn de Gigabyte Aorus Xtreme en MSI Suprim X hoe dan ook kaarten voor wie een diepe portemonnee heeft. Uiteraard hebben we ook andere fabrikanten gevraagd om hun topmodel in te sturen voor deze test. ASUS had helaas geen Strix OC-uitvoering beschikbaar voor ons; EVGA reageerde niet op ons verzoek.

Gigabyte RTX 3080 Aorus Xtreme

Hoewel we de Gigabyte GeForce RTX 3080 Aorus Xtreme in absolute zin nog altijd gerust een bakbeest kunnen noemen, is hij met een lengte van net geen 32cm de kleinste van het tweetal dat we vandaag bespreken. Daarmee is hij in de lengte zelfs amper groter dan de Gaming OC met drie 90mm-ventilators, maar de Maxcovered-koeler op de Aorus Xtreme is op andere punten toch wel imposanter.

Zoals tegenwoordig standaard in het high-end segment, zien we drie ventilators met een dubbele kogellager, maar die zijn een stuk groter dan bij de Gaming OC. De twee buitenste ventilators meten maar liefst 115mm in doorsnee, de middelste draait in tegengestelde richting en heeft een diameter van 100mm. Ook ASUS past die techniek sinds deze generatie toe, waar Gigabyte smalend naar verwijst in de documentatie die we over deze videokaart hebben ontvangen. Het geheel levert een tot 16 procent hogere warmteafvoer, aldus de fabrikant. Bijzonder is bovendien het frame met luchtgeleidingskanalen dat onder de buitenste ventilators is geplaatst en tot nog eens 5 procent betere koelprestaties moet leiden.

Gigabyte Aorus RTX 3080 Xtreme

De heatsink zelf maakt door middel van een forse koperen plaat contact met de gpu en geheugenchips. Deze baseplate is bijna net zo groot als het binnenste deel van het koelblok, dat in totaal een 106 procent grotere koeloppervlakte heeft dan de Aorus-kaarten uit de RTX 20-serie. Die ruimte komt vooral uit de hoogte; de kaart neemt bijna vier complete uitbreidingssloten in beslag en is daarmee zonder twijfel de dikste kaart die we ooit hebben getest, letterlijk.

Het custom pcb beslaat slechts iets meer dan de helft van de totale koeler. De buitenste ventilator blaast als het ware door de kaart heen, waarvoor ruime uitsparingen zijn aangebracht in de zwarte, metalen backplate. Andere noemenswaardige zaken zijn de bios-schakelaar tussen de standaard 'OC mode' en een 'silent mode' - we hebben ze uiteraard allebei doorgemeten - en de aangepaste monitoruitgangen. In totaal beschik je over zes aansluitingen: driemaal DisplayPort en driemaal HDMI. Wel ben je door de beperkingen van de gpu beperkt tot vier gelijktijdig aangesloten schermen en is de middelste HDMI-poort beperkt tot HDMI 2.0 in plaats van 2.1.

Gigabyte Aorus Xtreme RTX 3080

Op de zijkant van de videokaart, die in het merendeel van de systemen richting het zijpaneel gericht zal zijn, heeft Gigabyte een lcd'tje geplaatst. Daarop kun je actuele informatie over de videokaart weergeven, zoals de gpu-temperatuur, maar ook eigen teksten en gifjes behoren tot de mogelijkheden. Standaard is er een gifje van Aorus-mascotte Chibi aanwezig, waarvan je ook een fysiek beeldje meegeleverd krijgt.

Gigabyte Aorus Xtreme RTX 3080

Gigabyte verkoopt overigens ook de RTX 3080 Aorus Master, die voor ongeveer 50 euro minder van eigenaar wisselt. Dat is praktisch dezelfde kaart, met voor zover wij weten maar drie verschillen: er zijn twee in plaats van drie 8-pinsstroomconnectors, de kloksnelheid van 1‎845MHz is 60MHz lager en je moet het bijgeleverde robotje missen. Een nieuwe revisie zou zelfs wel de volle drie stoomstekkers hebben, al is het niet duidelijk of die op dit moment al wordt uitgeleverd.

MSI RTX 3080 Suprim X

Waar de Gaming X Trio van MSI al hoge ogen wist te gooien in onze oorspronkelijke round-up, beweert MSI met de RTX 3080 Suprim X een nóg betere videokaart te hebben gemaakt. De marketingafdeling van het bedrijf heeft een mooi backroniem gevonden bij de modelnaam: superior-profound-impossible. De Suprim X is met bijna 34cm in elk geval nog een stukje langer dan het model dat we eerder hebben getest en ook dan de Aorus Xtreme, al blijft de dikte een stuk meer binnen de perken.

MSI heeft zijn topmodel voorzien van een Tri Frozr 2S-koeler, waarbij de wat agressief uitziende shroud van de Gaming X Trio is vervangen door een rechthoekig en wat strakker ontwerp. De drie Torx 4.0-ventilators met een dubbele kogellager zijn ongewijzigd aanwezig, inclusief de 'open' buitenring die steeds twee ventilatorbladen met elkaar verbindt. In het koelblok zien we enkele opvallende wijzigingen. Zo maken de zeven heatpipes niet langer direct contact met de processor, maar gaat dat via een vernikkeld koperen baseplate. Bovendien is er een achtste heatpipe toegevoegd, die exclusief het geheugen koelt.

MSI RTX 3080 Suprim X

Een andere belangrijke verandering is de backplate. Bij de Gaming X Trio was die gemaakt van een combinatie tussen plastic en grafeen, op de Suprim wordt weer ouderwets een metalen backplate geschroefd. Op diverse plekken zijn forse thermalpads aangebracht, zodat de backplate daadwerkelijk een bijdrage kan leveren aan de koeling. Voor extra stevigheid is er ook aan de voorzijde een metalen versterkingsplaat gemonteerd en krijg je een verstelbaar pootje meegeleverd.

MSI RTX 3080 Suprim X

De printplaat is maar een paar centimeter korter dan de koeler, waardoor de drie 8-pinsstekkers bijna aan het uiteinde konden worden geplaatst. De vrm bestaat uit zestien 50A-fasen voor de gpu, met nog eens vier stuks extra voor het geheugen. Dat is respectievelijk drie en één fase meer dan op de Gaming X Trio. Naast de stroomconnectors treffen we een bios-schakelaar aan, waarmee je kunt kiezen tussen de gaming- of silent modi. Aan de monitoraansluitingen heeft MSI ten opzichte van de Founders Edition echter niets veranderd: driemaal DisplayPort en één keer HDMI 2.1 is waar je het mee moet doen.

MSI RTX 3080 Suprim X

Net als Gigabyte heeft ook MSI een goedkopere versie beschikbaar, de Suprim zonder X. Voor zover ons bekend zal de kloksnelheid het enige verschil zijn, maar vooralsnog is alleen de Suprim X daadwerkelijk terug te vinden in de Pricewatch.

MSI Ventus 3X en Zotac Trinity OC

Over de twee goedkopere, nieuw geteste kaarten valt iets minder te vertellen, al is het maar omdat de fabrikanten dat zelf ook minder graag doen, maar dat maakt ze niet minder interessant. Immers, als je voor een dubbeltje op de eerste rang kunt zitten, waarom dan niet?

MSI RTX 3080 Ventus 3X

De MSI GeForce RTX 3080 Ventus 3X is op het moment van schrijven de laagst gepositioneerde RTX 3080-videokaart van de fabrikant. Van de RTX 3070 en lager zijn er ook nog goedkopere varianten, zoals de Ventus 2X, maar die bestaan bij de RTX 3080 (nog) niet. De grijs-zwarte triplefankoeler op de Ventus 3X doet meer dan een beetje denken aan de enigszins ondergesneeuwde Duke-serie bij de RTX 20-videokaarten. Onder het motto 'take the essentials' is het een kaart zonder opsmuk en rgb-lampjes, maar moeten de koelprestaties op niveau blijven.

Met een lengte van 30,5cm en vooral een breedte van 12cm is de Ventus 3X duidelijk compacter dan de Gaming X Trio of Suprim X. De kaart neemt ongeveer tweeënhalf uitbreidingsslot in beslag en wordt geleverd met een extra steuntje tegen doorzakken. Opvallend is de backplate, die in tegenstelling tot bij de Suprim X niet van metaal is, maar van een combinatie van grafeen en (vooral) plastic.

MSI RTX 3080 Ventus 3XMSI RTX 3080 Ventus 3X

De koeler maakt gebruik van zes afgeplatte heatpipes die rechtstreeks contact maken met de gpu. De geheugenchips en vrm's maken door middel van thermalpads contact met het koelblok, waarbovenop drie 100mm-ventilators van de Torx 3.0-generatie zijn gemonteerd. Dat type ventilators kwamen we bij de voorgaande generatie op de high-end Gaming X-kaarten tegen. Uiteraard worden ze semipassief aangestuurd, wat betekent dat ze stilvallen als je je videokaart niet belast.

Naast de non-OC-editie van de ASUS TUF en natuurlijk de Founders Edition is de MSI Ventus 3X de enige RTX 3080 die niet is voorzien van een fabrieksoverklok. De opgegeven boostsnelheid is 1710MHz, 30MHz minder dan bij de Ventus 3X OC. MSI heeft ons laten weten dat het in de Benelux alleen de Ventus 3X OC zal voeren, al kun je de non-OC-versie wel tegenkomen in complete systemen en wellicht via de zogenaamde 'grijze' verkoopkanalen.

Zotac RTX 3080 Trinity OC

Strikt genomen is de RTX 3080 Trinity OC niet de laagst gepositioneerde Zotac-kaart, want er is ook nog een non-OC-editie van deze kaart. De 'overklok' op de OC-versie is met 15MHz echter uiterst marginaal. Het ontwerp van de koeler is ingetogen, met zwart en donkergrijs als hoofdkleuren, maar de hoekige shroud geeft de kaart toch nog een uniek tintje. Alleen bovenop en in de backplate is wat rgb-verlichting verwerkt.

De videokaart is met bijna 32cm relatief lang, maar met 12cm niet al te breed. De Trinity OC neemt drie uitbreidingsslots in beslag en is uitgerust met drie 90mm-ventilators. Als we de koeler van dichterbij bekijken, zien we dat de gpu wordt gekoeld via een baseplate waar zeven heatpipes doorheen lopen. Het contact met de geheugenchips wordt via thermalpads gemaakt, terwijl de vrm-koeling is verwerkt in een frame dat primair extra stevigheid biedt. Uiteraard draagt ook de zwarte backplate daaraan bij.

Het pcb beslaat slechts ongeveer twee derde van de totale lengte van de Zotac. Daardoor blaast de buitenste ventilator deels door de videokaart, en dus het koelblok, heen. Het nadeel is echter dat de twee stroomconnectors veel meer richting het midden van de kaart zitten dan bij bijvoorbeeld de MSI Ventus.

Zotac RTX 3080 Trinity OCZotac RTX 3080 Trinity OC

Vergelijkingstabel

In de onderstaande tabel vergelijken we de Gigabyte Aorus Xtreme en MSI Suprim X met de 'reguliere' modellen van beide fabrikanten, respectievelijk de Gaming OC en de Gaming X Trio. Onderaan deze pagina vind je eenzelfde tabel waarin we de MSI Ventus 3X en Zotac Trinity OC vergelijken met andere relatief betaalbare RTX 3080's.

Uiteraard is de opgegeven boostclocksnelheid een flink stuk hoger bij de high-end modellen. De Aorus Xtreme is ook veel forser dan de Gaming OC, in alle drie de dimensies. Bij MSI is aan de afmetingen amper wat veranderd, al moeten we daarbij wel zeggen dat de Gaming X Trio al niet bepaald compact was.

RTX 3080 Gigabyte Aorus Xtreme vs MSI Suprim X

Verder heeft Gigabyte het aantal monitoraansluitingen opgeschroefd en een derde stroomconnector toegevoegd, die de Gaming X Trio al had. De vrm-opstelling is uitgebreid naar zestien fasen voor de gpu en vier voor het geheugen, steeds met 50A-powerstages. Een laatste opvallende eigenschap is de veel hogere maximale stroomlimiet, oftewel het maximum dat je bij overklokken kunt instellen. Oorspronkelijk ging MSI daarin nog 10W verder dan Gigabyte, maar inmiddels heeft laatstgenoemde een bios beschikbaar gesteld dat de stroomlimiet verder opkrikt naar 450W. Tenzij je gaat overklokken met extreme koelmethoden, heb je daar in de praktijk overigens niet al te veel aan. Een snelle test met de maximale power limit van 450W leverde hooguit enkele tientallen megahertz winst op.

Nvidia Founders Editon Gigabyte Gaming OC Gigabyte Aorus Xtreme MSI Gaming X Trio MSI Suprim X
Richtprijs € 719 € 769 € 999 € 799 € 899
Boostclockfreq. 1710MHz 1800MHz 1905MHz 1815MHz 1905MHz
Aantal ventilators 2 3 3 3 3
Lengte 28,5cm 32cm 33,6cm 32cm 32cm
Breedte 11,2cm 12,9cm 14cm 14cm 14cm
Dikte Dualslot Tripleslot 4-slot Tripleslot Tripleslot
Beeldaansluitingen 1x HDMI, 3x DP 2x HDMI, 3x DP 3x HDMI, 3x DP 1x HDMI, 3x DP 1x HDMI, 3x DP
Stroomtoevoer 1x 12-pins
(met adapter)
2x 8-pins 3x 8-pins 3x 8-pins 3x 8-pins
Vrm 15+3 13+4 16+4 13+3 16+4
Power limit (standaard / max.) 320/370W 340/370W 370/420W, 450W met BIOS F3 340/350W 370/430W

In de onderstaande tabel vergelijken we de MSI Ventus 3X en Zotac Trinity OC met enkele van de eerder geteste RTX 3080's, specifiek de modellen die dicht in de buurt van Nvidia's adviesprijs blijven. De MSI Ventus 3X is samen met de Founders Edition en de ASUS TUF Gaming (non-OC) de enige kaart die geen fabrieksoverklok heeft. Verder valt op dat het niet mogelijk is om de power limit op te schroeven. Zotac biedt op dat vlak wat meer ruimte, maar nog altijd duidelijk minder dan bijvoorbeeld ASUS.

Nvidia Founders Editon Gigabyte Gaming OC ASUS TUF Gaming MSI Ventus 3X Zotac Trinity OC
Richtprijs € 719 € 769 € 729 € 719 € 749
Boostclockfreq. 1710MHz 1800MHz 1710MHz 1710MHz 1725MHz
Aantal ventilators 2 3 3 3 3
Lengte 28,5cm 32cm 30cm 30,5cm 32cm
Breedte 11,2cm 12,9cm 12,7cm 12cm 12cm
Dikte Dualslot Tripleslot Tripleslot Tripleslot Tripleslot
Beeldaansluitingen 1x HDMI, 3x DP 2x HDMI, 3x DP 2x HDMI, 3x DP 1x HDMI, 3x DP 1x HDMI, 3x DP
Stroomtoevoer 1x 12-pins
(met adapter)
2x 8-pins 2x 8-pins 2x 8-pins 2x 8-pins
Vrm 15+3 13+4 16+4 13+3 13+3
Power limit (standaard / max.) 320/370W 340/370W 340/375W 320/320W 320/336W

Testverantwoording

Voor de tests van deze GeForce RTX 3080-videokaarten gebruiken we hetzelfde testsysteem als in onze oorspronkelijke round-up, gebaseerd op een Ryzen 9 3900XT, MSI MEG X570 Godlike-moederbord, 32GB G.Skill Trident Z Royal-geheugen (2x16GB in dualchannel) op een snelheid van 3600mt/s en twee ssd’s: een Samsung 970 EVO 250GB als bootdrive en een Kioxia Exceria+ 2TB, waarop alle games zijn geïnstalleerd. Verder bestaat het systeem uit een be quiet Dark Power Pro 12 1500W-voeding en een uitgebreide waterkoelset van Alphacool. Als besturingssysteem is uiteraard de nieuwste versie van Windows 10 Pro 64bit geïnstalleerd.

Testsysteem
Processor AMD Ryzen 9 3900XT @ 4,2GHz
Moederbord MSI MEG X570 Godlike (bios v1.9)
Werkgeheugen G.Skill Trident Z Royal 32GB DDR4-3600 CL16-16-16-36
Ssd Samsung 970 EVO 250GB (OS) + Kioxia Exceria 2TB (games)
Voeding be quiet Dark Power Pro 12 1500W
Koeling Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators
Besturingssysteem Windows 10 Pro 64bit May 2020 Update (2004)

Videokaarten testsysteem

Methodiek

In deze review focussen we op de onderlinge verschillen tussen de RTX 3080-uitvoeringen van diverse fabrikanten. In grote lijnen zullen de prestaties van alle kaarten met dezelfde gpu vergelijkbaar zijn. Om kleine verschillen te kunnen ontdekken die voortkomen uit bijvoorbeeld firmware, keuzes bij het pcb-ontwerp en natuurlijk de kwaliteit van de koeler, testen we minder games dan in een complete gpu-review, maar testen we per game wel een stuk uitgebreider.

We hebben vier games uitgezocht waarin het goed mogelijk is om een langere test van tien minuten uit te voeren. Op de volgende pagina beschrijven we per game wat we exact doen. Tijdens elke test loggen we zo'n beetje alles wat er te loggen valt: prestaties met PresentMon natuurlijk, maar ook temperatuur, klokfrequentie, ventilatorsnelheid en ga zo maar door. Wie bekend is het met het duurtestconcept, zou dit als vier individuele duurtests kunnen zien. Tien minuten is daarvoor ruimschoots voldoende; bij het merendeel van de kaarten worden de stabiele kloksnelheid en temperatuur al binnen enkele minuten bereikt. Alle games testen we op 4k-resolutie met ultra settings.

Uiteraard hebben we alle RTX 3080's getest met dezelfde driver: 456.16. De RTX 3080 Founders Edition hebben we op identieke wijze getest. Doordat we andere, langere tests gebruiken en het testsysteem verschilt, zijn de cijfers niet een-op-een vergelijkbaar met die uit onze gpu-reviews. Ook hebben we de games vooral uitgezocht op geschiktheid voor een langer durende benchmark en bijvoorbeeld niet op een 'eerlijke' verhouding tussen games met een AMD- of Nvidia-bias. Deze review is dus uitdrukkelijk niet bedoeld om vergelijkingen tussen videokaarten met verschillende gpu's te maken. Daarvoor verwijzen we je graag naar onze uitgebreide RTX 3080-review, of de RX 6900 XT-review voor resultaten met een Ryzen 5000-processor.

Geluidsproductie en stroomverbruik

Naast de prestaties meten we ook de geluidsproductie en het stroomverbruik van videokaarten. De meting van de geluidsproductie doen we in een geluiddichte doos op een afstand van 30cm, met de decibelmeter schuin op de videokaart gericht. De drempelwaarde voor onze metingen is 18dB(A); dat mag je opvatten als volledig stil. Tijdens de idle-test wordt de videokaart vanzelfsprekend niet belast. De load-test is gebaseerd op een verlengde gametest van tien minuten, zodat de videokaart tijd heeft om op te warmen en zijn maximale geluidsproductie te bereiken.

De stroommeting voeren we uit met een zogenaamde riserkaart van fabrikant Adex, die we tussen het PCIe-slot en de videokaart in plaatsen. Op die manier kunnen we niet alleen de stroom meten die door de losse stroomkabels loopt, maar ook het vermogen dat de videokaart rechtstreeks uit het PCIe-slot betrekt. Voor de meting zelf vertrouwen we op verschillende exemplaren van de Tinkerforge Voltage/Current Bricklet 2.0. Voor de slotmeting is de riserkaart met zo’n bricklet uitgerust. Om de stroom van de peg-kabel te meten, is de bricklet samen met de benodigde connectors op een speciaal voor onze test ontworpen printplaat geplaatst. Afhankelijk van het aantal stroomkabels dat een videokaart vereist, gebruiken we uiteraard diverse meters.

Stroomverbruik meting videokaartenTinkerforge stroommeter

Prestaties

We trappen af met een aantal synthetische benchmarks. 3DMark is natuurlijk geen game, maar wel een consistente test die een eerste indruk geeft van de onderlinge verhoudingen. Fire Strike is de DirectX 11-test van 3DMark, Timespy draait in DirectX 12 en Port Royal voegt daar nog eens raytracing aan toe.

Zie voor een toelichting over 'sample 1' en 'sample 2' van de MSI Ventus 3X de conclusiepagina.

  • 3DMark Firestrike Ultra
  • 3DMark Timespy
  • 3DMark Port Royal

De MSI Ventus 3X en Zotac Trinity OC behoren tot de langzaamste RTX 3080's die we tot nu toe getest hebben. Ze wedijveren doorgaans met de ASUS TUF non-OC.

De MSI Suprim X en Gigabyte Aorus Xtreme vinden we in de bovenste helft van de grafieken terug, maar doen het niet echt consequent beter dan de eerder geteste modellen. Het verschil tussen de stille en normale modi is wat prestaties betreft uiterst beperkt. Hier en daar wint de 'quiet mode' zelfs, maar dat zal vooral te wijten zijn aan de zeer kleine marges.

Gemiddelde kloksnelheid over 10 minuten (4 games)
Videokaart Gemiddelde kloksnelheid in MHz (hoger is beter)
MSI GeForce RTX 3080 Gaming X Trio
2.011
Gigabyte Aorus GeForce RTX 3080 Xtreme
1.979
Gigabyte GeForce RTX 3080 Gaming OC
1.950
Palit GeForce RTX 3080 GameRock OC
1.930
Gigabyte GeForce RTX 3080 Gaming OC (quiet)
1.926
MSI GeForce RTX 3080 Suprim X (quiet)
1.916
Gigabyte Aorus GeForce RTX 3080 Xtreme (quiet)
1.909
MSI GeForce RTX 3080 Suprim X
1.904
Inno3D GeForce RTX 3080 iChill X3
1.889
Nvidia GeForce RTX 3080 Founders Edition
1.881
ASUS TUF Gaming GeForce RTX 3080 OC
1.880
ASUS TUF Gaming GeForce RTX 3080 OC (quiet)
1.869
ASUS TUF Gaming GeForce RTX 3080
1.854
Zotac GeForce RTX 3080 Trinity OC
1.830
MSI GeForce RTX 3080 Ventus 3X (sample 2)
1.822
MSI GeForce RTX 3080 Ventus 3X (sample 1)
1.660

Kijken we naar de gemiddelde kloksnelheid in de vier door ons geteste games, dan weet de Gigabyte Aorus Xtreme dicht op de MSI Gaming X Trio te kruipen, maar er net niet overheen te gaan. In de stille modus klokt hij duidelijk lager dan wanneer we het primaire bios gebruiken, terwijl dat verschil er bij MSI praktisch niet is. De Zotac Trinity OC en MSI Ventus 3X sluiten de grafiek af.

De eerste game waarin we een duurtest hebben uitgevoerd, is Assassin's Creed: Odyssey, de op-één-na-recentste game in deze langlopende serie. Hij is al wat ouder, maar desondanks nog altijd behoorlijk zwaar voor zelfs de snelste videokaarten en bovendien geschikt om op consistente wijze langere benchmarks uit te voeren. Daartoe starten we een 'discovery tour', waarin we zonder (variabele) vijanden tegen te komen naar vaste plekken lopen.

Assassins Creed: Odyssey - Stabiele kloksnelheid
Videokaart Gemiddelde kloksnelheid in MHz (hoger is beter)
Gigabyte Aorus GeForce RTX 3080 Xtreme
2.025
MSI GeForce RTX 3080 Gaming X Trio
2.020
Gigabyte GeForce RTX 3080 Gaming OC
2.010
Palit GeForce RTX 3080 GameRock OC
2.007
Gigabyte GeForce RTX 3080 Gaming OC (quiet)
1.985
Gigabyte Aorus GeForce RTX 3080 Xtreme (quiet)
1.965
MSI GeForce RTX 3080 Suprim X (quiet)
1.950
Nvidia GeForce RTX 3080 Founders Edition
1.941
MSI GeForce RTX 3080 Suprim X
1.935
ASUS TUF Gaming GeForce RTX 3080 OC
1.935
ASUS TUF Gaming GeForce RTX 3080
1.930
MSI GeForce RTX 3080 Ventus 3X (sample 2)
1.926
Palit GeForce RTX 3080 GameRock OC (quiet)
1.926
ASUS TUF Gaming GeForce RTX 3080 OC (quiet)
1.920
Inno3D GeForce RTX 3080 iChill X3
1.919
ASUS TUF Gaming GeForce RTX 3080 (quiet)
1.914
Zotac GeForce RTX 3080 Trinity OC
1.898
MSI GeForce RTX 3080 Ventus 3X (sample 1)
1.764

Van de nieuwe kaarten klokt de Gigabyte Aorus Xtreme in de standaardmodus het hoogst. Met een stabiele kloksnelheid van 2025MHz komt hij nog nipt hoger uit dan de MSI Gaming X Trio. De Suprim X komt uit rond de 1950MHz, net iets onder de Gigabyte in zijn stille modus. De Zotac Trinity OC en MSI Ventus 3X klokken het laagst.

F1 2020 - Stabiele kloksnelheid
Videokaart Gemiddelde kloksnelheid in MHz (hoger is beter)
MSI GeForce RTX 3080 Gaming X Trio
2.010
Gigabyte Aorus GeForce RTX 3080 Xtreme
1.988
Gigabyte GeForce RTX 3080 Gaming OC
1.986
Nvidia GeForce RTX 3080 Founders Edition
1.931
Palit GeForce RTX 3080 GameRock OC
1.923
Gigabyte Aorus GeForce RTX 3080 Xtreme (quiet)
1.922
Gigabyte GeForce RTX 3080 Gaming OC (quiet)
1.920
Inno3D GeForce RTX 3080 iChill X3
1.918
MSI GeForce RTX 3080 Suprim X (quiet)
1.916
MSI GeForce RTX 3080 Suprim X
1.915
ASUS TUF Gaming GeForce RTX 3080 OC
1.892
ASUS TUF Gaming GeForce RTX 3080 OC (quiet)
1.873
ASUS TUF Gaming GeForce RTX 3080
1.837
Zotac GeForce RTX 3080 Trinity OC
1.835
MSI GeForce RTX 3080 Ventus 3X (sample 2)
1.827
MSI GeForce RTX 3080 Ventus 3X (sample 1)
1.633

Ook de racegame F1 2020 is ideaal om gedurende langere tijd te testen. De MSI Suprim X komt op 1915MHz uit in beide modi, terwijl de Aorus Xtreme in zijn standaardmodus aanmerkelijk hoger klokt dan in de stille modus.

Shadow of the Tomb Raider - Stabiele kloksnelheid
Videokaart Gemiddelde kloksnelheid in MHz (hoger is beter)
MSI GeForce RTX 3080 Gaming X Trio
2.008
Gigabyte Aorus GeForce RTX 3080 Xtreme
1.970
Gigabyte GeForce RTX 3080 Gaming OC
1.926
Palit GeForce RTX 3080 GameRock OC
1.916
Gigabyte GeForce RTX 3080 Gaming OC (quiet)
1.916
MSI GeForce RTX 3080 Suprim X (quiet)
1.906
MSI GeForce RTX 3080 Suprim X
1.898
Gigabyte Aorus GeForce RTX 3080 Xtreme (quiet)
1.890
ASUS TUF Gaming GeForce RTX 3080 OC
1.873
Inno3D GeForce RTX 3080 iChill X3
1.872
ASUS TUF Gaming GeForce RTX 3080 OC (quiet)
1.856
ASUS TUF Gaming GeForce RTX 3080
1.850
Nvidia GeForce RTX 3080 Founders Edition
1.849
Zotac GeForce RTX 3080 Trinity OC
1.802
MSI GeForce RTX 3080 Ventus 3X (sample 2)
1.789
MSI GeForce RTX 3080 Ventus 3X (sample 1)
1.645

In de nieuwste Tomb Raider-game blijft de eerder geteste MSI Gaming X Trio de snelste, met de Suprim X op een forse achterstand van ongeveer 100MHz. De Aorus Xtreme neemt met gemiddeld 1970MHz de tweede plek in, maar klokt in zijn stille modus rond het niveau van de Suprim. De Zotac en MSI Ventus eindigen weer onderaan.

Tot slot Metro Exodus, waarbij de meeste kaarten nogal fluctueren in kloksnelheid. Blijkbaar is deze game geen enorm constante load. De korte boosts die je hier en daar ziet, zijn toe te schrijven aan de laadtijd van ongeveer acht seconden tussen de benchmarkruns, maar die zijn veel te kort om de kaart significant te laten afkoelen. Vandaar dat de kaart doorgaans al gauw weer stabiliseert.

Metro Exodus - Stabiele kloksnelheid
Videokaart Gemiddelde kloksnelheid in MHz (hoger is beter)
MSI GeForce RTX 3080 Gaming X Trio
2.007
Gigabyte Aorus GeForce RTX 3080 Xtreme
1.934
MSI GeForce RTX 3080 Suprim X (quiet)
1.890
Gigabyte GeForce RTX 3080 Gaming OC (quiet)
1.883
Gigabyte GeForce RTX 3080 Gaming OC
1.879
Palit GeForce RTX 3080 GameRock OC
1.874
MSI GeForce RTX 3080 Suprim X
1.867
Gigabyte Aorus GeForce RTX 3080 Xtreme (quiet)
1.860
Inno3D GeForce RTX 3080 iChill X3
1.846
ASUS TUF Gaming GeForce RTX 3080 OC (quiet)
1.827
ASUS TUF Gaming GeForce RTX 3080 OC
1.818
Nvidia GeForce RTX 3080 Founders Edition
1.803
ASUS TUF Gaming GeForce RTX 3080
1.800
Zotac GeForce RTX 3080 Trinity OC
1.785
MSI GeForce RTX 3080 Ventus 3X (sample 2)
1.747
MSI GeForce RTX 3080 Ventus 3X (sample 1)
1.599

De MSI Suprim X lijkt in zijn stille modus wat sneller. Navraag bij MSI leert ons dat er geen prestatieverschil zou moeten zijn tussen beide bios'en, maar goed, in absolute zin is het verschil ook te verwaarlozen.

Temperatuur en geluidsproductie

De prestaties van een koeler hebben natuurlijk altijd twee kanten: de temperatuur en de geluidsproductie. Als we om te beginnen naar de temperaturen kijken, valt op dat aardig wat fabrikanten de gpu wat warmer laten worden dan bij voorgaande generaties. Bij navraag blijkt dat een gevolg van Nvidia's eigen guidelines, waarin staat dat de Ampere-gpu's wat beter tegen hoge temperaturen kunnen dan bij Turing het geval was.

  • Temperatuur (maximaal)
  • Geluidsdruk idle (30cm)
  • Geluidsdruk load in-game (30cm)

Bij de temperaturen zien we een verrassende 'winnaar'. Zotac koelt zijn RTX 3080 Trinity OC tot 58°C, waarmee hij nog koeler is dan de ASUS TUF Gaming. Ook Gigabyte en MSI houden topmodellen in de standaardmodus vrij koud, maar in de stille modus laat vooral MSI de temperatuur wat verder oplopen. De Ventus 3X heeft natuurlijk maar één modus en wordt daarin 73 graden.

In idle staan de ventilators van alle kaarten stil, dus daarover hoeven we niet lang te praten. Wel zijn we blij dat dit ook bij de twee nieuw geteste 'budgetkaarten' het geval is. Onder belasting zien we veel grotere verschillen. De MSI RTX 3080 Suprim X is in zijn stille modus de stilste RTX 3080 die we hebben getest. De Gigabyte Aorus Xtreme laat wat meer van zich horen. In zijn stille modus is hij wat stiller dan de Zotac Trinity OC; in de standaardmodus is hij zelfs nog wat luider dan de Founders Edition.

Koelefficiëntie

Als je zelf het fanprofiel wil instellen of simpelweg de videokaart met de best mogelijke koeler wil kopen, is de efficiëntie van de koeler van groot belang. Je wil immers zoveel mogelijk koeling met zo min mogelijk geluidsproductie.

Om dit te testen meten we bij welk fanprofiel de kaart zo dicht mogelijk bij de 40dB(A) zit, gemeten op 30cm afstand. Vervolgens stellen we de kloksnelheid en spanning in op vaste waardes van 1935MHz en 950mV. Zo trekken we het stroomverbruik van alle kaarten zoveel mogelijk gelijk; het stroomverbruik is immers de 'belasting' van de koeler. Tot slot draaien we opnieuw de Assassin's Creed-test om te kijken hoe hoog de maximale temperatuur van de kaart is. Hierdoor vangen we de capaciteiten van de koeler in feite in één getal.

Gpu-temperatuur - 40dB(A) en vaste klok
Videokaart Gemiddelde temperatuur in °C (lager is beter)
MSI GeForce RTX 3080 Gaming X Trio
50
MSI GeForce RTX 3080 Suprim X
52
ASUS TUF Gaming GeForce RTX 3080
54
ASUS TUF Gaming GeForce RTX 3080 OC
54
Gigabyte GeForce RTX 3080 Gaming OC
57
Zotac GeForce RTX 3080 Trinity OC
58
Gigabyte Aorus GeForce RTX 3080 Xtreme
59
Palit GeForce RTX 3080 GameRock OC
61
MSI GeForce RTX 3080 Ventus 3X (sample 2)
65
Inno3D GeForce RTX 3080 iChill X3
65
MSI GeForce RTX 3080 Ventus 3X (sample 1)
68
Nvidia GeForce RTX 3080 Founders Edition
69

Opvallend genoeg weet de MSI RTX 3080 Suprim X de efficiënte van zijn 'kleine broer' net niet te evenaren. Hij is in de quiet mode dus vooral stiller dan de Gaming X Trio, doordat men de temperatuur iets verder laat oplopen en niet doordat de koeler intrinsiek beter is. Bij Gigabyte zien we eigenlijk hetzelfde gebeuren. De enorme dikte ten spijt is de koeler van de Aorus Xtreme minder goed dan die op de 'midrange'-Gaming OC. De Zotac Trinity OC vestigt zich in de middenmoot, terwijl de MSI Ventus 3X op de Founders Edition na de minst efficiënte koeler heeft.

Stroomverbruik

Het idle-verbruik van de MSI Suprim X en de Zotac Trinity OC is heerlijk laag. De Aorus Xtreme verbruikt van de nieuw geteste kaarten het meest, waar het schermpje natuurlijk debet aan is. In vergelijking met de Palit-kaart vol rgb-verlichting die we eerder bespraken, valt het echter reuze mee.

Onder belasting behoren de Zotac en de MSI Ventus 3X tot de zuinigere kaarten, waarbij de Zotac zelfs iets minder verbruikt dan Nvidia's referentiekaart. De twee topmodellen van MSI en Gigabyte vinden we juist helemaal onder in de grafiek. De Aorus Xtreme is van die twee het onzuinigst; hij trekt gemiddeld 372 watt uit de voeding.

Conclusie

Het viertal nieuwkomers brengt ons op een totaal van elf geteste GeForce RTX 3080-videokaarten. Hoewel we in onze RTX 3080-review best positief waren over Nvidia's flink verbeterde Founders Edition, is het veel fabrikanten toch gelukt om deze referentiekaart te overtreffen. Zes van de tien custom kaarten zijn sneller en álle custom kaarten zijn voorzien van een betere koeler, al scheelt het in het geval van de MSI Ventus 3X slechts één graad in onze test op een gestandaardiseerde geluidsproductie.

De topmodellen: MSI Suprim X vs. Gigabyte Aorus Xtreme

Van de twee dure topmodellen kiest MSI de veiligste route, met wat kleine aanpassingen ten opzichte van de Gaming X Trio, zoals de toevoeging van dual-bios en een metalen backplate. Dat de Suprim op elk punt goed tot zeer goed scoort, valt vooral te danken aan hoe goed het 'mainstream'-model al was. Opvallend is dat zowel de MSI Suprim als de Gigabyte Aorus Xtreme niet per se sneller is dan eerder geteste modellen. Vanaf een bepaald punt maakt het blijkbaar niet zo gek veel meer uit wat een fabrikant als kloksnelheid instelt, maar hangt de daadwerkelijke snelheid vooral af van hoeveel geluk je hebt met de chipkwaliteit en wat Nvidia's automatische boostalgoritme daarmee doet.

Gigabyte gooit het over een andere boeg. De koeler is weliswaar letterlijk de dikste van allemaal, maar de koelprestaties zijn niet buitengewoon. Vooral de extra toevoegingen maken de Aorus Xtreme uniek, zoals het grote aantal monitoraansluitingen en het aanpasbare lcd'tje dat in de videokaart is geïntegreerd. Als je toch handmatig gaat overklokken en het bijgeleverde robotbeeldje kunt missen, kun je overigens eenvoudig wat geld besparen door voor de Aorus Master te gaan, die verder identiek is.

MSI Ventus 3X en Zotac Trinity OC: voor een toekomst zonder tekorten

Het is lastig om nu al ons oordeel te vellen over de twee budgetkaarten, want die moeten het uiteindelijk vooral van hun scherpere prijs gaan hebben. Op dit moment is daar uiteraard nog geen sprake van. Hoe dan ook is de MSI Ventus 3X een buitenbeentje. Als enige is hij echt merkbaar langzamer dan de andere RTX 3080's. Daar staat tegenover dat hij out-of-the-box erg stil is, wat daar natuurlijk ook deels het resultaat van is. (zie update). Deze kaart moet uiteindelijk ongeveer net zoveel gaan kosten als de Founders Edition en maakt pijnlijk duidelijk dat het voor videokaartfabrikanten eigenlijk niet te doen is om voor die adviesprijs een net zo goede videokaart te fabriceren. Ook de Zotac Trinity OC is zeker niet de snelste. Hoewel de koeler best oké presteert, is hij standaard agressief afgesteld om de kaart erg koel te houden.

Dat maakt dat we de awards voor de nieuw geteste videokaarten beperken tot de topmodellen. Daaruit komt eigenlijk geen afgetekende winnaar. De MSI Suprim X biedt het mooiste totaalpakket, maar onderscheidt zich niet bijzonder veel van bijvoorbeeld de eigen Gaming X Trio. De Gigabyte Aorus Xtreme doet dat veel meer met allerlei unieke extra's, maar heeft wel een beduidend mindere koeler dan de MSI. Kortom, het is maar net waar jij persoonlijk de meeste waarde aan hecht bij aanschaf van een topmodel; beide komen in aanmerking voor een Ultimate-award.

Update 8-1: MSI heeft ons na publicatie van dit artikel laten weten dat het vermoedt dat ons sample van de RTX 3080 Ventus 3X niet goed functioneert. We stellen de fabrikant in de gelegenheid om een nieuw sample op te sturen. Zodra we dit nieuwe sample hebben ontvangen en getest, zullen we dit artikel bijwerken.
Update 19-1: Inmiddels hebben we een tweede sample getest. In de grafieken in deze review vind je nu de resultaten van beide exemplaren terug; 'sample 2' betreft het nieuwe exemplaar. Het voornaamste verschil is dat de fans veel harder draaien, op 1700-1900rpm tegenover nog geen 1100rpm bij de eerder geteste kaart. Daardoor is het de op één na luidste RTX 3080 die we hebben getest. Het prestatieverschil met de andere RTX 3080's is veel kleiner geworden; de gemiddelde kloksnelheid ligt nu nog 3,1% onder die van de Founders Edition, waar dat bij de eerdere test nog 11,7% was. Een zekere oorzaak waarom het eerder geteste sample niet goed functioneerde, hebben we samen met MSI niet kunnen vinden.
We hebben de score voor 'Prestaties' in onderstaande tabel naar aanleiding van de nieuwe resultaten aangepast van drie minnen naar één min, gelijk aan de Zotac Trinity OC.

Reacties (238)

238
238
116
27
1
100
Wijzig sortering
Hoewel ik de insteek snap klinkt "budgetkaart" en "700 euro" ietwat vreemd.
Bovendien zullen ze vast niet voor onder de 900 euro te krijgen zijn voorlopig, als ze al verkrijgbaar zijn.
Inderdaad. Vorige week waren 3070 kaarten 'middenklasse' en nu hebben we het over 3080 budgetkaarten.

Alles is relatief, maar ik vind het ook vreemde woordkeuzes in de huidige markt.

Misschien een beetje muggenzifterij, maar Ik snap waarom sommige mensen zich hieraan storen. Het komt een beetje elitair over, alsof Tweakers/consument en de reviewers in verschillende werelden leven

[Reactie gewijzigd door DavidZnay op 23 juli 2024 18:20]

In 2004 koste de NVidia GeForce 6800 zo'n 250 Euro bij uitgave:
https://www.extremetech.c...eperformance-king/2?print

Met inflatie correctie zou dat dus zo 330.- euro zijn.

Dat was toen een top-op-the-line kaart. Echter zie je duidelijk dat kaarten in de tussentijd een stuk duurder zijn geworden en het is mijn nog niet helemaal duidelijk waarom. R&D kosten? Hogere productiekosten? Meer vraag dan aanbod? Hebzucht?
Ik snap niet zo goed de noodzaak om kaarten van x jaar geleden met kaarten van nu te vergelijken. De prestaties zijn toch ook anders? Waarom kan de prijs niet anders zijn? Tenzij jij persoonlijk veel inzicht hebt in hoe het onderzoek en de productie van de kaarten van nu zich verhoudt tot die van toen, zie ik maar één logische conclusie van zo'n vergelijking: ze verschillen. Als grafische kaarten nou niet doorontwikkeld waren maar wel duurder waren geworden, dan snap ik het, maar in de huidige situatie...

Uiteindelijk is het natuurlijk ook een kwestie van vraag. Als er mensen zijn die meer willen betalen voor betere prestaties en Nvidia en AMD kunnen dat leveren, dan doen ze dat. Als iedereen nu tevreden zou zijn met CoD op 90Hz 1080p (ik heb geen idee of dit een goed voorbeeld is) had niemand de monsterkaarten nodig die er nu zijn. Maw, wie zegt dat je de topkaarten van toen niet moet vergelijken met de midrange (of zelfs budget) van nu? Die presteren nog steeds veel beter en zijn, met inflatiecorrectie, goedkoper.
Ik snap niet zo goed de noodzaak om kaarten van x jaar geleden met kaarten van nu te vergelijken. De prestaties zijn toch ook anders? Waarom kan de prijs niet anders zijn?
Vreemde redenatie, natuurlijk zijn de prestaties anders, er zit immers jaren tussen

het gaat er natuurlijk om dat de topkaarten van toen veel goedkoper waren dan de topkaarten van nu, en top kaarten kan je met topkaarten vergelijken, zie niet in hoe je dat niet kan snappen.

Dat er genoeg redenen zijn waarom het nu duurder is geloof ik graag, maar het is alsnog interessant om te weten waarom ze nu zoveel duurder zijn
Sorry, maar waarom zou je topkaarten met topkaarten moeten kunnen vergelijken? De "top" is volkomen arbitrair; dat hangt er maar net van af hoe scherp je je GPU's gaat binnen, welke yields je bereid bent te accepteren, en hoeveel GDDR of HBM er gebruikt wordt.

Een betere maat is te kijken naar de statistiek. De mediaan is een bekende, robuuste maat. Als je alle GPU shipments van NVidia sorteert op performance (ca. 10 miljoen per kwartaal), welke GPU komt dan op plek 5 miljoen? Dat zal waarschijnlijk dit kwartaal een 1660 worden. De prijs van die 1660 is goed te vergelijken met de mediaan uit 2015 of 2010.
Wat ik zeg is dat er geen enkele reden is om aan te nemen dat je topkaarten van nu met topkaarten van toen kunt vergelijken. Alleen omdat het het beste van het beste is? Dat is alsof je zegt dat je de prijs van een kolentrein stoommachine kunt vergelijken met die van de generator van een kernonderzeeër (of een warp drive, als die zou bestaan) omdat ze op enig moment de beste techniek waren om ons voort te drijven. Hoewel ze vergelijkbare dingen doen en op enig moment de beste techniek waren die daarvoor beschikbaar was, maakt niet dat ze wat betreft prijs vergelijkbaar moeten zijn.
Ik snap niet zo goed de noodzaak om kaarten van x jaar geleden met kaarten van nu te vergelijken. De prestaties zijn toch ook anders? Waarom kan de prijs niet anders zijn? Tenzij jij persoonlijk veel inzicht hebt in hoe het onderzoek en de productie van de kaarten van nu zich verhoudt tot die van toen, zie ik maar één logische conclusie van zo'n vergelijking: ze verschillen. Als grafische kaarten nou niet doorontwikkeld waren maar wel duurder waren geworden, dan snap ik het, maar in de huidige situatie...
Spelcomputers zijn ook veel sneller geworden met veel betere gpu tov vorige generatie. Waarom zijn die dan nauwelijks duurder geworden?
Omdat het verdienmodel van een console-bouwer niet de verkoop van de console is maar de verkoop van software (spellen) en abbo's op diensten.
Ik zeg niet dat het anders moet zijn, ik zeg dat er geen reden is om aan te nemen dat ze vergelijkbaar zijn (belangrijk verschil). Daarbij zijn spelcomputers nog steeds in essentie hetzelfde product met dezelfde doelgroep, dat is bij (high-end) videokaarten niet inherent waar (kun je aannemen, maar is dan een aanname). Het kan prima zijn dat de range van videokaarten simpelweg groter is geworden en dat je dus high-end van vroeger zou moeten vergelijken met (bijvoorbeeld) midrange van nu. Datzelfde zie je een beetje bij smartphones. Er is een categorie smartphones boven de high-end smartphones gekomen, die de doelgroep high-end smartphonekopers heeft gesplitst. Ikzelf kocht vroeger high-end smartphones, maar ik zie mij van z'n levensdagen niet een smartphone van € 1300,-- of meer kopen. Die telefoons (superhighend nu en highend vroeger) hebben niet dezelfde doelgroep en het heeft dus ook weinig zin die te vergelijken. Het kan best dat er iets vergelijkbaars heeft plaatsgevonden bij videokaarten. Een 3090 of 3080 heeft (misschien) niet dezelfde doelgroep als de highend kaarten van vroeger (hoe graag die doelgroep van vroeger dat misschien zou willen).

Overigens denk ik dat je zelfs normale, niet-super, highend smartphones van nu niet moet vergelijken met die van vroeger wbt prijs. Er is ook gewoon een probleem met de verwachting van de consument dat er ieder jaar verbetering moet zijn voor dezelfde prijs. Dat is gewoon niet altijd mogelijk. Op een gegeven moment is het op.
Ik vind het wel opvallend als 750 euro budget wordt genoemd. De prijsklasse van budget, mid range, en high end schuift al een tijdje flink omhoog. Met budget gaming denk ik aan een amd apu, niet een kaart van 750 euro. Dat is een beetje alsof je een iphone 12 pro met de minste opslag budget noemt, de goedkoopste iPhone SE een budget keuze noemen vind ik al niet kloppen.
Je moet dan wel de correcte SKU nemen. De 6800GS was niet de top-of-the-line kaart toen. Dat was de 6800 Ultra, en die had in 2004 een adviesprijs van 525EUR, na inflatie geeft dat ongeveer 725EUR..
Tussen een 6800GS en een 6800Ultra zaten nog wel enkele kaarten zoals een 6800GT (de kaart die ik toen zelf had in mijn Athlon 64 3700 build, wat een tijden!).
de Ultra zou ik ook eerder vergelijken met de NVidia 3090... en die heeft een adviesprijs van 1500.-
Ja en nee.. Vroeger waren er ook al x900 NVidia GPU reeksen. Enkel bij de 6000 reeks was er die niet. Wel was er in de generatie daarvoor, in de FX 5000 reeks, een 5900, FX 5900 XT en FX 5900 Ultra en zelfs een FX5950 Ultra.
In de 7000 generatie erna was er ook een hele resem aan 7900 en 7950 kaarten..
Maar de prijzen zijn nog steeds flink gestegen, ook als je inflatie correctie meeneemt. Kan dat komen omdat de innovatie gewoon is afgenomen? Moderne kaarten zijn veel groter, verbruiken meer etc. Lijkt dus een beetje dat ze extra performance ook deels moeten bereiken door gewoon grotere chips en meer verbruik ertegenaan te gooien, in plaats van een ontwerp die bij vergelijkbaar verbruik etc toch beter presteert?

Als ik naar die monsterkaarten als 3090 kijk, dan is daar voor mijn gevoel weinig verfijnd aan iig.

Laat ik het zo zeggen: ik had verwacht dat met de jaren door verbetering de omvang van componenten wat zou afnemen, of iig gelijk zou blijven. Veel is nu echter enorm groot. Dikke (water)koelers / fans, enorme videokaarten. Alleen opslag is echt kleiner geworden en gelukkig zijn ook veel dingen tegenwoordig wel geintegreerd op bijv het moederbord, waardoor er iig geen extra insteekkaarten nodig zijn. 1 moderne videokaart neemt echter al meer ruimte in dan vroeger een videokaart + geluidskaart + USB kaart oid.

Voelt soms een beetje als 1 stap vooruit, 2 stappen terug.
De prijzen zijn gestegen, omdat we meer willen betalen voor kaarten die meer presteren. Als je dat effect wil uitsluiten, en kijkt naar prijs voor constante prestaties, dan zie je dat een instapkaart als de 1030 voor een paar tientjes vergelijkbaar is met de 6800Ultra van 725EUR.

Met andere woorden, er is geen prijsinflatie, maar een verwachtingsinflatie. We verwachten 4K gaming voor HD-ready prijzen.
Maar dat vind ik geen reële vergelijking. Immers heeft een instapkaart van 2010 niet dezelfde prestaties als een instapkaart 2020. Echter betaalde je lange tijd wel vergelijkbare prijzen. Ik kijk gewoon naar marktsegment. Budget, mid-range, high-end, overdreven ;).
Ga je die prijzen tegen elkaar leggen, dan zie je gewoon enorme prijsstijgingen.

Vergelijken op gelijk blijvende prestaties vind ik maar raar. Bij veruit de meeste producten ga je er namelijk van uit dat de nieuwe beter / sneller / mooier dan de vorige versie is. Als versie 2 gelijk is aan versie 1, dan is er ook geen toegevoegde waarde en zal men ook geen reden zien over te stappen.

[Reactie gewijzigd door Sjekster op 23 juli 2024 18:20]

omdat we meer willen betalen? je praat voor je zelf zekers.
Wij willen helemaal niet meer betalen { hoe kom je daar bij ? }

De prijzen van NU zijn over de top...en kom niet met inflatie of andere onzin.
Waarom zouden wij zoveel/willen betalen?
Nvid bespeelt ons met deze ACHTELIJKE Prijzen.
Er zijn weldegelijk mensen die er grof meer geld voor neerleggen, vergis je daar niet in. Daar wordt op allerlei manieren grof misbruik van gemaakt (scalping bijv).
Het is ook gewoon een natuurkundig balans. Je hebt meer rekenkracht nodig voor de huidige grafische activiteiten. Meer rekenkracht staat meestal gelijk aan een hogere TDP (even chip innovaties buiten beschouwing gelaten). De warmte die vrijkomt moet het koelblok zien te overdragen aan de omgevingslucht en hier moet een bepaald koeloppervlak tegenover staan. Dus die TDP staat gewoon in verbinding met het koeloppervlak. Deze kan uiteraard een heel stuk kleiner door bijvoorbeeld koperen koelvinnen te gebruiken. (warmte weerstand is bijna 2x lager dan aluminium). Maar ik denk dat er niemand vrolijk wordt van de prijs als er een koperen koelblok onder de fans zit.
Zo lang deze manier van koelen de standaard is, is hier erg weinig aan te veranderen. De methodiek werkt, maar dit is al helemaal uitontwikkeld en dus weinig ruimte voor innovatie. nVidia heeft hier kleine innovaties willen toepassen met een kleinere PCB en een kleiner koelblok maar dit resulteert weer in hogere temperaturen (zie in bovenstaande review). Je zet in op het een, maar moet toeleggen op het ander.
Een GPU doet nu ook heel veel meer, niet alleen op gebied van gewoon puur renderen. Maar ook zaken als compute, shader processors, ray tracing processors etc. De performance jumps bij GPU's zijn heel veel hoger dan CPU's geweest de laatste 15 jaar.
De 512KB ATI VGA Wonder 16 had een MSRP van $699 in 1988. Omgerekend naar vandaag is dat meer dan $1500. Dat scheelt dan toch weer voor jou :Y)
Lol, omdat ze het nummer 9 niet gebruikten, hadden ze die generatie geen equivalent van een echte topkaart.

Dus.......
En dan vergeet je nog een detail: De echte ultra high-end werd destijds bediend met SLI. Dat betekende dat men twee van dergelijke kaarten naast elkaar prikte om tot nog hogere framerates op vooral de hoogste resoluties te komen.

Qua prijs en verbruik kom je dan ineens wel een stuk dichter in de buurt bij de 3090 / 6900XT range. Er was zelfs een tijd dat er grafische kaarten uit werden gebracht die twee chips op één plank gesoldeerd hadden. Echter had de techniek ook nadelen, zaken als microstutter, de hoeveelheid performance winst en compatibiliteit in het algemeen waren toch wel een paar dingetjes. Toen is men eigenlijk weer teruggegaan naar het maken van nóg grotere chips om toch die markt te kunnen bedienen. Voila, het ultra high-end segment.

Het frappante is dat ik tegenwoordig struikel over reviews in dit segment, maar zelfs het hogere midrange niveau krijgt amper aandacht. Ten tijde van de 6800GT(X) keken velen verlekkerd naar deze kaart, maar was het volstrekt normaal om te accepteren dat een 6600GT "genoeg" was. Volgens mij laten we ons massaal gek maken met de (native)4K/60 hype.
Als je 2x 6800 Ultra in SLI pakt kom je qua verbruik niet eens in de buurt van één 3090/6900XT hoor ;) TDP van 2x 81 watt, dat is minder dan de TDP van één 3060TI (200watt) :+

Als je dan die 6600GT pakt word het helemaal leuk, de AGP versie heeft een TDP van 47 watt en verbruikt iets mee dan de PCIe versie door de bridge chip die nodig was.

Zelf heb ik de 6600GT PCIe gehad en dat was inderdaad een fenomenale kaart en die was goed genoeg. Hij koste me dan ook slechts +/-€200, een flinke bak minder dan de MRSP van €419 die de FE versie die niet te krijgen is kost. In de praktijk gaan 3060TI's voor €500 oid weg ?

Dus de conclusie dat zelfs mét de inflatie meegenomen kaarten duurder geworden en flink meer verbruiken zijn klopt gewoon, ook in het ultra high-end sement (uitgaande van een RTX 3090 á 1500$ MSRP en 350watt TDP).

Dat de midrange minder aandacht krijgt en de 6600GT goed genoeg was, tegenwoordig is de prijsklasse van de 6600GT geen midrange meer maar eerder instap game-kaarten. De fanatieke gamers/tweakers kopen de topkaarten toch nog wel ondanks de gestegen prijzen. Het gat €250~€500 is eigenlijk een beetje een 'saai' gebied geworden, te duur voor mensen op een budget (vaak de massa) en te traag voor de enthousiasteling. Puur mijn mening overigens :)


Om het enigszins te nuanceren de 6x00 serie is alweer 16 jaar oud, in de tijd daarna zijn de TDP's gestaag gestegen met enkele ups- en downs in architecturen maar in elk opzicht groter (breder, dikker) geworden, meer gaan verbruiken en duurder geworden maar echt nieuw of van deze tijd is het niet.
Miners kopen een flink deel op waardoor het aanbod lager is. De kaarten zijn een stuk complexer geworden (R&D inderdaad). De nodes worden steeds kleiner, wat schijnbaar ook meer 'defecte' kaarten oplevert.

Wat afgelopen jaar meegespeeld zou hebben is de pandemie. Veel fabrieken hebben de productie moeten verlagen. Daarbij komt dat veel mensen die thuiszitten nu geld aan andere dingen uitgeven, zoals pc's.

Het tekort komt ook doordat meerdere merken nu chips van dezelfde maker afnemen, TSMC. Hun 7nm chips zijn erg gewild bij bijvoorbeeld Apple (ook al zijn ze overgestapt op hun eigen chip). Daarnaast zijn dus Nvidia en AMD grote klanten van TSMC. En dat zijn nou net de twee grote spelers op de GPU markt. En zowel de Playstation 5 als de Xbox series X gebruiken hardware van AMD.

Kortom, de nieuwste GPU's, consoles en andere populaire hardware gebruiken chips van één en dezelfde maker, die de aanvraag niet aankan. Daardoor is er schaarste wat nog erger wordt door miners en scalpers die kaarten in grote hoeveelheden voor zichzelf opkopen. De productie kosten zijn hoger en de 7nm nodes hebben meer defecten dan voorgaande nodes.
Miners kopen al lang geen kaarten meer op, die zijn volledig over op ASICs.
En ASIC's worden niet door TSMC maar door Lay's en Croky gebakken?! 8)7
Het is ook niet alleen de duurste kaarten, alle videokaarten zijn extreem in prijs gestegen. In 2011 kocht ik een videokaart van €60 om Skyrim te spelen en dat werkte helemaal prima. Dit hele segment is nu weg. Nieuwe videokaarten beginnen bij €150 (de adviesprijs van de GTX 1650), waar je vroeger een midrange kaart voor kocht.
Niet helemaal. Ik heb laatst een 1030 gekocht vanwege ruimte gebrek. Voor 60 euro.

Helaas is daar nog geen vervanger voor gekomen. 1 slot 3030 Ofzo

Op die 1030 kan je nog aardig op gamen.
Het lijkt erop dat alles onder xx60 gestopt is bij Nvidia.
Dat is best jammer voor mensen die een enkel slot minimalistisch pc willen met toch een beetje power.

Anderen kant dan zal denkelijk de markt te klein zijn.
Een GT 1030 presteert nauwelijks beter dan de Vega iGPU's van Ryzen APU's en de Intel Xe iGPU in Tiger Lake (mobiel) of Rocket Lake (desktop, wanneer die uit komt), afhankelijk van hoe hard een game af hangt van geheugenbandbreedte, daar blijft een een GT 1030 met GDDR5 wel een heel stuk voor op een CPU met DDR4. Dus voor wie echt een minimalistische pc wil bouwen die een beetje kan gamen, hoeft een losse GPU ook niet echt meer.

Ik sta nog elke keer versteld hoeveel games ik kan spelen op de Ryzen 5 2400G in mijn HTPC, zolang ik tevreden ben met 1080p (of lager) 30 fps en low/medium settings (Xbox One S niveau ongeveer).

Helaas lijken de ontwikkelingen op iGPU gebied ook al een tijdje stil te staan, Intel heeft wel een nieuwe architectuur maar gaat AMD niet echt noemenswaardig voorbij en heeft op vlak van drivers nog werk. AMD brengt de nieuwe desktop APU's niet op de markt voor consumenten en als ik er al één zou willen, moet ik mijn B350 bord weg doen (die uitgebreide compatibiliteit van AM4 is ook een mythe...). Ik denk dat de volgende sprong vooruit pas weer gaat komen met nieuwe geheugentechnologie, DDR5 of eDRAM.
Alsnog is die 1030 beter. Kan je nagaan hoeveel beter een 3030 zou zijn. Ik snap dat nieuwe generatie cpu een betere igpu hebben, maar niet iedereen heeft een nieuwe cpu nodig. Neem bv een 6e generatie cpu die kan nog prima games en anderen taken doen, echter word die beperkt in games door de 530 igpu. Als je daar dus een 3030 naast zou prikken voor 60/80 euro dan kan je voor een klein bedrag toch weer jaren vooruit.
Dat de 1030 beter is, trek ik ook niet in twijfel maar ze zitten wel in elkaars buurt. Maar tussen de GP108 (GT 1030) en diens voorganger (GK208, zat als eerste in GT635) zat meer dan 4 jaar, de GT 1030 is van mei 2017 dus een GT 3030 dit jaar is dan niet uitgesloten. Er is voor laptops al een MX450 op basis van een wat uitgeklede TU117. Misschien is het er nu ook wel tijd voor ivm HDMI 2.1 (dan wel niet op basis van TU117), wat volgens mij meer een bestaansreden is voor dit soort GPU's, een GT 1030 is nu ook de goedkoopste manier om een PC geschikt te maken voor 4K televisies.

Zoals je zelf zegt, is de markt hiervoor waarschijnlijk heel klein, het gaat dan nog eens vooral over upgrades en niet over nieuwe systemen. Het gros van de markt zet een computer aan de kant als die outdated is en koopt een nieuwe, upgraden doet een minderheid. En voor AMD zou het geen goede strategie meer zijn om een GPU in dit segment uit te brengen, ze hebben liever dat je upgradet naar een nieuwe APU.
Ja dat is ook weer zo. Ben benieuwd wat de toekomst doet.
De grote winst met een dGPU is dat je de geheugenbus van je CPU ontlast doordat je een tweede geheugenbus toevoegt. Je gaat van DDR4 naar DDR4+GDDR5.

Maar praktisch gesproken, waarom zou NVidia geld steken in een 3030GT? AMD heeft alleen de RX550 in dat marrktsegment, en dat is niet significant beter dan een 1030.
Geld steken omdat er nog steeds een markt is. Daarnaast laten zien wat je kunt. Een kleine gpu maken die wel prestaties levert.

Misschien zouden ze zelfs een laptop gpu kunnen gebruiken. Die zijn ook low profile.
Welke markt is er dan voor de 3030, die niet bediend wordt door de 1030 of 1050? "Meer performance voor minder geld" is geen markt.

"Laten zien wat je kunt" is belangrijk, maar dat doe je met je halo-product. Dat is nu dus de 3090, niet een 3030.
Gelukkig zijn er ook iGPU's welke op 1080p redelijk wat games kunnen draaien.
https://gpu.userbenchmark...zen-iGPU/m283726vsm401440 (Dit is een cpu van 145,- euro in de pricewatch).

Edit: voorbeeld fps met iGPU: https://www.techspot.com/review/1878-amd-ryzen-3400g/

[Reactie gewijzigd door Krahk op 23 juli 2024 18:20]

Dat zal een combinatie van al die factoren zijn verwacht ik, Nvidia zal inderdaad meer aan R&D spenderen, productie kosten zal denk ik ook een flinke factor zijn, iedere verbeterde (kleinere) proces node gaan de prijs voor wafers flink omhoog, maar kijk ook naar het verschil in die size, de chip gebruikt in de 6800GS die je aanhaalt was 225mm2, de GA102 in de 3080 is 628mm2, dus niet alleen zijn de wafers voor nieuwere processen veel duurder, doordat de huidige chips veel groter zijn kan je er ook nog eens veel minder per wafer produceren. Dit laatste zal ook nog eens versterkt worden omdat de yields lager zijn naarmate de chip groter.

Daarnaast is de vraag nu enorm hoog en ja, fabrikanten als Nvidia en AMD willen ook de marges op hun hoge niveau houden (in het geval van Nvidia) of zijn bezig hun marges flink te vergroten de laatste jaren (AMD).

Al die zaken zorgen ervoor dat uiteindelijk de consument een stuk meer betaald voor de hardware dan 16 jaar geleden.
Ik heb vroeger voor mijn GeForce 4600 €499 betaald terwijl mijn 5950 uiteindelijk €599 heeft gekost. Dat waren de high-end kaarten van hun tijd.
Tja en mijn Asus GTX980 heb ik voor 480 gekocht toen hij net een maand uit was, toen was er van de TI nog geen sprake, die kwam pas 8 maanden later. De geforce 4 TI 4600 heb ik ook gehad, maar zat toch echt onder de 400 euro, toen deze nog niet zo lang te koop was.Dus het ligt er ook maar net aan waar jij hem koopt, en wat je er voor over hebt. de huidige prijzen liggen ver boven de adviesprijs, alleen maar door vraag en aanbod.

[Reactie gewijzigd door MrDrako op 23 juli 2024 18:20]

Het is ook niet even meer een paar chippies op een pcb die je nog bijna met de hand kan solderen. PCBs hebben meer lagen, stroomtoevoer is veel complexer, dit zijn bijna allemaal custom pcbs met doorontwikkelde koelers, vele heatpipes. Alleen aan de pcb + koeler productiekosten ben je al veel geld kwijt, daar komt R&D nog bovenop. Ook de chip is véél beter en zit ook vele jaren en miljoenen/miljarden aan R&D kosten in.

Andere kant is economisch, het aandeel mensen dat sinds 20 jaar geleden deze kaarten kan veroorloven is gewoon toegenomen en daarmee de vraag. Als men bereid is om €2000 neer te leggen voor een high end kaart, dan gaan ze dat vragen. Simple as that.
De doelgroep is misschien ook verandert je hebt miners, content creators (door meer toegang tot internet) supercomputers/servers met videokaarten etc. Allemaal hebben ze chips nodig om hun geld te verdienen en daar concurreren gamers mee
R&D kosten? Hogere productiekosten? Meer vraag dan aanbod? Hebzucht?
Dit alles samen.
Vergelijk het met de huizenprijzen. Geen aanbod maar hoge vraag = hogere prijzen.
4k en een refresh rate van 100 Mhz of meer. Een grafische kaart uit 2004 bestuurde maar 1 monitor en nu 3 of 4.
100 MHz? Ik hoop het niet :P
De Cpu in dat test systeem kostte 800+ dollar. Als die nou ook 2-300 dollar was dan hadden we het nog ergens over. Videokaarten zijn duurder geworden, ze lunnen veel meer. Cpu's goedkoper.

[Reactie gewijzigd door Xfade op 23 juli 2024 18:20]

de prijs wordt niet bepaald door wat iets kost maar door wat we ervoor willen betalen. Net als de huizen maarkt of auto's. Natuurlijk zullen de fabrikanten zeggen dat het debelopment costs zijn en dat is ook voor een deel zo, maar zeker niet alles. En een bedrijf moet ook reclame campagnes betalen en dergelijke.en salarissen zijn gestegen.etc. Maar bovenal zal men een kuntmatige hoge prijs willen creeeren.
Monopolieprijzen. AMD heeft een dik decennium enkel op de mid range kunnen spelen dus had nvidia vrij spel om eender welke prijs te vragen voor de high end, er was toch geen alternatief.
Op zich zijn er wel een aantal logische verklaringen voor. De markt is nu groter, dus kunnen er grotere investeringen gemaakt worden en de boel wordt gewoon complexer. Daarnaast kunnen ze gewoon meer vragen want A) mensen betalen het en B) door die enorme investeringen en complexiteit is de barrier of entry gewoon hoog voor concurrentie. Bedrijven zijn geen liefdadigheid en er is gewoon een groep pro-sumers die ook zijn geld verdiend met deze kaarten (of nogmaals: het gewoon betaald)

Daarnaast stijgt gewoon niet alles evenredig met inflatie. Dat kan niet. Dat is mss vervelend maar iets anders is weer goedkoper.
Dat lijkt mij sterk, ik betaalde zo'n 2 jaar daarvoor 250 euro voor een Ti4200 en daar zaten bij introductie nog twee modellen boven(Ti4400 en Ti4600).

Sowieso liggen de Amerikaanse prijzen altijd beduidend lager en zijn die zonder BTW.
Simpel: Het betreft hier geen liefdadigheidsinstelling of non-profit organisatie dus ze kunnen en mogen vragen wat ze willen ongeacht wat wij daar van vinden. De vraag naar hun producten is daarbij ook veel groter geworden dus ze kunnen het zich veroorloven en het maakt hun winstmarges enorm veel groter en dat is waarom de meeste bedrijven überhaupt bestaan. Om zoveel mogelijk geld binnen te harken met hun producten zolang de omstandigheden dat toelaten.

[Reactie gewijzigd door Pietjeball op 23 juli 2024 18:20]

Ik lees het als "budget sportauto". Je zit in een duidelijke andere categorie met de 3080.
Maar een budget MX5 sportwagen versus een niet-budget Ferrari sportwagen is best een groot verschil.
Maar de MX5 in dit verhaal is meer een 3060, ik denk dat je dit als budget ferrari moet zien, die nog steeds €100k+ kost t.o.v. top of the line ferrari van €200k+ ter vergelijk...
Zeg dan gewoon een mid-high end kaart voor een beperkt budget.

Sowieso is budget hier namelijk totaal verkeerd gebruikt. Budget is slechts een woord voor financiële reservering met een specifiek doel.
Even kijken wat 'de dikke' er over zegt...

Als je budget en prestatie gaat combineren en het dan 'budget' gaat noemen een hoop onduidelijkheid gecreëerd worden, persoonlijk zou ik namelijk de term budgetkaart veel eerder koppelen aan een goedkope kaart van max €300. Ook zelf maak ik hierin verkeerd gebruik van de term, maar daar ontstaat nou eenmaal de verwarring, omdat ik zelf een definitie van beperkt budget gebruik hierin....

Terwijl 'het budget' van iemand net zo goed beduidend minder of exorbitant meer kan zijn.

Ook jij gooit er nu een eigen definitie tegenaan en dat maakt het echt niet duidelijker.

@Tomas Hochstenbach, zouden jullie iets willen doen aan het verkeerde gebruiken van dergelijke termen. Als je een Seat of Skoda koopt, koop je geen budget VW maar een B-merk binnen hun merk.
En als je een zeer beperkt uitgerustte VW Golf koopt, koop je een uitgekleed- of instapmodel, geen budget VW Golf.
Budgetkaarten zijn kaarten die binnen een gedefineerd budget vallen. Dit zijn toch echt de instapkaarten van een bepaald model.
Ik heb hier even naar gekeken samen met onze eindredacteur. 'Budget' als eerste lid in een samenstelling betekent dat het tweede lid een relatief lage prijs heeft en is hier dus correct. Deze definitie ontbreekt inderdaad in de gratis online Van Dale, maar staat wel in de uitgebreide versie. Het woordenboek noemt zelfs expliciet 'budgetreis' als voorbeeld, terwijl menig reis natuurlijk nog veel duurder is dan één van deze videokaarten.
Daarbij is taal een levend iets, verandert continu. Budget wordt in de volksmond vaak gebruikt om te kijken in welke price-range dit past, maar ook hoe "bang-for-buck" iets is...
Inderdaad, als we kijken hoe men schreef ~100 jaar terug dan lachen we ons rot. Zonder twijfel zal er over 100 jaar ook lachend gekeken worden naar onze huidige schrijfstijl. Het moet natuurlijk niet 'te gek' worden, maar enige evolutie hoort er eenmaal gewoon bij.
Bedankt voor de reactie!

Fijn dat jullie de tijd hebben genomen om er naar te kijken.
Mijn suggestie is geboren uit de discussie (en bijbehorende verwarring) die hier reeds over was ontstaan.

In dit geval zou ik zelfs nog betwisten of je dan wel budget voor kaarten moet zetten, of dat het specifiek budget-RTX3080's zou moeten zijn. Uiteindelijk is het geen typische 'goedkope videokaart' maar een 'goedekope high-end videokaart'..

De typische budget-reis is immers ook de reis naar dat all-in resort in turkije (no-offense) maar niet die exotische reis naar de malediven, ook al is die ene reis wel 25% goedkoper dan een ander typisch resort op de malediven.

Maar laten we die discussie niet te ver opvoeren. ;-)

[Reactie gewijzigd door EwickeD op 23 juli 2024 18:20]

Moet eerlijk zeggen dat ik bij het lezen van "budget" ook al enthousiast naar de prijzen scollde...

Maar een prijs van 700EUR was nou niet wat ik daarbij voor ogen had als upgrade voor mijn oude pc. ;)

[Reactie gewijzigd door Flozem op 23 juli 2024 18:20]

Persoonlijk vind ik de term budget stoppen bij +/- €300/350 bij videokaarten. Alles daarboven is wat mij betreft geen budget meer.

Ik snap best dat hardware.info en tweakers ook graag in het topsegment 'goedkopere' modellen willen aanduiden, maar twijfel of budget daar het juiste woord voor is.. Het voorvoegsel budget is meer in de trend van 'voor iedereen betaalbaar' en 700€ voor een videokaartje, moet je toch echt al een enorme enthousiasteling voor zijn om dat nog 'voor iedereen betaalbaar' te durven noemen.
Het voorvoegsel budget is meer in de trend van 'voor iedereen betaalbaar'
De typische budget-reis is immers ook de reis naar dat all-in resort in turkije
Jouw idee van wat voor iedereen betaalbaar is zit erg ver van de realiteit af.
Sorry maar veel goedkoper dan dat soort ga je geen all-in resort reisjes vinden (ik vergelijk immers die niet voor niks met de Malediven, ik vergelijk all-in resort reizen met all-in resort reizen). Dat zijn dus de budget varianten van die reis. Als er iets is van dat soort, voor iedereen betaalbaar, moet het die wel zijn, want betaalbaarder wordt het niet.

Ik weet ook dat ook die reizen nog altijd niet voor iedereen haalbaar zijn. Maar we hoeven in het ver-algemenen niet de volle 100% van de bevolking af te dekken.

Maar begrijp ik je nou goed... vind jij een videokaart van 700€ nou net als ik ook geen budget kaart meer? ongeacht het dan de goedkoopste een RTX 3080 is. Of vind je die budgetkaart wel terecht zo genoemd?
Ik vind vooral dat de term "budget" te subjectief is om überhaupt te gebruiken voor een algemeen artikel. Er zijn videokaarten die praktisch niets kosten (en ook praktisch amper nut hebben). Dus je kunt hierover blijven discussiëren. Ik vind het vooral opvallend dat jij valt over het algemene "videokaart" in budgetvideokaart terwijl bij jou een "budgetreis" all-inclusive naar Turkije is en niet een kampeervakantie in eigen land.
Zoals gezegd het gemaakte vergelijk is budget all-in reis met all-in reis (je moet wel appels en appels vergelijken), terwijl een kampeerreis een andere vorm vakantie is, laten we het zo maar noemen..
En dan ja inderdaad, een budget vakantie, zal eerder op de fiets met een tent wildkamperen zijn.
Al zijn er ook mensen voor wie budget vakantie een dagje wandelen in een natuurgebied om de hoek kan zijn, als we willen gaan we in de oneindigheid hiervan door ;). Ook daarvoor zijn de termen reis en vakantie te subjectief.

Ben zelf ook van mening dat het nooit heel handig is om er voorbeelden bij te halen, want daar kan je altijd op andere manieren weer over door discussiëren (zie hier), dus had ik dat sowieso beter niet gedaan.

Gelukkig zijn we het eens dat de term budget erg onhandig gekozen is.
Uiteindelijk is ieder product of dienst (wat dan ook) voor een 'bepaald budget' (namelijk het budget volgens de definitie van het woord).
Het gaat toch best duidelijk genoeg over budget 3080s in dit artikel, vergeleken met full fat high end 3080s.

Je kan er eindeloos andere gpu segmenten en autos en reizen en fruit en groenten bij betrekken, maar da's toch echt allemaal compleet naast de kwestie. Het gaat over goedkopere 3080s t.o.v. duurdere 3080s.
Exact dit had ik ook, ik zocht nog naar een extra pagina waar de budget kaarten zouden staan :o
Er is blijkbaar ook een " budget " van Dale :)
Nee, dat is mijn inziens niet zo. Misschien dat Van Dale alleen de definitie die jij vermeldt voert, maar "budget" heeft tegenwoordig toch wel de extra betekenis van "goedkoop" en wordt zo bijvoorbeeld in vele reclamecampagnes gebruikt.
En wat betekent "goedkoop" dan volgens jou? Goedkoop is mijn inziens relatief. Iets kan veel geld kosten maar nog steeds goedkoop zijn.
Rond 2000 was een high end kaart geloof ik max 300 gulden. De extreme prijzen van videokaarten maakt de overstap naar de nieuwe generatie consoles steeds aantrekkelijker.. Iets minder krachtig maar games zijn vaak wel beter geoptimaliseerd. En het aanbod is groter.
rsnubje Testlabcoördinator @pjdijkema7 januari 2021 09:03
Nee hoor, toen had je ook al uitschieters.
Mja ... als ze al PC gebruikers willen aantrekken, zorg dan in ieder geval dat je console anno 2021 over widescreen support beschikt ... niet dus :)
Mja ... als ze al PC gebruikers willen aantrekken, zorg dan in ieder geval dat je console anno 2021 over widescreen support beschikt ... niet dus :)
Zou iedere pc gamer daarom geven? Spelen op een console op een grote 4k tv heeft ook z'n voordelen.
Denk dat er toch veel zijn die omwille hiervan (plus ontbreken van 1440P op de PS5) niet voor een console gaan deze ronde. Ik vind beneden gamen zelf geen optie. Altijd gedoe om de tv ...
De gtx 7800 dual was bij introductie 1000 euro.
De 7950 gx2 was rond de 600 euro in 2006.
Dus het begon al wat meer die richting op te gaan.
Maar ook de tweedehands prijzen zijn gestoord geworden.

Ik denk wel dat we alsnog geluk hebben, vooral als je kijkt naar de professionele prijzen bij de ict.
Wat bedoel je exact met 'het aanbod is groter'?

Verder is in ieder geval voor mij de nieuwe generatie consoles totaal niet interessant t.o.v. PC. Dan moeten ze tocht echt eerst wat gaan doen aan het spellen aanbod. Teveel games die ik speel komen niet eens uit op de consoles. En beter geoptimaliseerd zou ik het ook niet willen noemen eigenlijk, juist op consoles zie je vaak terugval naar bijv. 30 FPS modes omdat het apparaat gewoon niet snel genoeg is. Misschien dat er dan hele goede optimalisatie aanwezig is, maar echt lekker speelt het toch niet.
Ik denk dat er op consoles meer spellen te krijgen zijn dan op de pc. Dat deze spellen jou niet aanspreekt dat is een ander verhaal.
Het verhaal over 30fps gaat tegenwoordig voor de series x steeds minder op. Meeste spellen kun je daarop spelen met 60 fps. En voor zware spellen hebben ze vaak 2 modi, een quality mode met 4k raytracing op 30fps of een performance mode met 4k 60fps zoals bv cyberpunk 2077.
Consoles hebben juist een flink lager aanbod met beschikbare games, kijk bijvoorbeeld eens naar een steamstore, vele malen meer aanbod dat dat een specifieke console heeft. Consoles hebben wel een paar exclusieve serie's (vooral PS5), maar dat is het ook wel. Maar nee, het spelaanbod op de consoles is zeker niet groter dan op de PC en als je per console gaat kijken is het vaak helemaal karig, nu met backwards compatibiliteit is het mogelijk dat dit iets beter gaat worden, maar daar hebben de consoles nog een flinke inhaalslag te maken.
Nou ja - een IBM 8514 was $1290, en de 512 kB geheugenuitbreiding ervan was nog eens $270 extra. Dat was in zekere zin de eerste GPU, in 1987. Tegen de prijzen van nu zou je het dan over minstens $6000 hebben.
Ik blijf het bijzonder vinden inderdaad. Ik heb niet recent een videokaart gekocht, maar een jaar of 6 geleden kocht ik een, toen redelijk courante, "budget" kaart voor minder dan de helft.
Zijn die prijzen sinds het RTX tijdperk zo omhoog geschoten?

Ik heb ook de indruk dat de prijzen van de kaarten ook met de tijd nauwelijks meer dalen Het aanschaffen van een 1 of 2 jaar oud model, voor de "financieel minder bedeelde" of "minder veeleisende" gamers, is nauwelijks meer interessant.
Ja, bizar. Aan de volgende gaming-pc die ik bouw wil ik in totaal ongeveer zoiets kwijt zijn.
Daar geef ik je gelijk in zelf ben ik na mijn GeForce mx naar ATI overgestapt maar daar zie je veelal het zelfde beeld 1x eerder heb ik 700 euro betaald voor een videokaart maar dat was een HD5970, wat een dual gpukaart was. De eerste singlekaart die daaraan kon tippen was de R9 290 welke slechts 350 euro was en net onder het topmodel de R9 290x was gepositioneerd. Eerlijk gezegd had ik verwacht dat de huidige sub top modellen (3080 / 6800) rond de 550 uit zouden komen net boven de 5700 van afgelopen jaar en niet prijzen rond de 900 euro.
Sinds een jaar of twee speel ik enkel nog console en heb ik mijn laatste PC afgedankt. Met momenten heb ik wel weer interesse om een nieuw exemplaar samen te stellen, maar het is rationeel gezien gewoon veel te duur geworden..
Niet alleen in aanschaf, maar ook in stroomverbruik. Deze kaarten alleen al, verbruiken in-game al bijna het dubbele van bijvoorbeeld een PS5. Voor het geld dat nodig is voor een complete machine, heb ik straks een PS5 met extra 1-2TB SSD en een lading games en nog steeds maar de helft aan stroomverbruik.
"the more you buy the more you save" - Leather Jacket man
Je kan veel geld uitgeven, vooralsnog aan een budget zitten.
Budget staat zeg, maar niet altijd voor goedkoop.

Dit is de defenitie van Budget in het engels:
noun
1.
an estimate of income and expenditure for a set period of time.
"keep within the household budget"

Link:
https://www.google.nl/sea...IUKHe29AbwQ4dUDCA0&uact=5
Bijzonder die prestaties van de Ventus. Die throttled dan terug :? Ik heb zelf de 3070 Ventus 3X OC en daar meer dan tevreden over. Boostclock naar 1935MHz met fans op 30%.
Ja heel gek en vind de bios dan ook zeer raar ingesteld door MSI. Ik zelf ben in bezit van een rtx 3080 ventus en merk ook dat de kaart op 70graden is ingesteld en dan raar begint te doen.Zoals throttlen en je hoeft geen verwarming meer in je kamer aan te zetten. Terwijl je met MSI afterburner met wat tweaks toch wel een leuke kaart in handen hebt.

TWEAK:
Core: 2100
MEM: +800
VOLT: 1.025v
Graden: fanprofiel op 60% en de kaart komt niet in de buurt van de 60graden(blijft meer bij de 55 hangen) en je hoort de kaart vrijwel niet. Ik ben zeer tevreden over mijn kaartje.
Is dat de gewone of OC versie? Daar zal ook verschil in zitten, sowieso met de standaard kloks..

En een andere bios geprobeerd? Ik heb gelezen dat je op de Ventus de Gaming X Trio bios van MSI kan laden waardoor de powerlimiet met 30W omhoog kan en je er dus ook weer meer uit zou moeten kunnen halen..

[Reactie gewijzigd door Inflatable op 23 juli 2024 18:20]

Ik zelf heb de oc versie maar zal niet veel schelen met de normale uitvoering gezien de pcb het zelfde is met iets hogere clocks wat amper merkbaar is in fps. Oftewel, marketing.

Een andere bios ga ik niet eens proberen aangezien ik maar 2x8pin connectors tot mijn beschikking heb en al dicht bij de limiet zit dus verder gaan heeft geen zin. Wat dus met een TRIO wel weer kan (3x8pin)
Ok, maar jij krijgt hem dus wel stabiel boven de 2000Mhz.. Is dat voor langere tijd, of zakt hij ook in na een tijdje? Ik vind het vreemd dat de Ventus 3x in deze test het zo enorm slecht doet.. Lijkt alsof er iets mis is met die kaart of bios (qua instellingen)..Waarom klokt dat ding zo ver terug terwijl hij helemaal niet warmer wordt dan de FE b.v.?!? Vaag..

2x8pin moet trouwens tot 375W kunnen, dus de 350W van de Gaming X Trio zou geen probleem moeten zijn.. Nu zit je vast aan 320W max..

[Reactie gewijzigd door Inflatable op 23 juli 2024 18:20]

Yep, en het mooie is hij draait op 2100core constant zonder ook maar te throttlen of wat dan ook. En dat al dik 2maand.

Al moet ik wel bekennen dat ik een undervolt heb uitgevoerd en daarna zelf een draai eraan heb gegeven.

Hierbij een link: https://www.youtube.com/watch?v=sClh4270yg0&t=106s

Hier een reactie op je wijziging:
Sure, je zal eventueel een gaming x trio bios kunnen flashen maar voor die 30watt vind ik het niet waard en het zal maar een paar mhz meer zijn. En het risico ervan is; Als de kaart het begeeft dat ik mijn garantie kwijt ben en dat alleen voor een paar fps meer.... Je praat hier wel over een kaart van 719euro (Al kost het nu wat meer...)

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 18:20]

Ok bedankt, ga ik ook proberen zodra ik mijn RTX 3080 binnen heb..

Wel vaag dat de MSI Ventus 3x non-OC in deze review van Tweakers het zo slecht doet, 1600Mhz is echt bizar laag..
Zeker doen, echt de moeite waard! Je haalt veel meer uit je kaart en hij draait ook nog eens efficiënter terwijl je een overclock heb lopen.

Ik denk dat het een boost schema in de bios is die totaal niet klopt en makkelijk met een update op te lossen is. Of MSI dat doet ? Is maar de vraag. En anders maar gebruik maken van msi afterburner en zelf een draai eraan geven. Een custom bios flashen zal ik niet snel doen dan ben je de garantie kwijt terwijl dat helemaal niet nodig is.
Weer wat geleerd.. Die guide gebruikt en mijn MSI Ventus 2x RTX 2080 nu ook op max 950mV draaien en hij boost nu constant naar 2010Mhz op slechts 96% TDP en wordt daardoor ook 5 graden minder warm en dus fans die ook minder hard draaien.. Best wel bizar dat je meer prestaties uit je videokaart krijgt door juist minder stroom te gebruiken.. Komt dus door de nieuwe 'boost' functie die die dingen hebben tegenwoordig.. Mijn oude overklok instelling was nog powerlimiet naar 110% en gaan met dat ding, maar dat kwam dus nooit hoger dan +/- 1935Mhz constant omdat de kaart te warm werd en zelf de boost weer verlaagde (voltage ging naar ruim 1030mV).. Nu dus 2010Mhz en max +/- 200W i.p.v. 220W..

Thx! Straks dus ook bij de RTX 3080 doen (als ik dat ding ooit geleverd krijg) :Y)
Zoals throttlen en je hoeft geen verwarming meer in je kamer aan te zetten.
Dat is niet raar en ook niet echt kaart specifiek. De warmte waar jij het over hebt het namelijk met verbruik te maken.

Sterker nog door het throtlen zal die wss minder verbruiken en dus je kamer minder opwarmen dan een kaart die niet throttled en dus langer met verbruikt.
Nee, juist niet. De kaart gaat tot 70 graden en daar baseert hij de clocks op af. Oftewel, de kaart blijft maar 70graden in je kamer blazen.
Nee zo werkt het dus helemaal niet, sowieso is het zeer onwaarschijnlijk dat de lucht 70 graden wordt, dat is de temp in de cores van je GPU...

Daarnaast werkt het niet zo dat warmere lucht ook voor meer (totale) warmte zorgt...

Een kaars wordt rustig 150 graden, maar die warmte je kamer toch ook niet meer op dan een CV die maar 65 graden wordt?

Het gaat gewoon om de totale energie en dat vertaald 1 op 1 naar warmte, als een kaart 300watt gebruikt en 90 graden wordt dan warmt ie de kamer minder op dan een kaart die 320watt verbruikt en maar 70 graden wordt, ook al is die laatste 'koeler'...

De kaart waar jij het over hebt draagt dus gewoon slecht warmte over, en daardoor wordt ie zelf heter dan andere kaarten maar de kamer dus zeker niet perse minder, en zoals gezegd eerder minder ivm throttlen!

[Reactie gewijzigd door watercoolertje op 23 juli 2024 18:20]

oke, je hebt een punt. De core gaat tot 70graden.
Stel je hebt een waterkoeler en die houdt je GPU op 30c ipv 70c. Wordt je kamer dan minder warm? Nee. De waterkoeler is gewoon veel effectiever in verplaatsen van warmte (in dit geval naar de radiator).
Stel je hebt een waterkoeler en die houdt je GPU op 30c ipv 70c. Wordt je kamer dan minder warm? Nee. De waterkoeler is gewoon veel effectiever in verplaatsen van warmte (in dit geval naar de radiator).
Onzin, je kamer wordt wel warmer.

Een radiator kan een hardware onderdeel beter koelen omdat het een grotere oppervlakte heeft. MAAR als een onderdeel 90graden wordt, dan wordt de vloeistof en de radiator ook warmer, wat dus resulteert in een warmere omgeving. Al heeft het wel met te maken met het grote van je kamer, hoelang het duurt.

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 18:20]

@Jeroentjeeuh, je gaat hier een beetje in tegen de Wet van behoud van Energie (https://nl.wikipedia.org/wiki/Wet_van_behoud_van_energie). Je videokaart zet een bepaalde hoeveelheid energie per tijdseenheid om in warmte, uitgedrukt in vermogen (bijvoorbeeld 300 Joule per seconde, ofwel Watt). Die warmte staat je systeem af aan zijn omgeving, je kamer. Of je systeem dat doet middels luchtkoeling of waterkoeling maakt daarbij niet uit, de hoeveelheid warmte, uit gedrukt in Joules, die je kamer per seconde instromen zijn hetzelfde. Dit zorgt er voor dat je kamer (lichtelijk) in temperatuur stijgt.

[Reactie gewijzigd door Thomas H op 23 juli 2024 18:20]

Dus als je CPU -100c is tijdens overklokken met LN2, terwijl de CPU 300W verbruikt, wordt je kamer kouder?
Nee maar dan praat je ook over -100 en niet meer over normale kamertemperaturen. Ik snap wat je bedoelt maar het ligt eraan hoe je het koelt.

Het punt is; Je kamer wordt warmer. De core wordt niet koeler maar de clocks en voltages kunnen wel lager gaan maar dan wordt mijn kamer wel warmer. Met een stock koeler.

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 18:20]

Sorry maar ik probeer je duidelijk te maken dat de temperatuur van de core niks te maken heeft met hoe warm je kamer wordt. Zoals watercoolertje zegt is dit maar afhankelijk van één ding en dat is hoeveel W het component gebruikt (even los van efficiëntie-verliezen). De koeling bepaald alleen hoe effectief de warmte verplaatst wordt.

[Reactie gewijzigd door DoubleYouPee op 23 juli 2024 18:20]

Het antwoord daarop is wel degelijk JA, tegen jouw intuïtie in.

De praktische reden daarvoor is dat LN2 koeling niet heel erg efficient is. Het kookt al bij -195 graden. Er komt daardoor een heleboel gasvormig stikstof vrij bij -194 graden. En jouw kamer is vermoedelijk een behoorlijk stuk warmer dan dat.

Natuurlijk, die GPU produceert nog steeds 300W aan warmte, maar die wordt gebruikt om LN2 uit de fles om te zetten in N2 in je kamer.
Misschien op korte termijn ja of in de buurt van de LN2, maar netto gezien zal de kamer wel moeten opwarmen. Lijkt me niet dat volledige 300W wordt omgezet van LN2 naar N2.
Maar goed het is inderdaad niet helemaal een goed voorbeeld, daarom dat ik ook eerst over waterkoeling begon. Ik probeerde alleen maar duidelijk te maken dat de temperatuur van de chip niet direct iets te maken heeft de opwarming van je kamer

[Reactie gewijzigd door DoubleYouPee op 23 juli 2024 18:20]

Het hele idee van LN2 koeling is juist dat je de warmteproductie dumpt in de verdampingswarmte van LN2. Dus ja, je verdampt inderdaad zo'n 55 mol LN2 per seconde.
De rest heb je niet gelezen of snap je het niet? Dan moet je je er misschien even in verdiepen want het werkt echt zo en niet hoe heter de kaart hoe heter de kamer ;)
Ik vraag me ook af of er niet iets mis is met de kaart.

de review hier(eerste op youtube)
https://www.youtube.com/watch?v=mWhARJLvdiw

Hierbij is er nauwelijks verschil in de kaart. Ik geloof niet dat er zo'n groot verschil in zit.

Overigens de term "budget" is niet terecht. Bugetkaarten kosten 250-300 euro. (hooguit).
Lijkt er wel op ja, helemaal inzakken naar 1600Mhz is echt niet normaal..
WOW, de Gigabyte GeForce RTX 3080 Aorus Xtreme is vier PCI sloten (in je kast) groot, dat is toch wel heel extreem zeg, je kan dan meerdere PCI-E sloten niet meer gebruiken op je MB, en toch clocked de MSI GeForce RTX 3080 Gaming X Trio 10G hoger, en id de temperatuur van de Zotac GeForce RTX 3080 Trinity OC het beste met 58c, wat ontzettend laag is voor een heatsink/luchtgekoelde grafische kaart, meeste watergekoelde grafische kaarten zijn hoger, die van mij zat altijd rond de 63c met een 120mm radiator, nu hoger 73c omdat ik hem moet schoonmaken.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 18:20]

Bijzonder die prestaties van de Ventus.
Zouden ze de thermal pasta vergeten zijn?
Want nog leuker is dat ze de koeling een - geven terwijl de kaart een 325 watt tdp op 72 graden weet te houden. Deze score voor de ventus slaat echt helemaal nergens op. De ventus is op z'n minst 100 tot 150 euro goedkoper dan de Supreme en de Gigabyte. Er wordt totaal niet naar de prijs gekeken. Je krijgt dus voor een flinke smak geld meer een kaart die ~5 graden koeler is en wat meer RGB heeft.
Ligt het aan mij of is in iedergeval eigenlijk de MSI RTX Trio de winnaar? Buiten de 4 extra getesten kaarten om nu? Want: meer fps, koeler, hogere kloksnelheid, minder verbruik, lagere kosten, en al wel verkrijgbaar geweest?

pricewatch: MSI GeForce RTX 3080 Gaming X Trio 10G

[Reactie gewijzigd door Kecin op 23 juli 2024 18:20]

De MSI 3080 Suprim X heb ik dus die is ook verkrijgbaar geweest ;)

Wat je niet op noemt is dual bios / hogere powerlimit. En dat de fps/kloksnelheid (en daardoor ook een beetje de koeler/verbruik) mede bepaald wordt door geluk of pech van de chip.
hahaha wat? Alles wat je zegt klopt niet. tweakers reviewd gewoon niet goed, die pakken maar 1 kaart en vergelijken die met 1 andere kaart. Dat is totaal onzinnig aangezien alles afhankelijk is van het specifieke stukje silicoon dat in die kaart zit.

Als je het gemiddelde van 100 suprims vergelijkt met 100 trio's, dan pas heeft het nut.

De suprim heeft betere kwaliteit componenten dus is de betere kaart, die gafriekjes waar iedereen hier zo blij van wordt zeggen gewoon helemaal niets.
Uit of de box vond ik de suprim ook erg tegenvallen maar dat heeft ook te maken met standaard BIOS instellingen. Ik merkte al snel dat de kaart terug gaat klokken bij bepaalde temperaturen en als ik de fan op 100% zet dan ging de kaart een stukje harder.

Op een blauwe zomerdag wil ik nog best wel een keertje de Gaming X Trio BIOS op de kaart zetten en dan kijken wat er dan gebeurt. De chips zijn volgens mij identiek dus dan is de BIOS een grote factor.

Met een beetje tweaken en aanpassen kun je veel meer uit deze kaart halen. En met meer wattage ruimte met de suprim ipv de MSI trio is dat dan de beter kaart mbt overclocken. Weet niet of het de bedoeling is maar hier zijn mijn ervaringen mbt undervolten en overclocken van de suprim: productreview: MSI GeForce RTX 3080 Suprim X 10G review door ZelianGuy

Mijn mening is dat als je een top kaart wilt out of the box dan is de gaming X trio de kaart voor je. Vind je het leuk om met kaarten te tweaken en dergelijke? Haal dan de Suprim.

[Reactie gewijzigd door ZelianGuy op 23 juli 2024 18:20]

Het testen van de kloksnelheid op 1 kaart per stuk is redelijk nutteloos te noemen. De ene msi suprim x klokt op 2100mhz en de andere op 1950.. Dat is puur afhankelijk van het stukje silicoon van die specifieke kaart.
Wat wel belangrijk is dat de Suprim X en Gigabyte Xtreme erg veel verder overclocken trouwens. Zelf heb ik 2130Mhz (+6.5% tegenover de stock limit van 2000Mhz) op 1.093V stabiel en +1250Mhz op memory (+13%), dit scored zo'n 8% boven de Gaming X Trio in Timespy & Port Royale.

Natuurlijk zal dit ook op de Suprim X mogelijk zijn, maar op kaarten met 320W power limits (zoals de Trinity) & Kaarten met 370W power limits (Zoals FE en de meest AIB kaarten), zal dit nooit lukken.
mijn voorspelling:

Net zoals bij voorgaande generaties worden deze kaarten nooit meer goedkoper. Enkel duurder. Iedereen die wacht op betere prijzen zal zeer lang moeten wachten. (tot de 40x0 generatie)

De vraag is ongekend. Er is geen enkele reden om de prijs af te vlakken. Niemand zal dat dan ook doen. De beschikbaarheid lijkt niet beter te worden, de huidige crypto prijzen zijn weer belachelijk en veel webshops zijn gestopt met het aannemen van pre orders (megekko voorop) en da's ze niet kwalijk te nemen.

Want... De hoeveelheid geld die er mee gemoeid is, is ongekend. De risico's voor de webshops dus ook, iedere pre order moeten ze bestellen en betalen bij de distributeur. vervolgens loop je een forse kans dat de order wordt gecanceld of terug gestuurd (geen geld, wel kosten en ongewenste B-voorraad) want iedereen heeft meerdere kaarten bij meerdere webshops in pre-order staan. Pre-orderen is dus gokken geworden voor zowel de consument als de webshop.
En niemand wil gokken met de toekomst van zijn/haar bedrijf.

Cash flow was altijd al een dingetje in deze business maar wordt nu bij deze aantallen en deze prijzen een gigantisch risico wat niemand meer wil of kan nemen. Ook distributeurs zullen zijn begonnen met zich achter de oren te krabben, daar zijn de aantallen nog groter en de marges nog lager dan bij webshops...

Ik begin mij meer en meer te realiseren dat mijn huidige build een unicorn aan het worden is. (5900x, EVGA 3080 XC3 ultra, Lian Li Unifans) (5900x day 1 pre order op alternate.nl, 3080 stom geluk op amazon.nl, Lian Li stom geluk op maxict.nl)
En de 3080 master/Xtreme vind ik vrij luidruchtig. Idle blijft de kaart ook wel warm..onder de 40 graden gaat de fan uit.

De fancurve is heel vreemd..als je een spelletje speelt gaat de fan snel richting de 60/70 procent.
De kaart maakt dan veel lawaai...maar hij blijft wel koel....

Van mij mag de kaart wel iets warmer worden en de fans iets minder hard draaien.

-edit-

Ik heb de bios switch niet gebruikt. Gewoon standaard gelaten.

[Reactie gewijzigd door Aggressor op 23 juli 2024 18:20]

Van mij mag de kaart wel iets warmer worden en de fans iets minder hard draaien.
Dat is toch via software te regelen?
Ja klopt...maar het is ook fijn dat het meteen goed werkt.
Hoef je geen tool te installeren enz..
Maar het is wel een optie ja.
Ja klopt...maar het is ook fijn dat het meteen goed werkt.
Fijn, maar moet geen minpunt zijn.

Zelf heb ik een compacte, krachtige PC kast met een aardig grote en energieslurpende videokaart erin. Als ik uit zou moeten gaan van de standaard BIOS waarden, dan is dat ding bij het gebruik van een beetje rekenkracht een stofzuiger. Via SpeedFan is het een eitje om de gewenste temperaturen en zelfs gehele fan curves in te stellen, en niet enkel voor de videokaart.

Met zelfbouw PC's loont het om hier wat tijd en aandacht te besteden. En al kan je zelf een PC bouwen, dan kan je ook zelf wat fannetjes instellen. ;)

[Reactie gewijzigd door The Zep Man op 23 juli 2024 18:20]

Ik vind het wel een minpunt. Ik heb de fan ook geprobeerd op bv 40 procent te laten draaien...maar dan wordt ie weer heet.
Dan is het niet heel effectief.

Ik denk dat je voor het geld beter een andere kunt kopen.
Met de bios switch op silent scheelt het geluid een hoop en wordt de kaart ongeveer 70c.
370Watt verstoken in het era van 5nm? nah thanks
Staat hier op 430 watt (suprim x) komt bijna op 70 graden, niet echt iets om me druk over te maken ;)
Tja, PC hardware wordt wel steeds efficiënter, maar ook steeds veel krachtiger.. Je kan niet steeds zoveel meer prestaties verwachten met hetzelfde stroomverbruik.. De vraag naar meer prestaties is nou eenmaal groter dan de vraag naar lagere stroomverbruik.. Bijna niemand koopt een tragere videokaart alleen maar omdat die minder verbruikt..
1000 euro en dit dan een budgetkaart noemen :+
Je bent de 2de die er over valt en het verbaast me dat 2 tweakers het begrip context blijkbaar niet bekend zijn.

Het zijn geen budgetkaarten het zijn budgetkaarten van de 3080...
En ook hier is de term instap beter. Ik vind dat er, ondanks de duidelijke context, best wat preciezer geformuleerd mag worden in artikelen. En dat punt mag ook best door meerdere mensen gemaakt worden wat mij betreft ;)
En ook hier is de term instap beter.
Dat is net zo afhankelijk van de context, want een 3080 is net zo goed geen instapkaart zonder in context te plaatsen
klopt, net zoals een basis 3080 of een ander alternatief. budget heeft nu eenmaal een bepaalde connotatie en ik ben het er mee eens dat de naam budget 3080 ongelukkig is en dat het aangekaart word.

Ik denk niet dat er lezers zijn die niet begrijpen uit de context dat het om relatief "goedkope" of "budget" kaarten gaat. Oh well.. ;)
Maar er bestaan geen budgetkaarten van de 3080 dat is het probleem. Er bestaan goedkopere varianten maar dit is bij lange na geen budgetkaart.

Een andere benaming zou zeker wel beter in de context passen. Dit is net zoiets kroms als een budget Ferrari, die bestaan ook niet...
Er bestaan goedkopere varianten maar dit is bij lange na geen budgetkaart.
Is de discussie niet net hetzelfde als "goedkopere" vs "minder dure" ? ;)
Een andere benaming zou zeker wel beter in de context passen. Dit is net zoiets kroms als een budget Ferrari, die bestaan ook niet...
Dan delen we daar niet dezelfde mening over, ik vind dat als iets gespecificeerd is binnen een bepaalde groep (goedkoop of duur) je binnen die groep kan spreken over een budgetmodel en een duur model. Oftewel wat budget is wordt bepaald door de context, in dit geval dure kaarten met daarbinnen dus goedkopere en dus budgetmodellen :)

[Reactie gewijzigd door watercoolertje op 23 juli 2024 18:20]

849 voor de Zotac ;)
Budget wil ik het niet noemen nee.

Op dit item kan niet meer gereageerd worden.