Door Reinoud Dik

Redacteur

Achtmaal GeForce RTX 4070 Super Round-up

Twee zijn superder, een is superst

23-04-2024 • 06:00

141

Singlepage-opmaak

Conclusie

Met de RTX 4070 Super biedt Nvidia, vergeleken met de RTX 4070 toen deze werd uitgebracht, meer prestaties voor hetzelfde prijspunt. Hoewel de adviesprijs van 669 euro dus door de Super is overgenomen van de normale 4070, zijn de deelnemers aan deze round-up juist erg uiteenlopend geprijsd op het moment van schrijven. Drie modellen uit deze round-up sprongen er voor ons in positieve zin uit: de Inno3D Twin X2, de Gigabyte Eagle OC en de ASUS TUF Gaming OC.

ASUS TUF Gaming OC: koste wat het kost de beste

De RTX 4070 Super met de beste koeler is de TUF Gaming OC van ASUS. Deze kaart bleef tijdens onze test opmerkelijk stil en wist de gpu ondertussen ook nog het best koel te houden. Gezien de afmetingen van deze kaart is dat ook niet zo vreemd. Helaas is de prijs van de TUF Gaming OC disproportioneel hoog. Wil je veel waar voor je geld, dan kun je beter verder kijken. Wil je daarentegen de allerstilste RTX 4070 Super met de beste koeler? Dan kom je bij de ASUS TUF Gaming OC uit. Wij voorzien de kaart van een Ultimate-award, met daarbij de opmerking dat je voor hetzelfde bedrag ook een RTX 4070 Ti kunt krijgen.

Gigabyte Eagle OC: prima in balans

De Eagle OC van Gigabyte presteert goed met nipt de hoogste gemiddelde prestaties van alle vergeleken RTX 4070 Supers. Ook heeft de kaart met het 'quiet bios' een nette geluidsproductie en past hij door zijn 'normale' afmetingen in meer behuizingen dan de ASUS TUF Gaming OC. Op het moment van schrijven is de Eagle OC 86 euro goedkoper dan de ASUS. Dan is de iets hogere geluidsproductie van de Eagle een klein offer, vooral omdat het nog steeds een vrij stille kaart is. De Gigabyte Eagle OC krijgt vanwege zijn goede prijs-prestatieverhouding een Excellent-award.

Inno3D Twin X2: opnieuw erg goed voor een scherpe prijs

De RTX 4070 Twin X2 kwam uit onze eerdere round-up al goed naar voren en met de Super-variant slaagt Inno3D hier opnieuw in. De kaart presteert en koelt goed, vooral als je de erg bescheiden afmetingen van het kaartje in je achterhoofd houdt. De Twin X2 produceert iets meer geluid dan Gigabytes Eagle OC en onder volle belasting kun je de kaart dus eerder horen. Daar staat tegenover dat de prijs van de Inno3D Twin X2 met 609 euro ook 46 euro onder die van de Eagle OC ligt. De gpu op de Twin X2 bleef tijdens onze test ook iets koeler dan op de Eagle OC en zodoende blijft er ruimte over om het fanprofiel aan te passen en de kaart zo stiller te maken. Wie op zoek is naar een compacte en scherp geprijsde RTX 4070 Super, kan met de Inno3D Twin X2 prima uit de voeten. De Inno3D RTX 4070 Super Twin X2 krijgt daarom een Excellent-award.

Reacties (141)

141
139
60
7
0
50
Wijzig sortering
Sorry, maar begrijp ik het goed dat er nu geen enkelijke noise-normalized test meer in zit?

De koelefficientie grafiek was voor mij de enige grafiek in zo'n hele roundup die zin heeft; niemand boeit het iets dat de ene kaart 1fps sneller is dan de andere, het verschil in koelers is waar het om draait!

Nu moet ik heen en weer klikken tussen de geluid en temperatuur grafiek, alsof het weer 20 jaar geleden is. Beetje jammer vind ik dit.

[Reactie gewijzigd door Razortek op 22 juli 2024 13:17]

Op basis van feedback op eerdere round-ups van videokaarten bleek er weinig waardering voor en interesse in de koelerefficiëntietests te zijn. Lezers hebben vaak aangegeven de geteste kaarten in een round-up direct te willen vergelijken met andere gpu's. In onze vorige testmethode was dat niet mogelijk maar nu dus wel. Het testen van deze gameprestaties kost wel extra tijd. Het goed uitvoeren van de koelerefficiëntietest kostte ondertussen al heel veel tijd, en met de ontvangen feedback hebben we besloten om de videokaarten op standaardinstellingen te testen en zo de gehele test beter in balans te brengen. Zo bieden we hopelijk de meest praktische en nuttige informatie voor lezers die een specifieke videokaart op het oog hebben, en kunnen we regelmatiger round-ups van videokaarten publiceren.

[Reactie gewijzigd door Trygve op 22 juli 2024 13:17]

De praktische en nuttige informatie is juist hetgeen dat jullie uniek en anders doen, want nu is Tweakers dus nog minder waard om te bezoeken tegenover een GamersNexus, een TPU, een HardwareUnboxed, want jullie doen al exact dezelfde tests, maar met minder kaarten!

Noise normalized gaf aan welke kaarten de betere koeling hadden, en was een van de grootste voordelen bij advies geven en krijgen, want je kon hard zeggen 'ja, ze zijn allemaal even snel, maar DEZE is de beste qua koeling en stilte'. Dat is juist een typetje advies dat het publiek dat jullie nu willen bedienen, gaat missen (mensen die helemaal niks geven om al die fancy tests).

De noise normalized was een unieke Tweakers test die bezoekers trok. Veel ervan zien misschien geen nut in die test, maar de mensen die advies geven, juist wel!
Techpowerup doet dat nu dus (https://www.techpowerup.c...rtx-4070-super-ex/38.html), dus een USP zou het sowieso niet zijn. Al hebben zij vrijwel alleen maar kaarten die hier niet getest zijn.

Maar welke informatie biedt een genormaliseerd overzicht dan die relevant is voor de koopoverweging, die de informatie in deze test niet biedt?

Ik wil gewoon weten welke kaart in de praktijk het stilste is en dat wordt hier netjes getest en getoond. Ga je het normaliseren, dan krijg je te weten welke kaart in theorie het stilste zou kunnen zijn, mits de werkelijke curve ook effectief is afgesteld.

Wellicht wanneer je dus fanatiek aan het overklokken gaat, of handmatig fancurves wilt optimaliseren, dan is de info natuurlijk wel van meerwaarde. Of zie ik iets over het hoofd?
Ten eerste is het feit dat 1 andere site het doet niet een reden om het geen USP te noemen. Behalve dat Tweakers dan de enige NL site was die het deed, was het ook een goede tegenhanger van TPU op dat vlak, want 1 bron moet je niet vertrouwen.

De informatie die een genormaliseerde test biedt, is ten eerste, welke koeling is het efficienst, en dus, welke kaart is het beste in een hete omgeving (daar maakt die koeling wel uit).

Welke kun je het stilst zetten?
Welke van die kaarten zal het best omgaan met stof en hitte (zijn meestal de koudere versies bij noise normalized)?

En nog een legio andere vragen die niet zo obvious zijn. Je kunt goed koelen door veel geluid te maken, of koelen door een goed blok, of koelen door een combi van de twee, en al die informatie is veel relevanter dan het 13 in een dozijn aan standaard tests die we toch al hebben.
Ik mis ook vooral het verschil in de power limit van de verschillende kaarten. Hierdoor krijg je weldegelijke grotere OC mogelijkheden, wat volgens mij juist interessant is voor het Tweakers publiek. Sommige kaarten kunnen namelijk niet boven de 100% Power Limit in MSI afterburner...
Efficiëntie is letterlijk de enige manier om de prestatie van de koeloplossing te testen...
Anders is het gewoon hoe agressief ze de fans hebben gezet, zonder noise normalizing.

Dat moet elke tester weten, ongeacht feedback. Dit is gewoon veel minder werk op deze manier...

Wellicht vervangen met de volstrekt nutteloze stroomverbruik test, omdat je daar letterlijk niets anders als OC en ASIC kwaliteit test. Weinig daarvan zal van het bord zelf relevant zijn.

[Reactie gewijzigd door Majestici op 22 juli 2024 13:17]

Wellicht vervangen met de volstrekt nutteloze stroomverbruik test, omdat je daar letterlijk niets anders als OC en ASIC kwaliteit test.
Stroomverbruik vind ik zelf een van de meest belangrijke tests. Prioriteiten verschillen.
Zoals je zelf zegt, geeft dat dus ook de bouwkwaliteit van de kaart aan. Waarom is het nutteloos dat je kan zien dat je kaart minder snel de geest zal geven door temperature stress?
Dat zeg ik juist niet. Het geeft helemaal niets aan van de kaart, omdat er een heel groot verschil in ASIC kwaliteit zit. Je kunt 6 ASUS TUF kaarten testen en 6 verschillende stroomverbruik resultaten krijgen. Dan zou je alle AIB's moeten testen met een soortgelijk ASIC kwaliteit, of in ieder geval kleine range erop.

Daarbij kiezen sommige AIB's ook voor een wat stillere kaart, terwijl ze hem warmer laten worden. Dat heeft ook weer een impact op stroomverbruik. Immers elke 10 graden warmer verbruikt een kaart 5% meer. Dus moet je ook nog eens alle videokaarten op dezelfde temperatuur testen.

ZIe hier het verschil met mijn 6800XT. Zitten een setje noctua fans op, dus ik kan de GPU echt frosty maken.

https://i.imgur.com/OPnzIcn.png (72 graden, 196W)
https://i.imgur.com/TvKFr0r.png (42 graden, 171W)

Zoveel factoren die invloed daarop hebben, waar ze niet voor beheren. En blijkbaar hun publiek ook niets van afweet...No offense.

[Reactie gewijzigd door Majestici op 22 juli 2024 13:17]

Oh wat oprecht zonde om te lezen dit.

Prestatieverschillen is voor mij vaak gerommel in de marge wat in deze review ook bevestigd wordt, en voor vergelijking met andere 3Dchips kan men mijn inziens toch prima terecht in de algemene review van de 4070S?
Ik neem aan dat de meeste mensen namelijk eerst de keuze maken voor een specifieke chip en dan pas gaan kijken naar wel merk/uitvoering ze dan willen.

Nu is het soms niet meer mogelijk te weten wat nu precies de beste koeler is, ia dat koeler A welke 30dB geluid produceert en de chip op 65c houdt of koeler B welke 36dB doet bij 59 graden? Het enige wat ik persoonlijk dan wil weten is hoe luid wordt koeler B als je de chip ook 65c laat worden? Of natuurlijk andersom door te normaliseren op geluidsdsdruk.

Ik snap dat sommige mensen er dan blijkbaar anders naar kijken maar dit maakt voor mij de reviews een stuk minder nuttig.
Ik zie 64% verschil in idle stroomverbruik, 7% verschil in in-game verbruik, geluidsproductie van 21 dB naar 37 dB en een maximale temperatuur die loopt van 57 tot 72. Mijns inziens doe je dan ook de review tekort door te impliceren dat de huidige vergelijking geen zin heeft en er net zo goed de algemene review erbij kan pakken.

Verder mis ik even waarom je een kaart 65 graden zou willen laten worden. Waar is deze temperatuur op gebaseerd? Is het niet zinniger om de snelste kaart die geen herrie maakt te kiezen? Dat kan namelijk op basis van de gepresenteerde gegevens.
Ik schrijf dan ook niet dat helemaal geen zin heeft, maar dat er naar mijn mening nu de keuze is gemaakt de voor mij meest waardevolle test te schrappen om meer gamebenchmarks toe te voegen welke voor mij niet veel toevoegen bij het uitzoeken van een specifiek 4070S model.
Verder mis ik even waarom je een kaart 65 graden zou willen laten worden. Waar is deze temperatuur op gebaseerd? Is het niet zinniger om de snelste kaart die geen herrie maakt te kiezen? Dat kan namelijk op basis van de gepresenteerde gegevens.
Het gaat mij erom dat je om echt een goede uitspraak te kunnen doen over welke koeler nu het beste koelt je één van de twee variabelen daarin, tempratuur of geluidsproductie, normaliseert op één waarde. 65 graden is daarin slechts een voorbeeld overigens. Wat Tweakers in het verleden deed was de geluidsproductie normaliseren op 35dB en dan weet je direct welke koeler de warmte het beste kan afvoeren en in potentie dus ook stilste kan zijn.

Natuurlijk kun je in dit voorbeeld nog steeds de conclusie trekken dat de ASUS Tuf bij far de beste koeler heeft omdat deze zowel qua geluidsproductie als tempraturen in de top mee doet, maar deze is wel erg duur (voor dat geld heb je een 4070Ti). Maar neem nu eens de twee met Excellent bekroonde opties: Inno3D Twin X2 vs Gigabyte Eagle OC:
Inno3D: 65 graden bij 34.0 dB
Gigabyte Eagle: 67 graden bij 30.9dB

Welke koeler is nu dan precies beter/efficiënter? De een blijft wat koeler, de ander is wat stiller. Ik vind het dus oprecht heel erg jammer dat deze test verwijderd is gezien ik voor al mijn kaarten altijd zelf de fancurves instel met hoe ik het prettig vind. Nu is het oordeel tussen deze twee kaarten vooral een conclusie op basis van wie het fanprofiel het beste voor elkaar heeft, wat voor een grote groep wie het dingen inbouwen en niks aanpassen natuurlijk ook een valide conclusie is maar dat neemt toch niet weg dat ik het persoonlijke enorm jammer mag vinden?
7% verschil in in-game verbruik
Stroomverbruik is grotendeels ook een stukje siliconlottery, alhoewel het ook deels iets is waar de fabrikant invloed op heeft (betere bins inkopen bij Nvidia, een efficiëntere VRM). Ik heb al een paar keer een kaart gekocht welke qua klokfrequentie simpelweg minder hoog ging dan de reviews van o.a. Tweakers (maar wel minimaal de geadverteerde clocks dus prima verder), dat komt omdat de spanning/frequentiecurve per kaart uniek is aan de hand van hoe goed de chip is. Mijn kaart was dan blijkbaar net wat minder, had meer spanning nodig met een hoger stroomverbruik tot gevolg waardoor dezelfde clocks als de reviews ook niet gehaald werden binnen de powerlimit.
Dat laatste is meteen het echte probleem. Je kunt wel de beste koeler hebben, maar je hebt geen volledige invloed over de bios van de kaart. Dus als die een ongunstige curve hanteert voor de boost snelheden ben je alsnog niet per definitie beter uit. De tijd dat je zelf alles kon controleren ligt helaas al jaren achter ons. Tegenwoordig overclocken de kaarten zichzelf en is hetgeen je zelf kunt doen primair beperkt tot zorgen voor een degelijke koeling zodat je in de praktijk zo vaak mogelijk je maximale clock behaald.

Gebruik jij een matx kast of sfx? Want als ik kijk naar mijn 4070 Eagle OC dan heeft die officieel een core clock van 2505 MHz. Echter ik draai ondertussen al minuten lang MSI Kombustor en ik haal stabiel 2835 Mhz (97% gpu usage, 53c, 1531 RPM, 70% fanspeed, 140W power usage). Dat ligt 300 Mhz boven geadverteerd. Dit heb ik eigenlijk bij de RTX 2070 en GTX 1070 ook zo ervaren. Dit is stock en niet in power mode.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:17]

Wordt bijvoorbeeld coil whine ook meegenomen in de tests?

Ik heb op basis van de vorige roundup een TUF RTX4070 gebruikt, en in combinatie met mijn oude systeem was dat perfect. (Vooral CPU limited, dus lekker alle pracht en praal vol open, en dan rond de 80 fps).

In het nieuwe systeem kan de RTX4070 flink zijn benen strekken, met framerates rond de 150-160. Echter, dan is de coil whine echt niet te harden. Dus superstille fans, maar een luid gepiep afhankelijk in toonhoogte van de framerate. Voor nu dus maar gecapt op 90 fps.
Coilwhine kan je niet op testen want dat is vooral een nogal exemplarisch fenomeen zover ik weet..

Ik heb er zelf gelukkig nog nooit last van gehad in de bijna 30 jaar dat ik nu met PC hardware bezig ben.. Inmiddels ben ik ook al 50+, dus zal hogere tonen sowieso minder goed horen.. Wat dat betreft een voordeel.. Maar fans etc die piepen of aanlopen hoor ik wel degelijk, al een paar keer een videokaart RMA gestuurd daarvoor..
Zelfs eens een goedkope trust muis gehad met coilwhine, iedere keer als ie erplaatst werd kwam er een hoge pieptoon uit.
Over de laatste 25 jaar af en toe een GPU gehad met coilwhine.
Zo gauw je het hoort, kun je het niet meer on-horen.
Mijn tosti apparaat heeft coil whine.
Ik heb voor mijn eerste keer pc gebouwd en ervaar meteen coil whine zo heftig dat ik meteen terug gestuurd hebt. Kaart was een 4080 SUPER FE, ik hoor wel hoge tonen miscchien mijn jonge leeftijd. ik hoor meteen zelfs als mijn tv op volume 30 staat. Ik durf hierdoor geen TUF kaart te nemen omdat asus hiermee bekend is. Inderdaad is vaak ook samenhang met je voeding,
Coil whine kan AFAIK per model verschillen en is ook afhankelijk van andere factoren waaronder de gebruikte PSU. Dus dat lijkt mij geen zinnige toevoeging. Niet omdat het niet belangrijk is, maar puur omdat het niet betrouwbaar te reproduceren is. Stel de MSI kaart heeft enorme coilwhine in de test. Dan kan het prima zijn dat jij die kaart in je systeem zet en je geen coil whine ervaart. Puur omdat je een andere PSU gebruikt. Ook prima mogelijk is dat jij hetzelfde model bestelt en dit model meer of minder coil whine heeft. Je kan daar pas wat over zeggen wanneer je zou gaan testen met 10 dezelfde kaarten en meerdere PSU combinaties. Maar dat is voor tweakers geen doen.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:17]

Oef, coil whine. Echt een super irritant probleem met hedendaagse GPU's. Hoewel ik zeer tevreden was over de prestaties van mijn RX 6700 XT heb ik hem toch weggedaan door de verschrikkelijk aanwezige coil whine. Nu het NVIDIA kamp geprobeerd met een Gigabyte, zelfde probleem. Uiteindelijk bij de Inno 3D 4070 Super uitgekomen en die kaart is zo goed als stil. Ik heb veel liever meer fangeluid dan die verschrikkelijke coil whine.

Dat gezegd hebbende, het lijkt me moeilijk testen maar de Inno's staan volgens mij wel aardig goed bekend als kaarten met relatief weinig coil whine.
Op basis van de huidige resultaten kan toch een extra punten plotje gemaakt worden? Vermogen/( temperatuursverschil chipset - omgeving) vs geluidsproductie?

Volgens mij geeft dat al een aardige indicatie van de efficiëntie? Ik vermoed dat je zo behoorlijk nauwkeurig bepaalde type koelers op verschillende kaarten kan identificeren.

Daarnaast is dit natuurlijk een ingewikkelde vergelijking, want door als Tweaker met voltages en spanningen te spelen, kan het vermogen al snel beïnvloed worden en wordt het plaatje heel complex.

Ik vind het verstandig om het bij de stock vergelijking te houden.
Volstaat de huidige figuur niet? Je ziet hoeveel herrie de kaarten maken. Er zijn duidelijk stille kaarten;

ASUS TUF Gaming OC 21,2
MSI Gaming X Slim 24,1
ASUS TUF Gaming OC (Performance Mode) 25,5
Gigabyte Aero OC 25,8

De rest maakt een stuk meer herrie. Een pagina eerder zie je wat de performance van elke kaart is. Daar zie je dat er 0.3% verschil zit tussen de Gigabyte Eagle OC, Gigabyte Aero OC en ASUS TUF Gaming OC. In een wereld zonder prijzen en overige (al dan niet bestaande) kwaliteitsaspecten maakt dat de Asus de beste kaart. Wat zou je dan nog meer willen weten? Wat gaat die normalisatie grafiek toevoegen?

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:17]

De hoeveelheid herrie die een kaart maakt is natuurlijk afhankelijk van hoe warm een kaart wordt.

Met een customfanprofiel kan je zowat elke kaart muisstil maken; hij wordt dan slechts wat warmer.

De stiltegrafiek is imo dan ook vaak gewoon een grafiek van hoe stil ze de fancurve hebben ingesteld; soms gaat stilte ten kostte van warmte, en vice-versa.

Een genormaliseerde grafiek laat zien hoe goed de koeler van die kaarten echt is, zonder dat de fancurve daar al te veel invloed op heeft; als je al de kaarten op 40dB test kan je 1:1 makkelijk vergelijken welk koelsysteem daadwerkelijk het beste is.

In deze review zie je overigens wel dat de TUF het gewoon goed doet, want hij staat zowel bij de stilte als bij de temperatuur aan de onderkant.
Maar daar moet je nu dus elke keer twee grafieken voor bekijken, en wat quik mafs doen om te kijken of (bijvoorbeeld) 5c meer maar 3db lager het waard is. In de genormaliseerde grafieken van vroeger kon je dat in 1 oogopslag zien.

EDIT: Het stukje boven Koelefficientie van een vorige roundup legt het eigenlijk beter uit dan ik dat kan doen: review: Radeon RX 7800 XT - ASRock, ASUS, Gigabyte, PowerColor, Sapphire & XFX

[Reactie gewijzigd door Razortek op 22 juli 2024 13:17]

Oké ik denk dat ik je begrijp. Je ziet inderdaad welke kaart op die snelheid efficiënt is.

Wel vind ik de vertaalslag naar een aankoop beslissing lastig. Als ik die grafiek zie loopt het tussen de 39 en 52 graden celcius dat zijn geen problematische temperaturen. Problematische temperaturen zijn pas aan de orde bij 80, 90 of soms zelfs meer dan 100 graden celcius. Dus dan verwacht ik dat al deze kaarten stil te krijgen zijn met een target van 80c.

Echter wordt het complex door boost algoritmes. De boost clocks zijn niet instelbaar en die beginnen boven x graden te dalen. Bijvoorbeeld gaat de boel al lager vanaf 60c. Tegelijkertijd heeft zo'n daling van 100-200 Mhz dan weer nauwelijks impact op de fps. Dus eindstand is het allemaal een hoop gedoe om dan zelf de optimale mix te bepalen.

Persoonlijk kijk ik naar de stilste kaart en nog snel genoeg is. Hetgeen ik prima uit de grafieken van deze review kan halen. Ik ga uberhaupt geen custom fan profiel instellen, tenzij ik me echt zou storen. Maar tegenwoordig hoor je de videokaarten uberhaupt niet of nauwelijks tijdens het gamen wanneer je een stille kast gebruikt (Be Quiet DB900).
3x een Gigabyte kaart, en niet eens de ROG OC (Asus) of Suprim X (MSI) varianten van deze kaart...
Oftewel: de beste kaarten van de concurrentie doen niet mee.

Wordt dit artikel gesponsord door Gigabyte?

[Reactie gewijzigd door Roy81NL op 22 juli 2024 13:17]

Voor deze round-up koos ASUS er zelf voor om een TUF OC op te sturen en geen RoG. Wat betreft de Suprim X van de RTX 4070 Super mag je die dan even aanwijzen, want volgens MSI zelf bestaat die kaart niet ;) En nee, redactionele artikelen zijn nooit gesponsord.
Feit:
Van Asus is hun meest high end uitvoering afwezig, en is slechts 1 keer vertegenwoordigd.

Feit:
Van MSI is hun meest high end uitvoering afwezig, en is slechts 1 keer vertegenwoordigd.

Feit:
Gigabyte heeft als enig merk in de test 3 uitvoeringen die meedoen.

Hoe vind je dan zelf dat het gaat met de objectiviteit van je test als je echt kritisch bent?

Hetzelfde als Checo Perez de beste formule 1 coureur van het moment noemen omdat je de resultaten van Max negeert in je evaluatie... Je beinvloedt de uitkomst door een beroerde/onevenwichtige selectie. Niet doen wat makkelijk is (opportunistisch), maar wat juist is.
Ik begrijp dat je zelf een flink budget hebt. De volgende keer mogen ze jou dus om die kaarten vragen?
Ik zou zelf nooit kiezen voor een windforce of eagle van Gigabyte of de X2/3 van INNO3d. Voor deze koeloplossingen gebruiken Gigabyte en INNO3D glijlagers. Vooral op de lange termijn en op de manier waarop de meesten van ons ze installeren (horizontaal), slijten glijlagers sneller.

Met name vanwege die glijlagers begrijp ik niet dat tweakers het product excellent vindt. Ongeacht hoe goed de resultaten bij een nieuw product zijn. Je betaalt flink voor deze kaarten en dan mag er ook voor betere lagers gekozen worden door fabrikanten.
Sleeve bearings gaan in principe 30-40k uur mee, een setje fans ter vervanging kost waarschijnlijk niet meer dan een tientje. Als je 10k uur gamen haalt op een gpu vind ik dat al knap.

Het ligt er maar net aan waar je op wilt focussen.
Sleeve bearings gaan in principe 30-40k uur mee
Volgens mij is die 30-40k wel gebaseerd op verticaal gebruikt zoals bij een CPU koeler en de meest gebruikelijke casefan posities (voor en achter). Een videokaart hangt 9/10 keer horizontaal in de kast en dan gaan juist sleeve bearings veel sneller achteruit dan de opgegeven mtbf.

Ik heb het zelf met de goedkoopste lijn van MSI nu toch al twee keer gehad dan de ventilatoren duidelijk begonnen te snerpen/ratelen. Veelal net buiten garantie maar ruim voor die dingen ook maar in de buurt van 30K aan draaiuren zaten.
een setje fans ter vervanging kost waarschijnlijk niet meer dan een tientje
Bij de meeste kaarten moet daarvoor wel het gehele ding uit elkaar incl. het repasten van de GPU die en het opnieuw aanbrengen van de juiste thermalpads. Niet iedereen is daar comfortabel bij, gezien dat toch wel net even iets lastiger is dan een PC in elkaar zitten. Of wat te denken van mensen wie een systeem laten assembleren door een webshop en later zelf de videokaart vervangen.
Het is een ruwe aanname dat de fans van jouw MSI kaart toonaangevend zijn. Ik ben het er verder mee eens dat de fans in principe lang genoeg moeten meegaan tov de levensduur van een grafischekaart.
Failure is dat ze niet meer draaien. Dat betekend niet dat ze geen bijgeluiden krijgen over-tijd.
Ik heb 10 jaar oude Noctua koelers liggen, die nog steeds klinken als nieuw....

You get what you pay for.
Tegen dat de lagers een probleem vormen, is de kaart volgens mij al verouderd, zeker met fan stop in idle. Het hangt allemaal af van gebruik en snelheid, maar zo'n lager moet toch wel makkelijk enkele 10000'en uren meegaan.
Tja, wat noem je verouderd? Er zijn nog zat mensen die goed gamen op n 980 ti. Niet iedereen wil steeds het nieuwste van het nieuwste.

[Reactie gewijzigd door DieMitchell op 22 juli 2024 13:17]

Goed voorbeeld! De 980 ti is gelanceerd in 2015 en kan je momenteel dus max 9 jaar in je bezit hebben. Stel dat je lager maar een levensduur van 10000 uur heeft (pessimistisch scenario), dan heb je er iedere dag tussen 2015 en vandaag 3 uur mee kunnen gamen, ervan uitgaand dat de kaart fan stop heeft in idle. Dat lijkt me toch gewoon prima? En als je er dan nog wat mee verder wil gaan, vervang je toch gewoon de fans, die vind je voor geen geld op Aliexpress.
Toevallig heb ik van Gigabyte een 1070 en van INNO3d een 3070 Twin X2.
De Gigabtye zit sinds 2017 in een HTPC en de 3070 sinds 2021 in een workstation.
Vooralsnog heb ik geen verandering in prestaties of geluidstoename kunnen waarnemen(N=1), maar ik zal er op gaan letten.
Staan je computers 24/7 aan of in hoeverre gemiddeld?
Heb sinds een maand een Inno3D X2 4070 Super, wel ergens gelezen dat je de fans kan verwisselen, dat zou dit probleem op de langere termijn kunnen oplossen (snelle google levert op dat dit een paar tientjes kost). Overigens was mijn vorige GPU een 750ti, dus ik doe vrij extreem lang met een kaart.
Mijn ''nieuwe'' PC gebouwd had nog geen nieuwe GPU vanwege coronaprijzen, maar vlak voor aanschaf zag ik in de BIOS dat ie al in 04-2021 is gebouwd; tijd gaat snel.
Ja precies, en wat slijt sneller 24/7 aan of dagelijks aan/uit (opwarmen/afkoelen) al weet ik niet of opwarmen en afkoelen veel impact heeft op lager slijtage. En dan heb jee nog de variabele dat de fans heel veel idle of zelfs niet draaien. Workstation dagelijks een paar uur. HTPC paar uur per week voornamelijk in het weekend.

Nu hier ik langer over nadenk (en geheel offtopic)
Geen enkele videokaart die ik privé heb gebruikt, heeft fan/lager problemen vertoond.

* Diamond Monster 3D Z100 3dfx Banshee 12MB
* STB Voodoo3 2000 16MB
* MSI GeForce4 Ti 4200 128MB
* Club 3D Radeon X800XL 256MB
* MSI Radeon 9800 XT 256MB
* Sapphire Radeon X1950XT 256MB
* MSI GeForce 8800GT OC 512MB
* Sapphire Radeon HD 7950 Boost 3GB
* Asus Strix GTX 970 OC, 4GB
* Gigabyte GTX 1070 Windforce OC, 8GB
* Inno3d GeForce RTX 3070 Twin X2 Oc, 8GB

Nu ik er extra lang bij stilsta, geen enkele videokaart heeft überhaupt problemen vertoond. De X1950XT had wel onwijs veel coilwhine :)

[Reactie gewijzigd door seez op 22 juli 2024 13:17]

heb je een voorbeeld van kaarten uit het verleden waar dit een probleem was?
Het is wel enige kaart wat minder kans op coil whine, alleen daarom gigabyte always.
Ik heb weleens de fans moeten vervangen van een videokaart, maar dat was een Asus MSI. De fans waren overigens niet eens heel duur (5 euro oid) en ook niet lastig te vervangen. Wat mij betreft een non-issue.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:17]

Ik zou zelf nooit kiezen voor een windforce of eagle van Gigabyte of de X2/3 van INNO3d. Voor deze koeloplossingen gebruiken Gigabyte en INNO3D glijlagers. Vooral op de lange termijn en op de manier waarop de meesten van ons ze installeren (horizontaal), slijten glijlagers sneller.

Met name vanwege die glijlagers begrijp ik niet dat tweakers het product excellent vindt. Ongeacht hoe goed de resultaten bij een nieuw product zijn. Je betaalt flink voor deze kaarten en dan mag er ook voor betere lagers gekozen worden door fabrikanten.
Ik weet van de glijlagers van Inno3D dat je als ze geluid gaan maken de fan zo uit elkaar kan pakken en er een drupje olie in kan gooien en dan kan je weer een paar duizend uur. Ze gaan geluid maken zodra het lager droog begint te lopen.
Wat is die performance mode precies? Is dat de performance van de chip, of van de ventilator, of allebei, of iets anders?
Ik heb een Asus 4070 Dual en daar heb je de keuze tussen Performance & Quiet. Bij Performance gebruik je de default instellingen zoals in de specificaties staan. Bij Quiet wordt de power rond 90% gezet, daardoor heb je minder warmte, waardoor de ventilatoren wat minder snel moeten draaien om de temperatuur op peil te houden en dus ook minder geluid. Ik heb mijn systeem gebouwd rond stilte, dus ik gebruik die quiet instelling, zeer tevreden van.
Als je er iets in verdiept kun je best of both worlds hebben :)

Undervolt je GPU iets en je kunt binnen hetzelfde powerbudget vaak meer MHz dan de performance setting halen.

Zo haalt mijn 3070 ruim 300MHz meer met 10~20watt minder dan stock :+
Ik heb dezelfde kaart. En met dezelfde insteek.
Ik heb alleen geen gebruik gemaakt van de default profielen.
Met undervolten heb ik max vermogen 170W en bij games die geen gebruik maken van rt cores draai ik rond de 140W. En dat met ongeveer 3% performance loss tov stock. Resultaat is een fluisterstille kaart. Want de koeling is uitgelegd op 220W tdp.
Dit is de eerste keer dat ik zoiets uitgebreid gedaan heb en ik ben er wel 2 uurtjes mee bezig geweest om het te optimaliseren, maar als je 100% performance op 80-85% verbruik voldoende vindt, is het alleen even googlen hoe het werkt en heb je dit met 5 minuten uitgevoerd.
Performance, gaat om een paar procent richting performance of koeling/stilte, niet echt super interessant voor de doorsnee gebruiker.

Ben sinds een maand eigenaar van een Inno 4070 super, maar ik game weinig (dus ook bewust deze kaart gekozen); hij maakt inderdaad iets van geluid, maar dit valt reuze mee (beter hoorbaar vanaf 50cm tot max 70cm, daarna valt het al aardig snel weg in achtergrondgeluid, zelfs in een stil huis). Aangezien ik weinig game en nauwelijks nieuwe titels in bezit heb, nog niet tegen de grenzen aangelopen (1440p 144hz monitor).
Zonder een hele PC vs Console- war te starten;
De prijs van zo'n GPU alleen al is 50% duurder dan een console, stel dat je hier een mooi systeem omheen bouwt.
Wat is nou de grafische winst t.o.v. een console die je hieruit haalt?
Op verschillende vergelijkings videos zie ik nooit echt een verschil. Maar wellicht dat ik het 'native vs non-native' 4K gewoon niet zie op de filmpjes.

Ik snap dat FPS natuurlijk een dik voordeel is voor de PC qua smoothness.

Oprechte interesse.
Wat is nou de grafische winst t.o.v. een console die je hieruit haalt?
De consoles draaien feitelijk ongeveer op een RX 6700XT, dus vergelijk daar mee zou ik zeggen.
Op verschillende vergelijkings videos zie ik nooit echt een verschil. Maar wellicht dat ik het 'native vs non-native' 4K gewoon niet zie op de filmpjes.
Omdat je vergelijkingsvideo's zit te kijken op oa youtube, dat ontzettend veel compressie toepast op de video's die je uploadt en kijkt. Ook als je een youtube video op de 4K60 preset kunt zetten zijn de beelden die je zit te bekijken VER van wat er daadwerkelijk op je scherm verschijnt tijdens het gamen. Dat maakt vergelijken lastig. Ik ben met je eens dat je in dat soort video's heel moeilijk verschil kunt zien, maar dat is een beperking van de stream. Zo kun je ook geen speakers vergelijken via internet, want je luistert niet naar de speaker, maar naar een opname van de speaker die je over jouw speaker afspeelt. Het werkt met beeld hetzelfde als met geluid.

Algemener:
Console's met PC's vergelijken, dus eigenlijk de PC vs Console war, is ontzettend nutteloos. Die discussie slaat in de basis gewoon nergens op. Ja, ze kunnen allebei gamen en ja het zijn dezelfde spellen, maar daar houden de vergelijkingen gewoon op. Je zit in een compleet ander ecosysteem qua game stores, multiplayer en de verdere functionaliteit van de apparaten verschilt ook enorm.

9/10 keer heb je door dat soort verschillen je keuze allang gemaakt voordat je bij price/performance aankomt. Je bent altijd op zoek naar 1 van de 2 en zeer zelden heeft iemand daadwerkelijk een usecase die beide apparaten zouden kunnen vervullen.

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:17]

Omdat je vergelijkingsvideo's zit te kijken op oa youtube, dat ontzettend veel compressie toepast op de video's die je uploadt en kijkt.
Dat is dus exact mijn vraag aan de mensen die wellicht beide hebben, zie je grafisch een verschil tussen de bv. de PS5 versie en PC. Afgezien van 'meetbaar' FPS.
Je zit in een compleet ander ecosysteem qua game stores, multiplayer en de verdere functionaliteit van de apparaten verschilt ook enorm
Zeker, en daarin zit ook de meerwaarde in PC hardware. Je bent gewoon gelimiteerd aan wat Sony/ Microsoft aanbied op het platform.

De reden dat ik dit topic aanhaal is omdat ik voornamelijk (ook nu nog) op een console heb gegamed, de redenen waren altijd: kosten, gemak en vrienden op het platform.
Naarmate ik ouder ben geworden zijn kosten niet zozeer meer een probleem en zie ik steeds minder vrienden gamen, en game ik zelf voornamelijk solo games (Horizon, TLOU, Elden Ring etc.). Daardoor zie ik mezelf nog weleens switchen van een console naar een PC.
Daar moet je verder nog bij optellen dat je bij een console ook nog aan de verplichte jaarlijkse online abbonementen vasthangt. Minimaal 72 Euro per jaar is ook geen kattenpis.
@Cid Highwind Absoluut, al heb ikg een PS+ abbonnement meer, ik speel eigenlijk geen online games en voor sommigen heb je niet eens PS+ nodig.

@sdk1985 Om aan te sluiten op jouw verhaal, dit is exact wat ik nu altijd hoor. PC gamers zeggen: 60 (of 120) FPS is ongelooflijk lekker en kan een console niet met dezelfde pracht en praal.
Met de huidige generatie consoles is het kiezen tussen quality mode op 30 fps, of een (sub-)1080p resolutie bij 60 fps. Met een GPU als de 4070 Super speel je grof gezegd met het kwaliteitsniveau van de 30-fps modus van consoles, maar dan met 60 fps of meer.

En dan waarschijnlijk zelfs nog met settings die op een console helemaal niet mogelijk zijn, al is dat ook vaak geneuzel in de marge. In feite heb je je vraag dus zelf al beantwoord.

Daar moet je verder nog bij optellen dat je bij een console ook nog aan de verplichte jaarlijkse online abbonementen vasthangt. Minimaal 72 Euro per jaar is ook geen kattenpis. Als je je GPU een consolegeneratie in gebruik hebt, is PC gaming ineens zo duur niet meer. Bekijk je het over 3 jaar tijd, heb je natuurlijk nog de restwaarde van je GPU mee te nemen in het kostenplaatje.
Een Series X en zelfs een PS5 hebben bij lange na niet het GPU vermogen van een 4070, laat staan een 4070 Super.
Een standaard 4070 heeft significant meer VRAM bandbreedte en als je puur kijkt naar Teraflops dan doet een 4070 ruim het dubbele van een PS5 die weer net iets sneller is dan een Series X.

Dus, nee, waar een PS5 of een Series X wellicht vast zitten in een 30FPS regime om het er grafisch nog behoorlijk uit te laten zien, een 4070 draait diezelfde settings makkelijk op 60+ FPS. De 4070S doet daar nog een schepje bovenop.
Ik denk dat je insteek wellicht in de verkeerde richting zit. Ik heb zowel een RTX 4070 als een Xbox Series X als een laptop met een RTX 3050.

Xbox Series X: Ik vind Forza Horizon hartstikke mooi op mijn tv (LG Oled), maar met de standaard preset speelt het niet prettig. Ik vermoed dat dit 30 fps is, ik merk het in ieder geval meteen. Ik heb de game dus op de performance preset moeten zetten, anders vond ik het niet fijn spelen. Sterker nog, ik had dan moeite met behalen van de wekelijkse race tegen de unbeatable AI. Dus het heeft dan ook invloed op je game prestaties.

RTX 4070: Op standaard instellingen (ultra) prima speelbare framerates op 3440x1440. Geen klachten.

RTX 3050 laptop: Op standaard instellingen 100-120 fps en dus prima speelbaar maar grafisch een stuk minder dan zowel de 4070 als de Xbox.

Dus waarom geef je veel geld uit aan een GPU? Omdat je anders moet kiezen tussen grafische kwaliteit en FPS. Een duurdere videokaart stelt je instaat om geen keuze te hoeven maken.
FPS idd en een volledig ander ecosysteem. In mijn geval heb ik mijn PC aan mijn SIM rig hangen en die is daar exclusief voor. Triple screens op PS5/XBOX gaat immers niet.
Zit toch wel een redelijk grote fout in de video. De Asus TUF wordt vergeleken met een 4070 TI.
Met als argument dat de TI 16GB videogeheugen heeft. De TI heeft helemaal geen 16GB geheugen maar 12, net als de 4070 Super. Eerst de TI Super heeft 16GB videogheugen.
Ik heb de video nog niet gezien, alleen het artikel gelezen, dus het argument in de video kan verkeerd zijn, maar de vergelijking klopt wel.

De Asus TUF, eigenlijk elke 4070 super, heeft dezelfde architectuur(chip, geheugenbus en hoeveelheid ram) en zit in de prijsrange van de goedkoopste 4070 Ti's; de MSI Ventus is er al voor €699. Ti Supers(oftewel 4080 Lites want zelfde chip, geheugen en geheugenbus als de 4080) hebben zoals gezegd de architektuur van een 4080 en zijn alweer een pak duurder en beginnen bij €848.

edit: Gezien en hij maakt gewoon een vergissing, en zegt per ongeluk 16GB ipv 12GB.

[Reactie gewijzigd door ABD op 22 juli 2024 13:17]

Geen 4K testen? Of kijk ik er over heen met mijn duffe hoofd?
Op hogere resoluties gaan de verschillen alleen maar kleiner worden.
Het gaat niet om de verschillen, maar om wat voor fps je op die resolutie kunt verwachten? Is het nog speelbaar, etc.
Dat kun je uit de algemene review halen. Dit gaat over de varianten.
Ik kan van alles, maar Tweakers had het ook makkelijk kunnen maken voor me door op zijn minst een verwijzing naar dat artikel in dit artikel te plaatsen.
Persoonlijk net een dikke 7900GRE gekocht, geen spijt van!
Veel betere keus, slimme zet.
700+ euro voor een 12GB kaart. En dan gaan zitten janken op het Horizon Forbidden West steam forum dat je game stottert.

Waarom blijven mensen hun producten kopen, het is me echt een compleet raadsel.
Mis toch echt weer een Msi ( vul andere fabrikanten in ) heb dit al eens aangegeven toen werd er gezegt: we krijgen geen kaarten van msi voor een review....menig youtuber kocht dan een kaart en teste alsnog...hebben jullie hier geen budget voor of is er een andere reden dat jullie voor een review geen kaarten aanschaffen of zelfs lenen? Ben erg benieuwd naar een e.v.t reactie van tweakers.

Op dit item kan niet meer gereageerd worden.