Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Tomas Hochstenbach

Redacteur componenten

Vier nieuwe RTX 3080's Round-up

Twee topmodellen en twee budgetkaarten

Conclusie

Het viertal nieuwkomers brengt ons op een totaal van elf geteste GeForce RTX 3080-videokaarten. Hoewel we in onze RTX 3080-review best positief waren over Nvidia's flink verbeterde Founders Edition, is het veel fabrikanten toch gelukt om deze referentiekaart te overtreffen. Zes van de tien custom kaarten zijn sneller en álle custom kaarten zijn voorzien van een betere koeler, al scheelt het in het geval van de MSI Ventus 3X slechts één graad in onze test op een gestandaardiseerde geluidsproductie.

De topmodellen: MSI Suprim X vs. Gigabyte Aorus Xtreme

Van de twee dure topmodellen kiest MSI de veiligste route, met wat kleine aanpassingen ten opzichte van de Gaming X Trio, zoals de toevoeging van dual-bios en een metalen backplate. Dat de Suprim op elk punt goed tot zeer goed scoort, valt vooral te danken aan hoe goed het 'mainstream'-model al was. Opvallend is dat zowel de MSI Suprim als de Gigabyte Aorus Xtreme niet per se sneller is dan eerder geteste modellen. Vanaf een bepaald punt maakt het blijkbaar niet zo gek veel meer uit wat een fabrikant als kloksnelheid instelt, maar hangt de daadwerkelijke snelheid vooral af van hoeveel geluk je hebt met de chipkwaliteit en wat Nvidia's automatische boostalgoritme daarmee doet.

Gigabyte gooit het over een andere boeg. De koeler is weliswaar letterlijk de dikste van allemaal, maar de koelprestaties zijn niet buitengewoon. Vooral de extra toevoegingen maken de Aorus Xtreme uniek, zoals het grote aantal monitoraansluitingen en het aanpasbare lcd'tje dat in de videokaart is geïntegreerd. Als je toch handmatig gaat overklokken en het bijgeleverde robotbeeldje kunt missen, kun je overigens eenvoudig wat geld besparen door voor de Aorus Master te gaan, die verder identiek is.

MSI Ventus 3X en Zotac Trinity OC: voor een toekomst zonder tekorten

Het is lastig om nu al ons oordeel te vellen over de twee budgetkaarten, want die moeten het uiteindelijk vooral van hun scherpere prijs gaan hebben. Op dit moment is daar uiteraard nog geen sprake van. Hoe dan ook is de MSI Ventus 3X een buitenbeentje. Als enige is hij echt merkbaar langzamer dan de andere RTX 3080's. Daar staat tegenover dat hij out-of-the-box erg stil is, wat daar natuurlijk ook deels het resultaat van is. (zie update). Deze kaart moet uiteindelijk ongeveer net zoveel gaan kosten als de Founders Edition en maakt pijnlijk duidelijk dat het voor videokaartfabrikanten eigenlijk niet te doen is om voor die adviesprijs een net zo goede videokaart te fabriceren. Ook de Zotac Trinity OC is zeker niet de snelste. Hoewel de koeler best oké presteert, is hij standaard agressief afgesteld om de kaart erg koel te houden.

Dat maakt dat we de awards voor de nieuw geteste videokaarten beperken tot de topmodellen. Daaruit komt eigenlijk geen afgetekende winnaar. De MSI Suprim X biedt het mooiste totaalpakket, maar onderscheidt zich niet bijzonder veel van bijvoorbeeld de eigen Gaming X Trio. De Gigabyte Aorus Xtreme doet dat veel meer met allerlei unieke extra's, maar heeft wel een beduidend mindere koeler dan de MSI. Kortom, het is maar net waar jij persoonlijk de meeste waarde aan hecht bij aanschaf van een topmodel; beide komen in aanmerking voor een Ultimate-award.

Update 8-1: MSI heeft ons na publicatie van dit artikel laten weten dat het vermoedt dat ons sample van de RTX 3080 Ventus 3X niet goed functioneert. We stellen de fabrikant in de gelegenheid om een nieuw sample op te sturen. Zodra we dit nieuwe sample hebben ontvangen en getest, zullen we dit artikel bijwerken.
Update 19-1: Inmiddels hebben we een tweede sample getest. In de grafieken in deze review vind je nu de resultaten van beide exemplaren terug; 'sample 2' betreft het nieuwe exemplaar. Het voornaamste verschil is dat de fans veel harder draaien, op 1700-1900rpm tegenover nog geen 1100rpm bij de eerder geteste kaart. Daardoor is het de op één na luidste RTX 3080 die we hebben getest. Het prestatieverschil met de andere RTX 3080's is veel kleiner geworden; de gemiddelde kloksnelheid ligt nu nog 3,1% onder die van de Founders Edition, waar dat bij de eerdere test nog 11,7% was. Een zekere oorzaak waarom het eerder geteste sample niet goed functioneerde, hebben we samen met MSI niet kunnen vinden.
We hebben de score voor 'Prestaties' in onderstaande tabel naar aanleiding van de nieuwe resultaten aangepast van drie minnen naar één min, gelijk aan de Zotac Trinity OC.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Reacties (238)

-12380238+1116+227+31Ongemodereerd100
Wijzig sortering
Hoewel ik de insteek snap klinkt "budgetkaart" en "700 euro" ietwat vreemd.
Bovendien zullen ze vast niet voor onder de 900 euro te krijgen zijn voorlopig, als ze al verkrijgbaar zijn.
Inderdaad. Vorige week waren 3070 kaarten 'middenklasse' en nu hebben we het over 3080 budgetkaarten.

Alles is relatief, maar ik vind het ook vreemde woordkeuzes in de huidige markt.

Misschien een beetje muggenzifterij, maar Ik snap waarom sommige mensen zich hieraan storen. Het komt een beetje elitair over, alsof Tweakers/consument en de reviewers in verschillende werelden leven

[Reactie gewijzigd door DavidZnay op 7 januari 2021 10:16]

In 2004 koste de NVidia GeForce 6800 zo'n 250 Euro bij uitgave:
https://www.extremetech.c...eperformance-king/2?print

Met inflatie correctie zou dat dus zo 330.- euro zijn.

Dat was toen een top-op-the-line kaart. Echter zie je duidelijk dat kaarten in de tussentijd een stuk duurder zijn geworden en het is mijn nog niet helemaal duidelijk waarom. R&D kosten? Hogere productiekosten? Meer vraag dan aanbod? Hebzucht?
Ik snap niet zo goed de noodzaak om kaarten van x jaar geleden met kaarten van nu te vergelijken. De prestaties zijn toch ook anders? Waarom kan de prijs niet anders zijn? Tenzij jij persoonlijk veel inzicht hebt in hoe het onderzoek en de productie van de kaarten van nu zich verhoudt tot die van toen, zie ik maar één logische conclusie van zo'n vergelijking: ze verschillen. Als grafische kaarten nou niet doorontwikkeld waren maar wel duurder waren geworden, dan snap ik het, maar in de huidige situatie...

Uiteindelijk is het natuurlijk ook een kwestie van vraag. Als er mensen zijn die meer willen betalen voor betere prestaties en Nvidia en AMD kunnen dat leveren, dan doen ze dat. Als iedereen nu tevreden zou zijn met CoD op 90Hz 1080p (ik heb geen idee of dit een goed voorbeeld is) had niemand de monsterkaarten nodig die er nu zijn. Maw, wie zegt dat je de topkaarten van toen niet moet vergelijken met de midrange (of zelfs budget) van nu? Die presteren nog steeds veel beter en zijn, met inflatiecorrectie, goedkoper.
Ik snap niet zo goed de noodzaak om kaarten van x jaar geleden met kaarten van nu te vergelijken. De prestaties zijn toch ook anders? Waarom kan de prijs niet anders zijn?
Vreemde redenatie, natuurlijk zijn de prestaties anders, er zit immers jaren tussen

het gaat er natuurlijk om dat de topkaarten van toen veel goedkoper waren dan de topkaarten van nu, en top kaarten kan je met topkaarten vergelijken, zie niet in hoe je dat niet kan snappen.

Dat er genoeg redenen zijn waarom het nu duurder is geloof ik graag, maar het is alsnog interessant om te weten waarom ze nu zoveel duurder zijn
Sorry, maar waarom zou je topkaarten met topkaarten moeten kunnen vergelijken? De "top" is volkomen arbitrair; dat hangt er maar net van af hoe scherp je je GPU's gaat binnen, welke yields je bereid bent te accepteren, en hoeveel GDDR of HBM er gebruikt wordt.

Een betere maat is te kijken naar de statistiek. De mediaan is een bekende, robuuste maat. Als je alle GPU shipments van NVidia sorteert op performance (ca. 10 miljoen per kwartaal), welke GPU komt dan op plek 5 miljoen? Dat zal waarschijnlijk dit kwartaal een 1660 worden. De prijs van die 1660 is goed te vergelijken met de mediaan uit 2015 of 2010.
Wat ik zeg is dat er geen enkele reden is om aan te nemen dat je topkaarten van nu met topkaarten van toen kunt vergelijken. Alleen omdat het het beste van het beste is? Dat is alsof je zegt dat je de prijs van een kolentrein stoommachine kunt vergelijken met die van de generator van een kernonderzeeër (of een warp drive, als die zou bestaan) omdat ze op enig moment de beste techniek waren om ons voort te drijven. Hoewel ze vergelijkbare dingen doen en op enig moment de beste techniek waren die daarvoor beschikbaar was, maakt niet dat ze wat betreft prijs vergelijkbaar moeten zijn.
Ik snap niet zo goed de noodzaak om kaarten van x jaar geleden met kaarten van nu te vergelijken. De prestaties zijn toch ook anders? Waarom kan de prijs niet anders zijn? Tenzij jij persoonlijk veel inzicht hebt in hoe het onderzoek en de productie van de kaarten van nu zich verhoudt tot die van toen, zie ik maar één logische conclusie van zo'n vergelijking: ze verschillen. Als grafische kaarten nou niet doorontwikkeld waren maar wel duurder waren geworden, dan snap ik het, maar in de huidige situatie...
Spelcomputers zijn ook veel sneller geworden met veel betere gpu tov vorige generatie. Waarom zijn die dan nauwelijks duurder geworden?
Omdat het verdienmodel van een console-bouwer niet de verkoop van de console is maar de verkoop van software (spellen) en abbo's op diensten.
Ik zeg niet dat het anders moet zijn, ik zeg dat er geen reden is om aan te nemen dat ze vergelijkbaar zijn (belangrijk verschil). Daarbij zijn spelcomputers nog steeds in essentie hetzelfde product met dezelfde doelgroep, dat is bij (high-end) videokaarten niet inherent waar (kun je aannemen, maar is dan een aanname). Het kan prima zijn dat de range van videokaarten simpelweg groter is geworden en dat je dus high-end van vroeger zou moeten vergelijken met (bijvoorbeeld) midrange van nu. Datzelfde zie je een beetje bij smartphones. Er is een categorie smartphones boven de high-end smartphones gekomen, die de doelgroep high-end smartphonekopers heeft gesplitst. Ikzelf kocht vroeger high-end smartphones, maar ik zie mij van z'n levensdagen niet een smartphone van € 1300,-- of meer kopen. Die telefoons (superhighend nu en highend vroeger) hebben niet dezelfde doelgroep en het heeft dus ook weinig zin die te vergelijken. Het kan best dat er iets vergelijkbaars heeft plaatsgevonden bij videokaarten. Een 3090 of 3080 heeft (misschien) niet dezelfde doelgroep als de highend kaarten van vroeger (hoe graag die doelgroep van vroeger dat misschien zou willen).

Overigens denk ik dat je zelfs normale, niet-super, highend smartphones van nu niet moet vergelijken met die van vroeger wbt prijs. Er is ook gewoon een probleem met de verwachting van de consument dat er ieder jaar verbetering moet zijn voor dezelfde prijs. Dat is gewoon niet altijd mogelijk. Op een gegeven moment is het op.
Ik vind het wel opvallend als 750 euro budget wordt genoemd. De prijsklasse van budget, mid range, en high end schuift al een tijdje flink omhoog. Met budget gaming denk ik aan een amd apu, niet een kaart van 750 euro. Dat is een beetje alsof je een iphone 12 pro met de minste opslag budget noemt, de goedkoopste iPhone SE een budget keuze noemen vind ik al niet kloppen.
Je moet dan wel de correcte SKU nemen. De 6800GS was niet de top-of-the-line kaart toen. Dat was de 6800 Ultra, en die had in 2004 een adviesprijs van 525EUR, na inflatie geeft dat ongeveer 725EUR..
Tussen een 6800GS en een 6800Ultra zaten nog wel enkele kaarten zoals een 6800GT (de kaart die ik toen zelf had in mijn Athlon 64 3700 build, wat een tijden!).
de Ultra zou ik ook eerder vergelijken met de NVidia 3090... en die heeft een adviesprijs van 1500.-
Ja en nee.. Vroeger waren er ook al x900 NVidia GPU reeksen. Enkel bij de 6000 reeks was er die niet. Wel was er in de generatie daarvoor, in de FX 5000 reeks, een 5900, FX 5900 XT en FX 5900 Ultra en zelfs een FX5950 Ultra.
In de 7000 generatie erna was er ook een hele resem aan 7900 en 7950 kaarten..
Maar de prijzen zijn nog steeds flink gestegen, ook als je inflatie correctie meeneemt. Kan dat komen omdat de innovatie gewoon is afgenomen? Moderne kaarten zijn veel groter, verbruiken meer etc. Lijkt dus een beetje dat ze extra performance ook deels moeten bereiken door gewoon grotere chips en meer verbruik ertegenaan te gooien, in plaats van een ontwerp die bij vergelijkbaar verbruik etc toch beter presteert?

Als ik naar die monsterkaarten als 3090 kijk, dan is daar voor mijn gevoel weinig verfijnd aan iig.

Laat ik het zo zeggen: ik had verwacht dat met de jaren door verbetering de omvang van componenten wat zou afnemen, of iig gelijk zou blijven. Veel is nu echter enorm groot. Dikke (water)koelers / fans, enorme videokaarten. Alleen opslag is echt kleiner geworden en gelukkig zijn ook veel dingen tegenwoordig wel geintegreerd op bijv het moederbord, waardoor er iig geen extra insteekkaarten nodig zijn. 1 moderne videokaart neemt echter al meer ruimte in dan vroeger een videokaart + geluidskaart + USB kaart oid.

Voelt soms een beetje als 1 stap vooruit, 2 stappen terug.
De prijzen zijn gestegen, omdat we meer willen betalen voor kaarten die meer presteren. Als je dat effect wil uitsluiten, en kijkt naar prijs voor constante prestaties, dan zie je dat een instapkaart als de 1030 voor een paar tientjes vergelijkbaar is met de 6800Ultra van 725EUR.

Met andere woorden, er is geen prijsinflatie, maar een verwachtingsinflatie. We verwachten 4K gaming voor HD-ready prijzen.
Maar dat vind ik geen reële vergelijking. Immers heeft een instapkaart van 2010 niet dezelfde prestaties als een instapkaart 2020. Echter betaalde je lange tijd wel vergelijkbare prijzen. Ik kijk gewoon naar marktsegment. Budget, mid-range, high-end, overdreven ;).
Ga je die prijzen tegen elkaar leggen, dan zie je gewoon enorme prijsstijgingen.

Vergelijken op gelijk blijvende prestaties vind ik maar raar. Bij veruit de meeste producten ga je er namelijk van uit dat de nieuwe beter / sneller / mooier dan de vorige versie is. Als versie 2 gelijk is aan versie 1, dan is er ook geen toegevoegde waarde en zal men ook geen reden zien over te stappen.

[Reactie gewijzigd door Sjekster op 7 januari 2021 21:41]

omdat we meer willen betalen? je praat voor je zelf zekers.
Wij willen helemaal niet meer betalen { hoe kom je daar bij ? }

De prijzen van NU zijn over de top...en kom niet met inflatie of andere onzin.
Waarom zouden wij zoveel/willen betalen?
Nvid bespeelt ons met deze ACHTELIJKE Prijzen.
Er zijn weldegelijk mensen die er grof meer geld voor neerleggen, vergis je daar niet in. Daar wordt op allerlei manieren grof misbruik van gemaakt (scalping bijv).
Het is ook gewoon een natuurkundig balans. Je hebt meer rekenkracht nodig voor de huidige grafische activiteiten. Meer rekenkracht staat meestal gelijk aan een hogere TDP (even chip innovaties buiten beschouwing gelaten). De warmte die vrijkomt moet het koelblok zien te overdragen aan de omgevingslucht en hier moet een bepaald koeloppervlak tegenover staan. Dus die TDP staat gewoon in verbinding met het koeloppervlak. Deze kan uiteraard een heel stuk kleiner door bijvoorbeeld koperen koelvinnen te gebruiken. (warmte weerstand is bijna 2x lager dan aluminium). Maar ik denk dat er niemand vrolijk wordt van de prijs als er een koperen koelblok onder de fans zit.
Zo lang deze manier van koelen de standaard is, is hier erg weinig aan te veranderen. De methodiek werkt, maar dit is al helemaal uitontwikkeld en dus weinig ruimte voor innovatie. nVidia heeft hier kleine innovaties willen toepassen met een kleinere PCB en een kleiner koelblok maar dit resulteert weer in hogere temperaturen (zie in bovenstaande review). Je zet in op het een, maar moet toeleggen op het ander.
Een GPU doet nu ook heel veel meer, niet alleen op gebied van gewoon puur renderen. Maar ook zaken als compute, shader processors, ray tracing processors etc. De performance jumps bij GPU's zijn heel veel hoger dan CPU's geweest de laatste 15 jaar.
De 512KB ATI VGA Wonder 16 had een MSRP van $699 in 1988. Omgerekend naar vandaag is dat meer dan $1500. Dat scheelt dan toch weer voor jou :Y)
Lol, omdat ze het nummer 9 niet gebruikten, hadden ze die generatie geen equivalent van een echte topkaart.

Dus.......
En dan vergeet je nog een detail: De echte ultra high-end werd destijds bediend met SLI. Dat betekende dat men twee van dergelijke kaarten naast elkaar prikte om tot nog hogere framerates op vooral de hoogste resoluties te komen.

Qua prijs en verbruik kom je dan ineens wel een stuk dichter in de buurt bij de 3090 / 6900XT range. Er was zelfs een tijd dat er grafische kaarten uit werden gebracht die twee chips op één plank gesoldeerd hadden. Echter had de techniek ook nadelen, zaken als microstutter, de hoeveelheid performance winst en compatibiliteit in het algemeen waren toch wel een paar dingetjes. Toen is men eigenlijk weer teruggegaan naar het maken van nóg grotere chips om toch die markt te kunnen bedienen. Voila, het ultra high-end segment.

Het frappante is dat ik tegenwoordig struikel over reviews in dit segment, maar zelfs het hogere midrange niveau krijgt amper aandacht. Ten tijde van de 6800GT(X) keken velen verlekkerd naar deze kaart, maar was het volstrekt normaal om te accepteren dat een 6600GT "genoeg" was. Volgens mij laten we ons massaal gek maken met de (native)4K/60 hype.
Als je 2x 6800 Ultra in SLI pakt kom je qua verbruik niet eens in de buurt van één 3090/6900XT hoor ;) TDP van 2x 81 watt, dat is minder dan de TDP van één 3060TI (200watt) :+

Als je dan die 6600GT pakt word het helemaal leuk, de AGP versie heeft een TDP van 47 watt en verbruikt iets mee dan de PCIe versie door de bridge chip die nodig was.

Zelf heb ik de 6600GT PCIe gehad en dat was inderdaad een fenomenale kaart en die was goed genoeg. Hij koste me dan ook slechts +/-€200, een flinke bak minder dan de MRSP van €419 die de FE versie die niet te krijgen is kost. In de praktijk gaan 3060TI's voor €500 oid weg ?

Dus de conclusie dat zelfs mét de inflatie meegenomen kaarten duurder geworden en flink meer verbruiken zijn klopt gewoon, ook in het ultra high-end sement (uitgaande van een RTX 3090 á 1500$ MSRP en 350watt TDP).

Dat de midrange minder aandacht krijgt en de 6600GT goed genoeg was, tegenwoordig is de prijsklasse van de 6600GT geen midrange meer maar eerder instap game-kaarten. De fanatieke gamers/tweakers kopen de topkaarten toch nog wel ondanks de gestegen prijzen. Het gat €250~€500 is eigenlijk een beetje een 'saai' gebied geworden, te duur voor mensen op een budget (vaak de massa) en te traag voor de enthousiasteling. Puur mijn mening overigens :)


Om het enigszins te nuanceren de 6x00 serie is alweer 16 jaar oud, in de tijd daarna zijn de TDP's gestaag gestegen met enkele ups- en downs in architecturen maar in elk opzicht groter (breder, dikker) geworden, meer gaan verbruiken en duurder geworden maar echt nieuw of van deze tijd is het niet.
Miners kopen een flink deel op waardoor het aanbod lager is. De kaarten zijn een stuk complexer geworden (R&D inderdaad). De nodes worden steeds kleiner, wat schijnbaar ook meer 'defecte' kaarten oplevert.

Wat afgelopen jaar meegespeeld zou hebben is de pandemie. Veel fabrieken hebben de productie moeten verlagen. Daarbij komt dat veel mensen die thuiszitten nu geld aan andere dingen uitgeven, zoals pc's.

Het tekort komt ook doordat meerdere merken nu chips van dezelfde maker afnemen, TSMC. Hun 7nm chips zijn erg gewild bij bijvoorbeeld Apple (ook al zijn ze overgestapt op hun eigen chip). Daarnaast zijn dus Nvidia en AMD grote klanten van TSMC. En dat zijn nou net de twee grote spelers op de GPU markt. En zowel de Playstation 5 als de Xbox series X gebruiken hardware van AMD.

Kortom, de nieuwste GPU's, consoles en andere populaire hardware gebruiken chips van één en dezelfde maker, die de aanvraag niet aankan. Daardoor is er schaarste wat nog erger wordt door miners en scalpers die kaarten in grote hoeveelheden voor zichzelf opkopen. De productie kosten zijn hoger en de 7nm nodes hebben meer defecten dan voorgaande nodes.
Miners kopen al lang geen kaarten meer op, die zijn volledig over op ASICs.
En ASIC's worden niet door TSMC maar door Lay's en Croky gebakken?! 8)7
Het is ook niet alleen de duurste kaarten, alle videokaarten zijn extreem in prijs gestegen. In 2011 kocht ik een videokaart van €60 om Skyrim te spelen en dat werkte helemaal prima. Dit hele segment is nu weg. Nieuwe videokaarten beginnen bij €150 (de adviesprijs van de GTX 1650), waar je vroeger een midrange kaart voor kocht.
Niet helemaal. Ik heb laatst een 1030 gekocht vanwege ruimte gebrek. Voor 60 euro.

Helaas is daar nog geen vervanger voor gekomen. 1 slot 3030 Ofzo

Op die 1030 kan je nog aardig op gamen.
Het lijkt erop dat alles onder xx60 gestopt is bij Nvidia.
Dat is best jammer voor mensen die een enkel slot minimalistisch pc willen met toch een beetje power.

Anderen kant dan zal denkelijk de markt te klein zijn.
Een GT 1030 presteert nauwelijks beter dan de Vega iGPU's van Ryzen APU's en de Intel Xe iGPU in Tiger Lake (mobiel) of Rocket Lake (desktop, wanneer die uit komt), afhankelijk van hoe hard een game af hangt van geheugenbandbreedte, daar blijft een een GT 1030 met GDDR5 wel een heel stuk voor op een CPU met DDR4. Dus voor wie echt een minimalistische pc wil bouwen die een beetje kan gamen, hoeft een losse GPU ook niet echt meer.

Ik sta nog elke keer versteld hoeveel games ik kan spelen op de Ryzen 5 2400G in mijn HTPC, zolang ik tevreden ben met 1080p (of lager) 30 fps en low/medium settings (Xbox One S niveau ongeveer).

Helaas lijken de ontwikkelingen op iGPU gebied ook al een tijdje stil te staan, Intel heeft wel een nieuwe architectuur maar gaat AMD niet echt noemenswaardig voorbij en heeft op vlak van drivers nog werk. AMD brengt de nieuwe desktop APU's niet op de markt voor consumenten en als ik er al één zou willen, moet ik mijn B350 bord weg doen (die uitgebreide compatibiliteit van AM4 is ook een mythe...). Ik denk dat de volgende sprong vooruit pas weer gaat komen met nieuwe geheugentechnologie, DDR5 of eDRAM.
Alsnog is die 1030 beter. Kan je nagaan hoeveel beter een 3030 zou zijn. Ik snap dat nieuwe generatie cpu een betere igpu hebben, maar niet iedereen heeft een nieuwe cpu nodig. Neem bv een 6e generatie cpu die kan nog prima games en anderen taken doen, echter word die beperkt in games door de 530 igpu. Als je daar dus een 3030 naast zou prikken voor 60/80 euro dan kan je voor een klein bedrag toch weer jaren vooruit.
Dat de 1030 beter is, trek ik ook niet in twijfel maar ze zitten wel in elkaars buurt. Maar tussen de GP108 (GT 1030) en diens voorganger (GK208, zat als eerste in GT635) zat meer dan 4 jaar, de GT 1030 is van mei 2017 dus een GT 3030 dit jaar is dan niet uitgesloten. Er is voor laptops al een MX450 op basis van een wat uitgeklede TU117. Misschien is het er nu ook wel tijd voor ivm HDMI 2.1 (dan wel niet op basis van TU117), wat volgens mij meer een bestaansreden is voor dit soort GPU's, een GT 1030 is nu ook de goedkoopste manier om een PC geschikt te maken voor 4K televisies.

Zoals je zelf zegt, is de markt hiervoor waarschijnlijk heel klein, het gaat dan nog eens vooral over upgrades en niet over nieuwe systemen. Het gros van de markt zet een computer aan de kant als die outdated is en koopt een nieuwe, upgraden doet een minderheid. En voor AMD zou het geen goede strategie meer zijn om een GPU in dit segment uit te brengen, ze hebben liever dat je upgradet naar een nieuwe APU.
Ja dat is ook weer zo. Ben benieuwd wat de toekomst doet.
De grote winst met een dGPU is dat je de geheugenbus van je CPU ontlast doordat je een tweede geheugenbus toevoegt. Je gaat van DDR4 naar DDR4+GDDR5.

Maar praktisch gesproken, waarom zou NVidia geld steken in een 3030GT? AMD heeft alleen de RX550 in dat marrktsegment, en dat is niet significant beter dan een 1030.
Geld steken omdat er nog steeds een markt is. Daarnaast laten zien wat je kunt. Een kleine gpu maken die wel prestaties levert.

Misschien zouden ze zelfs een laptop gpu kunnen gebruiken. Die zijn ook low profile.
Welke markt is er dan voor de 3030, die niet bediend wordt door de 1030 of 1050? "Meer performance voor minder geld" is geen markt.

"Laten zien wat je kunt" is belangrijk, maar dat doe je met je halo-product. Dat is nu dus de 3090, niet een 3030.
Gelukkig zijn er ook iGPU's welke op 1080p redelijk wat games kunnen draaien.
https://gpu.userbenchmark...zen-iGPU/m283726vsm401440 (Dit is een cpu van 145,- euro in de pricewatch).

Edit: voorbeeld fps met iGPU: https://www.techspot.com/review/1878-amd-ryzen-3400g/

[Reactie gewijzigd door Krahk op 7 januari 2021 15:17]

Dat zal een combinatie van al die factoren zijn verwacht ik, Nvidia zal inderdaad meer aan R&D spenderen, productie kosten zal denk ik ook een flinke factor zijn, iedere verbeterde (kleinere) proces node gaan de prijs voor wafers flink omhoog, maar kijk ook naar het verschil in die size, de chip gebruikt in de 6800GS die je aanhaalt was 225mm2, de GA102 in de 3080 is 628mm2, dus niet alleen zijn de wafers voor nieuwere processen veel duurder, doordat de huidige chips veel groter zijn kan je er ook nog eens veel minder per wafer produceren. Dit laatste zal ook nog eens versterkt worden omdat de yields lager zijn naarmate de chip groter.

Daarnaast is de vraag nu enorm hoog en ja, fabrikanten als Nvidia en AMD willen ook de marges op hun hoge niveau houden (in het geval van Nvidia) of zijn bezig hun marges flink te vergroten de laatste jaren (AMD).

Al die zaken zorgen ervoor dat uiteindelijk de consument een stuk meer betaald voor de hardware dan 16 jaar geleden.
Ik heb vroeger voor mijn GeForce 4600 €499 betaald terwijl mijn 5950 uiteindelijk €599 heeft gekost. Dat waren de high-end kaarten van hun tijd.
Tja en mijn Asus GTX980 heb ik voor 480 gekocht toen hij net een maand uit was, toen was er van de TI nog geen sprake, die kwam pas 8 maanden later. De geforce 4 TI 4600 heb ik ook gehad, maar zat toch echt onder de 400 euro, toen deze nog niet zo lang te koop was.Dus het ligt er ook maar net aan waar jij hem koopt, en wat je er voor over hebt. de huidige prijzen liggen ver boven de adviesprijs, alleen maar door vraag en aanbod.

[Reactie gewijzigd door MrDrako op 7 januari 2021 11:19]

Het is ook niet even meer een paar chippies op een pcb die je nog bijna met de hand kan solderen. PCBs hebben meer lagen, stroomtoevoer is veel complexer, dit zijn bijna allemaal custom pcbs met doorontwikkelde koelers, vele heatpipes. Alleen aan de pcb + koeler productiekosten ben je al veel geld kwijt, daar komt R&D nog bovenop. Ook de chip is véél beter en zit ook vele jaren en miljoenen/miljarden aan R&D kosten in.

Andere kant is economisch, het aandeel mensen dat sinds 20 jaar geleden deze kaarten kan veroorloven is gewoon toegenomen en daarmee de vraag. Als men bereid is om €2000 neer te leggen voor een high end kaart, dan gaan ze dat vragen. Simple as that.
De doelgroep is misschien ook verandert je hebt miners, content creators (door meer toegang tot internet) supercomputers/servers met videokaarten etc. Allemaal hebben ze chips nodig om hun geld te verdienen en daar concurreren gamers mee
R&D kosten? Hogere productiekosten? Meer vraag dan aanbod? Hebzucht?
Dit alles samen.
Vergelijk het met de huizenprijzen. Geen aanbod maar hoge vraag = hogere prijzen.
4k en een refresh rate van 100 Mhz of meer. Een grafische kaart uit 2004 bestuurde maar 1 monitor en nu 3 of 4.
100 MHz? Ik hoop het niet :P
De Cpu in dat test systeem kostte 800+ dollar. Als die nou ook 2-300 dollar was dan hadden we het nog ergens over. Videokaarten zijn duurder geworden, ze lunnen veel meer. Cpu's goedkoper.

[Reactie gewijzigd door Xfade op 7 januari 2021 12:00]

de prijs wordt niet bepaald door wat iets kost maar door wat we ervoor willen betalen. Net als de huizen maarkt of auto's. Natuurlijk zullen de fabrikanten zeggen dat het debelopment costs zijn en dat is ook voor een deel zo, maar zeker niet alles. En een bedrijf moet ook reclame campagnes betalen en dergelijke.en salarissen zijn gestegen.etc. Maar bovenal zal men een kuntmatige hoge prijs willen creeeren.
Monopolieprijzen. AMD heeft een dik decennium enkel op de mid range kunnen spelen dus had nvidia vrij spel om eender welke prijs te vragen voor de high end, er was toch geen alternatief.
Op zich zijn er wel een aantal logische verklaringen voor. De markt is nu groter, dus kunnen er grotere investeringen gemaakt worden en de boel wordt gewoon complexer. Daarnaast kunnen ze gewoon meer vragen want A) mensen betalen het en B) door die enorme investeringen en complexiteit is de barrier of entry gewoon hoog voor concurrentie. Bedrijven zijn geen liefdadigheid en er is gewoon een groep pro-sumers die ook zijn geld verdiend met deze kaarten (of nogmaals: het gewoon betaald)

Daarnaast stijgt gewoon niet alles evenredig met inflatie. Dat kan niet. Dat is mss vervelend maar iets anders is weer goedkoper.
Dat lijkt mij sterk, ik betaalde zo'n 2 jaar daarvoor 250 euro voor een Ti4200 en daar zaten bij introductie nog twee modellen boven(Ti4400 en Ti4600).

Sowieso liggen de Amerikaanse prijzen altijd beduidend lager en zijn die zonder BTW.
Simpel: Het betreft hier geen liefdadigheidsinstelling of non-profit organisatie dus ze kunnen en mogen vragen wat ze willen ongeacht wat wij daar van vinden. De vraag naar hun producten is daarbij ook veel groter geworden dus ze kunnen het zich veroorloven en het maakt hun winstmarges enorm veel groter en dat is waarom de meeste bedrijven überhaupt bestaan. Om zoveel mogelijk geld binnen te harken met hun producten zolang de omstandigheden dat toelaten.

[Reactie gewijzigd door Skyfox85 op 10 januari 2021 13:54]

Ik lees het als "budget sportauto". Je zit in een duidelijke andere categorie met de 3080.
Maar een budget MX5 sportwagen versus een niet-budget Ferrari sportwagen is best een groot verschil.
Maar de MX5 in dit verhaal is meer een 3060, ik denk dat je dit als budget ferrari moet zien, die nog steeds €100k+ kost t.o.v. top of the line ferrari van €200k+ ter vergelijk...
Zeg dan gewoon een mid-high end kaart voor een beperkt budget.

Sowieso is budget hier namelijk totaal verkeerd gebruikt. Budget is slechts een woord voor financiële reservering met een specifiek doel.
Even kijken wat 'de dikke' er over zegt...

Als je budget en prestatie gaat combineren en het dan 'budget' gaat noemen een hoop onduidelijkheid gecreëerd worden, persoonlijk zou ik namelijk de term budgetkaart veel eerder koppelen aan een goedkope kaart van max €300. Ook zelf maak ik hierin verkeerd gebruik van de term, maar daar ontstaat nou eenmaal de verwarring, omdat ik zelf een definitie van beperkt budget gebruik hierin....

Terwijl 'het budget' van iemand net zo goed beduidend minder of exorbitant meer kan zijn.

Ook jij gooit er nu een eigen definitie tegenaan en dat maakt het echt niet duidelijker.

@Tomas Hochstenbach, zouden jullie iets willen doen aan het verkeerde gebruiken van dergelijke termen. Als je een Seat of Skoda koopt, koop je geen budget VW maar een B-merk binnen hun merk.
En als je een zeer beperkt uitgerustte VW Golf koopt, koop je een uitgekleed- of instapmodel, geen budget VW Golf.
Budgetkaarten zijn kaarten die binnen een gedefineerd budget vallen. Dit zijn toch echt de instapkaarten van een bepaald model.
Ik heb hier even naar gekeken samen met onze eindredacteur. 'Budget' als eerste lid in een samenstelling betekent dat het tweede lid een relatief lage prijs heeft en is hier dus correct. Deze definitie ontbreekt inderdaad in de gratis online Van Dale, maar staat wel in de uitgebreide versie. Het woordenboek noemt zelfs expliciet 'budgetreis' als voorbeeld, terwijl menig reis natuurlijk nog veel duurder is dan één van deze videokaarten.
Daarbij is taal een levend iets, verandert continu. Budget wordt in de volksmond vaak gebruikt om te kijken in welke price-range dit past, maar ook hoe "bang-for-buck" iets is...
Inderdaad, als we kijken hoe men schreef ~100 jaar terug dan lachen we ons rot. Zonder twijfel zal er over 100 jaar ook lachend gekeken worden naar onze huidige schrijfstijl. Het moet natuurlijk niet 'te gek' worden, maar enige evolutie hoort er eenmaal gewoon bij.
Bedankt voor de reactie!

Fijn dat jullie de tijd hebben genomen om er naar te kijken.
Mijn suggestie is geboren uit de discussie (en bijbehorende verwarring) die hier reeds over was ontstaan.

In dit geval zou ik zelfs nog betwisten of je dan wel budget voor kaarten moet zetten, of dat het specifiek budget-RTX3080's zou moeten zijn. Uiteindelijk is het geen typische 'goedkope videokaart' maar een 'goedekope high-end videokaart'..

De typische budget-reis is immers ook de reis naar dat all-in resort in turkije (no-offense) maar niet die exotische reis naar de malediven, ook al is die ene reis wel 25% goedkoper dan een ander typisch resort op de malediven.

Maar laten we die discussie niet te ver opvoeren. ;-)

[Reactie gewijzigd door EwickeD op 7 januari 2021 10:26]

Moet eerlijk zeggen dat ik bij het lezen van "budget" ook al enthousiast naar de prijzen scollde...

Maar een prijs van 700EUR was nou niet wat ik daarbij voor ogen had als upgrade voor mijn oude pc. ;)

[Reactie gewijzigd door Flozem op 7 januari 2021 10:44]

Persoonlijk vind ik de term budget stoppen bij +/- €300/350 bij videokaarten. Alles daarboven is wat mij betreft geen budget meer.

Ik snap best dat hardware.info en tweakers ook graag in het topsegment 'goedkopere' modellen willen aanduiden, maar twijfel of budget daar het juiste woord voor is.. Het voorvoegsel budget is meer in de trend van 'voor iedereen betaalbaar' en 700€ voor een videokaartje, moet je toch echt al een enorme enthousiasteling voor zijn om dat nog 'voor iedereen betaalbaar' te durven noemen.
Het voorvoegsel budget is meer in de trend van 'voor iedereen betaalbaar'
De typische budget-reis is immers ook de reis naar dat all-in resort in turkije
Jouw idee van wat voor iedereen betaalbaar is zit erg ver van de realiteit af.
Sorry maar veel goedkoper dan dat soort ga je geen all-in resort reisjes vinden (ik vergelijk immers die niet voor niks met de Malediven, ik vergelijk all-in resort reizen met all-in resort reizen). Dat zijn dus de budget varianten van die reis. Als er iets is van dat soort, voor iedereen betaalbaar, moet het die wel zijn, want betaalbaarder wordt het niet.

Ik weet ook dat ook die reizen nog altijd niet voor iedereen haalbaar zijn. Maar we hoeven in het ver-algemenen niet de volle 100% van de bevolking af te dekken.

Maar begrijp ik je nou goed... vind jij een videokaart van 700€ nou net als ik ook geen budget kaart meer? ongeacht het dan de goedkoopste een RTX 3080 is. Of vind je die budgetkaart wel terecht zo genoemd?
Ik vind vooral dat de term "budget" te subjectief is om überhaupt te gebruiken voor een algemeen artikel. Er zijn videokaarten die praktisch niets kosten (en ook praktisch amper nut hebben). Dus je kunt hierover blijven discussiëren. Ik vind het vooral opvallend dat jij valt over het algemene "videokaart" in budgetvideokaart terwijl bij jou een "budgetreis" all-inclusive naar Turkije is en niet een kampeervakantie in eigen land.
Zoals gezegd het gemaakte vergelijk is budget all-in reis met all-in reis (je moet wel appels en appels vergelijken), terwijl een kampeerreis een andere vorm vakantie is, laten we het zo maar noemen..
En dan ja inderdaad, een budget vakantie, zal eerder op de fiets met een tent wildkamperen zijn.
Al zijn er ook mensen voor wie budget vakantie een dagje wandelen in een natuurgebied om de hoek kan zijn, als we willen gaan we in de oneindigheid hiervan door ;). Ook daarvoor zijn de termen reis en vakantie te subjectief.

Ben zelf ook van mening dat het nooit heel handig is om er voorbeelden bij te halen, want daar kan je altijd op andere manieren weer over door discussiëren (zie hier), dus had ik dat sowieso beter niet gedaan.

Gelukkig zijn we het eens dat de term budget erg onhandig gekozen is.
Uiteindelijk is ieder product of dienst (wat dan ook) voor een 'bepaald budget' (namelijk het budget volgens de definitie van het woord).
Het gaat toch best duidelijk genoeg over budget 3080s in dit artikel, vergeleken met full fat high end 3080s.

Je kan er eindeloos andere gpu segmenten en autos en reizen en fruit en groenten bij betrekken, maar da's toch echt allemaal compleet naast de kwestie. Het gaat over goedkopere 3080s t.o.v. duurdere 3080s.
Exact dit had ik ook, ik zocht nog naar een extra pagina waar de budget kaarten zouden staan :o
Er is blijkbaar ook een " budget " van Dale :)
Nee, dat is mijn inziens niet zo. Misschien dat Van Dale alleen de definitie die jij vermeldt voert, maar "budget" heeft tegenwoordig toch wel de extra betekenis van "goedkoop" en wordt zo bijvoorbeeld in vele reclamecampagnes gebruikt.
En wat betekent "goedkoop" dan volgens jou? Goedkoop is mijn inziens relatief. Iets kan veel geld kosten maar nog steeds goedkoop zijn.
Rond 2000 was een high end kaart geloof ik max 300 gulden. De extreme prijzen van videokaarten maakt de overstap naar de nieuwe generatie consoles steeds aantrekkelijker.. Iets minder krachtig maar games zijn vaak wel beter geoptimaliseerd. En het aanbod is groter.
Nee hoor, toen had je ook al uitschieters.
Mja ... als ze al PC gebruikers willen aantrekken, zorg dan in ieder geval dat je console anno 2021 over widescreen support beschikt ... niet dus :)
Mja ... als ze al PC gebruikers willen aantrekken, zorg dan in ieder geval dat je console anno 2021 over widescreen support beschikt ... niet dus :)
Zou iedere pc gamer daarom geven? Spelen op een console op een grote 4k tv heeft ook z'n voordelen.
Denk dat er toch veel zijn die omwille hiervan (plus ontbreken van 1440P op de PS5) niet voor een console gaan deze ronde. Ik vind beneden gamen zelf geen optie. Altijd gedoe om de tv ...
De gtx 7800 dual was bij introductie 1000 euro.
De 7950 gx2 was rond de 600 euro in 2006.
Dus het begon al wat meer die richting op te gaan.
Maar ook de tweedehands prijzen zijn gestoord geworden.

Ik denk wel dat we alsnog geluk hebben, vooral als je kijkt naar de professionele prijzen bij de ict.
Wat bedoel je exact met 'het aanbod is groter'?

Verder is in ieder geval voor mij de nieuwe generatie consoles totaal niet interessant t.o.v. PC. Dan moeten ze tocht echt eerst wat gaan doen aan het spellen aanbod. Teveel games die ik speel komen niet eens uit op de consoles. En beter geoptimaliseerd zou ik het ook niet willen noemen eigenlijk, juist op consoles zie je vaak terugval naar bijv. 30 FPS modes omdat het apparaat gewoon niet snel genoeg is. Misschien dat er dan hele goede optimalisatie aanwezig is, maar echt lekker speelt het toch niet.
Ik denk dat er op consoles meer spellen te krijgen zijn dan op de pc. Dat deze spellen jou niet aanspreekt dat is een ander verhaal.
Het verhaal over 30fps gaat tegenwoordig voor de series x steeds minder op. Meeste spellen kun je daarop spelen met 60 fps. En voor zware spellen hebben ze vaak 2 modi, een quality mode met 4k raytracing op 30fps of een performance mode met 4k 60fps zoals bv cyberpunk 2077.
Consoles hebben juist een flink lager aanbod met beschikbare games, kijk bijvoorbeeld eens naar een steamstore, vele malen meer aanbod dat dat een specifieke console heeft. Consoles hebben wel een paar exclusieve serie's (vooral PS5), maar dat is het ook wel. Maar nee, het spelaanbod op de consoles is zeker niet groter dan op de PC en als je per console gaat kijken is het vaak helemaal karig, nu met backwards compatibiliteit is het mogelijk dat dit iets beter gaat worden, maar daar hebben de consoles nog een flinke inhaalslag te maken.
Nou ja - een IBM 8514 was $1290, en de 512 kB geheugenuitbreiding ervan was nog eens $270 extra. Dat was in zekere zin de eerste GPU, in 1987. Tegen de prijzen van nu zou je het dan over minstens $6000 hebben.
Ik blijf het bijzonder vinden inderdaad. Ik heb niet recent een videokaart gekocht, maar een jaar of 6 geleden kocht ik een, toen redelijk courante, "budget" kaart voor minder dan de helft.
Zijn die prijzen sinds het RTX tijdperk zo omhoog geschoten?

Ik heb ook de indruk dat de prijzen van de kaarten ook met de tijd nauwelijks meer dalen Het aanschaffen van een 1 of 2 jaar oud model, voor de "financieel minder bedeelde" of "minder veeleisende" gamers, is nauwelijks meer interessant.
Ja, bizar. Aan de volgende gaming-pc die ik bouw wil ik in totaal ongeveer zoiets kwijt zijn.
Daar geef ik je gelijk in zelf ben ik na mijn GeForce mx naar ATI overgestapt maar daar zie je veelal het zelfde beeld 1x eerder heb ik 700 euro betaald voor een videokaart maar dat was een HD5970, wat een dual gpukaart was. De eerste singlekaart die daaraan kon tippen was de R9 290 welke slechts 350 euro was en net onder het topmodel de R9 290x was gepositioneerd. Eerlijk gezegd had ik verwacht dat de huidige sub top modellen (3080 / 6800) rond de 550 uit zouden komen net boven de 5700 van afgelopen jaar en niet prijzen rond de 900 euro.
Sinds een jaar of twee speel ik enkel nog console en heb ik mijn laatste PC afgedankt. Met momenten heb ik wel weer interesse om een nieuw exemplaar samen te stellen, maar het is rationeel gezien gewoon veel te duur geworden..
Niet alleen in aanschaf, maar ook in stroomverbruik. Deze kaarten alleen al, verbruiken in-game al bijna het dubbele van bijvoorbeeld een PS5. Voor het geld dat nodig is voor een complete machine, heb ik straks een PS5 met extra 1-2TB SSD en een lading games en nog steeds maar de helft aan stroomverbruik.
"the more you buy the more you save" - Leather Jacket man
Je kan veel geld uitgeven, vooralsnog aan een budget zitten.
Budget staat zeg, maar niet altijd voor goedkoop.

Dit is de defenitie van Budget in het engels:
noun
1.
an estimate of income and expenditure for a set period of time.
"keep within the household budget"

Link:
https://www.google.nl/sea...IUKHe29AbwQ4dUDCA0&uact=5
Bijzonder die prestaties van de Ventus. Die throttled dan terug :? Ik heb zelf de 3070 Ventus 3X OC en daar meer dan tevreden over. Boostclock naar 1935MHz met fans op 30%.
Ja heel gek en vind de bios dan ook zeer raar ingesteld door MSI. Ik zelf ben in bezit van een rtx 3080 ventus en merk ook dat de kaart op 70graden is ingesteld en dan raar begint te doen.Zoals throttlen en je hoeft geen verwarming meer in je kamer aan te zetten. Terwijl je met MSI afterburner met wat tweaks toch wel een leuke kaart in handen hebt.

TWEAK:
Core: 2100
MEM: +800
VOLT: 1.025v
Graden: fanprofiel op 60% en de kaart komt niet in de buurt van de 60graden(blijft meer bij de 55 hangen) en je hoort de kaart vrijwel niet. Ik ben zeer tevreden over mijn kaartje.
Is dat de gewone of OC versie? Daar zal ook verschil in zitten, sowieso met de standaard kloks..

En een andere bios geprobeerd? Ik heb gelezen dat je op de Ventus de Gaming X Trio bios van MSI kan laden waardoor de powerlimiet met 30W omhoog kan en je er dus ook weer meer uit zou moeten kunnen halen..

[Reactie gewijzigd door Inflatable op 7 januari 2021 07:58]

Ik zelf heb de oc versie maar zal niet veel schelen met de normale uitvoering gezien de pcb het zelfde is met iets hogere clocks wat amper merkbaar is in fps. Oftewel, marketing.

Een andere bios ga ik niet eens proberen aangezien ik maar 2x8pin connectors tot mijn beschikking heb en al dicht bij de limiet zit dus verder gaan heeft geen zin. Wat dus met een TRIO wel weer kan (3x8pin)
Ok, maar jij krijgt hem dus wel stabiel boven de 2000Mhz.. Is dat voor langere tijd, of zakt hij ook in na een tijdje? Ik vind het vreemd dat de Ventus 3x in deze test het zo enorm slecht doet.. Lijkt alsof er iets mis is met die kaart of bios (qua instellingen)..Waarom klokt dat ding zo ver terug terwijl hij helemaal niet warmer wordt dan de FE b.v.?!? Vaag..

2x8pin moet trouwens tot 375W kunnen, dus de 350W van de Gaming X Trio zou geen probleem moeten zijn.. Nu zit je vast aan 320W max..

[Reactie gewijzigd door Inflatable op 7 januari 2021 08:15]

Yep, en het mooie is hij draait op 2100core constant zonder ook maar te throttlen of wat dan ook. En dat al dik 2maand.

Al moet ik wel bekennen dat ik een undervolt heb uitgevoerd en daarna zelf een draai eraan heb gegeven.

Hierbij een link: https://www.youtube.com/watch?v=sClh4270yg0&t=106s

Hier een reactie op je wijziging:
Sure, je zal eventueel een gaming x trio bios kunnen flashen maar voor die 30watt vind ik het niet waard en het zal maar een paar mhz meer zijn. En het risico ervan is; Als de kaart het begeeft dat ik mijn garantie kwijt ben en dat alleen voor een paar fps meer.... Je praat hier wel over een kaart van 719euro (Al kost het nu wat meer...)

[Reactie gewijzigd door Jeroentjeeuh op 7 januari 2021 16:02]

Ok bedankt, ga ik ook proberen zodra ik mijn RTX 3080 binnen heb..

Wel vaag dat de MSI Ventus 3x non-OC in deze review van Tweakers het zo slecht doet, 1600Mhz is echt bizar laag..
Zeker doen, echt de moeite waard! Je haalt veel meer uit je kaart en hij draait ook nog eens efficiënter terwijl je een overclock heb lopen.

Ik denk dat het een boost schema in de bios is die totaal niet klopt en makkelijk met een update op te lossen is. Of MSI dat doet ? Is maar de vraag. En anders maar gebruik maken van msi afterburner en zelf een draai eraan geven. Een custom bios flashen zal ik niet snel doen dan ben je de garantie kwijt terwijl dat helemaal niet nodig is.
Weer wat geleerd.. Die guide gebruikt en mijn MSI Ventus 2x RTX 2080 nu ook op max 950mV draaien en hij boost nu constant naar 2010Mhz op slechts 96% TDP en wordt daardoor ook 5 graden minder warm en dus fans die ook minder hard draaien.. Best wel bizar dat je meer prestaties uit je videokaart krijgt door juist minder stroom te gebruiken.. Komt dus door de nieuwe 'boost' functie die die dingen hebben tegenwoordig.. Mijn oude overklok instelling was nog powerlimiet naar 110% en gaan met dat ding, maar dat kwam dus nooit hoger dan +/- 1935Mhz constant omdat de kaart te warm werd en zelf de boost weer verlaagde (voltage ging naar ruim 1030mV).. Nu dus 2010Mhz en max +/- 200W i.p.v. 220W..

Thx! Straks dus ook bij de RTX 3080 doen (als ik dat ding ooit geleverd krijg) :Y)
Zoals throttlen en je hoeft geen verwarming meer in je kamer aan te zetten.
Dat is niet raar en ook niet echt kaart specifiek. De warmte waar jij het over hebt het namelijk met verbruik te maken.

Sterker nog door het throtlen zal die wss minder verbruiken en dus je kamer minder opwarmen dan een kaart die niet throttled en dus langer met verbruikt.
Nee, juist niet. De kaart gaat tot 70 graden en daar baseert hij de clocks op af. Oftewel, de kaart blijft maar 70graden in je kamer blazen.
Nee zo werkt het dus helemaal niet, sowieso is het zeer onwaarschijnlijk dat de lucht 70 graden wordt, dat is de temp in de cores van je GPU...

Daarnaast werkt het niet zo dat warmere lucht ook voor meer (totale) warmte zorgt...

Een kaars wordt rustig 150 graden, maar die warmte je kamer toch ook niet meer op dan een CV die maar 65 graden wordt?

Het gaat gewoon om de totale energie en dat vertaald 1 op 1 naar warmte, als een kaart 300watt gebruikt en 90 graden wordt dan warmt ie de kamer minder op dan een kaart die 320watt verbruikt en maar 70 graden wordt, ook al is die laatste 'koeler'...

De kaart waar jij het over hebt draagt dus gewoon slecht warmte over, en daardoor wordt ie zelf heter dan andere kaarten maar de kamer dus zeker niet perse minder, en zoals gezegd eerder minder ivm throttlen!

[Reactie gewijzigd door watercoolertje op 7 januari 2021 09:04]

oke, je hebt een punt. De core gaat tot 70graden.
Stel je hebt een waterkoeler en die houdt je GPU op 30c ipv 70c. Wordt je kamer dan minder warm? Nee. De waterkoeler is gewoon veel effectiever in verplaatsen van warmte (in dit geval naar de radiator).
Stel je hebt een waterkoeler en die houdt je GPU op 30c ipv 70c. Wordt je kamer dan minder warm? Nee. De waterkoeler is gewoon veel effectiever in verplaatsen van warmte (in dit geval naar de radiator).
Onzin, je kamer wordt wel warmer.

Een radiator kan een hardware onderdeel beter koelen omdat het een grotere oppervlakte heeft. MAAR als een onderdeel 90graden wordt, dan wordt de vloeistof en de radiator ook warmer, wat dus resulteert in een warmere omgeving. Al heeft het wel met te maken met het grote van je kamer, hoelang het duurt.

[Reactie gewijzigd door Jeroentjeeuh op 7 januari 2021 11:19]

@Jeroentjeeuh, je gaat hier een beetje in tegen de Wet van behoud van Energie (https://nl.wikipedia.org/wiki/Wet_van_behoud_van_energie). Je videokaart zet een bepaalde hoeveelheid energie per tijdseenheid om in warmte, uitgedrukt in vermogen (bijvoorbeeld 300 Joule per seconde, ofwel Watt). Die warmte staat je systeem af aan zijn omgeving, je kamer. Of je systeem dat doet middels luchtkoeling of waterkoeling maakt daarbij niet uit, de hoeveelheid warmte, uit gedrukt in Joules, die je kamer per seconde instromen zijn hetzelfde. Dit zorgt er voor dat je kamer (lichtelijk) in temperatuur stijgt.

[Reactie gewijzigd door Thomas H op 7 januari 2021 11:22]

Dus als je CPU -100c is tijdens overklokken met LN2, terwijl de CPU 300W verbruikt, wordt je kamer kouder?
Nee maar dan praat je ook over -100 en niet meer over normale kamertemperaturen. Ik snap wat je bedoelt maar het ligt eraan hoe je het koelt.

Het punt is; Je kamer wordt warmer. De core wordt niet koeler maar de clocks en voltages kunnen wel lager gaan maar dan wordt mijn kamer wel warmer. Met een stock koeler.

[Reactie gewijzigd door Jeroentjeeuh op 7 januari 2021 11:31]

Sorry maar ik probeer je duidelijk te maken dat de temperatuur van de core niks te maken heeft met hoe warm je kamer wordt. Zoals watercoolertje zegt is dit maar afhankelijk van één ding en dat is hoeveel W het component gebruikt (even los van efficiëntie-verliezen). De koeling bepaald alleen hoe effectief de warmte verplaatst wordt.

[Reactie gewijzigd door DoubleYouPee op 7 januari 2021 11:20]

Het antwoord daarop is wel degelijk JA, tegen jouw intuïtie in.

De praktische reden daarvoor is dat LN2 koeling niet heel erg efficient is. Het kookt al bij -195 graden. Er komt daardoor een heleboel gasvormig stikstof vrij bij -194 graden. En jouw kamer is vermoedelijk een behoorlijk stuk warmer dan dat.

Natuurlijk, die GPU produceert nog steeds 300W aan warmte, maar die wordt gebruikt om LN2 uit de fles om te zetten in N2 in je kamer.
Misschien op korte termijn ja of in de buurt van de LN2, maar netto gezien zal de kamer wel moeten opwarmen. Lijkt me niet dat volledige 300W wordt omgezet van LN2 naar N2.
Maar goed het is inderdaad niet helemaal een goed voorbeeld, daarom dat ik ook eerst over waterkoeling begon. Ik probeerde alleen maar duidelijk te maken dat de temperatuur van de chip niet direct iets te maken heeft de opwarming van je kamer

[Reactie gewijzigd door DoubleYouPee op 7 januari 2021 19:25]

Het hele idee van LN2 koeling is juist dat je de warmteproductie dumpt in de verdampingswarmte van LN2. Dus ja, je verdampt inderdaad zo'n 55 mol LN2 per seconde.
De rest heb je niet gelezen of snap je het niet? Dan moet je je er misschien even in verdiepen want het werkt echt zo en niet hoe heter de kaart hoe heter de kamer ;)
Ik vraag me ook af of er niet iets mis is met de kaart.

de review hier(eerste op youtube)
https://www.youtube.com/watch?v=mWhARJLvdiw

Hierbij is er nauwelijks verschil in de kaart. Ik geloof niet dat er zo'n groot verschil in zit.

Overigens de term "budget" is niet terecht. Bugetkaarten kosten 250-300 euro. (hooguit).
Lijkt er wel op ja, helemaal inzakken naar 1600Mhz is echt niet normaal..
WOW, de Gigabyte GeForce RTX 3080 Aorus Xtreme is vier PCI sloten (in je kast) groot, dat is toch wel heel extreem zeg, je kan dan meerdere PCI-E sloten niet meer gebruiken op je MB, en toch clocked de MSI GeForce RTX 3080 Gaming X Trio 10G hoger, en id de temperatuur van de Zotac GeForce RTX 3080 Trinity OC het beste met 58c, wat ontzettend laag is voor een heatsink/luchtgekoelde grafische kaart, meeste watergekoelde grafische kaarten zijn hoger, die van mij zat altijd rond de 63c met een 120mm radiator, nu hoger 73c omdat ik hem moet schoonmaken.

[Reactie gewijzigd door AmigaWolf op 7 januari 2021 18:39]

Bijzonder die prestaties van de Ventus.
Zouden ze de thermal pasta vergeten zijn?
Want nog leuker is dat ze de koeling een - geven terwijl de kaart een 325 watt tdp op 72 graden weet te houden. Deze score voor de ventus slaat echt helemaal nergens op. De ventus is op z'n minst 100 tot 150 euro goedkoper dan de Supreme en de Gigabyte. Er wordt totaal niet naar de prijs gekeken. Je krijgt dus voor een flinke smak geld meer een kaart die ~5 graden koeler is en wat meer RGB heeft.
Ligt het aan mij of is in iedergeval eigenlijk de MSI RTX Trio de winnaar? Buiten de 4 extra getesten kaarten om nu? Want: meer fps, koeler, hogere kloksnelheid, minder verbruik, lagere kosten, en al wel verkrijgbaar geweest?

pricewatch: MSI GeForce RTX 3080 Gaming X Trio 10G

[Reactie gewijzigd door Kecin op 7 januari 2021 07:17]

De MSI 3080 Suprim X heb ik dus die is ook verkrijgbaar geweest ;)

Wat je niet op noemt is dual bios / hogere powerlimit. En dat de fps/kloksnelheid (en daardoor ook een beetje de koeler/verbruik) mede bepaald wordt door geluk of pech van de chip.
hahaha wat? Alles wat je zegt klopt niet. tweakers reviewd gewoon niet goed, die pakken maar 1 kaart en vergelijken die met 1 andere kaart. Dat is totaal onzinnig aangezien alles afhankelijk is van het specifieke stukje silicoon dat in die kaart zit.

Als je het gemiddelde van 100 suprims vergelijkt met 100 trio's, dan pas heeft het nut.

De suprim heeft betere kwaliteit componenten dus is de betere kaart, die gafriekjes waar iedereen hier zo blij van wordt zeggen gewoon helemaal niets.
Uit of de box vond ik de suprim ook erg tegenvallen maar dat heeft ook te maken met standaard BIOS instellingen. Ik merkte al snel dat de kaart terug gaat klokken bij bepaalde temperaturen en als ik de fan op 100% zet dan ging de kaart een stukje harder.

Op een blauwe zomerdag wil ik nog best wel een keertje de Gaming X Trio BIOS op de kaart zetten en dan kijken wat er dan gebeurt. De chips zijn volgens mij identiek dus dan is de BIOS een grote factor.

Met een beetje tweaken en aanpassen kun je veel meer uit deze kaart halen. En met meer wattage ruimte met de suprim ipv de MSI trio is dat dan de beter kaart mbt overclocken. Weet niet of het de bedoeling is maar hier zijn mijn ervaringen mbt undervolten en overclocken van de suprim: productreview: MSI GeForce RTX 3080 Suprim X 10G review door ZelianGuy

Mijn mening is dat als je een top kaart wilt out of the box dan is de gaming X trio de kaart voor je. Vind je het leuk om met kaarten te tweaken en dergelijke? Haal dan de Suprim.

[Reactie gewijzigd door ZelianGuy op 7 januari 2021 08:36]

Het testen van de kloksnelheid op 1 kaart per stuk is redelijk nutteloos te noemen. De ene msi suprim x klokt op 2100mhz en de andere op 1950.. Dat is puur afhankelijk van het stukje silicoon van die specifieke kaart.
Wat wel belangrijk is dat de Suprim X en Gigabyte Xtreme erg veel verder overclocken trouwens. Zelf heb ik 2130Mhz (+6.5% tegenover de stock limit van 2000Mhz) op 1.093V stabiel en +1250Mhz op memory (+13%), dit scored zo'n 8% boven de Gaming X Trio in Timespy & Port Royale.

Natuurlijk zal dit ook op de Suprim X mogelijk zijn, maar op kaarten met 320W power limits (zoals de Trinity) & Kaarten met 370W power limits (Zoals FE en de meest AIB kaarten), zal dit nooit lukken.
mijn voorspelling:

Net zoals bij voorgaande generaties worden deze kaarten nooit meer goedkoper. Enkel duurder. Iedereen die wacht op betere prijzen zal zeer lang moeten wachten. (tot de 40x0 generatie)

De vraag is ongekend. Er is geen enkele reden om de prijs af te vlakken. Niemand zal dat dan ook doen. De beschikbaarheid lijkt niet beter te worden, de huidige crypto prijzen zijn weer belachelijk en veel webshops zijn gestopt met het aannemen van pre orders (megekko voorop) en da's ze niet kwalijk te nemen.

Want... De hoeveelheid geld die er mee gemoeid is, is ongekend. De risico's voor de webshops dus ook, iedere pre order moeten ze bestellen en betalen bij de distributeur. vervolgens loop je een forse kans dat de order wordt gecanceld of terug gestuurd (geen geld, wel kosten en ongewenste B-voorraad) want iedereen heeft meerdere kaarten bij meerdere webshops in pre-order staan. Pre-orderen is dus gokken geworden voor zowel de consument als de webshop.
En niemand wil gokken met de toekomst van zijn/haar bedrijf.

Cash flow was altijd al een dingetje in deze business maar wordt nu bij deze aantallen en deze prijzen een gigantisch risico wat niemand meer wil of kan nemen. Ook distributeurs zullen zijn begonnen met zich achter de oren te krabben, daar zijn de aantallen nog groter en de marges nog lager dan bij webshops...

Ik begin mij meer en meer te realiseren dat mijn huidige build een unicorn aan het worden is. (5900x, EVGA 3080 XC3 ultra, Lian Li Unifans) (5900x day 1 pre order op alternate.nl, 3080 stom geluk op amazon.nl, Lian Li stom geluk op maxict.nl)
En de 3080 master/Xtreme vind ik vrij luidruchtig. Idle blijft de kaart ook wel warm..onder de 40 graden gaat de fan uit.

De fancurve is heel vreemd..als je een spelletje speelt gaat de fan snel richting de 60/70 procent.
De kaart maakt dan veel lawaai...maar hij blijft wel koel....

Van mij mag de kaart wel iets warmer worden en de fans iets minder hard draaien.

-edit-

Ik heb de bios switch niet gebruikt. Gewoon standaard gelaten.

[Reactie gewijzigd door Aggressor op 7 januari 2021 06:49]

Van mij mag de kaart wel iets warmer worden en de fans iets minder hard draaien.
Dat is toch via software te regelen?
Ja klopt...maar het is ook fijn dat het meteen goed werkt.
Hoef je geen tool te installeren enz..
Maar het is wel een optie ja.
Ja klopt...maar het is ook fijn dat het meteen goed werkt.
Fijn, maar moet geen minpunt zijn.

Zelf heb ik een compacte, krachtige PC kast met een aardig grote en energieslurpende videokaart erin. Als ik uit zou moeten gaan van de standaard BIOS waarden, dan is dat ding bij het gebruik van een beetje rekenkracht een stofzuiger. Via SpeedFan is het een eitje om de gewenste temperaturen en zelfs gehele fan curves in te stellen, en niet enkel voor de videokaart.

Met zelfbouw PC's loont het om hier wat tijd en aandacht te besteden. En al kan je zelf een PC bouwen, dan kan je ook zelf wat fannetjes instellen. ;)

[Reactie gewijzigd door The Zep Man op 7 januari 2021 07:52]

Ik vind het wel een minpunt. Ik heb de fan ook geprobeerd op bv 40 procent te laten draaien...maar dan wordt ie weer heet.
Dan is het niet heel effectief.

Ik denk dat je voor het geld beter een andere kunt kopen.
Met de bios switch op silent scheelt het geluid een hoop en wordt de kaart ongeveer 70c.
370Watt verstoken in het era van 5nm? nah thanks
Staat hier op 430 watt (suprim x) komt bijna op 70 graden, niet echt iets om me druk over te maken ;)
Tja, PC hardware wordt wel steeds efficiënter, maar ook steeds veel krachtiger.. Je kan niet steeds zoveel meer prestaties verwachten met hetzelfde stroomverbruik.. De vraag naar meer prestaties is nou eenmaal groter dan de vraag naar lagere stroomverbruik.. Bijna niemand koopt een tragere videokaart alleen maar omdat die minder verbruikt..
1000 euro en dit dan een budgetkaart noemen :+
Je bent de 2de die er over valt en het verbaast me dat 2 tweakers het begrip context blijkbaar niet bekend zijn.

Het zijn geen budgetkaarten het zijn budgetkaarten van de 3080...
En ook hier is de term instap beter. Ik vind dat er, ondanks de duidelijke context, best wat preciezer geformuleerd mag worden in artikelen. En dat punt mag ook best door meerdere mensen gemaakt worden wat mij betreft ;)
En ook hier is de term instap beter.
Dat is net zo afhankelijk van de context, want een 3080 is net zo goed geen instapkaart zonder in context te plaatsen
klopt, net zoals een basis 3080 of een ander alternatief. budget heeft nu eenmaal een bepaalde connotatie en ik ben het er mee eens dat de naam budget 3080 ongelukkig is en dat het aangekaart word.

Ik denk niet dat er lezers zijn die niet begrijpen uit de context dat het om relatief "goedkope" of "budget" kaarten gaat. Oh well.. ;)
Maar er bestaan geen budgetkaarten van de 3080 dat is het probleem. Er bestaan goedkopere varianten maar dit is bij lange na geen budgetkaart.

Een andere benaming zou zeker wel beter in de context passen. Dit is net zoiets kroms als een budget Ferrari, die bestaan ook niet...
Er bestaan goedkopere varianten maar dit is bij lange na geen budgetkaart.
Is de discussie niet net hetzelfde als "goedkopere" vs "minder dure" ? ;)
Een andere benaming zou zeker wel beter in de context passen. Dit is net zoiets kroms als een budget Ferrari, die bestaan ook niet...
Dan delen we daar niet dezelfde mening over, ik vind dat als iets gespecificeerd is binnen een bepaalde groep (goedkoop of duur) je binnen die groep kan spreken over een budgetmodel en een duur model. Oftewel wat budget is wordt bepaald door de context, in dit geval dure kaarten met daarbinnen dus goedkopere en dus budgetmodellen :)

[Reactie gewijzigd door watercoolertje op 7 januari 2021 11:57]

849 voor de Zotac ;)
Budget wil ik het niet noemen nee.
1 2 3 ... 6


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True