Ontwikkelaars omzeilen vbios-restricties van Nvidia-gpu's met nieuwe flashtools

Verschillende software-engineers hebben een manier gevonden om Nvidia's gpu-biosrestricties te omzeilen. Daarmee kunnen gebruikers in veel gevallen aangepaste vbios-versies flashen op hun videokaart. Nvidia-gpu's hebben sinds de GTX 900-serie een securityprocessor die dat voorkomt.

Twee verschillende ontwikkelaars, Veii en Kefinator, hebben nieuwe tools gemaakt waarmee gebruikers het bios van hun Nvidia-gpu kunnen flashen. Dat schrijft TechPowerUp op maandag. Met de tools is het mogelijk om 'vrijwel alle' vbios-versies te flashen op nagenoeg alle Nvidia GeForce-videokaarten. Daarmee worden de beveiligingsfuncties van Nvidia's Falcon-securityprocessor omzeild.

De tool maakt het onder meer mogelijk om het bios van een gpu met fabrieksoverclock te flashen op een goedkopere variant van die gpu met lagere kloksnelheden. Voor Nvidia's Turing-gpu's in de RTX 20-serie en oudere chips kan de signaturecheck zelfs volledig omzeild worden. Daarmee is het bijvoorbeeld mogelijk om de stroomlimieten op te hogen. Zonder signaturecheck is het ook mogelijk om aangepaste biosversies te maken met andere spanningen, fancurves en thermische limieten.

Voor nieuwere videokaarten in de RTX 30- en 40-series zijn er beperktere crossflashmogelijkheden. Gebruikers kunnen andere vbios-versies op hun gpu flashen, maar kunnen het bios niet zelf handmatig aanpassen. Gebruikers kunnen bijvoorbeeld de voormalige standaardspanning van 1,10V herstellen op een GeForce RTX 4090. Bij nieuwere RTX 4090-modellen is de spanning beperkt tot 1,07V.

De tools van Veii en Kefinator, respectievelijk OMGVflash en NVflashk, zijn gratis beschikbaar. Het flashen van een vbios is echter niet zonder risico's en doet de garantie van videokaarten vervallen; het is daarmee vooral bedoeld voor powerusers. Het wordt aangeraden om voorafgaand een back-up van het bestaande vbios te maken. Beide tools hebben een optie om het standaard vbios op te slaan; GPU-Z kan dat ook.

Door Daan van Monsjou

Nieuwsredacteur

21-08-2023 • 14:28

58

Reacties (58)

58
58
19
2
0
33
Wijzig sortering
Nvidia-gpu's hebben sinds de GTX 900-serie een securityprocessor die dat voorkomt.
En daar betalen wij voor!

Het woord "security" wordt hier weer eens bijzonder gebruikt. Tegen welke bugs/lekken/aanvallen beschermt die processor? Om wiens "security" gaat het hier? Niet van de gebruiker hoor, het gaat om de financiele zekerheid van de aandeelhouder.
Stand to be corrected; misschien ook beveiligingen tegen grapjassen die over 3-5 jaar voor weinig geld.een RTX3060 opkopen, een aangepaste (en dus nu ook "gekraakt-geauthenticeerd" ) BIOS image maken die de kaartnaam wijzigt naar een RTX6060 (met bijbehorende stickers om de oplichting compleet te maken), en dat voor teveel geld verkopen.

De kaart boot. GPU-Z zegt dat het een RTX6060 heet. De hardware klopt niet. De prestaties klopt niet. Maar voordat een gemiddelde koper dat door heeft en z'n refund heeft ingediend, is de verkoper er allang van door.

Ik weet niet of dat nu ook al mogelijk was. Voor oudere kaarten wel, maar die hadden deze beveiliging niet. IMO zou alleen daarvoor al authenticatie van BIOS images gerechtvaardigd zijn. Het is niet zo erg als een Tesla of Apple waarbij je interne onderdelen, die prima los te vervangen zijn, op serienr aan elkaar moet koppelen omdat anders functies magisch gezien niet te pairen vallen.

[Reactie gewijzigd door Hans1990 op 25 juli 2024 07:54]

Dat soort misbruik hou je niet tegen. Want de verkeerde kaart in een doos, of een baksteen. Misleiding in deze vorm blijf je toch houden. Daar gaat zo'n beschermde BIOS niets tegen beschermen.

De doorsnee eind-gebruiker komt nergens in Windows de naam van hun GPU tegen. Andere stickers op de kaart is in principe al ruim voldoende voor het doorsnee verkoop-op-afstand-misbruik.

Gaat puur om het beperken van de gebruikers voor Nvidia. Stel je voor dat iemand de volledige DLSS features weet te unlocken op een 2000 of 1000 serie kaart. Daar zal Nvidia niet zo blij van worden.

Vrij typische middel vinger van Nvidia naar haar eigen klanten toe.
Een baksteen versturen gebeurd toch wel. Maar dat is omontstotelijk vast te stellen.

Echter moedwillig een kaart high-tech verneppen kan ervoor zorgen dat je een groot deel van je slachtoffers niet eens weet wat er mis gaat. Een oppervlakkig onderzoek kan het verschil niet eens aantonen. In Windows 10/11 zie je in taakbeheer je GPU chipset, VRAM grootte en temperatuur. Die GPU chipset kan je hiermee vrij eenvoudig aanpassen. Een 3060Ti met 12GB VRAM kan geloofwaardig overkomen als scammers bvb er een nieuwer model van maken en VRAM als 12GB adverteren.

Als de kaart verder stabiel draait maar absoluut niet presteert, kan je al gauw in een plausible deniability scenario komen. Dat kan lang getouwtrek worden, of de koper die aan zichzelf twijfelt of NVIDIA maar de schuld geeft.

Ik weet niet of je veel hoop moet vestigen op extra features unlocken. Een GTX1000 serie heeft vziw geen tensor cores, dus DLSS gaat bvb lastig. Maar goed, hobby'en mag altijd. Was tzt ook grappig om te zien hoe iemand met paar weerstandjes een GeForce kaart kon omzetten naar Quadro, of vice versa, met driver support winsten aan gaming/productivity kanten. Aangepaste BIOS versies kunnen wel leuk zijn voor OC's, en dat is denk ik een keuze van NVIDIA tegenover 'security'.

NVIDIA is overigens niet de enige hierin; AMD heeft ook BIOS security signatures.

[Reactie gewijzigd door Hans1990 op 25 juli 2024 07:54]

Daar gaat zo'n beschermde BIOS niets tegen beschermen
Dat klopt. Maar dan is het oplichting en daarvan krijgt Nvidia niet de schuld.

Maar als je denkt de juiste kaart te hebben, maar die crashed steeds of presteert slecht en jij hebt niet in de gaten waardoor dat komt, dan geeft je wel Nvidia de schuld dat ze een slechte kaart hebben gemaakt.

Je wilt ze de kost niet geven die aanpassingen maken waardoor een kaart onstabiel word en dan de schuld bij de fabrikant leggen ipv zichzelf. Of zelfs een kaart om zeep helpen en dan garantie claimen.

Het blijft Nvidia, dus voorkomen dat iemand dingen als DLSS features kan unlocken zal vast ook wel mee spelen, maar er zijn ook echt valide redenen om te voorkomen dat mensen aan de kaarten gaan zitten klooien.
Was volgens mij toch ook bedoeld tegen fake/omgekatte kaarten van met name Chinese webshops ? Zodat ze geen geflashde 2060 als 2080 kunnen verkopen.
Kan ook wel voordelen er van inzien.

Als je niet zo maar de bios kan aanpassen. Kan malware dat ook niet. Als jij in de bios van een GPU malware geladen krijgt, heb je best wel binnen.

Ook kan het gebruikers beschermen die op Google de vraag stellen hoe maak ik mijn 970 zo snel als een 4090. En dan een of andere bios er op gooien en dan hun videokaart oproken in enkele seconde.

Ik zou wel graag een manier zien om als je echt weet wat je aan het doen bent dat het wel mogelijk is.

Bijvoorbeeld door een tooltje te hebben die je een melding geeft die je weg moet klikken vervolgens nog een paar keer weg moet klikken waarbij de tijd voor je op Yes kan klikken tussen elk venster een halve minuut is. Een gebruiker die weet wat hij doet zal dit ook echt wel accepteren. Omdat hij weet dat gebruikers die het niet weten wat ze doen het kapot kunnen maken.

Het moet wel iets meer zijn dan een tooltje downloaden zijn en dan openen yes,yes,yes,yes finish zijn.
Securities, als in aandelen NVIDIA denk ik :)
Ik vraag me af of de risico's het waard zijn. Met MSI afterburner kun je toch gewoon zonder risico's overclocken, power/voltage/fancurves aanpassen?

Ik weet niet of ik de enige ben, maar ik pas m'n overclocks aan op het seizoen, in de winter mag er wel wat extra warmte m'n kamer in, in de zomer juist niet. Een overclock standaard aan hebben staan is voor mij onwenselijk.

[Reactie gewijzigd door Alxndr op 25 juli 2024 07:54]

Als het gaat om de 4090, daarvoor heeft Nvidia een aantal maanden geleden een vernieuwde chip (AD102-301-A1 vs. AD102-300-A1) uitgebracht die als maximale voltage 1,07 toestaat, bij de originele chip was dat 1,1V. Met een BIOS-mod kun je dat omzeilen in tegenstelling tot Afterburner.

https://www.reddit.com/r/...ew_4090_chip_ad102301_in/

[Reactie gewijzigd door Degrader op 25 juli 2024 07:54]

Pff elke keer als ik die 1,1/1,07 zie bedenk ik dat de TDP 450W is, dus er ruim 400A over de voedingslijn kan gaan... daar kan je dik staal mee lassen! Bizar
Niet helemaal waar, die 1.1v is specifiek voor de GPU(chip), het verbruik wat jij noemt is voor de hele kaart.

Het geheugen, de interface, de VRMs, de fans, de lampjes. En de chip zelf natuurlijk ook...

En ja met energie kan je ook andere dingen gelukkig :-)

[Reactie gewijzigd door watercoolertje op 25 juli 2024 07:54]

Gelukkig is er niet één enkele voedingslijn waar de hele 450W overheen gaat aan 1.1V. Dat zou mis gaan idd.
Ik vermoed dat een custom bios je meer vrijheid geeft om je kaart te overvolten, waardoor je net iets hoger kunt clocken. Absoluut een niche, maar ik kan het doel best begrijpen.
Dit is hoogstwaarschijnlijk meer gefocust op overclockers die normaliter dingen als een 'shunt-mod' toepassen, om bepaalde stroom limieten te omzeilen. Doordat ze gebruik maken van extreme koeling en niet voor dagelijks gebruik.

Voor de gemiddelde gebruiker heeft dit weinig tot geen meerwaarde. Zeker de laatste generaties loop je heel snel tegen een hardware limiet aan wat je stabiel kan houden met een nog merkbare prestatiewinst. Dan doel ik op limieten boven je o.a. met Afterburner al kan instellen op een standaard VBIOS.

Wellicht heeft dit geheel meer nut in het volledig omzeilen van alle 'anti cryptominen' technieken van Nvidia maar daarvoor zit ik niet ver genoeg in de VBIOS materie.

Óf het is puur een 'omdat het kan' verhaal. Als je in deze materie zit kan ik me voorstellen dat het leuk is en ook goed voor je CV als je zoiets voor elkaar krijgt.
Anoniem: 58485 @Alxndr21 augustus 2023 18:14
Kaarten zijn standaard gelocked op een maximaal verbruik. 200W voor een gemiddelde midrange kaart. Om je OC net ff wat lekkerder te maken zal je toch echt 250W of hoger moeten gaan zitten. Dat kan niet met je software tools, dat zit gelocked in de bios. Met deze mod kan je in feite bios files nu aanpassen en erin schieten waardoor je die limieten niet meer hebt.

VRM's enzo kunnen vaak veel meer aan dan dat de kaart in z'n geheel verbruikt. Ik heb een 6700XT, deze stond gelocked op 186W GPU Chip power. Ondanks de 15% verhoging blijven de clockspeeds gigantisch jumpen. Met MorePowerTool kan je dit verbruik verhogen naar bijv 240W. Dan zie je dat de clocks in ook drukke scenes wel stabiel blijft.

In zulke gevallen kan een mod goed werkbaar zijn. Maar in de regel geldt dat zowel kamp Nvidia als kamp AMD GPU's hebben gelocked van het flashen van andere bios files, of bios files die aangepast zijn.
Ik was in de veronderstelling dat je met Afterburner (soms) de limiet boven de 100% kon zetten, volgens mij heb ik Jayztwocents dat regelmatig zien doen in z'n video's. Maar nu ik Afterburner hier opgestart hebt zie ik dat bij mij (op m'n 3060 Ti) 100% idd het maximum is.

Anyway, ik ben niet een 'echte' Tweaker die zich hier veel mee bezig houdt, ik gebruik de instellingen in games om op een voor mij acceptabele framerate (een stabiele 60 of 100) uit te komen. Als er maar geen haperingen zijn, het verschil tussen 'medium en high' of 'high en extra high' zie ik eigenlijk nauwelijks.
Anoniem: 58485 @Alxndr22 augustus 2023 04:51
Dat is een soft limiet - de hard limit staat gewoon vastgesteld in de stock bios.
Op mijn laptop is mijn 4090 gelimiteerd tot 175W terwijl de koeling en power supply makkelijk 250W aan kan. Dat unlocked zou wel fijn zijn.
Ik mis de tijd dat je meer shader units of meer computing units kon unlocken door een bios flash.

Vaak was een 6950 een afgekeurde 6970 en kon je door zo’n unlock soms precies daar tussen in komen.

Zulke verschillen zullen er wel niet meer zijn, maar ik kan me scenario’s voorstellen waarbij het handig is om in de bios clocks en voltages vast te zetten Ipv software matig.
Ikzelf heb dit destijds gedaan met een "9500 pro" naar een 9700 ... mooie tijden.
En de 6800LE naar de 6800GT. Extra vertex shaders en pixel pipelines unlocken om binnen 2 minuten de kaart heel veel sneller te maken. Vrijwel iedere 6800LE was in die tijd te unlocken naar een GT.
Of de X800 naar de X800XT .. ik vond dat helemaal geweldig om uit te zoeken wat er wel of niet kon :P
Ik gebruikte toen vaak kaarten van "hercules" , die stonden er toen om bekend dat deze vaak goed te reflashen waren omdat hercules gewoon kaarten "flashten" met een bios die ze goed verkochten (lees ze kochten 9700's in en reflashten deze naar 9500 pro omdat deze beter verkochten).

Maar zo heb ik ook een keer een X3 cpu naar een X4 met een potlootstreepje geunlocked... toen kon er nog vanalles.

[Reactie gewijzigd door huubhuub op 25 juli 2024 07:54]

Vrijwel iedere 6800LE was in die tijd te unlocken naar een GT.
Ik kreeg mijn 6800LE destijds slechts tot 12/6 pixel/vertex shaders stabiel unlocked van de max 16/6 pixel/vertex shaders die de GT en Ultra hadden. Wel op 405MHz ipv 325MHz default.
EDIT: de default shader config van de LE was maar 8/4 tov 16/6 pixel/vertex shaders van de GT en Ultra.

Maar wel met 'maar' 128MB VRAM ipv de volle 256MB van de GT en Ultra! Toen was 128MB best veel in mijn geheugen ;)

[Reactie gewijzigd door Ché Mig op 25 juli 2024 07:54]

Ik neem aan dat je op basis van de topic één of andere NVidia 6950 bedoelt? Ik dacht even dat je een AMD RX6950XT bedoelt, maar wist niet van een RX6970XT.
Hij heeft het denk ik over de Radeon HD 6950 en HD 6970. (edit; uit 2011)

[Reactie gewijzigd door NitroX infinity op 25 juli 2024 07:54]

Ik zag zoiets. Dat was voordat AMD Radeon overnam. Persoonlijk zou ik een paar tientjes in een moderne kaart stoppen. Er is in 13 jaar tijd veel gebeurd :)
Radeon was een merk van ATI, wat in 2006 is overgenomen door AMD. De hd6950 was dan ook al onder AMD merk (zie uitvoering: XFX AMD Radeon HD 6950).

Maar ja, het is inderdaad dom dat AMD deze nameclash heeft veroorzaakt.
Ik heb nu gewoon een 7900XT hoor :)

Ging me meer over de tijden van “vroeger” , dat je dus met een bios flash meer uit je kaart kon persen door het unlocked van uitgeschakelde kernen.
Dat viel wel mee. Wat was het, hoogstens 8% ofzo?

Ik had ooit een X800 Pro, geflashed naar X800XT - 4 shaders meer. Het verschil was eigenlijk niet op te merken. 10% meer performance.
10% vind ik best wel wat, zeker als daardoor een game van van 55 naar 60 fps ging :)
En het was daardoor gratis extra performance!
Het was toch een voorbeeld uit het verleden, dus hoe lang het geleden is is niet relevant. Enkel dat het gebeurde is relevant.
Hij bedoeldt waarschijnlijk de HD6950/6970
radeon HD6950 -> 6970. Voor de 2e generatie tweakers "het verleden" :+
Jaaaa 9500 Pro naar 9700(Pro), 9800 of 9800SE naar een Pro en soms zelfs XT. Dat kon soms zelfs door een simpele aangepaste driver, zo heb ik hier een 9800SE AIW met 8 extra pipelines unlocked en op XT snelheden lopen

Met de X800 en X1800-Series waren zulke grappen ook mogelijk en bij nVidia toen ook bij bv de 6800LE die dan bijna een 6800GT kon worden :)

Ik kan me overigens weinig scenario's voorstellen waarbij ik dit in de bios zou willen regelen. Ik ben juist erg blij dat mijn videokaart met undervolt en OC gewoon vanuit software geregeld is, bij problemen is er dan niets terug te vinden O-)

Ben benieuwd welke scenario's jij in je hoofd hebt :)
Het is goedkoper voor AMD om bepaalde chips gewoon lager te schalen dan apart te moeten reserveren of maken. Al vanaf de K7 verkocht AMD Slot A 500Mhz, 550Mhz, 600Mhz, 650Mhz modellen voor een lagere prijs, maar had gewoon intern een chip wat van de 750Mhz lijn afkwam. Al die Slot A CPU's hadden gigantische headroom, zeker als je de 500Mhz model had. Je had een golden finger device nodig, en je moest de behuizing van je CPU openbreken, om erbij te kunnen komen.

Maar zo kon je de multiplier, voltage instellen en snelheid van de L2 cache.
Op zich is dat nog niet eens zó lang geleden. De R9 Fury (kennen we hem nog?) kon je vaak ook unlocken. Een volledige Fury X werd het er meestal niet van, maar van 56 naar 60 compute units was vaak prima te doen. De Fury X had er 64.
Omdat chips tegenwoordig met een laser "afgesneden" worden of intern tools hebben om bepaalde fuses te laten klappen waardoor het technisch onmogelijk wordt deze te unlocken.
die goede oude tijd ja...

Mijn FX5600 of 5700 kon ik als FX5800 flashen en draaien... Dit scheelde bij Far Cry 1 echt heel veel. Of ik had net genoeg om niet te stotteren met de hoogste settings of het was super vloeiend (30 vs 60fps) vsync locked...
Kan je hiermee dan ook mining restricties ontwijken door een BIOS er op te zetten van de ongelimiteerde variant?
De LHR bedoel je, dat vroeg ik me idd ook af.

Aan de andere kant wat voor nut heeft dat voor m'n 3060Ti, dat is eigenlijk nooit een miningkaart geweest en bovendien, zijn crypto's niet op sterven na dood?
Maar AI maakt wel een opmars waar ruwe GPU power (en met name, VRAM) handig voor is. Dat is enkel alleen niet weggelegd voor zo'n groot publiek als crypto dat is/was.

Een 3060 is daar ook te laag voor. Zo ver ik weet heb je ook geen voordeel aan SLi achtige toepassingen, omdat de VRAM dan redundant gebruikt wordt, elke kaart heeft dezelfde data in de VRAM zitten, meerdere kaarten in 1 bak stoppen schiet je niks mee op.

Dus blijft het bij dure 3090 en 4090 voor de 24GB VRAM, en anders kom je terecht H100 enzo dat voor de thuis knutselaar al helemaal niet te betalen is.

Kortom, een krimpende markt voor die miningcards.
Nee. Mijn BBANK is zojuist verdubbeld 😎
Anoniem: 58485 @mjl21 augustus 2023 18:18
Ja. Dat kan.

Je moet wel een bios hebben dat werkt op je kaart.
Naast een backup is het ook aan te raden om dit enkel te doen op kaarten met een dual-bios feature.
Als het flashen faalt kan je gewoon de switch omzetten, je systeem terug booten, de switch nog eens omzetten en opnieuw proberen flashen naar de corrupte chip.

Zonder dual-bios wordt het al heel moeilijk tot onmogelijk om de kaart terug te flashen ook al heb je een iGPU om mee te booten. Zonder vbios heb je namelijk gewoon een paperweight in je PCIe slot zitten en daar kan geen enkele tool mee overweg :+
In DOS is dat me wel eens gelukt toen ik een verkeerde bios had geflasht op een 7800 GTX die ik in een Powermac G5 wou monteren. Die kaart doet het sindsdien al jaren prima in die G5 - uiteraard nadat ik er een goede bios op geflasht had. Het is alleen nog maar de vraag of deze tools dat ook al kunnen
Met behulp van een tweede videokaart of zelfs de Igpu kun je weer beeld krijgen en weer terug flashen.
Wel het juiste slot kiezen om te flashen.
Nee. Of je steekt een PCI graphics card er naast bij in, stelt in de BIOS in te starten vanaf het PCI slot, of je kiest je onboard GPU. In Windows kan je het flashen weer.
Ach die garantie zit er toch niet op, heb namelijk een Gigabyte kaart.
Kunnen ze dat zien dat je er aan gerommeld hebt dan? Zal altijd proberen om garantie te krijgen.
Als het ze lukt een dump te maken van de bios kunnen ze dat verschil wel zien. De vraag is of ze dat doen.
Dat vast ook wel, maar Gigabyte staat er niet om bekend om goede customer support. Schijnt bar slecht te zijn. Dus het woord garantie is heel klein geschreven daaro.
Mooie nostalgische tijd (2002) toen je van een ATI 9700 een 9700 Pro kon flashen :9
Voor die-hard overclockers was de beperking om bios aan te passen een dingetje, maar gezien de meeste kaarten tegenwoordig al behoorlijk tegen de max lopen kom je per definitie in een on efficiënte v/f curve.

De 40 serie is enigszins minder agressief geclockt maar de 30 series kan je met 40% minder stroom laten draaien tegen 10% performance verlies.

Wie weet komen ze nog wel verder met de 30 serie bios en kunnen ze eventueel dlss 3.0 laten werken door de kaart vals te laten rapporteren.

Er zijn verschillende geruchten van dlss 3 op eerdere generaties wat er van waar is durf ik niet te zeggen.
Nou ik liep er inderdaad tegenaan dat de restricties in het vBIOS ervoor zorgde dat ik mijn GTX1080 niet verder kon overclocken. Liep tegen een TDP-limiet aan, want temperaturen waren met 39c stressed ver beneden tjMAX. Had niet de behoefte om een shunt-mod te doen, maar een aangepast vBIOS flashen had ik wel ervaring mee dus dat durfde ik wel aan. Ware het niet dat vanaf de 900-serie dat gelocked was.

Cewl dat het nu toch te omzeilen is. Jammer dat ik die GTX1080 niet meer heb :)
Voor de goede orde, met zo'n tool kan je niet gesigneerde bios files erin flashen, wat normaal niet kon. Wat kan je met een aangepast bios doen?

- Voltage verhogen
- Current voor de chip verhogen
- Thermal limits, boost frequency, min/max temp etc aanpassen

Bij midrange kaarten zie je dat maximaal board power gelimiteerd is tot bijv 200w. Dat zit gewoon hard locked in het bios, terwijl kaarten of chips vaak harder kunnen gaan. Met zo'n bios ben je in staat die limit te verhogen tot bijv 300W, en dan merk je dat je kaart toch ineens een stuk beter wil overclocken.

Ik heb zelf een RX6700XT - welk met een GPU Chip power van max 186W komt. Het nadeel is dat in drukke scenes de clocks gigantisch heen en weer kunnen jumpen, van 2600Mhz terug naar 2100Mhz omdat het tegen een power limit aanloopt. Met MPT kan je die waardes verhogen, naar bijv 240W. En dan zie je dat de GPU ineens wel op 2.4Ghz of hoger kan opereren. Dit geeft een veel prettigere ervaring met games en drukke scenes. Ik kan tot wel 350W gaan - maar dat heeft weinig zin. De maximale clocks voor de 6700xt lijken ergens in de 2.8Ghz te zitten - erna is de rek eruit. Meer stroom erin pompen gaat weinig meer opleveren.

VRM's op videokaarten zijn vaak over-engineerd - kunnen veel meer aan dan dat de chip standaard verbruikt. Een 150W polaris reference design is goed voor 450W aan verbruik. Een RX6700XT zal ook richting de 400W kunnen. Idem met Nvidia kaarten. Als je kaarten zover gaat pushen dan krijg je wel issues met warmte, met verbruik, er gaat ineens het dubbele door je kaart heen. Maar het is leuk spelen.

[Reactie gewijzigd door Anoniem: 58485 op 25 juli 2024 07:54]

Op dit item kan niet meer gereageerd worden.