Modder maakt RX 9070-videokaart sneller door XT-biosflash

Een modder heeft het bios van een AMD Radeon RX 9070 XT-videokaart geflasht op een RX 9070-kaart, waardoor laatstgenoemde de hogere tgp en hogere kloksnelheden van de XT-versie overneemt. De kaart zou daardoor bijna net zo snel zijn als de XT.

Een gebruiker van het PC Games Hardware-forum zegt zijn ASUS Prime Radeon RX 9070 te hebben voorzien van het bios van de XT-versie van diezelfde kaart. Daardoor kreeg zijn RX 9070 het ongeveer 400MHz hogere klokprofiel van de XT-versie. De kaart haalde dankzij het XT-bios ook de hogere tgp van 304W, in plaats van de 220W van het origineel.

De videokaart presteert daardoor sneller dan met het standaardbios, al mist de gpu nog wel de extra compute-units van de XT-versie. Ook de geheugensnelheden blijven hetzelfde, aangezien die van de RX 9070 en 9070 XT toch al identiek zijn.

Forumgebruiker Gurdi denkt dat de videokaart met een overklok ook sneller zou zijn dan een referentie-XT-model. Wel merkt hij op dat de videokaart soms vastliep, hoewel dat volgens hem ook kon komen door de overklok die hij zelf heeft doorgevoerd. De non-XT-kaart van ASUS heeft daarnaast een 8-pinsvoedingskabel minder dan de XT-versie en zou daardoor minder stabiel kunnen zijn dan de XT-variant. Het is niet duidelijk of het bios van andere videokaarten ook te flashen is of dat dit alleen mogelijk is bij de ASUS-kaart.

Videokaart Radeon
RX 9070 XT
Radeon
RX 9070
Compute-units 64 56
Streamprocessors 4096 3584
Boostclock 2970MHz 2540MHz
Geheugen 16GB GDDR6 16GB GDDR6
Tdp 304W 220W
Adviesprijs 695 euro 639 euro

Door Hayte Hugo

Redacteur

07-04-2025 • 16:30

100

Submitter: HugoBoss1985

Reacties (100)

Sorteer op:

Weergave:

Kun je niet hetzelfde voor elkaar krijgen door de kaart zelf te overclocken? Het is niet zo dat je deze kaart nu unlocked naar een XT. Dat zou pas een echte meerwaarde zijn. Ik meen me nog te herinneren dat ik ooit een kaart van AMD heb gehad waar dat je een lagere variant ook echt volledig geunlocked had naar de hogere type.
Dit unlocked enkel het stroomverbruik wat de kaart kan vragen, niet de hoeveelheid shaderunits e.d.
Ik heb zelf een 9070 Pulse, die max 241w kan vragen, t.o.v. 220w stock. Hij blijft hierbij prima onhoorbaar stil, met hotspot temps van 70-72c. In Steel Nomad haal ik grofweg 6.4k, wat een prima verbetering is t.o.v. 5.8k stock. Er zijn echter modellen die tot 260-270w kunnen gaan, en 6.8k scoren. En dan heb je dus deze non-XT's met XT bios die tot 7.1k gaan, wat grofweg overeenkomt met een stock XT model.
Helpt het dan ook om de kaart te undervolten? Dat was bij Vega altijd een leuk trucje.
Correct! Enkel de power limit verhogen heeft wat effect, maar ik draai zelf ook met een 80mv offset, waardoor de boost clocks ook hoger zijn. Je kunt dus ook de power limit op 220w laten en enkel undervolten, hiermee zit ik rond de ~6.2k in Steel Nomad.
Al met al niet slecht te noemen voor het verplaatsen van wat sliders.
Vraagje, hoe kan ik mijn videokaart undervolten? Ik heb eerder al eens een poging gewaagd d.m.v. MSI Afterburner, echter begreep ik er ondanks de online tutorials nog vrij weinig van. De kloksnelheden omlaag halen t.o.v. het voltage blijft mij best onduidelijk :?

Gezien ik dit experiment met een RTX4060 uitvoerde was het stroomverbruik/verschil praktisch onmogelijk te meten dankzij het bekende monitoring probleem met deze kaarten, dus dat zal ook niet meegewerkt hebben in mijn experiment. Het volgende doelwit wordt mijn 9070. Zodra ik uitvogel hoe dit moet, that is :P
Nvidia kaarten gaan inderdaad via msi afterburner en de voltage curve die daar te vinden is.
AMD kaarten kun je gewoon in de driver zelf aanpassen, en is een kwestie van naar het juiste tabblad gaan. Hier een video: YouTube: How to Overclock & Undervolt RX 9070 | ADRENALIN 2025 Easy Tutorial
Ik had de R9 290 geüpgrade naar R9 290X met deze VBIOS Flash inderdaad, was een enorm fijne unlock. Heb 'm wel ietsje moeten terug klokken wegens instabiliteit (na een aantal verschillende RAM varianten van de VBIOS geprobeerd, SKHynix, Samsung etc) maar er was alsnog een flinke performance winst :)
RX 480 4GB naar RX480 8GB was mogelijk bij sommige modellen.
En geloof van een Radeon 9500 naar een 9700. Maar das al lang geleden.
Hoe krijg je fysiek dan meer GB met een BIOS flash... die snap ik even niet.
Er zat 8gb op die kaarten 4gb was in de bios uitgeschakeld.
en we zitten nu pas op gemiddeld 12/16GB, gaat niet erg hard zo... :)
Het was de Tesla/BMW aanpak. Gewoon erin gooien met fabriceren, daarna weglokken in firmware/hardware locks.
Het was de 6950 naar een 6970. Zie het in een comment en dacht, ahh dat was de kaart.
Dat werkte inderdaad voor sommige versies (zelf ook nog gedaan). Tweakers had daar toen ook een artikel van: nieuws: Bios-mod verandert AMD Radeon HD 6950 in HD 6970
Ah, toen een high end kaart nog geen 300 euro kostte. Wat een tjiden.
Ja echt heh, die krijgen we helaas nooit meer terug.
Oh jawel, hoor.

De overheidscontracten drogen vanzelf op voor AI door een onvoorziene gebeurtenis. Dat is op software gebied reeds gebeurd met Diepzoek. Op hardware gebied zal er vast ook zoiets gebeuren.

De wereld is niet statisch.
Maar er is ook amper concurrentie, doorgaans als prijzen omhoog gaan (door wat voor reden dan ook) komen ze echt niet zomaar uit zichzelf terug omlaag als die reden vervalt. Als er een concurrent zit die veel goedkoper kan leveren, DAN is het een drijfveer om wat aan de prijs te doen, anders echt niet.
Intel is nu ook de gpu-business ingestapt. Concurrentie is wel aan het groeien dus. Alleen omdat AMD geen antwoord heeft op de absurde chips van nvidia en de sky is the limit qua stroomverbruik kan je een nvidia kaart kopen voor het bedrag waar je 2 complete game-pc's van kan bouwen. Als je die buiten beschouwing laat en de 9070-XT als high-end kaart bekijkt dan is het nog redelijk te doen. Maarja, vroeger kreeg je 50fps in crysis voor dat geld op 1080p. Nu krijg je 100fps in QHD met cyberpunk. Veel meer frames, pixels en polygons maar vinden we het gek dat het opeens meer kost. Je krijgt ook meer, dat vergelijk met vroeger ook altijd...
Als je de grafieken bekijkt hoort ook alles goedkoperderder te worden in computerland, dat werkt al decennia zo, ondanks dat het allemaal geavanceerder wordt.

Je zou dat ook af kunnen leiden uit de CPU wereld nu. Vraag ffkes 2000 euro's voor je 9950x3D en gij zult zien wie er in elkander stort.
Je loopt nu tegen limieten aan waar het bijna niet kleiner kan. Om toch meer performance eruit te halen heb je meer werk nodig.

Als je dan ook de gestegen vraag meerekent dan wordt het inderdaad allemaal duurder. Crypto en AI slurpen ook enorm veel op.
Als je dan ook de gestegen vraag meerekent dan wordt het inderdaad allemaal duurder. Crypto en AI slurpen ook enorm veel op.
En daar zit ook de crux van het verhaal. Ze kunnen dit alleen flikken omdat ze gedekt worden door langlopende, voornamelijk overheidscontracten, want die gaan nooit failliet. De crypto run is ook over, voor wat betreft GPU's.

Soms duurt het alleen langer voordat het over is. Het is en blijft geen statische wereld.

Kijk naar een Koenigsegg Jesko. verkopen ze vanaf 2,7 miljoen euro. Worden er maar 125 van gemaakt. Toch maken ze winst.

Kosten fabriek in Zweden. Ik weet het niet precies, maar laten we zeggen: 200 miljoen euro.

Dit kan je blijkbaar terugverdienen door er 125 van te verkopen.

Terug naar de GPU bouwer. Kosten fabriek, ongeacht van wie die nu is: enkele miljarden. Dit kan je nooit terugverdienen door 125 GPU's te maken en die voor 100 miljoen per stuk te verkopen. Alles kan zou je kunnen zeggen, maar waar blijft dan de game industrie, de applicatie voor de hardware?

Resultaat: massaproductie voor een schappelijke prijs. Hetgeen nu verwaterd is door AI, een andere applicatie voor GPU's en langlopende voornamelijk overheidscontracten. Maar tijden zullen weer veranderen.

Ik vraag altijd zo'n 10 andere mensen om mij heen van verschillende pluimage en vraag dan bijvoorbeeld ben je bereid 4000 euro uit te geven aan de beste kleurenkaart met de kennis dat het nog niet zo lang geleden rond de 600 euro was. Nog afgezien van dat de meeste er het geld niet voor hebben, hebben ze, indien ze dat wel hebben, het er gewoon simpelweg niet voor over. Ik vraag dan ook altijd aan mensen of zij iemand kennen met een 5090. Zelden hoor ik daar een ja op.

"Dan speel ik toch niet de nieuwste spellen als mijn kaart het niet trekt?" Misschien is het nu al zichtbaar in de game industrie, maar als steeds minder mensen je spellen kopen, stort deze industrie vanzelf ook in.

Een AAA spel ontwikkelen kost wellicht 2 a 300 miljoen. Da's leuk, maar wie gaat daarin investeren als er relatief gezien geen 5090 kaarten op de markt zijn in aantal.

Dus zelfs al wil men er 4000 euro voor betalen, er zijn er simpelweg niet genoeg. En ook al waren er genoeg, de prijs voorkomt dat er genoeg van bij jou en mij thuis verschijnen.

[Reactie gewijzigd door Hatseflats op 10 april 2025 13:57]

Een paar dingetjes, er staan aardig wat aannames in je post en vergelijkingen die niet helmaal kloppen.

Crypto gebruikt nog steeds GPU's, al is het voornamelijk om machine learning voor handelen te gebruiken. Kan je ook onder AI scharen. Overheden kopen amper van die kaarten op, op wat onderzoeksinstellingen na die supercomputers bouwen. Het zijn vooral de microsofts en andere techgiganten die die dingen kopen. Maar volgens mij amper AMD kaarten, veelal zijn het nvidia kaarten vanwege de juiste api's e.d.

Je kan ook niet ontkennen dat je nu 'meer' krijgt voor je geld dan vroeger. Oppervlakte van navi1 was 250mm² met 10 miljard transistors. Navi4 heeft 350mm² met 53 miljard transistors. Hoe kleiner en preciezer je werkt hoe groter en duurder de machines worden. Idem voor cpu's, een 9950x3d heeft 1 IO interface, 2 core chiplets en voor x3d moet er nog een chiplet onder een van de core chiplets gemaakt worden. Mijn AMD Barton had 1 core op 1 die en dat was het. Niet eens een heatspreader erop. Moederborden met veel minder layers, allemaal minder storingsgevoelig en werkte op lagere frequenties. We vragen meer van de technologie, het moet alsmaar meer en beter en we willen er schijnbaar niet meer voor betalen en sommige toko's gaan bizarre dingen maken om ergens de troon van te pakken (ja nvidia, jullie ja)
Een paar dingetjes, er staan aardig wat aannames in je post en vergelijkingen die niet helemaal kloppen.
Moet je ze wel opnoemen.

Machine learning valt i.i.g. onder de AI 'plu, is zelfs hoogstwaarschijnlijk synoniem.
Overheden kopen amper van die kaarten op, op wat onderzoeksinstellingen na die supercomputers bouwen.
Een misconceptie met als voorbeeld de top 10 van de top500 lijst.
Ik had dus 800fps met Cyberpunk. Meteen de boel onder geklokt. Amd Radeon 6650 XT OC.
Ik had dus 800fps met Cyberpunk. Meteen de boel onder geklokt. Amd Radeon 6650 XT OC.
Ik wist niet dat er nog op 640x480 gegamed werd.
Je hebt een nulletje teveel ingetypt of je ziet ze dubbel in je fps counter.
Nee hoor. Die kaart is van zichzelf al stevig. Kan ook zijn dat ik het verkeerd ingebouwd had. (Teveel stroom?) PC steeg zowat op. Net een straaljager.

Alles opgezocht op internet en gaan prutsen met alle instellingen en nu netjes slechts 90 fps. Snel genoeg voor mij.
800fps is niet haalbaar met die kaart.
Moet die monitor wel gaan vervangen. Is 8 jaar oud.
leg kaart van toen eens naast kaart van nu.
Leg de inflatie tussen toen en nu er eens naast.
Destijds werd ook al het maximale uit de beschikbare techniek geknepen, dus wat dat betreft moet er geen verschil zijn. Tenzij er nu fors meer exotische materialen gebruikt worden of iets dergelijks, maar dat is niet het geval.
De kaarten zijn twee keer zoveel materiaal, dat per gram dure metalen anderhalf keer zo duur geworden is. De productieprocessen zijn daarnaast ook duurder.
Kun je uiteenzetten wat er precies bij komt kijken en welke grondstoffen er duurder zijn geworden en eventuele oorzaken ervan?
Het is niet alleen grondstoffen, maar ook de tijd om een chip te maken. Kijk voor de grap eens wat voor unit een High EUV machine van ASML is en wat een machine voor een 110nm gebruikt wordt.

https://www.asml.com/en/p...y-systems/twinscan-xt860n < sub 110nm

https://www.asml.com/en/p...systems/twinscan-exe-5000 < High EUV, 8nm

De afbeeldingen ken ik niet, maar op het oog gaat de ene machine er 10 keer in. Daarnaast is het mogelijk dat de yields lager zijn, door de kleinere marges zullen dingen meer tijd kosten.

En als we dan toch appels en peren gaan vergelijken; een personal computer was vroeger 3000-5000 USD, met inflatie meegerekend, nog best duur. En toen betaalden we het ook gewoon...
En als we dan toch appels en peren gaan vergelijken; een personal computer was vroeger 3000-5000 USD, met inflatie meegerekend, nog best duur. En toen betaalden we het ook gewoon...
Wat is vroeger? En welke appels en peren bedoel je?

Ik begrijp niet goed wat de grootte van een machine er toe doet. Tijd is ook niet echt een factor, aangezien TSMC er nog steeds met ASML machines in den beginne genoeg uitpoept.

Ik zie ook geen samenhang met mijn vraag.
Vroeger is de early 90s zo'n beetje. De tijd van MS-DOS, win95, de eerste apple, commodore (nog voordat ik naar school ging denk, dus kennis is niet echt heel erg aanwezig).

De grootte van de machine representeert letterlijk de complexiteit en hoeveelheid materiaal die erin moet gaan om jouw chipje te bakken. En de appels en peren; een Radeon 9800PRO of een 9070XT zijn 2 compleet andere kaarten.
De commodore is voornamelijk van de jaren '80. Win95 is zoals de naam het al zegt van 1995, niet echt begin jaren '90.

Het gaat vooral om de lenzen die erin moeten die zo groot zijn. Een groot omhulsel om dat netjes weg te werken zegt niks.

En hebben we het nu over GPU's of over CPU's?

Edit: Ik zat het nog eens terug te lezen, maar je stelt feitelijk dat hoe groter hoe complexer? Terwijl we het over GPU's hebben die vrij klein zijn?

[Reactie gewijzigd door Hatseflats op 10 april 2025 14:22]

Nee de machines. En die lenzen hebben ook steeds meer eisen. Spiegels die vlakker moeten, kleinere marges. Als ik een huis kon bouwen waarvan iedere plank een cm of 20 kan afwijken was ik snel klaar. Moet alles met pressure fit passen ben ik langer bezig. Als je niet inziet dat dit dan meer resources kost dan ga je het nooit inzien denk ik. :w
Ik denk dat jij nooit in zult zien waar ik tussen de regels door allemaal op doel. Elke keer weer.

Jij stelt: groot = complex.

Een GPU is ook complex, maar dan heel klein. Veel succes in Dunning-Kruger land.
Klopt, 2 van deze kaarten van een 6970 bios voorzien, ooh, wat was ik blij!
Radeon 9500 naar een volle 9700 modden, dat was nog eens tijden zeg.
Ook de 9800se naar een volle 9800 modden.
Me maat had toen by Mycom een 9800se AIW gekocht voor 250 guldens toen en gemod naar een volle 9800. Hij was erg blij mee. Ik had een 9500 naar 9700 gemod.
Maar modden en OC is tegenwoordig niet meer echt, nu is het meer voltage omlaag zodat het cooler is en kan de mhz omhoog daardoor.
Me maat had toen by Mycom een 9800se AIW gekocht voor 250 guldens toen en gemod naar een volle 9800.
Dat lijkt mij sterk. De gulden werd in januari 2002 vervangen voor de euro. De ATI Radeon 9800 en SE kwamen uit in maart 2003.

[Reactie gewijzigd door The Zep Man op 7 april 2025 22:35]

dan zal het euro geweest moeten zijn.
Ik weet het niet meer. Ik had mijne 9500 wel voor 150 guldens toen.
Ook die kwamen in 2003 uit. https://www.techpowerup.com/gpu-specs/radeon-9500.c481

Denk dat je die ook in euros betaald heb.
Ik heb het ook nog met de 5070 gedaan. Alleen dit model, van MSI, was nogal bagger qua koeling, dus haalde er daar alsnog niet alles mee uit.
Je kunt met zelf overclocken er ongetwijfeld wat prestaties bij krijgen, alleen verwacht ik niet dat je een 9070 non XT met standaard TDP van 220W zomaar even op ~300W kunt laten lopen zonder dit soort dingen te doen. De meeste 9070's zullen maximaal 230-250W toelaten afhankelijk van welke uitvoering je precies hebt vermoed ik zo.

Overigens is het ook maar de vraag of deze biosflash op lange termijn risicovrij is, niet alle 9070's zullen qua PCB ontwerp en stroomvoorziening berekend zijn op zoveel meer vermogen te moeten leveren dan waar ze voor ontworpen zijn.
Het is een leuke truc dat dit flashen werkt maar het lijkt me inderdaad totaal zinloos.

De RDNA4 GPU's klokken gewoon omhoog totdat ze aan hun TGP zitten of tot ze aan een maximum klok zitten waarop de chip nog stabiel is. De enige schuifjes/knopjes die je als gebruiker hebt zijn het verhogen van de maximum TGP, of het verlagen van het voltage (in theorie zou je de voltages misschien ook kunnen verhogen om stabiel te blijven bij hogere clocks, maar dat heeft denk ik alleen zin als je de koeling van de kaart radicaal gaat modden).

Door de BIOS van een XT op een niet-XT te flashen ga je hooguit de defaults en limits die de fabrikant erin gezet heeft aanpassen of ophogen, niks meer niks minder. Die limieten heeft de fabrikant natuurlijk niet voor niks gekozen, want welke fabrikant gaat nu een chip die overclock headroom heeft verkopen als goedkoper standaard model in plaats van een OC uitvoering.

Van deze zin uit het artikel moest ik dan ook wel even glimlachen:
Wel merkt hij op dat de videokaart soms vastliep, hoewel dat volgens hem ook kon komen door de overklok die hij zelf heeft doorgevoerd.
Al die moeite om een andere BIOS te flashen terwijl je dus ook gewoon de TGP had kunnen verhogen en/of undervolten om er achter te komen dat de kaart dan instabiel wordt :+
Als er meer vraag is naar de non=oc variant kan het zomaar gebeuren dat de betere chips ook in de non-oc variant worden geproduceerd }:O

Dan denk ik bijv aan jaren terug, celerons van Intel die ipv van 300Mhz, op 450Mhz liepen net als het topmodel. Simpelweg omdat er teveel goede chips waren en er te veel van onverkocht bleef en/of teveel vraag naar het goedkopere model.
Daar kom je met wat speurwerk gauw genoeg achter. Er zijn vast 9070’s met een pcb dat identiek is aan de XT-versie.
Hoeveel zegt dat concreet? Een wat goedkoper type condensators of op een bepaald onderdeel geen koelblok erop o.i.d. lijkt me niet ondenkbaar.

Edit: oprechte vraag, geen retorische. ;)

[Reactie gewijzigd door Frenziefrenz op 7 april 2025 22:05]

Jep, dat kan natuurlijk. Geen slechte om dan ook meteen uit te zoeken. Als je fanatiek bent, soldeer je er natuurlijk meteen de dikkere types op (maar dat doe je dan puur voor de hobby, want alleen aan die onderdelen ben je ook al bijna die zes tientjes extra voor de XT kwijt).
Een "wat goedkoper type condensator" gaat erg weinig besparen op de BOM, maar verhoogt je inventaris weer met 1 extra component. Dat is zelden de moeite. Het is zelfs niet ongebruikelijk om twee dezelfde condensatoren naast elkaar te gebruiken in plaats van één grotere, als je die kleinere condensator toch al elders nodig had. Alweer: scheelt in de logistiek.
Ik denk dat je de vraag iets te letterlijk neemt. Nadruk op "o.i.d." Maar als ik je juist begrijp geldt hetzelfde dus voor alle onderdelen en zou alleen weglaten praktisch gezien kunnen gebeuren.
De Vega 56 naar een 64 flashen was ook mogelijk. Kwam je uiteindelijk dicht in de buurt van de Vega 64.
vroeger idd de 9500 naar 9700 kunen modden met 2 draadjes solderen en firmware.
zalman cooler er op en knallen met die kaart. mooie tijden :-)
zo konden ook enkle 9800pro naar een xt flashen.

opzich zou je het moeten kunnen halen met een overclock. maar in sommige firmware zitten limieten aan wat je zou "mogen" door middel van de firmware flash van de hogere kaart unlock je als het ware alsnog het overclock potentieel.
Kan iemand mij uitleggen van de TGP is? Is dat hetzelfde als TDP?
TGP zegt hoeveel stroom hij in principe mag gebruiken (piek vermogen wordt daar niet in meegenomen). TDP zegt hoeveel warmte iets afgeeft, of de hoeveelheid warmte waar het koelsysteem voor is ontwikkeld.
Total Graphics Power, wat de PCB van de videokaart aan stroom kan verbruiken.
review: De laptops van 2023 - Overbodige tgp's en de opmars van 16/512 zie dit artikel, soort van TDP inderdaad. Maar waar een CPU echt rekenkracht heeft doet een videokaart uiteraard ook stroom gebruiken voor andere dingen (het geheugen bijvoorbeeld)
@Astennu old times revive. Kom er maar in :)
Haha
Ja en nee. Deze mod unlocked de shaders En texture units ect helaas niet (in dat opzicht is de non XT 13% cut down). Enige wat het wel doet is de power limits verhogen.

Persoonlijk is de sweets spot voor een XT rond de 240/250 watt dan heb je nog steeds hele goede prestaties maar een veel lager verbruik. Voor een non XT is dat eerder de 220-230 watt en daar zit die kaart stock al.

Het is opzich niet raar dat je het van een 9070 XT wint als je er 35 watt extra doorheen gaat jagen en een - voltage offset toepast voor een scherpere boost curve.

Ik denk dat die kaart met stock power limits en de offset ook heel dichtbij de 7k zou komen waar de stock 304w XT's ongeveer zitten.

Een XT met 340 watt en een offset scoort richting de 7600 punten.

Mijn advies lekker de stock bios houden maar wel de voltage offset tweaken dat levert de meeste winst op van de power limits afblijven om alles zo efficiënt mogelijk te houden.
Als je max performance wil kan je beter een XT kopen. Door zo'n bios te flashen zorg je er alleen maar voor dat je performance per watt veel slechter gaat worden voor misschien 4-7% extra tov de stock bios met max power (245/250w)

[Reactie gewijzigd door Astennu op 7 april 2025 18:05]

En als aanvulling op deze erg goede comment, vergis je niet dat de GPU koeler niet is ontworpen voor deze output en dat je waarschijnlijk naar je garantie kan fluiten als hij kapot gaat, al dan niet door het flashen, overklokken of totaal iets anders. Ook zal de koeler extra hard moeten werken en daarmee meer lawaai maken. Dus ben ik het totaal met je eens ook. De beste manier om te 'overklokken' in 2025 is undervolt bij gelijke power limit.
Als je hem terugflashed zal het wel mee vallen. Maar officieel ben je je garantie wel kwijt ja.

Als het goed is krijg ik van de week een 9070 binnen ik zal dan zelfs eens kijken hoe ver ik met de stock powerlimits kan komen.
In het verleden lukte dit ook, weet type kaart alleen niet meer. Simpele frash en je had zo'n 20% performance erbij. Was in de tijd dat midrange kaarten nog ~€180-200 waren!

Edit: volgens mij was het een AMD 6950 die je naar 6970 kon flashen? Heb die kaart jaren probleemloos gebruikt!
uitvoering: MSI R6950-2PM2D2GD5 deze kaart had ik!

[Reactie gewijzigd door Tortelli op 7 april 2025 16:41]

Zelfde idee als bij auto's, softwarematige limieten, in dit geval op potentieel "slechtere" dies. Mooi voor iedereen als het werkt!
Dit kon ook bij sommige AMD CPU's in het AM2+/AM3 tijdperk. Je kon Sempron 1xx unlocken naar een dual core, Athlon II X3 en Phenom II X2/X3 unlocken naar X4 (4 cores) en de Phenom II X4 9xxT varianten zelfs naar een X6. Vaak waren de cores instabiel, maar soms had je geluk :)
5700 series vibes
True, ik heb het toen ook mijn 5700 gedaan. Op zich leverde het wel wat op, maar de koeling van deze kaart (MSI) was nogal bagger. Helaas einde het verhaal, nadat ik iets te spontaan een AIO erop wilde zetten (en er niet goed oppaste) :'(
Oude tijden herleven. De ATI Radeon 9800 (Pro) kon je toen flashen naar een ATI Radeon 9800 XT: forumtopic: [OC]9800(PRO) flashen naar 9800 XT - Deel 2.
Yep hier een 9800 naar een 9800pro geflasht.
Mooi dat het kan. Ooit in het verre verleden een ati radeon 9800 pro naar een xt geflashed 8)7
Heb dit zelf ook wel eens gedaan met de RX 5700 maar die crashte vrij regelmatig. De oude bios terug zetten koste me ook een hoop moeite, maar ik ben ook best een noob.
En dan hopen dat de vermogenselectronica zwaar genoeg uitgevoerd is.
Doet mij denken aan ATI X800 GTO tijdperk. :)

Waarbij je middels een paar simpele bios mods ook een hoop meer features kan krijgen.

Dat was meer dan een paar procent fps winst 8-)

Op dit item kan niet meer gereageerd worden.