Youtuber voorziet AMD Radeon RX 5600 XT van 12GB geheugen

Een YouTube-gebruiker heeft de AMD Radeon RX 5600 XT-videokaart voorzien van 12GB geheugen. Standaard beschikt die videokaart over 6GB geheugen. De modder kreeg de videokaart werkend met een aangepaste bios.

De mod werd uitgevoerd door het team van het Portugese YouTube-kanaal Paulo Gomes, schrijft ook VideoCardz. Dat YouTube-kanaal deed eerder soortgelijke mods met Nvidia-videokaarten en toont nu dus een Radeon RX 5600 XT met 12GB geheugen. Gomes wist dat te bereiken door de zes geïnstalleerde 1GB-geheugenmodules te desolderen en die te vervangen door 2GB-modules. Zo kon de hoeveelheid geheugen verdubbeld worden.

Het team van Gomes wist de RX 5600 XT 12GB werkend te krijgen met een aangepaste biosversie. Het YouTube-kanaal deed daarvoor aanpassingen in de hexwaarden van de firmware. De videokaart wordt herkend in Windows en ondersteunt officiële drivers van AMD. In de video demonstreert het team onder meer hoe de videokaart een score van 412 haalt in de Unigine Superposition-benchmark op 10k. De originele videokaart met 6GB geheugen haalt een score van 191.

Gomes voorzag onlangs nog een GeForce RTX 3070 van 16GB geheugen, terwijl die videokaart standaard wordt geleverd met 8GB vram. In tests noteerde Gomes toen een aanzienlijke toename in de minimale framerates in de Resident Evil 4-remake vanwege de grotere framebuffer.

AMD introduceerde de Radeon RX 5600 XT in januari 2020. De videokaart was gebaseerd op de eerste RDNA-architectuur en had een Navi 10-gpu met 2304 compute-units. De videokaart werd standaard voorzien van 6GB GDDR6-geheugen en een 192bit-geheugenbus.

Door Daan van Monsjou

Nieuwsredacteur

04-05-2023 • 13:39

65

Reacties (65)

Sorteer op:

Weergave:

Wat betaal je nu werkelijk meer voor modules van 2GB ipv 1GB als het op GDDR geheugen aankomt? Zit er nog een significant verschil in waardoor Nvidia/AMD niet elke kaart kan voorzien van meer of is het gewoon puur planned obsolescence?
GDDR6 kost zo'n 13-16 dollar per gigabyte in 2021, dus als je van 6 naar 12 gaat, kost dat 78 tot 96 dollar meer. Daar moet nog BTW overheen natuurlijk, dus de kaart zou zo'n 94 tot 116 euro duurder worden in de schappen. Dan ga ik er voor het gemak even van uit dat de performance van deze chips gelijk is aan de chips die in de kaart worden gebruikt en dat dezelfde geheugenkarakteristieken (snelheid, latency) hebben.

Op een kaart die voor wat meer dan 300 euro over de toonbank ging, is dat toch nog een aardige prijsstijging.
ik dacht eerst zo duur is dat toch niet ? Maar dan las ik 2021.
Momenteel is de prijs per Gigabyte voor GDDR6 3-4.2 dollar dus een meerprijs van 18 tot 25 dollar.
of 22 tot 30 dollar duurder voor 6 GB extra.
https://www.dramexchange.com/
Wellicht, maar de 5600XT is al iets ouder :) Let ook op de kleine b in Gb daar, dat zijn gigabits! Je moet de prijs dus met 8 vermenigvuldigen. Veel DRAM-chips geven hun grootte in bits aan.

Ik mag toch hopen dat AMD en Nvidia wat betere prijzen krijgen dan de spotprijzen op die website. Als je dat spul in bulk koopt kun je natuurlijk een betere prijs onderhandelen, helemaal op de schaal van GPU-fabrikanten.

Ook is GDDR6X weer iets duurder dan GDDR6. 2GB aan GDDR6X (16Gbit) kost zo'n 33 euro.

[Reactie gewijzigd door GertMenkel op 23 juli 2024 02:57]

$ 3 tot 4.2 was al voor 8 Gbit modules -> 1 GB

modules van 16 Gbit waren daar vorige maand zelfs vanaf $ 5.20 te krijgen.
https://images.cyberbug.eu/gddr5-6spot.png
En dit inderdaad gewoon GDDR6 (de prijs van GDDR6X kan ik daar niet zien met mijn gratis account)

ik veronderstel dus net wel dat de spot prijzen de prijzen zijn die AMD en Nvidia daar krijgen
Wij kunnen dit Inderdaad niet aan die prijzen krijgen en zijn aangewezen op sites zoals Digikey.
GDDR wordt doorgaans door de AIB's (bordfabrikanten) gekocht, dus door Gigabyte, Asus etc. En die hebben voor een significant deel van hun productie tevoren ingekocht, zodat de GDDR makers een redelijk idee hebben wat ze moeten produceren.

Spot prijzen zijn de prijzen voor de restanten, en daardoor veel meer aan fluctuatie onderhevig. Dat kan boven de contractprijzen zitten, als de AIB's te weinig hebben ingekocht, of daaronder als de makers teveel hebben geproduceerd.

Gezien de tegenvallende belangstelling voor GPU's ga ik er van uit dat de AIB's voldoende hebben aan hun vooraf bestelde geheugen, en dat die 5.20 dus een dump-prijs is.
GDDR6 8Gb is 25 euro extra met BTW?? Waarom hebben videokaarten zo weinig geheugen. Met die prijzen zou je denken dat een 4060 minimaal 12GB zou hebben, een 4070 minimaal 16GB, 4080 24GB en 4090 32GB. Maar dat is niet het geval.
8Gb = 1GB. Dus per gigabyte.
Nvidia marktsegmentatie.
Ik denk dat de kosten wel wat hoger zijn voor de consument, de marges zijn meestal ook in procenten.

[Reactie gewijzigd door CH4OS op 23 juli 2024 02:57]

Nvidia en AMD leveren vooral de gpu en standaard pcb ontwerp af van wat ik weet en dan maken MSI, Gigabyte en vele anderen er een kaart van dus ligt het dan niet vooral daar?

Dan nog, die paar euro aan kosten meer moet dan wel maal hoeveel duizenden kaarten er gemaakt worden, dat tikt dan wel aan.
Dat was in het verleden zo, maar Nvidia verkoopt tegenwoordig zelf hun eigen kaarten (Founders Edition)

Dit is een doorn in het oog bij de AIB's aangezien Nvidia de kaarten goedkoper kan produceren (ze verkopen de chips aan de AIB's met marge) en daardoor meer winst maken bij dezelfde prijs. Dit is ook de reden dat EVGA is gestopt; bij een competitieve prijs tov de Nvidia kaarten werd de winst zo laag dat het niet meer te doen was. (Plus wat andere praktijken van Nvidia waardoor ze het beu werden)
Maar al die duizenden kaarten worden dan ook aan duizenden euro's verkocht.
Ik neem aan dat het voor AMD partners grotendeels hetzelfde is, maar Nvidia dicteert aan de AIB partners hoeveel en hoe snel geheugen op de kaarten mag zitten, ook wat ze qua overclock etc mogen doen, en zelfs hoe de box eruit moet zien.

Vroeger (in het sli tijdperk) brachten AIB's nog wel eens dualchip videokaarten uit (in principe 2 kaarten ineen) maar dat heeft Nvidia ze tegenwoordig verboden
Ik dacht dat dat wel eigen keuze was (indien goed onderhandeld) maar blijkbaar dan niet. Dat zelfs de box er op een bepaalde manier uit moet zien is een powertrip als je het mij vraagt maar goed.
Meer segmentatie

Als beide 4080 en 4070 Ti 16gb hebben, waarom zou je zoveel meer betalen voor een 4080?

Het is meer dan dat, maar een gemiddelde consument kijkt er veel simpeler naar.
Druk dan 24 of 32gb in die 4080.

Veel gamers doen jaren met een kaartje, toekomstbestendigheid kan best een goed verkoopargument zijn.

Die 4000 serie is door die kansloze hoeveelheden geheugen echt een waardeloze generatie.
Dat gamers jaren met een kaartje doen is precies wat men niet wil natuurlijk. Het is veel aantrekkelijker om mensen te dwingen om ofwel vaker te upgraden als ze midrange kopen, ofwel ze naar de high end te pushen.

"Toekomstbestendigheid" is voor de kaartenbakkers geen verkoopargument maar een probleem. Dubbel het geval omdat veel geheugen de kaarten uit de lagere segmenten ook veel aantrekkelijker maakt voor professionele toepassingen, en dat is ook al niet de bedoeling.

Vroeger gingen de ontwikkelingen snel genoeg dat mensen toch wel regelmatiger moesten upgraden, geheugen of niet, omdat de kaarten het anders al niet meer konden bijbenen in compute. Dat is een heel stuk afgezwakt, ondanks pogingen van NV om raytracing het nieuwe ding te maken waarvoor je absoluut elke gen zou moeten upgraden. Geheugen is daarmee een extra aantrekkelijke vorm van segmentatie geworden.

[Reactie gewijzigd door MneoreJ op 23 juli 2024 02:57]

Dit levert ze natuurlijk veel meer op, 8GB is bij een paar games (die ik speel tenminste) op 1080p@60fps al een bottleneck.

De support die AMD mijn RX580 tot nu toe geeft en zo een paar jaar extra leven heeft gekregen (kaartje outperformed nu zijn 1060-1070 tegenhangers appeltje-eitje). AMD stopt tenminste nog een beetje fatsoenlijke hoeveelheden VRAM op hun kaarten, 12-16GB is in dat kamp ondertussen de norm terwijl Nvidia nu nog loopt te pochen met 6-8GB in gamerkaartjes.

Maar goed, de meeste, ook hier op Tweakers, blijven massaal Nvidia kopen want in de launch specsheets staan ze altijd bovenaan. Dus tja, we vragen er zo ook zelf een beetje om.
Dan heb je niet meer de segmentatie met de 4090. En 32 GB is zinloos duur, dus de 4090 upgraden is ook geen optie. Die wordt al nauwelijks verkocht, dus er zijn vrijwel geen games die gebruik maken van 24 GB.

Wat wél een realistische optie is, is 10 GB of 20 GB opties (320 bits bus). Dat past in de bestaande line-up, is niet extreem veel duuder, en kan door games zinnig gebruikt worden.
24GB in de 4080, 32GB in de 4090. Dat lijken me best normale hoeveelheden voor zulke kaarten.

Die 6-12GB gaat die 4000-kaarten zo ontzettend bottlenecken straks (nu al?), performance in overvloed, maar niet het geheugen om die performance te gebruiken.
Dit is allemaal langdurige verkoop strategie :)
Vandaag maken we een kaart met 8GB geheugen > zodat iedere gamer zo goed als verplicht word een nieuwe GPU te kopen binnen de 4 jaar ! Ze kunnen gemakkelijk GPU's 20+GB geheugen geven maar dan kunnen mensen langer verder en valt de verkoop omlaag :) Dit heeft alles te maken met verkoopstechniek !
Je kan dan een discussie aangaan ivm de kostprijs van geheugen, maar hoe meer geheugen een bedrijf op voorhand reserveerd of besteld hoe goedkoper het word. Nu heeft AMD tijdens de pandemie meer geheugen gereserveerd, met het resultaat dat ze meer geheugen kunnen meegeven op de Gpu's dan Nvidia :)
Niet zo zeer planned obsolescence, eerder het idee een lading kaarten uit te brengen om zogenaamd elk segment te bedienen. Veel low end, veel midden segment met kleine verschillen, weinig upper mid en high end segment die significant duurder zijn. Allemaal met kleine verschillen.
Dat wordt vanavond dan ook even mijn RX 5700 xt proberen te verbouwen van 8 naar 16 GB, en kijken of dat met een aangepaste firmware ook aan de praat te krijgen is, houd wel van een uitdaging :9
Heb je daar de equipment voor? Indien dat het geval is denk ik dat je een aardig zaakje op kunt zetten als ik kijk naar de huidige markt :)
De benodigdheden heb ik er wel voor, en heb dit een hele tijd terug ook al eens met een GTX 760 geprobeerd, had er twee van een tijdje terug, en lagen al heel lang thuis alleen maar een beetje stof te happen, en wetende dat ik deze beide 760's toch al nooit meer ging gebruiken, is het zo gelopen dat ik daar hetzelfde mee heb geprobeerd een tijd terug, en dat is me destijds goed gelukt, na ook daar eerst de firmware van aangepast te hebben. Simpel is het overigens niet kan ik melden, het re-ballen van de geheugen chips is het lastigste, althans dat vond ikzelf dan in die tijd, nu ongeveer 8 maanden geleden zo ongeveer.
Ik had de 760,de last of the mohicans, laatste generatie waar de low end dezelfde chips had als high end.

Die kaart werd enorm genekt door de 2gb VRAM.
Ik zou mij dan eerst informeren of er geen stabiliteitsproblemen of artifacts kunnen optraden na de mod. Tenzij je de kaart niet per se meer wilt gebruiken.
De 3070 mod was niet geheel probleemvrij herinner ik me.
@peke "Ik zou mij dan eerst informeren of er geen stabiliteitsproblemen of artifacts kunnen optreden" Da's inderdaad altijd wel zo verstandig om eerst eens te doen, nu alleen nog hopen dat er goed wat informatie over te vinden is, zou mooi zijn.

@Luxurydiver Thanks voor het melden, daar kan ik inderdaad nog wel eens wat aan gaan hebben, maar het wordt eerst nog eens uitzoeken welk werk geheugen (VRAM) chips het betreffen op de Sapphire RX 5700 xt welke het in mijn geval betreft, en de overige zaken die hiervoor van belang zijn.

@batjes "Die kaart werd enorm genekt door de 2gb VRAM" klopt helemaal, had achteraf gezien dan ook beter voor de 4 GB variant kunnen gaan/kiezen, want ook met die hoeveelheid aan vram waren ze te krijgen, maar goed, dat was dus een leer voor de volgende keer ;)

[Reactie gewijzigd door SSDtje op 23 juli 2024 02:57]

Dat werkt zeker, want de 5700 XT met 16GB zit in mijn IMAC uit 2020. Wellicht kan je zelfs die Firmware laden. In Bootcamp kreeg ik prima 1440p performance uit die kaart
Dawid does tech stuff heeft een 3070 met 16gb uitgeprobeerd maar het maakt bijna geen verschil in gaming performance
Hangt van de exacte bench uit. Als de software het extra geheugen niet benut maakt het niks uit, zowel dan zie je aan bepaalde recente titels dat het problemen oplevert.
Gooi eens een moderne titel op 4K met alle opties op extreme en doe het dan nog eens weer.
Zodra je boven 8GB gebruik uitkomt zal je met de orginele configuratie je prestaties drastisch zien verminderen.
Kunnen we niet terug naar die tijd, toen je nog gewoon op PCI-kaarten geheugen kon inprikken?
Ik ben niet handig met solderen, en opzicht zou het geheugen uitbreiden (zoals nu met DDR-SDRAM) echt een handig iets zijn, zonder te veel moeten uitgeven aan een nieuwe GPU.

Al zullen de fabrikanten het niet leuk vinden, voor AMD/NV is het big business.
Hoe hoger de frequentie waarop het geheugen draait, hoe meer negatieve invloed de pennetjes en overgangen van connectors heeft. Die ouderwetse DIMM connectors zijn daarvoor echt niet meer geschikt.
Ik ben zo oud als Pacman, maar geheugen prikken op PCI kaarten? Dat kan ik me niet herinneren, over wanneer en welke kaarten heb je het?

Zou trouwens een leuke stunt zijn als Intel daar nu mee zou komen, koop nu een kaartje met 8 GB en als je over twee jaar voor ieder spel minimaal 16 GB nodig hebt (als je de mensen hier moet geloven), koop je gewoon 8 GB extra erbij. Klinkt als een hele mooie dikke middelvinger naar team Green en in mindere mate Red.

[Reactie gewijzigd door Alxndr op 23 juli 2024 02:57]

Ik kan mij vergissen, wellicht waren het ISA-kaarten? Maar je kon bijvoorbeeld op geluidskaarten extra geheugen inprikken.

Edit: https://hardforum.com/thr...rd-has-ram-on-it.1975021/

Maar zo zijn er meer, dacht ook op RAID-kaarten. Maar weet niet welke standaard dat was.

[Reactie gewijzigd door HollowGamer op 23 juli 2024 02:57]

Bij PCI werden er vaak sockets gebruikt, maar zelfde idee: https://www.vgamuseum.inf.../s3/295_eagles_top_hq.jpg

Vanaf AGP waren de geheugensnelheden dusdanig dat het niet meer haalbaar was om te werken met sockets voor het geheugen.

Hoewel er wel zoiets was als de Matrox Millenium met een geheugenslot erop: https://en.wikipedia.org/...G200_SGRAM_REV_A_1998.jpg

Volgens mij was dit wel een eigen standaard van Matrox en niet een willekeurige geheugenmodule die erin kon. De Matrox kaarten stonden ook niet echt bekend om hun performance.

[Reactie gewijzigd door happysan op 23 juli 2024 02:57]

Oh, ik denk dat er meer ISA kaarten waren vroeger waarbij dat kon. Als je de bandbreedte en latency van de ISA PCI(e) bus bekijkt weet je al snel waarom dat niet gaat werken; dat geheugen wordt veel trager dan het geheugen wat direct wordt aangestuurd. Wat ik eerder zie gebeuren is dat de RAM naar achter de CPU verplaatst bijvoorbeeld, om nog dichter bij de CPU te zitten, of een andere packaging waarbij zodat je ze rondom kan plaatsen ofzo.

Als je geen geen plek meer hebt voor geheugen kan e.g. een diskcache op een PCIe bus misschien nog wel helpen. Als je er dan nog wat HDD aansluitingen op doet en wat CPU kracht aan toe voegt heb je natuurlijk een RAID kaart, dus zo gek is dat niet.

[Reactie gewijzigd door uiltje op 23 juli 2024 02:57]

Zou wel goud zijn, soort sodimm slt erop waar je sodimm achtige uitbreidingen in kan klikken😁
Zijn moederbord fabriekanten daar al niet mee bezig om geheugen te kunnen bijplaatsen ( shared video memory) ?
Shared (video) memory is langzamer, dit zou sneller zijn omdat je direct RAM zou bijplaatsen op de kaart zelf.

Maar goed, het bestaat niet (meer). :9
geef nu elke 40 en upcoming 7000 series gpu een vram upgrade, misschien zijn ze het dan eindelijk waard
De 7900 heeft een prima hoeveelheid geheugen voor de huidige prijzen. De rest is nog niet uit. De 6700 tm 6950 kaarten hebben ook een prima hoeveelheid geheugen voor de prijs segmenten met hun 12gb en 16gb zelfs vandaag de dag terwijl die kaarten al 2 jaar oud zijn.

Bij nVidia heeft alleen de 4090 dat.
Mensen moeten die andere kaarten gewoon niet meer kopen tot nVidia of de prijs verlaagd of met meer geheugen op de kaarten zet.
ik zei upcoming 7000 series gpu, niet degene die al uit zijn, 7600 rumored voor 8gb

4090 en 7900xt op 24gb en 20gb is fine, maar voor een nieuwe generatie verwacht ik wel tenminste 12gb voor de 60 series van beide amd en nvidia, en 70 series 16gb, de 4080 is perfect met 16gb maar sinds het vergelijkbaar is met 7900xt verwacht ik wel 20gb

[Reactie gewijzigd door Blqckqut op 23 juli 2024 02:57]

De kans dat de 60 serie van nvidia 16GB is niet zo groot. De 70 serie heeft al maar 12GB.
exactly what im talking about, 12gb of meer of anders is het DOA
Steam heeft net zijn hardware survey van april 2023 getoond. In de top 20 videokaarten, staat welgeteld 2 videokaarten met meer dan 8GB geheugen (RTX 3060 en 3080). Momenteel heeft amper zo'n 15% van de Steam gebruikers, meer dan 8GB VRAM.Het grootste deel zit nog op 4, 6 of 8GB.

Zo snel zullen ontwikkelaars dus toch niet gaan om hun vereisten hoger te maken of ze schieten zichzelf in de voet, met een enkele uitzondering hier en daar.
ja, maar dat is niet genoeg voor games van nu, wel voor games van 2+ jaar geleden dat betekent dus ook dat meeste steam gebruikers deze games niet kunnen spelen
8 GB is vrijwel altijd genoeg voor medium, soms voor high. Die extra GB zijn nodig voor de Ultra settings. Game makers zijn niet dom, games maken die 90% van de PC bezitters niet eens kunnen spelen is vrij kansloos.
Dat heeft er vooral mee te maken dat 8gb al ruim 6 jaar een "high end" hoeveelheid VRAM is.

Ik ben eigenlijk een beetje teleurgesteld in AMD. Die heeft hier, nog steeds, alle kansen om het Nvidia erg moeilijk te maken.
Waarom teleurgesteld in AMD ?
AMD kaarte al langer aan dat meer geheugen noodzakkelijk ging worden in de toekomst voor games, en Nvidia sloeg hier de bal mis :)
AMD kaarten hebben meer geheugen dan de huidige Nvidia kaarten, staat vol met youtube video's die klagen over het lage geheugen van nieuwe Nvidia gpu's.
Steam is niet per sé representatief. Het kan op iedere aardappel worden geïnstalleerd en dus ook op laptops met een iGPU.

Het gros laat zich bovendien leiden door marketing van team groen, die al eventjes achterlopen qua vram, wat het beeld verder vertekent. Voor high end heeft AMD, met de 6000 serie en ook de APU in de consoles, tot minimum gemaakt. Ruim twee jaar geleden.

Dat men toen op de rem is gaan staan met de nieuwe generatie, daarvan denk ik niet dat ontwikkelaars dat hebben kunnen voorzien toen de keuzes voor hardware specs werden gemaakt en dat zelfs kaarten van 600€+ in 2023 minder geheugen meekrijgen dan 500€ kaarten uit 2020.
Waarom komen mensen altijd aan met steam hardware survey aan. Doe een zoek op google en je kunt zien dat die dingen bij lange na niet gebruikt kunnen worden om een werkelijk beeld te tonen.
Omdat Steam de klanten van de game ontwikkelaars bevat. Het komt er gewoon op neer dat 75% van de Steam gamers gamen op een aardappel en dat eigenlijk dus ook moeten kunnen, als je je game ietwat wil kunnen verkopen.
Dat is iets gechargeerd - rijke gebruikers hebben meer budget voor games én meer budget voor hardware, dus je hoeft niet strikt naar de survey verdeling te kijken. Maar je laat inderdaad geld liggen als je HW requirements op 8 GB beginnen, laat staan als je 10GB+ eist.
Ik kom weer terug op mijn punt. Het is niet betrouwbaar om dit als argument te benoemen. In heel mijn vriendenkring heeft nog niemand een survey gedaan. Google maar eens en zie hoe sommige resultaten op zijn minst gezegd twijfel achtig zijn.

Als steam een reusachtige platform is waar je goede resultaten van onderzoek kunt wegnemen, waarom verkopen gpu fabrikanten dan zoveel andere kaarten etc 2000/3000/4000 series. En dan komt AMD ook nog.

Waarom zijn nieuwe veeleisende games zo goed verkocht die echt niet goed lopen op een gtx1060 bv.

Ja als je een internet cafe in China mee neemt in je survey waar je lichte games spelen zoals CSGO gaat dit resultaten natuurlijk wel beïnvloeden.
Maar zijn al die gamers de doelgroep van je spel? Genoeg mensen die volstaan met pixel art games, puzzelspelletjes, kaartspelletjes, en oude spellen. Het is niet logisch om er vanuit te gaan dat al die 'aardappels' überhaupt interesse hebben in de nieuwste 3D titels. Het vergroot je markt wel, maar je loopt ook het risico dat je jezelf zulke limieten op moet leggen(niet alleen graphics, ook physics, AI, noem maar op) dat je afgemaakt wordt omdat het lijkt dat je een 10 jaar te laat gereleasede game uitbrengt.

En ik ben helemaal voor schaalbare engine hoor (dus van aardappel, tot pas over 5 jaar op ultra te draaien), maar op een gegeven moment gaat dat toch ten koste van de uiteindelijke kwaliteit van de game. En misschien leidt het ook wel tot meer bugs. ;) Soms is het gewoon goed ergens een grens te trekken.

[Reactie gewijzigd door MN-Power op 23 juli 2024 02:57]

Eerst maar even afwachten wat die 7600 ten tafel brengt. Alle serienummers zijn aan inflatie onderhevig, zowel bij Nvidia als bij AMD. De 7600 zal waarschijnlijk 7500 prestaties bieden, dus in feite de instapper zijn tenzij er nog echt een low-end budget kaartje komt. En dan is 8 GB nog te verantwoorden.
Je weet nog niet eens hoeveel de 7800, 7700 en 7600 gaan krijgen en ook niet wat ze gaan kosten. Een RX7600 XT 8GB voor Bv 270-280 euro is imo een goede deal. Als de prestaties tussen de 6700XT en de 6800 zitten. En wie weet geeft AMD aib's de optie om met 16gb versie te komen.
De 6950XT is nog geen jaar oud ;)
Klopt maar dat is niet veel meer dan een N21 XTXH (6900XT maar wat meer gebind op high leakage en clocks) en wat sneller geheugen.

Ik heb er 3 getest (en een gehouden) ze doen qua core clocks niet veel meer dan goede 6800XT of 6900XT kaarten. Zijn over het algemaan wat meer high leakage chips.
Leuke prestatie, zou ik zelf nooit durven, maar ik denk dat de prestaties van een 12GB 2080ti naar bijv. 24GB ook niet heel veel zullen uitmaken.
Op zich natuurlijk leuk om te zien dat oudere modellen op die manier nog ge-upgrade kunnen worden maar er zitten wel haken en ogen aan. Meest belangrijke is wel dat je de apparatuur er voor moet hebben om die geheugenchips te kunnen de-solderen en opnieuw te solderen. Het lijkt allemaal eenvoudig als je het ziet op Youtube en je in principe alleen maar een hetelucht station hoeft aan te schaffen. Maar in de praktijk heb je toch echt wel wat meer handigheid en soldeerervaring nodig wil het goed gaan.

En tja dan zit je nog met het punt hoe je aan de goede geheugenchips kan komen en daarnaast ook het gemodde bios. Daarnaast blijft de vraag of die mod wel bij elke videokaart lukt zeker al qua bios want je weet nooit wat de fabrikant verborgen heeft in het bios. En tja ik denk als je zo'n gemodde videokaart kant e klaar wilt kopen dat dan de prijs denkelijk gelijk zal liggen aan een nieuwe hedendaagse videokaart.

Op dit item kan niet meer gereageerd worden.