VideoCardz: foto's bevestigen dat Radeon RX 9070 GRE 12GB vram krijgt

De aankomende Radeon RX 9070 GRE-gpu van AMD krijgt 12GB aan GDDR6-videogeheugen, zegt VideoCardz op basis van afbeeldingen die het van de kaart heeft bemachtigd. Volgens de site gebruikt de gpu dezelfde koelers als de reguliere 9070-serie en de XT-variant.

VideoCardz heeft productfoto's weten te bemachtigen van de Radeon RX 9070 GRE of Great Radeon Edition. Die wordt door PowerColor gemaakt en heeft zowel een Chinese als internationale verpakking, wat erop duidt dat de gpu wereldwijd verkrijgbaar wordt. De verpakking bevestigt een eerder gerucht, namelijk dat de RX 9070 GRE 12GB aan vram krijgt via een 192bit-geheugenbus. Volgens VideoCardz wordt de geheugensnelheid in de gpu verlaagd naar 18Gbit/s.

Volgens de site gebruikt de RX 9070 GRE dezelfde koeler als de reguliere RX 9070 en de RX 9070 XT. Alle GRE-kaarten gebruiken volgens VideoCardz een 2x8-pinsconnector. Dat is in de normale RX 9070 en 9070 XT ook meestal het geval, maar er zijn ook modellen die een 16-pins-PCIe-aansluiting gebruiken. Onder andere Sapphires Nitro+-kaart heeft zo'n connector.

VideoCardz bevestigt verder van de verpakkingsafbeeldingen dat de kaart een Navi 48-gpu bevat met 3072 streamprocessors. Het is nog niet duidelijk wanneer het model uit moet komen en of de release aanvankelijk alleen in China zal zijn.

AMD Radeon RX 9070 GRE Videocardz
Bron: VideoCardz

Door Tijs Hofmans

Nieuwscoördinator

25-04-2025 • 09:57

77

Reacties (77)

77
77
24
0
0
43
Wijzig sortering
Als ik het me goed herinner komt deze tussen de 9060 en 9070 te zitten qua performance, dus eigenlijk een soort "9060Ti"?

Beetje verwarrend aangezien de vorige 7900 GRE juist net onder de 7900 XT zat, dan had ik verwacht dat deze 9070 GRE tussen de 9070 en 9070 XT zou zitten...
Ik vind de geheugenhoeveelheid verwarrend en tegenvallen.
De 7900 GRE had al 16gb.
Deze 9070 GRE moet natuurlijk op meerdere fronten onder de 9070 blijven dus wat dat betreft vind ik het wel logisch.

[Reactie gewijzigd door HugoBoss1985 op 25 april 2025 10:29]

als je niet op 4K gamed is 12gGb wel genoeg
Als je op 1440P games speelt is zelfs 8GB nog genoeg in veel gevallen.
klopt, ik begon tegen de limiet aan te lopen in AC mirage en zeler startrek outlaws, ik ben van een 3060ti 8 Gb over gegaan naar een 7800xt 16 gb
De 3070 die ik gebruikte had wel problemen met sommige spellen, waarbij veel dingen laat inlaadden of het spel zelfs even vastliep. Sinds ik een 9070XT heb, heb ik daar niks meer van gemerkt.

8GB is de nieuwe 4GB
Marketingtechnisch gezien opereert de 9070 twee segmenten lager. Daarnaast was de 7900 GRE dus ook de minste van z'n broeders en werd er hier op geheugen beknibbeld.

Dat de 9070 GRE dus minder geheugen meekrijgt, is in dat opzicht vrij logisch.

Wat niet logisch is, is dat de XTX voorlopig niet is uitgekomen. Je zou verwachten dat een "great radeon edition" iets extra biedt ten opzichte van de vanilla versie. Dat is dus juist niet het geval.
Het probleem is de naamgeving (ook wel logisch omdat ze die hebben omgegooid).

Dit wordt de vervanger van de 7700XT (denk ik???), maar nu hebben ze de 9070 (terecht) op het niveau van Nvidia gezet.

9060 GRE had imho iets beter gepast, maar ja. (En dan daaronder de 9060 vanille en 9060xt)
Tussen de 9060XT en 9070 ja. ik verwacht eigenlijk performance die rond het niveau van de 7900 GRE zit.

Overigens is de verwachting dat deze kaart pas richting einde jaar uitkomt - AMD heeft nog altijd krappe bevoorrading van 9070's en (vooral) 9070XT's. Aangezien deze GRE dezelfde chip gebruikt maar dan voor minder geld over de toonbank gaat, is het voor AMD helemaal niet aantrekkelijk om dit model uit te brengen. Zonde, want eigenlijk is het exact het segment waar ik naar op zoek ben, wat door zowel AMD als Nvidia nu genegeerd lijkt te worden aangezien het performance-gat tussen de 5060Ti/9060XT (vermoedelijk) en de 5070/9070 best groot is.
Het lijkt mij niet dat AMD zomaar 'goede' chips hiervoor gaat gebruiken, zolang ze diezelfde ook nog voor meer zouden kunnen verkopen. Kijk naar de 5600x3d.

Na jaren productie van de 5800x3d hadden ze net genoeg 'afkeur' om de 5600x3d niet eens in één regio, maar zelfs slechts bij één retailer aan te bieden.
als ze genoeg "goede" chips hebben (meer dan dat er vraag naar is in de rest van de wereld), dan is het niet onlogisch dat ze deze inzetten in de duurste kaart die ze in China mogen verkopen, zelfs al is het dan met een iets lagere marge.
Ik ga ervan uit dat de 9070 GRE iets hoger in klasse wordt dan de 9060 XT, maar dat is puur speculeren.

Het is wel verwarrend, omdat de naamgeving deze generatie weer op de kop is gegaan, en weer gelijk is aan die van de 6000 generatie. Dus het klopt dat de 7900 GRE onder de 7900 XT zat, aangezien geen "standaard" 7900 was.

De lineup voor de 7000 generatie was als volgt met de 9000 generatie ter vergelijking:
7900 XTX - 9070 XT
7900 XT - 9070
7900 GRE - 9070 GRE
7800 XT - 9060 XT (?)

Deze twee generaties kunnen natuurlijk niet direct worden vergeleken, maar dit geeft wel een goed beeld van de verschillen in naamgeving.
De 9070XT is eerder de opvolger van de vorige GRE of 7800XT dan de 7900 serie.

Zie het ram geheugen de die size. En de adviesprijzen gecorrigeerd met inflatie.

Er is helaas geen nieuw top model.
De 9070 is de opvolger van de 7700. Ze hebben duidelijk aangegeven deze generatie niet in het hogere segment mee te doen. 7900 en 7800 was hun hoge segment.
Nee de 9070 is niet de opvolger van de 7700 ben je mal... ze hebben juist de positionering/naamgeving in lijn gebracht met Nvidia.

Een 70 van AMD zit nu heel erg dicht in de buurt van een 70 van Nvidia. De 6/7/8/900 ranges van AMD konden qua performance niet mee met de 6/7/8/90 range, ze waren daarom ook lager geprijst.
Als de 9060xt de 7800xt prestaties levert eet ik mijn pet op. Maar ik kan er naast zitten.
Het zal 10-15% er onder vallen max. Als het veel slechter is dan is de kaart DOA gezien de 5060ti in deze range bevind.
Je kan typenummers uit verschillende generaties nooit zo met elkaar vergelijken, zit bijna altijd heel veel variatie in qua verschil in performance per generatie.
Je vergelijkt nu de xx70 met de xx90 series. De een midrange, de ander high end.

Is er al meer bekend of de 9090xt(x) gaat komen? Met 24gb.
AMD heeft gezegd van niet.
Maar dit is het eerste jaar dat AMD de naamgeving heeft aangepast. Een xx90 serie bestaat toch helemaal niet?

[Reactie gewijzigd door Dekar op 25 april 2025 15:50]

De GRE wordt wederom de derde tier kaart van AMD. Dus in die zin is het logisch.

7900 XTX
7900 XT
7900 GRE

9070 XT
9070
9070 GRE

Het verdient allemaal geen schoonheidsprijs al die naamsveranderingen. Het lijkt verwarring zaaien als enige doel te hebben.
Klopt niet want amd heeft uitdrukkelijk gezegd geen high end kaart uit te brengen deze generatie, dus er is geen opvolger van de 7900.
Het doel was de lijn van AMD duidelijker positioneren tegenover de concurrent.

Je hebt overigens helemaal gelijk dat AMD’s naamsgeving alle kanten op gaat en dat dat waarschijnlijk hun zelf meer kwaad dan goed heeft gedaan.

Is de afgelopen jaren toch onnavolgbaar geweest.
AMD en naamgeving is geen goede combi... Waarom ze dit toch nooit voor elkaar krijgen...
Echt ongelofelijk. Terwijl het bij de CPU divisie wel aardig gaat.
Elke keer als nvidia een kaart uitbrengt met minder dan 16gb staan de comment vol van hoe obsolete die wel is , bij AMD is dat nooit.
Overdrijven is ook een vak...8GB wordt in het algemeen als te weinig gezien, 12GB nog niet.
Nou volgens genoeg op het internet is ook 12GB DoA tegenwoordig. En dat zelfs 16GB misschien net aan acceptabel is.

Terwijl het gewoon ligt ook aan de klasse van de gpu. Leuk als je geheugen hebt om 4k ultra textures in te laden, maar als je de rekenkracht niet hebt om dat te verwerken, wat schiet je er dan mee op?
Terwijl het gewoon ligt ook aan de klasse van de gpu. Leuk als je geheugen hebt om 4k ultra textures in te laden, maar als je de rekenkracht niet hebt om dat te verwerken, wat schiet je er dan mee op?
Het probleem dat ik met die redenering heb is dat die klasse vaak plotseling gedefinieerd wordt aan de hand van het hoeveelheid geheugen, terwijl (in het geval van nvidia's 8gb vs 16gb) de betreffende gpu's aantoonbaar beperkt worden door die lagere hoeveelheid geheugen. En dat gaat dan niet eens enkel om die 4k ultra situaties.

[Reactie gewijzigd door emphy op 25 april 2025 12:08]

Slecht voorbeeld. Juist textures vreten RAM terwijl ze niet of nauwelijks prestaties kosten.

RT en resolutie kosten ook RAM, maar vereisen daarentegen wel een snellere GPU.

Verder valt of staat het met de prijs. :)
Dat is natuurlijk ook echt overdreven. Dev's weten dat de norm nog 8GB is (35% volgens Steam, +/- 30% zit er zelfs nog onder), dus dat wordt getarget voor low/ medium settings. 12GB zal voor de aankomende jaren nog genoeg zijn en waarschijnlijk blijft het nog relevant voor zo'n 4 a 6 jaar gezien de trage upgrade snelheid van VRAM bij Nvidia. De nieuwe gen consoles die in 2028/2029 zal uitkomen zal echt gaan uitmaken hoeveel VRAM er vereist gaat zijn op de langere termijn.

[Reactie gewijzigd door QErikNL op 25 april 2025 19:44]

Nou volgens genoeg op het internet is ook 12GB DoA tegenwoordig. En dat zelfs 16GB misschien net aan acceptabel is.

Terwijl het gewoon ligt ook aan de klasse van de gpu. Leuk als je geheugen hebt om 4k ultra textures in te laden, maar als je de rekenkracht niet hebt om dat te verwerken, wat schiet je er dan mee op?
Dat is niet helemaal hoe het werkt. Texture details kosten je geen fps. Dus bij extra vram kun je bijvoorbeeld de meeste settings up medium draaien, maar dan textures op ultra.

Dat gezegd hebbende werkt het ook prima andersom. Je kunt bij een snelle kaart met weinig vram altijd je texture details een standje lager zetten.
Onzin niet DOA. Wel limiterend in sommige gevallen. En onwenselijk als je in het geval van RTX5070 ook een RX 9070 kan kopen zonder die limitatie.
Tegelijk heeft een RX 9070 weer andere limitaties natuurlijk. Qua DLSS / FRS lopen ze achter bij AMD, en dan heb ik het nog niet zozeer over de kwaliteit ervan, waarbij FSR 3 best een sprong schijnt te hebben gemaakt, maar niet naar het niveau van DLSS 4, maar meer erover dat er gewoon veeeeel meer spellen DLSS 4 ondersteunen als FSR 3.

En zelf neig ik heel erg naar een RX 9070 momenteel, het is zeker niet dat ik blind voor Nvidia ga, maar ik vind het wel een relevant punt.
FSR3 is ongeveer DLSS3+ geen 4 eens maar ook geen diskwalificerend gebrek meer.

Aantal games zal wel los lopen gezien de goede verkopen van de 9070 serie.
Geef het even de tijd. Overigens is het ook in veel spellen zelf te activeren zonder dat het spel het specifiek ondersteund.
Ja, voor gaming en AI misschien maar niet voor standaard gebruik. ;)
Te weinig voor wat?
Nee, je snapt het argument niet.
Op een videokaart van 600 euro (RTX 5070) is 12GB VRAM te weinig. Voor dat geld wil je alle nieuwste spellen op max settings kunnen spelen. Dat gaat niet met 12GB VRAM.

Dat zie je ook in 4K benchmarks, waarin de RX 9070 veel beter scoort.

En een 5060 Ti met 8GB VRAM is al helemaal een dikke middelvinger naar gamers. Dat is zelfs in 1080p onvoldoende tegenwoordig.

[Reactie gewijzigd door Dekar op 25 april 2025 15:58]

Ik denk dat jij mijn argument niet snapt :
Nvidia kondigt 5060 TI aan met 8 & 16GB -> veel tweakers halen aan hoe 8gb een grap is en obsolete en diefstal en ...
AMD kondigt 9060 xt aan met 8 & 16gb -> niemand die iets zegt over 8gb.
En een 5060 Ti met 8GB VRAM is al helemaal een dikke middelvinger naar gamers. Dat is zelfs in 1080p onvoldoende tegenwoordig.
Dan is de 9060 xt met 8gb dat net zo goed.
(en nee hoor, genoeg games die niet meer dan 8 gb hebben, dit zijn low-mid end of budget kaarten je moet niet de laatste AAAA game op 4k/ultra path tracing daarmee willen spelen.
Op een videokaart van 600 euro (RTX 5070) is 12GB VRAM te weinig. Voor dat geld wil je alle nieuwste spellen op max settings kunnen spelen. Dat gaat niet met 12GB VRAM.
Dat zie je ook in 4K benchmarks, waarin de RX 9070 veel beter scoort.
Wel de 9070 is duurder, dat die dus maar gelijkaardig scoort dan en 9070 is niet zo goed.
Op 4k laat die 5070 idd steken vallen omdat die te weinig vram heeft. Afhankelijk van de games kan de 9070 dus idd daar gewoon veel beter zijn dan wat nvidia heeft (5070 ti is immers een pak duurder)
De 9060 is nog niet uit. Zodra die benchmarks worden gedeeld hoor je mij en velen anderen hier net zo hard roepen dat het een waardeloze kaart is, tenzij die ~250 euro kost.

[Reactie gewijzigd door Dekar op 25 april 2025 16:38]

Nee nogmaals het ging over nvidia en amd aankondigingen bij nvidia staat het vol van "fuck nvidia" bij amd geen piep.

Een 4060 8gb kost 300 euro, vind je dat dan een goede kaart voor die prijs?
Hoezo zouden mensen dan volgens jou voor de uitknijper juichen en niet voor de underdog? Verwacht jij dat veel tweakers Stockholm syndroom hebben?
"uitknijper"? Zijn de kaarten van amd dan goedkoper?

"stockholm syndroom"? Oh ffs calimero.
Voor welke kaart heeft AMD ooit meer dan 1400 euro gevraagd?
categorie: Videokaarten

Zelfs nu nog hebben ze die.
Wat maakt dat trouwens uit? Nvidia heeft kaarten tussen de 300 en 3000 euro.


Allebeid hebben ze gewoon goede kaarten die prijs kwalitatief zijn.
Ja, voor 300,- begint die kaart langzaam een beter product te worden.... Al heb je voor dat geld ook de 7600 xt 16gb.

Waarom vind je dit zo verwarrend?

Her probleem is de prijs, niet het geheugen...
12 is nog prima. maar dit gezeur ga je ook krijgen als de rx 9060 en de rx 9060 xt 8gb uit komt. zeker de 9060 xt is net zoals de rtx 5060 ti te snel en krijgen die 8gb makkelijk vol. dus ja ook zullen ze zeuren bij AMD op de rx 9060 xt

[Reactie gewijzigd door loki504 op 25 april 2025 11:06]

My man... een 5060ti 8gb kost 400,-

Als een 9060xt 8gb evenveel kost gaat ook iedereen over de zeik, maar tot nu toe is AMD qua euro per GB steevast VEEL beter.

Dus dat Nvidia een veeg uit de pan krijgt is compleet logisch en de prijzen van de 5060ti maken ook compleet duidelijk dat dit meer dan terecht is. AMD krijgt gewoon nog het voordeel vande twijfel. Als de prijs klopt zal het gemor minder zijn.
Het ging hier over aankondigingen beide zonder prijs, soit duidelijk dat er hier een bias is. Geen idee waarom amd en nvidia zijn beide bedrijven die elke euro winst willen maken dat ze kunnen.
Mwuah de Nvidia xx50 serie is altijd goedkoop is duurkoop geweest.

Of hele oude best aardige wijn in nieuwe zakken (GT250 heel lang geleden.) was een 8800GT->9800GT->250
hangt een beetje vanaf wat je wil, iemand die CS2 op 1080p speelt heeft daar genoeg mee.
Tja voor die game kan ik ook naar Jumbo en een aardappel meenemen
Meeste gespeelde spel, en je zegt het zelf waarom zou je meer willen?

8gb vram is meer dan genoeg
> Elke keer als nvidia een kaart uitbrengt met minder dan 16gb staan de comment vol van hoe obsolete die wel is

Wellicht omdat die "minder an 16gb" bestaat uit 8gb en omdat nvidia niet meer in het allergoedkoopste marktsegment opereert.
Dat komt omdat AMD meer ram leverde per euro.

Als een kaart 8gb heeft, maar 200 euro kost (mijn rx6600's) is dat een prima deal. Kost die kaart 300 euro+ (de 4060 reeks) dan krab ik me achter de oren.

Dat een 5060ti 8gb voor 400,- wordt verkocht is absurd.

En dan ben ik iemand die stelt dat die rx6600 alles meer dan soepel draait op 1080p. Twee keer zoveel neer gooien voor een kaart die 1080p nog beter doet, maar die nog steeds door zijn hoeven gaat bij de allernieuwste games? Wat mij betreft flauwekul.

Oftewel, de prijs moet in verhouding zijn. 8GB kan prima, maar dan wel voor een bodemprijs. Zo ook 12, 16 of 24 gb... de prijs bepaald of het een goed product is.

En dan terug naar jou: Nvidia is prijstechnisch gewoon te ver uit het lood. Een premium is wel begrijpelijk, maar 50 of 100% meer (hallo 5060ti) is too much.
Maar dit is langs geen kanten correct.

https://www.techpowerup.c...-rtx-5060-ti-8-gb/31.html

EEn 5060 8g haalt in 1080p een 110fps gemiddeld
jouw 6600 juist een 60fps (5-10% onder de 3060)

1440p 70+fps
6600 40fps

Tegen de 100% sneller in raster, met RT word het nog absurder dan is het eerder 200% sneller.
Dan heb je nog dlss die dit nog verder schuin trekt.

Dus ja een 5060 ti is dubbel zo duur, maar je hebt dubbel tot 3-4 keer de performance.
Nu als je dat niet nodig hebt is een 6600 een goed budget kaart net zoals de 4060 8g daartussen dat ook is, maar gezien heoveel sneller die is kan je echt de prijs niet onrechtvaardig noemen hoor.
Beste grapjas. Mijn kaart koste 220, Dat was okay voor 1080P. Waarom zou ik in hemelsnaam 400,- uitgeven voor een 1080p kaart? Dat is toch al twee generaties geleden het prijs-gebied van de 1440P kaarten.

En de 4060 is echt vergruisd als budget kaart... hoe kom je erbij dat dat een goede budgetkaart is? Dat jij dit helemaal geen probleem vind is echt heel raar. Valt het je niet op dat dit ook unaniem is, van consumenten tot testers?
Dat slaat natuurlijk nergens op?
Niet enkel omdat "1080p" niks zegt. 1080p in cyberpunk 2077 op ultra met path tracing ziet er prachtig uit, jouw 6600 geeft dan echter 4 fps.

Die 5060 kost dan wel 400 euro maar speelt dat met dlss met een 60fps af.
Zelfs 1440p high kan je daarmee aan en 60fps geraken terwijl jouw 6600 dan op 1440p low moet spelen zelfs met fsr.

Daar gaat het hier over.

En ik kijk naar wat de feiten zijn. Een 4060 van 300 euro is heus geen slechte kaart .
Als je de review van de 8gb op tweakers hebt gelezen ben ik benieuwd of je nog steeds me hier gaat vertellen hoe fantastisch de 5060ti 8gb is voor 400,-.

[Reactie gewijzigd door roffeltjes op 26 april 2025 09:15]

Ik had de review al op techpowerup glezen gisteren, en elk van mijn argumenten blijft staan hoor.

Je legt me trouwens woorden in de mond nu, jij argumenteerd dat 220 euro voor een 6600 goed is , terwijl een 300 euro kostende 4060 ti en een 400 euro kostende 5060 ti je veel meer fps per euro geven.

Wees dan zelf consequent: die 6600 is ook te duur momenteel.
Die 6600 heb ik twee jaar geleden gekocht voor dat bedrag. Ik neem aan dat je snapt dat je prijs punt hiermee implodeert.

We zijn hier wel klaar. Ga gerust verder met je woede over de slechte reviews van de geweldige 5060ti 8gb en ga vooral niet snappen dat het probleem het prijspeil is van Nvidia. Ik heb mijn punt wel gemaakt.
Die kost nog altijd evenveel, ik spreek van prijzen nu.

maar ok met inflatie is dat nu 240 euro, wat die nog slechter maakt tov een 300 euro kostende 4060 8gb die vele malen sneller is :

YouTube: RTX 4060 vs. RX 6600 | Comparison in 11 Games (1080p)

30-50% in raster, tot 100% met RT & PT en nog daarboven als je DLSS vs FSR begint te gebruiken, en dat voor 60 euro meer.

Oh en niks woede hoor, ik vind het grappig hoe biased mensen kunnen zijn louter omdat het over een bedrijf gaat, compleet hypoctiet zonder het te beseffen.
Geheugenbandbreedte wordt hier wel heel erg verlaagt voor iets wat nog steeds een behoorlijke snelle chip kan zijn, iets langzamer dan een 5070 naar verwachting.

Maar qua bandbreedte kom je met 18Gbit en 192bit nipt onder de 4060Ti en ruim onder de 7800XT.
Die wordt door PowerColor gemaakt en heeft zowel een Chinese als internationale verpakking, wat erop duidt dat de gpu wereldwijd verkrijgbaar wordt.
Die wordt door PowerColor gemaakt en heeft zowel een Chinese als internationale verpakking, wat erop duidt dat de gpu wereldwijd verkrijgbaar wordt.
Ik mag toch hopen dat ie niet eerst alleen in China uitgebracht wordt als ie nu al internationale verpakking heeft. Aan de andere kant verbaast niets me meer.
“Great Radeon Edition”

Gereduceerde RAM Editie dekt de lading beter. Of Gimped RAM Edition, als het in het Engels moet.

Nu staan ze bij AMD niet bepaald bekend om hun sterke marketing maar hier had men toch wel iets beters kunnen bedenken? Of een andere afkorting kunnen pakken. Ze hebben immers nog LE, SE, GT en PRO in hun lade liggen, waar vooral de eerste twee passender zouden zijn.
IMO begon AMD en logica in productnaamgeving scheef te lopen bij met de APU's en heeft dit zich doorgezet naar alle producten van de laatste generatie.
Als ze de 9060 serie nog zouden kunnen hernoemen naar 9050(XT), dan is er een logische progressie in producten en product progressie zij: 9070/XT (256bit 16Gb), 9070 GRE > 9060(+XT?) (192bit 12Gb), 9060/XT > 9050/XT (128bit 8/16Gb).
Men had het hier gewoon consequent kunnen doen, maar in mijn optiek is "GRE" hier verbasterd. Het stond voor "Great Rabbit Edition", een verwijzing naar het Chinese jaar van het konijn toen 7900 GRE uitkwam. Dat had men ook gewoon een eenmalig iets kunnen laten. Men had er ook een GSE van kunnen maken, als verwijzing naar het jaar van de slang.

Zeker omdat men dus is afgestapt van de XTX/XT combo, en nu dus XT / vanilla hanteert, is er geen enkele reden om alsnog aan GRE vast te moeten willen houden.

Dat ze deze GPU niet als 9060 serie in de markt zetten snap ik wel. Hij is in de basis afgeleid van de 9070 chip. Dat is in de regel leidend voor de naamgeving. Dat is ook het enige wat wel consequent is, de 7900 GRE was immers ook een hybride van een 7900 chip op een 7800 XT PCB.
Dat gaat hem niet worden omdat dan de equivalente Nvidia kaarten billenkoek gaan geven in de benchmarks. AMD wil niet meer via enorm drukken van de prijs dat spelletje spelen.

De 9070 (xt) en de 5070 (ti) zitten heel netjes bij elkaar qua performance. Prijzen kloppen ook redelijk ten op zichte van elkaar. Dat terwijl een 4060 bijna twee keer zo duur was als een 7600 (en die kaart ook qchterliet op alle vlakken van performance tot functionaliteiten).

Als consument ben ik wel blij met een relatief coherente naamgeving.
Misschien de titel aanpassen nu lijkt het in de titel om de al uitgekomen 9070 te gaan ipv opkomende 9070gre.

Word pas in de subkop verduidelijkt
Rechtsboven kan je klikken op "Feedback", en een melding maken op het forum om een inhoudelijke of spellings/grammaticale correctie. :)
AuteurTijsZonderH Nieuwscoördinator @Starkiller01225 april 2025 10:14
Ach stom ja, ik heb het aangepast!
Jammer dat ze marketing technisch en productie technisch waarschijnlijk al vast zitten aan naamgevingen. Anders konden ze beter de 9060(XT) release uitstellen en deze SKU hernoemen naar 9050(XT). Dat creërt dan de ruimte voor deze 192bit bus kaart met 12Gb onder de noemen 9060XT. Om nog een beetje logica over te houden en een knipoog terug te geven aan de eerst RDNA1 product reeks (5700(XT), 5600XT en 5500XT)
Ja, dat zou vermoedelijk beter passen qua prijs prestaties.

We gaan het meemaken.
12GB. Ik kan me nog herinneren dat ik me kapot werkte bij een sloperij om in 1998 de Voodoo 2 12MB op te halen bij Funprice in groningen. Die hadden toen de Diamond kaart in de actie. Ik heb daar voor mijn gevoel toen een miljoen voor betaald. Maar het zal ergens rond de 300 gulden zijn geweest.


Om te kunnen reageren moet je ingelogd zijn