Gerucht: AMD brengt geen standaardversie van RX 9070-videokaarten uit

AMD zal geen eigen standaardversie van de RX 9070- of RX 9070 XT-videokaarten uitbrengen. Dat claimt techwebsite VideoCardz op basis van een promotiebeeld van AMD over de gpu's. Het bedrijf heeft de geruchten nog niet officieel bevestigd.

VideoCardz schrijft dat er enkel Radeon RX 9070-videokaarten van partnerbedrijven beschikbaar zullen zijn. De techwebsite baseert zich op een post van AMD op X waarop een render van een standaardversie van een Radeon RX 9070-gpu wordt getoond. Onder deze render staat te lezen dat het een artistieke render betreft en dat de vertoonde videokaart niet te koop zal zijn.

AMD zal de Radeon RX 9070 en RX 9070 XT op 28 februari officieel aankondigen via een YouTube-livestream die om 14.00 uur Nederlandse tijd van start gaat. Het bedrijf gaat de gpu-reeks dan volledig onthullen. De release volgt begin maart. Het Amerikaanse bedrijf heeft nog maar weinig details over de videokaarten gedeeld, maar bevestigde wel dat ze gebaseerd zijn op RDNA 4-architectuur, met betere raytracingrekenkernen en ondersteuning voor de FSR 4-upscalingtechniek. De gpu's zouden gebruikmaken van een nieuw ontworpen Navi 48-chip, die wordt geproduceerd op het N4-procedé van TSMC. Het geheugen zou uit 16GB aan GDDR6-geheugen bestaan. Begin dit jaar raakte bekend dat enkele retailers de AMD-videokaarten al op voorraad hebben. De gpu’s doken bijvoorbeeld op bij een Deense en een Israëlische webwinkel.

Promotiemateriaal AMD Radeon RX 9070 en RX 9070 XT. Bron: AMD via X
Promotiemateriaal AMD Radeon RX 9070 en RX 9070 XT. Bron: AMD via X

Door Jay Stout

Redacteur

23-02-2025 • 11:02

162

Reacties (162)

162
162
114
1
0
38
Wijzig sortering
Ik vind het nog altijd een zonde.

22 jaar hebben we er op gewacht, maar bij AMD zijn ze duidelijk hun roots vergeten.

22 jaar geleden hebben ze NVidia deftig op hun plaats gezet met de ATI Radeon 9800 Pro.

We zitten opnieuw aan de 9000-series. NVidia is weeral aan het stagneren, net weer een 4-serie gelaunched dat weinig waard was.

Uitgelezen kans om een 9800 Pro te launchen dat NVidia verplicht uit hun kot te komen.

Helaas.
Ik vind het nog altijd een zonde.

22 jaar hebben we er op gewacht, maar bij AMD zijn ze duidelijk hun roots vergeten.

22 jaar geleden hebben ze NVidia deftig op hun plaats gezet met de ATI Radeon 9800 Pro.

We zitten opnieuw aan de 9000-series. NVidia is weeral aan het stagneren, net weer een 4-serie gelaunched dat weinig waard was.

Uitgelezen kans om een 9800 Pro te launchen dat NVidia verplicht uit hun kot te komen.

Helaas.
Dat is dus de vergissing die je maakt. De Ati Radeon was dus van het bedrijf Ati Technologies Inc. Vervolgens heeft AMD dat bedrijf voor 5.4 miljard overgenomen. Dat bleek achteraf te duur waardoor ze 2 miljard hebben afgeschreven op die aankoop, geen geld meer hadden en dus hun fabrieken moest afsplitsen naar globalfoundries en een jaar of 10 lang elk jaar hun R&D budget verder moesten verlagen. Er was ook geen geld meer voor volledige refreshes van line-ups en is AMD generaties gaan mixen, soms 2-3 generaties oude techniek. Veel potentieel goede producten zijn daar verloren gegaan. Sinsdien is het Radeon aandeel alleen maar verder afgegleden.

Ati heeft eigenlijk altijd wel redelijk kunnen concureren met Nvidia. Denk aan succesen als de HD 4870 en eeder de 9800 Pro. AMD is daar tot heden niet in geslaagd. (Waarbij ik succes meet in marktaandeel want een RX 480 was in theorie natuurlijk ook een goed product.).

[Reactie gewijzigd door sdk1985 op 23 februari 2025 14:02]

De 7900 gre is anders een behoorlijk golden pick.
Kwam van een 3070m, behoorlijke sprong. Van NVIDIA is er geen in die prijsklasse meer gelijke specs.
De 7900 gre is anders een behoorlijk golden pick.
Kwam van een 3070m, behoorlijke sprong.
Vind je het gek? Je ging van 115 naar 260 watt.
Van NVIDIA is er geen in die prijsklasse meer gelijke specs.
Inderdaad, de 4070 super is iets trager en €100 duurder.

[Reactie gewijzigd door Wolfos op 23 februari 2025 19:21]

Kijk dank voor de feitelijkheden! Bak meer stroom!
Nouja, de 40 en de 50 serie zijn toch wel zeker behoorlijk wat waard als je van wat ouders af komt, zoals ik met mn 2060super uit 11-2019. En juist de 9800 Pro is de reden dat ik overgestapt ben naar Nvidia, want met 2 kapotte kaarten en regelmatig driver problemen was ik ATI (zoals ze toen nog heette) wel zat.
Ik had 3 8800GT's versleten binnen de garantietermijn, een maand na de garantie hield de laatste ermee op. Daarna een 4870 en die bleef het lekker doen.
Ik had 3 8800GT's versleten binnen de garantietermijn,
Mooie ouwe tijd, heb toen der tijd me 8800GT zeker 3x in de oven gebakken om hem weer te laten werken

Na de 3e keer was ik ook overgestapt op ATI
Tja je moet het ook wel in huis hebben natuurlijk en daar wringt volgens mij nu het schoentje. Ze hebben de tech niet om Nvidia op z'n plaats te zetten. Misschien dat ze het wel zouden kunnen als ze echt veel onderzoek en geld erin dumpen maar dan is nog maar de vraag of je dat ooit terug kan verdienen. 4090 bijvoorbeeld is naar mijn gevoel niet zo extreem veel verkocht dat daar echt het grote geld mee te verdienen valt. Je grote geld zal toch eerder van de mid range kaarten komen (en in Nvidia zijn geval AI natuurlijk).

Denk dat AMD het nu wel even slim speelt door niet mee te spelen in het echt high end segment en waarschijnlijk alles inzet op de volgende generatie.

[Reactie gewijzigd door Powerblast op 23 februari 2025 12:22]

Ik hoop van harte dat AMD weer wat balans in de videokaartenmarkt mag brengen. De gekte bij NVidia heeft mij alvast doen besluiten gewoon de 3080 nog maar even door te gebruiken. Wat experimenteren met AI modellen en 32GB VRAM was leuk geweest, maar mogelijk wordt het dan toch een 9070 (XT), zeker als die zoiets 50% sneller en minimaal 30% efficiënter dan de 3080 worden. Voor onder de duizend euro heb je dan hopelijk toch een heel mooie upgrade weer, ipv 1.500-1.800 euro nu voor zelfs een 5080, laat staan een 5090.
Nog even los van de problemen die rondgaan met de NVidia 5000 series stroomconnctor toch weer, en op sommige exemplaren nu zelfs al wat ROP's minder. Wat vreemde problemen om te hebben daar. Hopelijk heeft AMD een wat soepeler release waar je dan ook wat makkelijker aan mee durft te doen.
De 7900XT is naar 700 euro gezakt, de 7900XTX zit op ~1000 euro. Geruchten gaan dat de 9070XT tussen de 7900XT en 7900XTX valt qua performance (maar waarschijnlijk wel iets sneller is met RT), dus kans is groot dat die ergens tussen de 700 en 1000 gaat kosten.

Gaat nu ook een hardnekkig gerucht dat er mogelijk een 32GB versie van de 9070 komt... dus wie weet ;)

Vorig jaar van een GTX1080 naar een 7800XT overgestapt en geen spijt van gehad. Presteert goed en is ook fluister stil.
De 32GB consumer variant is al een oud gerucht dat ondertussen officieel door AMD is ontkracht.
dat sluit niet uit dat er iets voor workstation komt met 32GB.

de laatste geruchten kwa prijs zou $599 zijn voor de XTX (dollar ex btw)
Denk juist als ze nvidia in de weg willen zitten een "goedkope" 32gb kaart op de markt moeten laten komen al dan niet een Radeon pro.
Ik had die 32GB ook heel graag zien verschijnen, maar helaas:
nieuws: AMD onthult Radeon RX 9070-videokaarten op 28 februari, ontkent komst...
En als het dan een compleet ander typenummer weer moet worden van AMD, dan zal het zeker niet Q2 worden.

[Reactie gewijzigd door OruBLMsFrl op 23 februari 2025 12:58]

Waar heb je die 32GB voor nodig dan?
Zolang we geen nieuwe generatie consoles krijgen zit je met 16 of 24GB wel goed.
Ik heb echt nog nooit ook maar iets van in buurt van 24GB gebruik gezien met gamen.
Net even boven de 12, dan houd t wel op. En dat is op 4K met alle toeters en bellen aan. Precies de console hoeveelheid.

Misschien met grafische mods op bijvoorbeeld op zoiets als cyberpunk misschien? Hoe ik me niet mee bezig maar dat is voor een consumentenscenario het enigste wat ik me kan voorstellen.
Je moet ff buiten games rekenen. AI en LLMs vinden veel VRAM heerlijk!
Koop dan een kaart die daar ook echt voor bedoeld is in plaats van te hopen dat Nvidia en AMD uit de goedheid van hun hart een manusje van alles op de markt gaan brengen?
Waarom duizenden euros neergooien voor een kaart die "daarvoor bedoeld is" wanneer de extra BOM kosten voor wat meer geheugen neerkomt op tientjes?
Omdat AMD en Nvidia commerciële bedrijven zijn en dat ook weten.
Dat snap ik, maar ik zie daar geen markt in voor particulieren.
Een enkele hobbyist daargelaten en dat is geen business model
Ik heb commercieel de berekening gemaakt. Wij trainen onze eigen AI modellen lokaal, niet in de cloud, omdat we meer dan 20% GPU utilization hebben. Zit je daaronder (<5 uur per dag over de levensduur van de kaart) dan is de cloud goedkoper. Dat geldt dus ook voor hobbyisten. Koop een 16 GB kaart voor gamen, en huur de 32 GB voor AI.
Mijn redenatie was vanaf de andere kant, het is zon nichemarkt dat het niet uit kan om een dergelijk model te maken.
Maar met jou redentie erbij is het helemaal een nogo.
Beetje grote mensen model heeft heelwat meer dan 32gb nodig. Denk 256gb+. Dus nee, 32gb kaarten zijn een hele kleine markt .
Nee die 32GB was juist leuk geweest voor AI modellen, dan kun je een maat groter en beter draaien lokaal. Framegen tech in games vreet wel wat extra geheugen volgens mij, maar dat zien ze allemaal wel zitten met 16GB als zelfs de 5080 nog altijd die 16GB heeft. Maar tegelijkertijd geef ik dan ook liever wat minder geld uit, met wat je uitspaart kun je tenslotte nog wel heel meest flexibel nog andere leuke dingen doen.
CP2077 doet hier op 4K 14,5gb vram. Met mods inderdaad

Kingdom Come Deliverance 2 doet 17gb vram.

Ik ben tot nu toe nog uitermate tevreden met m’n 7900XT :)
Dit is wel weer een herhaling van het Windows 7 verhaal. "Windows gebruikt al m'n RAM!". Ja, je hebt het, waarom zou het OS dat dan niet gebruiken? Geheugen vrijmaken kost tijd en is pas nodig als er iets anders in moet. Dat geldt ook voor VRAM.
Net even boven de 12, dan houd t wel op.
Kip, ei natuurlijk.
Games worden (een enkeling uitgezonderd) ontwikkelt op en voor de kaarten die beschikbaar zijn.
En hardware heeft een bovengrens die met de tijd opschuift en die niet alleen afhankelijk is van andere componenten maar ook van de software, de drivers.
Het heeft niet veel nut om een game te ontwikkelen die geen enkel systeem kan draaien.
De games die met maximale settings op het randje van de huidige mogelijkheden kunnen zitten, wekken zowel verlangen als frustratie op omdat ze aan de ene kant laten zien wat mogelijk is maar aan de andere kant voor verreweg de meeste mensen niet haalbaar is.

De hardware van consoles is (door het prijspunt per definitie) nooit high-end en ze zijn afhankelijk van 'optimalisatie' om 4K op een fatsoenlijk aantal fps te tonen, wat eigenlijk neerkomt op beperkingen en gesjoemel met resoluties.
Op PC lijkt bij velen wel behoefte te zijn aan een vorm van optimalisatie, als in het tegengestelde van 'zie maar dat je een PC hebt die snel genoeg is', maar ook een hoop mensen tegelijkertijd niet gediend lijken van die kunstmatige trucs omdat men een prijs betaald voor meer, een hoger niveau en/of meer fps.
Maar niet alle games worden (initieel) ontwikkelt voor consoles en voor PC-ports moet automatisch rekening gehouden worden met de enorme verscheidenheid aan hardware configuraties.
Afgezien daarvan krijgen ook de consoles upgrade-versies en om de 4 a 5 jaar een compleet nieuwe serie. Op dit moment is het maar de vraag of er nog een nieuwe XBox of Playstation gemaakt kan worden die qua prijs op een niveau zit die console-gamers willen betalen.

Het punt is namelijk dat de ontwikkelingen van de afgelopen paar jaar dusdanig zijn dat backward compatibility steeds lastiger wordt. Veel game-engines zijn of worden voor nieuwe games dusdanig aangepast dat ze gewoon geen rekening meer houden met 'oudere' hardware.
Vooral bij de studio's die double- en triple-A games maken met hoogstaande graphics, lijkt het sentiment te heersen dat 1080 horizontale pixels toch echt wel ouderwets is. En met sneller VRAM is daar ook automatisch de mogelijkheid voor meer en grotere textures terwijl games nu al 3, 4, 5 verschillende graphics-sets hebben waardoor ze 200GB groot zijn.
Het heeft er alle schijn van dat er binnenkort, in de komende 2 jaar of zo en waarschijnlijk niet per se afhankelijk van maar wel gerelateerd aan de ontwikkeling van nieuwe consoles, een moment is waarop de grote studio's alleen nog maar ontwikkelen voor recente hardware vanaf 2020 omdat het simpelweg te duur wordt en het hoog tijd wordt dat ook PC-gaming op hogere resoluties dan 1080p met toeters en bellen gewoon mainstream wordt.
Hoewel dat laatste natuurlijk niet gaat lukken als ze €1000 voor een beetje capabele kaart vragen
Een goedkope 32GB kaart kan niet makkelijk door hoe GDDR6 en de memory bus zijn ingedeeld.

Met GDDR6 heb je normaliter 1 memory module à 1024MB per 32-bits van een memory bus. Voor 8GB heb je dus een 8 * 32 = 256-bit memory bus nodig. 16GB = 512-bit. VRAM modules zelf zijn niet zo duur, maar een bredere memory bus opzetten is dat wel.

Nou heeft GDDR6 net als GDDR5 iets dat een "clamshell" opstelling heeft. Je legt dan aan beide kanten van de geheugeninterface een module, en elke module gebruikt de helft van de 16-bit aan memory addressing. Hiermee verdubbel je je VRAM, ten koste van de helf van de bandwidth per module.

(nu ik even door zoek zie ik dat sinds de RTX 4000-series en RX 7000-series ze modules schijnbaar efficiënter kunnen aansluiten waardoor de bus de helft kleiner kan. Neem dat mee in dit opvolgend laatste stukje uitleg)

De Radeon 7600 XT is hier een voorbeeld van. Deze gebruikt clamshell en kan daardoor met een relatief goedkope 128-bit memory bus toch 16GB aan modules draaien. De duurdere 7700 XT heeft maar 12GB aan modules, alleen wel op een 192-bit bus met een normale module opstelling.
De 7600XT dus de helft minder peak bandwidth per address dan een 256-bit 16GB GPU zou hebben.

Zou je een hobbyist-LLM kaart willen maken dan zou je dus met 32GB op een clamshell 256-bit bus toe kunnen, maar wil je dat die 32GB lekker draait met high-end gamen (en 32GB ga je alleen nodig hebben op Ultra + maximale RT) dan heb je veel bandbreedte nodig in de vorm van een 512-bit bus, en kan je dus niet clamshell gebruiken.

[Reactie gewijzigd door Halfscherp op 23 februari 2025 21:48]

Die geheugenchips draaien in een soort raid 0. Je data wordt verspreid over alle kanalen tegelijk. Daarom maakt die clamshell niet uit. De breedte van de bus, delen door 32, maal de bandbreedte van de chips geeft je de totale bandbreedte. Hoe breder de te meer stroom is vereist.
pro kaarten is een fractie van een fractie van de markt. Daar heeft AMD helemaal geen interesse in. Ze hebben aangegeven dat ze terug willen naar 45% GPU marktaandeel en dat moeten ze kopen. een 32 gb GPU gaat daar helemaal niets aan doen. De meeste mensen worden alleen maar meer geïrriteerd als ze prima gpu's dies gaan verkopen als AI kaarten wat het in feite zijn want dat lijkt de enige interesse te zijn. Mensen zijn überhaupt compleet AI moe.
Dat hele AI is overrated en heeft tot nog niet veel goeds geleid. Als AMD dus slim is en de markt leest blijven ze daar ver van weg met hun consumer lijn.
Als je dat hier leest wel ... dan draait iedereen thuis AI en heeft iedereen dit nodig.

Als ze gewoon de nvidia kaarten kunnen evenaren en die iets goedkoper kunnen maken, dan hebben ze wel wat in handen. Maar DLSS is van wat ik gelezen heb nog altijd "superieur" en daar zit volgens mij een beetje het probleem. Ik kan op 4k nog wel spelen met 2060 super, dat is niet de beste kwaliteit uiteraard, maar het lukt nog wel dlss. Maar ze gaan toch iets goedkoper moeten zijn dan het groene kamp met quasi gelijkaardige specs om mensen over de streep te trekken. Ik heb jaren een intel cpu gehad en vroeger ook nog ATI kaarten. Maar hele tijd intel + nvidia combo gehad, tot ik een 3700x gekocht had. En nu heb ik terug een AMD cpu, en binnen een paar jaar kijken we dan wel wat het "beste" is op de markt. Ik gebruik ook nota bene linux als daily driver en je leest altijd van mensen dat werkt niet met nvidia ... Nog nooit problemen mee gehad
op een 2060 super op 4k met DLSS .. |:( tsja waar gaat het mis in de positionering denk je.... de persoon zelf.

Je koopt een basis kaart die amper 2k aankan en dan ga je wat sw rommel en truukjes uithalen om extreme pixels te kijken op 4k 8-)
Dat is een oude kaart op een oude pc ... Toen kocht ik gewoon een 4k scherm om eens te testen, ondertussen al lang een nieuwe pc met een 4070ti in, en voor wat wow/diablo te spelen meer dan goed genoeg
pro kaarten is een fractie van een fractie van de markt. Daar heeft AMD helemaal geen interesse in.
wauw, jij weet ook echt alles precies. leuk dat je dat wil delen.

Ik kan je zeggen dat ik 15j samengewerkt heb met de radeon pro R&D groep in Duitsland en bijna alle Emea technische specialisten kende. Veel van de medische display wereld werkt samen met AMD al jaar en dag net omdat ze het toelaten van open driver en open BIOS r&d.
https://www.barco.com/en/...dical-display-controllers

De meeste mensen worden alleen maar meer geïrriteerd als ze prima gpu's dies gaan verkopen als AI kaarten wat het in feite zijn want dat lijkt de enige interesse te zijn. Mensen zijn überhaupt compleet AI moe.

Voor de consument is het idd balen dat er meer geld gegeven wordt aan een prof kaart of een ander AI doel... Maarja een consument is dan ook niet echt een vaste waarde in aankoop, in de professionele wereld heb je contracten van jaren lopen.
599 ex omgerekend is dus 630 ongeveer en dat bekt niet lekker dus gaan we gewoon €699 betalen.

Dat is gewoon te duur, ze hebben al problemen met de huidige generatie rond die prijs een paar procent sneller en fake frames maar een gebrek aan fatsoenlijke de/encoders zit echt niemand op te wachten gok ik zo. AMD zal markt aandeel moeten kopen. De goodwill op GPU's is al jaren ver te zoeken.

Als dat ding 600 euro in btw in euro is en idle power draw en undervolten voor lagere peak power goed te doen is ben ik geïnteresseerd anders harde pass. Mijn 6900XT gebruikt 5 watt idle en 145 watt load met 95% van de prestaties en ik heb een slechte sample voor undervolting. Ze moeten dus een leuk product neer zetten wil dit gaan verkopen.

Time will tell maar ik zie het somber in. Zowel AMD en nvidia en ook Intel met hun CPU's lijken volledig toon doof.
Als AMD kaarten tussen 699 en 900 liggen zullen ze nog steeds goed verkopen, dat jij dat niet zult foen is een ander verhaal. Maar veel keuze is er niet. Ze zijn niet toon doof, maar mensen zoals jij zijn niet realistisch om in te zien dat de huidige chips ook daadwerkelijk duur zijn om te produceren, oa dankzij alle teringzooi die in de wereld bezig is.
Q2 en Q3 vorig jaar waren kaarten van AMD rond die prijs niet aan de man te brengen. Q4 is iets gunstiger voor AMD maar dat komt puur omdat Nvidia de 40 serie effectief uit de handel genomen had en er tekorten waren. Dus als een 50 serie kaart beschikbaar is dan denk ik tich echt dat AMD het lastig gaat krijgen.

En kosten om te produceren sorry maar nee daar geloof ik niets van.

Intel maakt ook een kaart bij een 3rd party en maakt gewoon een magere winst op die kaarten die nog niet de helft kosten (360 retail). Het hele kosten verhaal is gewoon onzin. Zelfs HUB had dit uitgerekend en een die alleen al dat is dus 1st stage ontwikkeling kan makkelijk 150-200 euro goedkoper wat einde van de rit al zo 300-400 euro kan zijn voor kaarten in deze prijs range. Die kaarten hebben letterlijk niets wat een Intel gpu niet heeft qua hardware kosten. Het maken van een 9070 of 4070Ti kost zo goed als niets meer als een Intel B580. Puur op die size zou de 5070 TI zo'n 50 a 100 euro duurder mogen zijn (AMD heeft dit ook al bewezen met X3D chips waar een extra die met cache maar 50 euro meer kost.
Verder hebben al die kaarten een set power stages van rond de 300 watt een power plug een printplaat 16gb geheugen enz. enz.

Er word gewoon enorme winst geboekt op videokaarten ondanks dat Nvidia claimed dat ze een "softwarebedrijf" zijn.
Als je het zo goed weet en denkt dat het goedkoop kan, waar ga je zelf dan niet kaarten produceren voor weinig...
Die 32GB is alleen niet echt voor gaming gedacht. De productie zal ook wat complexer zijn wat de prijs onevenredig veel hoger zal maken, dus ik verwacht hem niet voor 100€ extra te kunnen kopen, mocht deze kaart daadwerkelijk komen.

Dan heb je mogelijk een GPU die duurder is dan een 7900XTX, terwijl de oudere kaart in gaming juist sneller is.
Inderdaad niet voor gaming, maar het zou wel toekomstgericht zijn voor lokaal AI/LLM draaien en finetunen. Niemand weet hoeveel geheugen je daar over een jaar voor nodig hebt, dus als je binnenkort een kaart wilt voor een doeleinde als dat, dan zou 32GB mooi toekomstgericht zijn.

Maar snap uiteraard dat ze daar geen productielijn voor consumenten voor gaan opzetten. Wilde meer aangeven dat er wel doeleinden en dus klanten voor zijn en dat het inderdaad niet voor gaming zou zijn.
Om toekomst gericht te zijn denk ik dat AMD meer heeft aan betere ray tracing performance dan 32gb vram.

RT wordt steeds belangrijker en we hebben inmiddels zelfs de eerste games gezien waarbij het niet uit kan(Star Wars Outlaws en Indiana Jones), met meer op komst (zoals Assassins Creed Shadows en Doom the Dark Ages).

Veel mensen die meer dan 600 euro op een GPU kapot slaan willen (begrijpelijk) de nieuwste games met wat toeters en bellen kunnen spelen. (Je ziet ook dat bijna 80% van de kopers voor Nvidia kiest)

Ik hoop daarom eigenlijk vooral van harte dat de geruchten omtrent verbeterde ray tracing prestaties kloppen.. we hebben concurrentie nodig.
Absoluut. Ik vrees alleen dat AMD ook niet vies is van het commerciële spel en ze ook gewoon inzien dat ze met een 32GB kaart een gat in de markt denken te hebben. Als ik moest gokken zou ik er op inzetten dat AI/LLM een dure hobby zal zijn.

Als gamer zou ik niet eens kunnen zeggen of dat zo'n ramp zou zijn. En paar jaar geleden waren de kaarten weggekaapt doe cryptobros, laat AMD dan nu de vraag onder de AI-bros maar een beetje temperen door een hoge prijs, als dat betekent dat er meer 16GB modellen op de markt kunnen komen.
Hehe 7800xt is de beste kaart te koop nu (nog goede voorraad, snel zat, en maar 500€).

Enigste reden (ook 1080 gtx) dat ik nog niet overstap maakt is dat ik meer dan die +70% performance tegenover 1080 gtx wil, met al de zotte dingen (144 hertz, heb nu maar 60), 1440p, zelfs 4k monitor kans dat ik koop, zwaardere games wil ik minstens +100% (7900 xt bereikt dit, maar is net te duur en verbruikt net te veel voor mij).

Dus 9070/9070xt tenzij te duur zal bieden wat ik wil.
Maar als je al de 7800xt hebt, wat jij vindt dat de beste kaart is, dan is er voorlopig toch ook geen noodzaak om te upgraden naar de 9070.
Neen helemaal niet, je hebt 16gb ram, heel nette midrange performance dit met maximum paar settings te verlagen zeer speelbaar is op 1440p, tot zelfs zeer goed in meeste games (150-200 fps).

Een 7800xt heeft ook wat ik noem al zo'n hoog basis prestatie dat zelfs bv 7900xt nauwelijks sneller zal zijn en héél duur, en beter is er niet bij amd, bij Nvidia kans je nog wat sneller, maar heus niet extreem veel en kijk hoeveel 4090/5090 kost.

Van wat ik lees is 1080 gtx bijna vergelijkbaar met 6600xt dus ik gebruik die laatste altijd als vergelijkingsvoet in testen. Pas vanaf 6750 en lager zou ik overwegen te upgraden, alles sneller is het gewoon niet waard, (tot er weer eens +40% generatie is met +30% geheugen, enzovoort. 2nanometer schat ik zal dat doen, 3 nanometer is goed, maar het zal heus niet een bom zijn tenzij er ook IPC verkregen wordt.

Nog iets, zelfs 4090 is als je streng bent te traag in black myth wuking (alles settings crazy hoog). Dan heb je de snelste kaart, maar boem eigenlijk voor dingen die Nvidia zo belangrijk maakt (ray tracing, path tracing) niet snel genoeg. Voor mij is het dan simpel: die feature is (zeker in die game nutteloos), en dus kan je evengoed op tragere kaart kopen, tot er wel gpu's zijn die het kunnen.

Ik heb trouwens nog 1080 gtx, als je over andere persoon hebt van 7800xt, dan klopt zeker wat je zegt.

Een ander groot probleem is: Bij 4 jaar is 800€ kaart aan zware kant maar haalbaar, bij 2.5 jaar is echt megaduur. Dit heeft me doen nadenken en prijsanalyse maken. 600€ is het maximum dat zin maakt zowel bij snel defect of als 7 jaar meegaat (door extra features, gigabytes ram enzovoort, zal hij dan ook geen slak zijn, wat bv 400€ kaarten eigenlijk zijn, 4060 nvidia vind ik echt zeer slechte vooruitgang op bv 1060 gtx. 5060 zal nog slechter zijn lijkt zo. Dusja heel goed inzetten of prijs/kwaliteit.
Je vergeet dlss, de 4070 met dlss is wel dubbel zo snel.
Ik heb voor mezelf uitgemaakt dat Raster veruit belangrijkste is, en waar ik op wil terugvallen in meeste situaties FSR4/DLSS4 zijn puur bonus, en geen grond van reden om kaart die ik op oog heb te wisselen. 230 watt verbruik (kan ook als dit met tuning kan, 7900xt kan nauwelijks getuned worden) en +100% prestaties als 1080 gtx zijn grotere koop redenen (en 650€ plafond).

Heb 4070 niet gechecked maar 4070 ti super (toch wel minmum qua prestaties raster die ik wil) is al +200€ en stond al 900€ daarvoor, te zot voor woorden.

Als ik meer voor kaart moet betalen (van 200€ midrange naar 600€ 1080 gtx (kwam doordat alles lager dan die kaart onder mining druk zat, dus had geen zin meer), en nu weer, dan moet ook de eisen strenger zijn, heb 7 jaar en 6 maand met 1080 gtx gedaan, dus ik ben streng op nieuwe kaart op dat vlak. Ik doe niet mee aan het megainflatieverhaal van AI op gpu markt.
DLSS gaat gewoon over raster. Om even een praktijk voorbeeld te geven. Ik draai Diablo 4 ultra op 3440x1440 op een 120 Hz monitor met een 120 fps limiet. Door het inschakelen van DLSS, als alternatief voor TAA anti-aliasing, daalt mijn stroomverbruik van de GPU naar 150W.

Wat DLSS doet is intern op een lagere resolutie renderen en het vervolgens met een machine learning algoritme weer upscalen. Waarbij het bijzondere is dat het er in veel games beter uitziet dan de andere AA oplossingen. Zo is DLSS in de F1 games de optie die de witte lijnen naast de baan het mooist weergeeft, zonder kartels. De andere opties zoals TAA en Fidelity FX zijn een stuk slechter.

Het fake frames verhaal heb ik zelf tot heden overigens ook geen interesse in.

[Reactie gewijzigd door sdk1985 op 24 februari 2025 19:54]

Misschien, maar als mensen als jij DLSS 3 als gemeengoed vonden, dan is FSR 4 (misschien nog met wat verbetering tegen jaar van nu) ook al gemeengoed, zie geen reden om DLSS 4 vs 3 als voordeel te zien of DLSS 3 vs FSR 4. Well vs FSR 3.1, maar jah had al 7900xt geskipped.
DLSS4 is ondertussen uit en weer een stukje grafisch beter dan DLSS3. We hebben nog niks gezien van FSR4 maar de kans dat die de beeldkwaliteit van DLSS evenaart is niet zo groot. Nvidia heeft voor DLSS namelijk letterlijk een jaar lang een supercomputer laten stampen. AMD heeft dat budget niet.

DLSS schijnt in 730 games te zitten en Nvidia heeft een DLSS swapper uitgebracht waarmee je de DLSS versie zelf kunt wijzigen wanneer een game niet update. FSR 4 schijnt met circa 50 launch games te komen.

[Reactie gewijzigd door sdk1985 op 25 februari 2025 03:30]

En hardware unboxed video gezien?

Had zelf 80-105% DLSS3 performance verwacht, maar is dlss 3.5 qua performance (tussen 3 en 4 in)

Buiten aanbod spellen is deze inhaalslag gigantisch te noemen.
Van GTX1080, dan presteert alles wel goed. Een RTX4070 had je ook prachtig gevonden.:)

Goed dat je blij bent met de 7800XT. Het gaat uiteindelijk om gamen, niet om het kamp.
Ik wilde een kaart rond de 500 euro en een RTX4070 komt niet in die buurt, al helemaal niet met 16GB VRAM.
€700?! Ik ga wel een nummertje lager naar de 6000 serie voor mijn upgrade. Echt onverantwoordelijk dat ze nog steeds zoveel vragen voor een consument computer onderdeel.
Ze vragen het, omdat mensen bereid zijn het ervoor te betalen. Dus geef de consument maar de schuld.
De consument doet dat alleen omdat ze geen andere optie hebben. De scalpers kopen alles in en eisen het dubbele bedrag ervoor.

Dus ik geef de scalpers EN de fabrikant de schuld omdat hun hier niks tegen doen.
Je geeft in je vorige comment zelf een andere optie...
Niemand dwingt je om de nieuwste videokaart te kopen. Noch de duurste.
Lol de "nieuwste en duurde" vorige generatie kaarten zijn ook nog steeds overpriced. En ja de belachelijke PC requirements van games tegenwoordig forceren mensen om die te kopen.

[Reactie gewijzigd door Spider-Gwen op 25 februari 2025 22:12]

Wat een onzin. Ik kan met mijn 7800XT van 500 euro in 4k moderne spellen op ultra spelen met 60fps.
Met een 7600XT (270 euro) kan je in 1440p moderne spellen op ultra spelen met 60fps.

Dus voor de prijs van een PS5 pro heb je makkelijk een PC die veelzijdiger is en beter presteert.
Waar haal jij die €270 vandaan??? Dat is pas onzin. Volgens Tweakers is dat bijna een €400 kaart.
Niet goedkoop dus.
En PS5 Pro is ook hevig overpriced.

uitvoering: Gigabyte Radeon RX 7600 XT GAMING OC 16G
uitvoering: Sapphire Pulse AMD Radeon RX 7600 8G

Met zo'n hellend vlak instelling, denk ik dat je beter een andere hobby kan gaan zoeken. Of harder werken voor meer geld.
Klinkt eerder dat je dat zelf beter kan doen want 8GB VRAM is onbruikbaar in 2025 voor AAA.
Zou je als gamer toch wel moeten weten.
Denk eerder een reodon pro kaart wat eventueel op AI workstation gericht is alleen

[Reactie gewijzigd door Donatello__ op 23 februari 2025 11:36]

Ik denk dat het hier in Nederland tussen de 900-1100 euro kost. Kijk eens hoever de 5070 TI van zijn adviesprijs af zit. De goedkoopste 5070 Ti kost al 1400 euro.

De 7900 XTX is al een betere aankoop. Deze zit in sommige aspecten gelijk aan of dicht bij de 5080 en voor de beste variant betaal je 1100 euro. Bovendien heeft deze 24GB geheugen.

Maar ja, de vraag is voor hoelang de voorraad strekt en wanneer mensen erachter komen dat ze net zo goed een oudere generatie AMD-kaart kunnen kopen. Tenminste, als DLSS en Ray tracing hen niet echt interesseert.
Als ik met mijn 780M (OC 3.2 / 1.25v) 1024x1024 SDXL modellen kan doen in ~65 sec. wat houdt je tegen om voor 7800XT te gaan? Zluda is gewoon erg, erg goed.
Dank voor het delen! Die richting van AMD denk ik wel steeds meer op, en dat is best netjes ja zeker voor 1024x1024. We hopen hier een wat grotere stap te maken ten opzichte van de RTX3080 die er nu in zit. Qua performance index komt die al bijna gelijk met de 7800XT. En de 7900XT/7900XTX scoorden wel echt wat hoger, achteraf bekeken was dat misschien wel de meest logische upgrade geweest ook, de 7900XT scoort ook qua efficiency aardig hoger dan de 3080 en 7800XT. We vonden het destijds een net te kleine stap, niet wetende natuurlijk dat het zodanig komkommertijd zou worden in GPU land de jaren erna.
review: Gpu-middensegment eindelijk vernieuwd - AMD Radeon RX 7700 XT en 7800 XT

Hopelijk kan de nieuwe AMD 9070 serie op basis van RDNA 4 en het 4nm productieproces net dat zetje geven voorbij die grens waar een upgrade echt wat toevoegt. Deels ook met oog op FSR4, wat eindelijk volwaardig met DLSS mag concurreren is de hoop toch. Dan voelt zo'n uitgave ook wat beter gedekt naar de toekomst. Ook al zal de 9070 XT meer op 7900XT niveau qua performance komen, en de 7900XTX sowieso voor zich moeten dulden in raster performance, eens zien wat de nieuwe generatie onder de motorkap brengt aan toekomstgerichte zaken.
Geef je volkomen gelijk, gebruik ook mijn RTX2080 nog maar even met mijn 4k 135HZ ASUS OLED scherm, wilde graag upgraden naar 4k 100Hz (rtx5080) Helaas haalt de 5080 dit maar kiele kiele. afhankelijk van welke game. De prijzen zijn momenteel absurd, als je ze al kunt kopen.
Koop ergens een RTX4070 oid. Kan je prima tevreden mee zijn. Als upgrade voor een RTX2080.
Klopt, maar is dan weer zo'n tussen upgrade. wil graag 100Hz 4k kunnen spelen.
Video kaart kan gerust 6-8 jaar mee, momenteel lukt het met de spellen die ik speel nog wel.
Wacht maar denk tot na de zomer dan zal het mogelijk iets bekoelen en kan ik met een 5080 weer 6-8 jaar vooruit :)
Ik gebruik flux in forge op een 3060ti met 8 GB VRAM, werkt prima. De truuk is iets te maken op halve resolutie (eigenlijk 1/4 want hoogte en breedte) en als het resultaat je aanstaat dat naar de upscaler tab te sturen. LLM’s werken ook prima met Ollama.
Hier een 7900 GRE gekocht, prima voor m’n 2k 144hzsetup. Over 2 jaar weer een andere kaart of nog wat langer met deze. De prijzen die ze nu vragen slaan nergens op.
De gekte bij Nvidia? Wat dacht je van de gekte bij onszelf? Alle kaarten van Nvidia zijn praktisch uitverkocht, tegen veelal scalper prijzen. Wie is er nu gek?
De gekte zoals in smeltende connectors, ROPS missen, stabiliteitsissues, BSOD's of zwarte schermen noem maar op.
NVidia, om een wereldwijde productlancering te doen met zodanig te weinig voorraad en ook nog eens geen ticketing systeem om wat aan die scalper gekte te doen. NVidia zijn de enigen met macht over de wijze van distributie en de lanceerdatum. Ik heb een budget met mezelf afgesproken en de Nederlandse voorraad van Nvidia was via API's al verkocht voor de officiële tijd van 15u00 die dag, kansloos dus. Had NVidia een US only release gedaan, ik wil NL/EU garantie, dus ik had er dan alvast ook geen tijd in gestoken verder tot de NL/EU release date.

Bij gebrek aan nieuwe kaart, speel ik voorlopig gewoon door op de RTX3080 hier en kijk inmiddels ook eerst eens wat AMD straks te bieden heeft. Ik ben zelf hiermee volgens mij geen deel van die echte gekte dan ook, afhankelijk van je definitie hooguit van de hype / tech enthousiasme rond de 5090 met wat posts hier en daar. Ik had me gerust ergens geregistreerd als bezitter van een NVidia kaart en legit gamer om in een (virtueel) wachtrij systeem aan te sluiten, weliswaar voor de adviesprijs al dan niet met een aanbetaling om scalping tegen te gaan.

Sterker nog, was zoiets er geweest, dan zou ik waarschijnlijk nog steeds in die wachtrij staan en met een redelijke ETA had ik er verder niet meer naar omgekeken tot de 5090 naar me toekwam. Nu is het zo onduidelijk en onzeker geworden allemaal qua prijzen en levertijden, dat ik de 5090 eigenlijk al opgegeven heb voor mijn budget, naar iets anders ben gaan kijken puur voor gaming en niet zozeer extra VRAM voor AI meer, en straks dan mogelijk op een AMD uit kom.
Het is niet de hardware wat de doodsteek voor AMD gaat worden maar de software. Ik denk dat indien AMD er vol voor was gegaan hadden ze Nvidia kunnen pakken. Maar beide bedrijven zullen elkaar natuurlijk ook bespioneren. Nvidia kan slacken zodra ze weten dat AMD geen high end product gaat maken en andersom weet AMD ook dat ze niet kunnen opboxen tegen de performance van Nvidia hardware.

De gamechanger van de 5000 series is niet de hardware maar Dlss 4.0. deze is significant beter dan dlss3.5 en blaast het volledig om ver. Dlss 4 in performance mode ziet er beter uit dan dlss 3.5 quality. Maw, native kwaliteit qua beeld en de extra frames van dlss performance mode. En je kunt dlss4 op elke Nvidia kaart gebruiken. Bizar dat hier nog geen artikel over is verschenen op tweakers. Indien fsr4 niet significant beter is dan dlss3.5 of hun eigen fsr3 zal dat de doodsteek worden. De toekomst gaat niet meer over hardware maar over ai en upscaling.

Oudere Nvidia kaarten hebben sinds vorige maand een flinke gratis boost in performance gekregen betreft gaming.

[Reactie gewijzigd door biggydeen2 op 23 februari 2025 12:23]

Van die boost heb ik echt niks gemerkt, integendeel, oudere drivers moet downloaden omdat ik plots maar 70% performance meer zag in games tegenover de drivers die er eerder op stonden. Op een 3060ti.
Dat heeft niets met DLSS te maken maar met problemen in de Nvidia app en dat is inmiddels opgelost.
https://www.nvidia.com/en...erformance-in-nvidia-app/

[Reactie gewijzigd door Demonslayer op 23 februari 2025 20:16]

Nee, ik gebruik geen filters.
Vreemd verhaal, het is ook geen bekend probleem.
Je hoeft geen filters voor die issue te gebruiken het was een tijdje zolang die feature aan stond dat je performance verlies had.
En je kunt dlss4 op elke Nvidia kaart gebruiken.
Nee, dlss is afhankelijk van de generatie beschikbaar.
Series 4 & 5000 hebben zowat alles
Bizar dat hier nog geen artikel over is verschenen op tweakers.
Tweakers haat dlss voor de een of andere reden, denk dat ze zich wat laten wijsmaken hebben van "fake frames".
Je kunt DLSS 4 wel op alle versies gebruiken, maar niet alle features zijn beschikbaar op elke kaart. Hardware unboxed had een uitgebreide video over DLSS 4:

https://www.youtube.com/watch?v=I4Q87HB6t7Y
Interessant punt… had ik nog maar weinig over gelezen.

Ga daar eens induiken, bedankt voor de reactie.
En je kunt dlss4 op elke Nvidia kaart gebruiken.
Ja, en nee, niet elke optie die grote verbetering verbrengen ten opzichte van 3.5 is beschikbaar op andere Nvidia dan de 50xx range. Maar wat je verder zegt voor de 4.0 versie wat betreft de 50xx serie klopt wel. De doorsnee gamer zal tijdens het gamen zelf het verschil niet zien, alleen bij echt opletten en side by side vergelijking is het nog te zien, maar dan draait de native versie dus wel als de perverbial slide show.
Wat je zegt ja wel heel erg verbatim hoe nvidia in hun PR slides het verkoopt, en als we naar de praktijk krijgen ligt het echt wel wat genuanceerder. Een deep dive in DLSS4 op GN toont aan dat DLSS4 gemiddeld inderdaad een update is, maar beweren dat het vorige versie omver blaast is gewoon onzin. DLSS4 is in bepaalde scenarios merkbaar slechter dat DLSS3, en introduceert vaker ghosting.

Verder hoop ik grondig dat je het fout hebt: ik goop dat gamerz niet blijven vallen voor de absolute stront die upscaling en al helemaal framegen hebben genormaliseerd. Upscaling hebben het normaal gemaakt voor developers om games totaal niet te optimaliseren, en interpolatie heeft die deur nog harder open gezet.
Dat hele spelt valt compleet in duigen omdat je zonder optimalisatie alsnog enorme frame dips hebt, en daar kan upscaling of interpolatie geen reet aan doen, en daarnaast is er simpelweg ook het feit dat je de kaarten die het hardst extra performance boost kunnen gebruiken het minst voordeel halen uit upscaling en interpolatie.

Even uitleggen:
  • Upscaling werkt significant beter wanneer de render resolutie al redelijk hoog is. Dus 4x upscalen van 1080p naar 4k, dat werkt best goed. Maar iemand die een tweedehands 4060 koopt, die gamet niet op 4k, die heeft een 1080p scherm, en 4x upscalen van 540p maar 1080p? Dat wordt echt extreem lelijk. Upscalen is dus vooral een leuk iets voor de hogere mid end en hoger.
  • Interpolatie is nog extremer: het zou fantastisch zijn als je een gpu die iets slechts op 20fps kan draaien met magie de game op 60-80fps kan laten draaien. Maar dat werkt dus niet: op 60 fps spelen met ene latency fie hoort bij 20 fps is om te kotsen. Het hele concept werkt pas goed als je base framerate al boven de 60fps zit. Wederom: het werkt enkel goed voor mensen die sowieso al in het high end segment zitten.
Resultaat: wie al op een erg hoge resolutie aan een goede framerate kon spelen kan dat nu nog beter doen. maar wie spellen net niet kon spelen kan dat nog steeds niet.
Dus nee, ik hoop niet dat gamers het toestaan dat nvidia gaar bepalen dat de hele industrie nu afhangt van slechte AI generatie trucjes, enkel en alleen omdat nvidia heel graag de dingen die ze duur aan AI bedrijven verkopen ook aan gamers willen slijten. Ik wil vooruitgang zien in native raster en ray tracing performance.

Upscaling en interpolatie hebben een plek, natuurlijk, maar er volledig de focus op leggen is simpelweg een vergissing.

Echter, als ik zie dat gamerz met plezier duizend euro neertellen voor wat eigenlijk gewoon een 5060 had moeten zijn vrees ik dat we nog een tijdje in een wereld leven die volledig bepaald wordt door nvidia newspeak.

[Reactie gewijzigd door kiang op 24 februari 2025 09:27]

Ik verwacht helaas niet dat AMD nu opeens een wereld van verschil gaat maken en de strijd aan zal gaan met de 5090. Nog steeds heeft nVidia niets te vrezen voor een concurrentie en heeft het vrij spel. Zolang AMD/Intel hier niets aan doet zal nVidia doorgaan.

[Reactie gewijzigd door Van der Berg op 23 februari 2025 12:40]

Hoeft ook niet.
De 5090 is al te duur voor de gamer.
De 5080 is een joke.
De 5070ti paar procent sneller dan de 4 serie.
En alle kaarten zijn onbetaalbaar/onbetrouwbaar en te veel issues ( Nvidia )

Dan is het toch makkelijk keuze?
Niet kopen en deze serie links laten liggen.
En genoegen nemen met andere keuze.

Dat AI is ook niet belangrijk....niet voor de games.
DLSS upscaling is ook AI en wel degelijk belangrijk voor games.. Het stelt developers in staat flink meer detail in hun games te stoppen zonder dat de hardware-eisen te hoge vormen aanneemt voor de meeste gamers.. Je kan je games ermee op lagere resolutie spelen/renderen die door de AI upscaling vervolgens weer verhoogt wordt naar de native resolutie van de monitor waarop je speelt.. Waardoor je fps omhoog gaat en je inputlag omlaag zonder dat je er een snellere videokaart voor nodig hebt.. Zeker wel een nuttige toepassing van AI dus..

Frame generation is inderdaad niet zo belangrijk, dat is kunstmatig frames toevoegen met behulp van AI.. Daar gaat een game op het oog wel sneller van draaien met meer fps maar niet qua gevoel omdat het niet je inputlag verlaagt zoals hogere frames door upscaling wel doet.. Je inputlag wordt zelfs iets hoger nog met framegen.. Dat is dus eigenlijk alleen nuttig voor hoge refreshrate monitoren waarmee je een goede basis fps nog verder kan verhogen, om b.v. van 100 fps naar 240 fps te gaan ofzo..

[Reactie gewijzigd door Inflatable op 23 februari 2025 17:59]

Moet zeggen was voor 5080 gegaan kom van een 3080 af en frame gen bij indiana jones was ik toch wel tevreden mee zolang ik het niet op x4 zet maar x2. Latency viel nog wel mee en dan kan ik wel een veel soepelere full ray tracing aan zetten.

5080 is wel iets beter dan het lijkt om een of andere reden kan je met die kaart zo 300 mhz overclocken.
Wat iets van 5-10% meer fps in games kan zijn.

[Reactie gewijzigd door madcow22 op 24 februari 2025 01:38]

De strijd om GPU's ligt niet bij de 5090, maar bij de 5060-5070 range, dat is de range wat de grootste groep mainstream gamers zal kopen. En dat is dus ook waar AMD met de 9070 zich op richt.

[Reactie gewijzigd door SuperDre op 23 februari 2025 16:11]

Als AMD echt wil concurreren en meer marktaandeel pakken zal de prijs van cde 9700XT duidelijk onder die van de Nvidia 5070Ti moeten liggen.. Dus niet het bekende 10% goedkoper beleid, want dan gaat er weer niks veranderen, ookal is de 9700XT weer ietjes sneller dan een 5070Ti in rasterization.. De 9700XT zal hooguit rond de €550-600 adviesprijs moeten kosten met raytracing prestaties die veel meer in de buurt komen van die van Nvidia en met een FSR4 dat ook duidelijk beter is dan de oude DLSS3 zoals DLSS4 nu.. Alleen dan kan AMD een noemenswaardige hoeveelheid PC gamers overhalen om over te stappen van een Nvidia videokaart naar een AMD videokaart..

Wat AMD wel kan helpen is als Nvidia deze generatie de productie en leveringen van hun GPU's zo laag houdt dat die nooit voor de adviesprijs of iets wat erop lijkt te koop zullen zijn.. Maar dat denk ik inmiddels niet meer aangezien we nu al redelijk wat 5070Ti's op vooraad zien bij de winkels.. Alleen omdat die nog steeds denken het voor belachelijke scalper prijzen te kunnen verkopen net als de 5080 en 5090 blijven ze liggen..

[Reactie gewijzigd door Inflatable op 23 februari 2025 17:24]

De 5070 Ti zie ik staan voor bijna 1400 euro. 900 euro voor de 9070 XT is dan een koopje.
Tuurlijk, jij weet alles van hoe de markt moet zijn. Helaas is wat jij vindt niet de realiteit, AMD weet wel beter hoe het werkelijk loopt.
AMD weet het kennelijk zo goed dat Nvidia inmiddels op bijna 90% marktaandeel zit.. Dat is de realiteit..
Dat is helemaal het idee niet. Dit is meer competitie voor de 5070 echter gaat deze kaart gewoon te duur zijn om mensen over te halen. Mensen betalen gewoon honderden euro's meer om maar geen AMD te hoeven kopen en dus zal AMD zonder geforceerde MSRP deze kaarten niet gaan verkopen behalve aan een paar AMD fanboys die alles kopen wat AMD is.
Althans dat is wat de data van afgelopen jaren laat zien.

AMD hoeft ook helemaal niet met een kaart als de 5090 de competitie aan te gaan. Die 2% van de klanten hier jammer ook voor high end gamers zijn totaal niet boeiend. Als ze de xx70/TI/Super kunnen verslaan of evenaren in prestaties en functies en flink goedkoper kunnen zijn is dat alles wat ze nodig hebben. Echter zonder MSRP kaarten gaan dit gewoon niet gebeuren. Momenteel zijn de features nog slechter en dit lijkt niet te gaan veranderen omdat AMD de focus bijvoorbeeld niet legt op encoden/decoden ondanks de wereld waarin we leven met veel streaming video. en de prijs te hoog om de AMD producten interessant te maken.
AMD trekt zich dus stevig terug uit de markt (voor nu?). Partnerkaarten zitten ook vaak vol met "marketing", zoals veel design, te grote heatsinks, etc. Wat meestal niet zo goed is voor de prijs.

De performance lijkt rond de 5070TI/4080/7900XTX te kunnen liggen. Deze kaarten gaan voor ruim €900 uit de winkels. Dat is veel te hoog voor een nieuwe AMD kaart. Wanneer de 9070XT voor meer dan €599 wordt verkocht, zal het geen positieve impact hebben op hun marktaandeel.

Verder is het gewoon dik teleurstellend hoe onbelangrijk gamers worden gevonden in deze tijd van AI. Er is amper significante vooruitgang in gaming zelf. De prijs/performance is ook behoorlijk slecht inmiddels. Ten opzichte van vorige generaties, die nog vaak goed bruikbare speelervaringen geven.

Nvidia 50 series is al een dikke teleurstelling met alle issue en rare prijzen. De hype dat AMD het anders gaat doen, klinkt leuk, maar gezien de geschiedenis en de huidige ontwikkelingen, zou ik er niet te veel van verwachten.

Dus goed alle reviews bekijken en goed bedenken wat je noodzakelijke performance niveau is en hoe dit het beste is te bereiken.
599 dat zegt genoeg over je perceptie en dat is net het probleem. Dat een 5070ti die niet sneller gaat zijn voor 899 (MSRP die je in de verste verte niet kan vinden, laat staan de +100eur IAB designs) tot daar aan toe. Nee AMD moet daar 2-300 EUR onderzitten voor zelfde performance want je koopt anders toch nooit AMD |:(
Je kunt natuurlijk 10 jaar lang beweren dat het een perceptie probleem is. Maar als dat stand houdt dan zit er wellicht meer achter.

Kijk bijvoorbeeld eens naar het sentiment rondom streaming met Radeon op twitch. Daar worden AMD kaarten letterlijk afgeraden in verband met de belabberde kwaliteit van de encoding. Voor de 7 serie/ OBS v28 had je ook nog te maken met hybride encoders die deels de normale shaders gebruikte en daarnaast erg instabiel bleken.

Zo zijn er nog wel meer hardnekkige problemen te vinden. Bijvoorbeeld het idle stroomvebruik bij multi monitor en tegenwoordig ook video playback.

Drivers problemen is ook genoeg over te vinden. Persoonlijk heb ik nog nooit zoveel driver problemen gehad als met de AMD E-350 APU, mijn hemel. Nvidia begint nu hetzelfde te doen, echter gaat het wel enige jaren duren voor Nvidia hun reputatie kwijt is dat op gebied van drivers ze hun zaakjes op orde hebben. De reden dat Nvidia die reputatie heeft is geen toeval, dat is om dat ze al 25+ jaar investeren in samenwerking met uitgevers. Zo zat bij Battlefield 2, uit 2005, er een speciale Nvidia driver meegeleverd op de CD/DVD. Daarnaast zijn er teams bezig die game specifieke patches schrijven om call om te buigen en op te nemen in hun driver base. AMD heeft daar simpelweg een achterstand in omdat ze daar nooit het geld aan hebben uitgegeven.

[Reactie gewijzigd door sdk1985 op 23 februari 2025 14:12]

Grappig die vermelding van een e-350 apu. Wel Rara ik loop ook al langer dan dat era rond en heb ook die 350 en 450 spielerei bordjes gehad. Wat ging je er op doen ? High end gaming. Dat was goed voor media streaming en wat 1280 plezier.

Ga je nu echt zoveel jaar terug drivers van een apu vergelijken met heden |:( |:(

De 5000 serie had serieus wat problemen heb mijn deel gehad met de 5600 en 5700xt. heb hier nu 2 x 6800xt draaien en dat gaat al jaren vlot. Beperkte driver issues tenzij je wel het extreme laatste niet whql opzoekt.

Je bent een typische internet gevalletje. Dingen herhalen. Die idle multimonitor is easy fix voor. Zelfde monitor freq draaien. Maarja stel je voor je hebt geen 100eur voor een monitor extra, nee want de kaart moet minimum 300eur goedkoper zijn, anders koop ik die duurdere toch wel. :+

Zelfde met die video playback.
Wat een lachertje met je 20w verschil zoektocht. Laat me raden je pc staat ook 24h aan zeker.

[Reactie gewijzigd door d3x op 24 februari 2025 09:22]

Grappig die vermelding van een e-350 apu. Wel Rara ik loop ook al langer dan dat era rond en heb ook die 350 en 450 spielerei bordjes gehad. Wat ging je er op doen ? High end gaming. Dat was goed voor media streaming en wat 1280 plezier.
Ik heb er een HTPC met lokale opslag van gemaakt destijds. De drivers waren noodzakelijk omdat de cpu zelf maar op 1.6 Ghz draaide en daarmee te traag was om video te decoderen via software. DXVA hardware acceleratie was nodig om videomateriaal zonder haperingen af te spelen.
Ga je nu echt zoveel jaar terug drivers van een apu vergelijken met heden |:( |:(
Tja wellicht is het even een harde waarheid die lastig voor je is maar wanneer je de boel zo verpest zoals destijds met E-350, waarbij 4 jaar later de driver packages onbruikbaar werden en vervolgens voor windows10 nooit support is uitgebracht, dan blijft dat jaren aan je reputatie kleven. Het enige wat je concurrent dan hoeft te doen is het minder slecht te doen en je bent een klant snel permanent kwijt.
De 5000 serie had serieus wat problemen heb mijn deel gehad met de 5600 en 5700xt. heb hier nu 2 x 6800xt draaien en dat gaat al jaren vlot. Beperkte driver issues tenzij je wel het extreme laatste niet whql opzoekt.
Het gaat niet om specifieke voorbeelden. Er zijn meer series met grote problemen waaronder bijvoorbeeld black screen bugs. Het is simpelweg een feit dat AMD sinds 2017 achterop loopt op gebied van optimalisatie en software ten aanzien van Nvidia. Die reputatie wordt verwerkt in de prijs.
Je bent een typische internet gevalletje. Dingen herhalen. Die idle multimonitor is easy fix voor. Zelfde monitor freq draaien. Maarja stel je voor je hebt geen 100eur voor een monitor extra, nee want de kaart moet minimum 300eur goedkoper zijn, anders koop ik die duurdere toch wel. :+
Dit vind ik een erg vreemde alinea. Alsof techpowerup opzettelijk een andere frequentie gaat draaien in hun multi monitor test. Daarnaast volstrekt irrelevant, mijn tweede monitor is 60 Hz. Wie gaat er nou twee gaming monitoren naast elkaar draaien?
Zelfde met die video playback.
Wat een lachertje met je 20w verschil zoektocht. Laat me raden je pc staat ook 24h aan zeker.
Ik merk dat de feiten zwaar op je wegen maar helaas is dat wel iets waar mensen naar kijken. Net als nog een hele hoop andere onderwerpen die ik nog niet eens heb aangestipt zoals DLSS.

Feit is dat AMD Radeon op een heel aantal zaken achter de feiten aanloopt waardoor ze in de prijs moeten zakken zodat de totale propositie voor de klant interessant wordt. Mensen kopen een 7800XT omdat de prijs positionering interessant is. Niet omdat het je de beste ervaring oplevert. Het is de prijs die de 7800XT interessant maakt. Wanneer de RTX 4070 even duur is dan is er geen rationele reden om voor een 7800XT te kiezen ondanks dat die kaarten ongeveer even snel zijn. De RTX 4070 is simpelweg een beter product. Lager idle stroomverbruik bij multimonitor en videoplayback, 20% lager stroomverbruik in gaming, hardware encoders geschikt voor twitch/obs en DLSS voor een enorme snelheidsboost in een steeds groter aantal games. Drivers blijft natuurlijk ook altijd een dingetje. Bij gelijke prijs maat de 7800XT weinig kans, daarom is die 100 euro goedkoper. Die nadelen zitten in de prijs vewerkt.

Het is niet onmogelijk dat dit veranderd. Sterker nog, vroeger werd Ati Radeon als het betere alternatief gezien. Die hadden toen bijvoorbeeld betere beeldkwaliteit. AMD heeft het ook wel geprobeerd met TrueAudio en Mantle, alleen het is nooit gelukt. Bij Nvidia is het wel gelukt.

[Reactie gewijzigd door sdk1985 op 24 februari 2025 14:06]

Persoonljik heb ik meerdere ATI/Radeon kaarten bezit, en ik kan zeggen dat ik er zeer weinig problemen mee heb gehad. De laatste , de RX 6800 helemaal geen. Vind dan ook dat de problemen die gerept worden zwaar overtrokken zijn.
Same! Nu een 6950XT in mijn eigen systeem en een 6700XT in die van mijn zoon. Prima kaarten, de aanschaf redelijk goed kunnen timen voor beiden. Uiteindelijk onthoudt de markt minder goede dingen langer....en Nvidia is al tijden "the place to be" voor gamingkaarten. Ondanks vele modellen met belabberde waarde, rare prijzen en nu bizarre hardware/driver issues.

Je kan alleen de hegemonie van een monopolist doorbreken met een echte disruptor, zoals de Ryzen range in een periode van een aantal jaar heeft gedaan. Zeker met de 3000 series.

AMD kan niet op performance winnen, of perceptie en software. Hun FSR, RT is gewoon minder en dat blijft zo. Blijft prijs, leverbaarheid en imago over.
Ze lopen nu achter met RT etc, maar zeg nooit dat het zo blijft. Kijk maar naar Intel, die loopt ook al een poosje achter de feiten aan. Wie had dat gedacht, 10jr geleden.
... nog nooit zoveel driver problemen gehad als met de AMD E-350 APU, mijn hemel.
Over 'oude }:O }:O uit de sloot halen' gesproken... Wat hoor ik daar? Oh, 2011 wil deze comment terug! :+
Het was oprecht en hoop werk. Na aanschaf, maar ook zeker in de jaren daarna. AMD heeft er echt een bende van gemaakt. Zie mijn topic uit 2015 forumtopic: Werkende AMD chipset drivers voor een E-350. Eindstand ben ik zelf de dependencies uit de installer gaan vissen. Niet veel later is de boel abondonware geworden omdat amd geen support voor win10 heeft uitgebracht waarvoor dxva niet werkte en de cpu te traag was om video af te spelen zonder die harware decodering.
Mjah, dat was bijna 14jr geleden. Doe jij dat met alles wat een keer niet Goed werkt? Blijft er niet veel te kiezen meer over.
Dat is precies wat er de afgelopen jaren is gebeurd. Ondanks redelijk raster performance tov vergelijkbare Nvidia kaarten en een (iets) lager prijs, is het marktaandeel gezakt naar 10% ongeveer.

Met de geruchten vlak voor de launch vandaag van een "prijs in China van $599" voor de 9070XT, maar ook andere geluiden van 699, ben ik benieuwd wat het gaat worden. Gamers Nexus heeft een goede video hierover gemaakt.

Maar als ik dan lees dat via alle lek-bronnen de 9070 maar een paar tientjes onder een 9070XT wordt geprijsd, dan bekruipt mij weer het gevoel dat de 9070 weer geofferd wordt voor de 9070XT. Als de gelekte prijzen (o.a. Microcenter) van tegen de $1000 voor de uitgeklopte versies van bordpartners...echt serieus, waar zijn ze mee bezig! Op deze manier blijven de AMD 6000/7000 en de Nvidia 3000 series via tweedehands voor een hoop mensen de meest verstandige optie.

Dit is de gouden kans voor AMD. Met een 9070XT van max $599 en de 9070 voor max $499, zou AMD op prijs (zeker als het goed leverbaar is allemaal) gebruik kunnen maken van het gepruts van Nvidia deze launch. Waar Nvidia overigens niet wakker van ligt omdat men ruim 90% van hun omzet haalt in datacenters. Ik hoop dat ze breken met hun eigen tradities, maar als ik die knakker die leiding geeft aan Radeon hoor, dan lijkt het alsof hun hoofd nog veel te ver in hun eigen bips vast zit.

Vanmiddag weten we meer en zijn we boos/teleurgesteld of blij verrast. ;)
Dat is te makkelijk. Moeten z die kaart dan maar met dik verlies verkopen? Zullen de aandeelhouders blij mee zijn.

De 9070 xt gaat ons zeker blij maken, schat ik in. Vrijwel rtx 5070 ti prestaties voor een goede prijs. Laten we hopen dat het de scalperprijzen van vandaag de kop indrukt. Want daar word niemand blij van.

[Reactie gewijzigd door Madrox op 1 maart 2025 10:58]

Verder is het gewoon dik teleurstellend hoe onbelangrijk gamers worden gevonden in deze tijd van AI. Er is amper significante vooruitgang in gaming zelf.
zelfde trend als tijdens de crypto boom..
helaas dus niks nieuws
Een grote heat sink kost ook geld ja. Maar het is ook de reden dat AIBs vaak zoveel stiller zijn als de standaard versie. En de AIBs zullen vast net als bij Nvidia, ook AMD kaarten moeten verkopen tegen MSRP. Maar dat worden dus relatief luidruchtige kaarten zeer waarschijnlijk.
Deze kaarten gaan voor ruim €900 uit de winkels. Dat is veel te hoog voor een nieuwe AMD kaart. Wanneer de 9070XT voor meer dan €599 wordt verkocht, zal het geen positieve impact hebben op hun marktaandeel. Verder is het gewoon dik teleurstellend hoe onbelangrijk gamers worden gevonden in deze tijd van AI.
Daar geef je zelf exact het probleem aan van NVidia en AMD: Gamers zijn niet bereid om de prijzen te betalen die AI kopers wél betalen per TFlops. Niet "onbegrijpelijk", maar compleet logisch.
100%. Als je leest dat Nvidia 90% van de omzet uit AI/Datacenters haalt, dan weet je genoeg. Gamers dienen genoegen te nemen met de restjes die we krijgen. Waarbij we heel goed moeten nadenken welke performance we daadwerkelijk "nodig" hebben en daarbij de beste optie uit moeten kiezen.

Ook in CPU land is de trend van particulier naar datacenter duidelijk. Zie maar de AMD 9000 launch. Mooie nieuwe technieken, maar geen noemenswaardige bump in gaming performance (9800X3D daargelaten). Gamers lijken steeds meer "niche" te worden voor AMD, Intel, Nvidia.

Decline of the PCMR here is, the rise of the console inevitable it seems. Sad..
Koop je toch de 5070 ti, nu halen a 1350€. Hoezo 750€? Nee, de msrp is al 150€ lager. En heb je 95,% van de prestaties. De 7900xtx is geen optie, die verliest zwaar met RT en is beduidend meer stroomvretend.
Jammer, waren vaak kaarten die daadwerkelijk voor msrp verkocht werden.
Ik denk dat de AMD-kaarten best wel dicht op MSRP worden verkocht, zeker vanwege hoe gewild de RTX 50 kaarten zijn op dit moment.
Ik denk dat dat een hele onrealistische conclusie is.
Ik denk dat je dit heel erg hoopt omdat je er een wilt hebben.
Mijns inziens is de kans veel groter dat door schaarste ook deze video kaarten voor heel wat meer dan MRSP zullen worden verkocht. Zeker initieel zullen winkels inzetten op een veel hoger bedrag, zeker gezien de markt met de huidige nieuwe generatie wederom heeft aangetoond dat mensen nog steeds en-masse bereid zijn om volslagen idiote bedragen te betalen ervoor.
Tja, ik denk dat niet alleen de markt maar ook gewoon nvidia hier schuldig aan is.

Ze doen nu net dat ze barmhartigheid met haar gamers wil omgaan door te kijken of een persoon een kaart gaat kopen voor eigen gebruik.

Maar als ze echt zo barmhartigheid willen doen hadden ze gewoon die gpu's een maandje moeten produceren en toen pas gaan leveren zodat er minder te korten waren.

Dus wellicht doet amd dit wel, eerst stapel kaarten maken en dan pas mee op de markt.
Wat denk jij dat ze hebben gedaan?
Nvidia will cease production of its current RTX 40 series graphics cards, including the RTX 4070, 4080, and more, in preparation for the upcoming launch of the RTX 50 series in January.
Ze zijn letterlijk in november al overgestapt op het produceren van de 5xxxx serie. Wanneer je 80% van de markt bediend en je markt is de hele wereld dan is 2 maanden niet genoeg. Voor een product als een GPU heeft het geen zin 6 maanden te produceren zodat je launch voorraad goed is. Daarvoor verouderen ze te snel en zijn de producten te veel waard. Dat kost enorm veel aan kapitaal en opslag.

Traditioneel gezien is AMD heel erg voorzichtig met productievolume inkopen. Dus ik verwacht niet dat dit nu anders gaat zijn.
Ik lees nergens dat ze in november al productie zijn gestart met de 5xxx serie. Ik verwacht dat ze ook wel een tijd nodig hebben om een fab om te bouwen?
De chips zelf worden bij TSMC gemaakt dus daar kun je doorgeven dat je vanaf dag x wafers met ontwerp y wil afnemen. Dat schijnt überhaupt 5 tot 8 weken te duren, vanaf start tot dat de wafer klaar is. Het is hetzelfde procedé dus die hoeven niet een fab om te bouwen.

Volgens mij gaat het in het nieuwsbericht meer over de assembly bij de AIB's. Ik verwacht overigens niet dat die er heel erg lang over doen om hun assembly lijn aan te passen. Voor hun is het in grote lijnen hetzelfde. Ze krijgen een chip en ze moeten een PCB, geautomatiseerd, in elkaar zetten en vervolgens de boel door een test straat halen.

[Reactie gewijzigd door sdk1985 op 23 februari 2025 15:50]

waarom moet een fab omgebouwd worden als 5xxx serie sop vrijwel zelfde procede van de 4xxx serie word gemaakt dan lijkt die stap me overbodig maar ik ben geen expert
Ombouwen zal niet gebeuren, nee. Er worden wat parameters van de ASML machines getuned, en dan moet je even een testrun maken en doormeten. Vanaf blanke wafer tot testresultaat duurt alsnog weken. Ondertussen laat TSMC de machines natuurlijk niet stilstaan, dan kunnen ze voor andere klanten produceren.
dank voor de aanvullende informatie
Lijkt er toch op dat and genoeg voorraad heeft geproduceerd voordat ze de markt op kwamen.. nieuws: Nederlandse webshops hebben duizenden RX 9070 (XT)-videokaarten op vo...
Het beetje aanbod wat er is gaat tegen enorme prijzen.
Alleen als AMD en board partners een grote voorraad hebben is er een kans op een prijs richting MSRP. Het zou me niet verbazen als er +25% gevraagd wordt in de eerste maand.
Tijdens COVID en de mining-craze werden AMD kaarten idd voor net zo belachelijke prijzen verkocht als de NVIDIA tegenhangers, zowel in de winkels als door scalpers.

Het is idd echt afwachten wat de prijzen gaan doen, maar ik heb er een hard hoofd in. Hangt er mogelijk ook nog van af hoeveel voorraad webshops nog van de 7000-serie hebben liggen
Ik vraag me af of FSR 4.0 backwards compatible word met oudere AMD kaarten.

Qua prijs zou het slim zijn van AMD om wat lager te zitten om meer marktaandeel te genereren. 600 euro msrp voor de RX 9070 XT lijkt me een mooie sweetspot.
Dat lijkt me wel aangezien FSR tot nu toe puur software based is en op elke videokaart werkt.. Als dat met FSR 4 niet meer zo is dan loopt AMD nog verder achter op Nvidia waar DLSS4 t/m de RTX 20-serie backwards compatible is..
Volgens mij was al bekend dat FSR 4 niet backward compatible is vanwege dat die juist wel bepaalde hardware nodig heeft.
Er komt geen 32gb xt hebben ze gezegd, vandaar dat men verwacht dat ze die xtx noemen.

We gaan het zien.
Grappig dat AMD met die “artistieke render” zelf al aangeeft dat er geen reference-kaart komt – het is net alsof ze ons alvast willen waarschuwen dat je straks tussen de (mogelijk) extravagante custom designs moet kiezen. Toch jammer, want AMD’s reference-modellen zien er de laatste generaties best strak uit en worden meestal netjes voor de MSRP aangeboden. Hopelijk drukken de partnerkaarten de prijs niet te veel omhoog, want een competitieve 9070- of 9070XT-serie kan de GPU-markt wel wat opschudden. Ik ben ook benieuwd of ze qua raytracing een stuk dichter tegen Nvidia aan zullen kruipen, of dat de échte sprong daarvoor toch in RDNA5 zit. Maar laten we vooral de reviews afwachten – wie weet komt AMD uiteindelijk nog met een verrassing om de strijd spannend te houden!
Wat is er eigenlijk met de 8000 serie gebeurd? Zomaar overgeslagen?

Op dit item kan niet meer gereageerd worden.