Ik heb de kaart gekocht op een prijs van 689eu. Alhoewel dit een aanzienlijk bedrag is, werkt het huidige GPU klimaat een positieve conclusie in de hand: goede prijs/performance ratio. Ten opzichte van Nvidia kwamen de 9070 kaarten als verlichting op de markt, maar het blijft een smak geld en voelt duur aan als je eerdere flagships releases bekijkt van de afgelopen decennia. Veel beter verwacht ik eigenlijk niet dat gereleased wordt in de nabije toekomst, in ieder geval niet in deze formfactor van de Reaper en/of met een vergelijkbare prestaties/watt verhouding (undervolt beschreven hieronder).
MIjn criteria waren als volgt:
- Compatibel met mijn SFF build (Sharkoon QB one)
- 4K ready, voorkeur richting 60fps
- High-refresh rate capable op 1440P
- Future-proof voor minstens 7 jaar (typische console cycle)
- (Verwachtte) capabele emulatiemogelijkheden
- Redelijke electriciteitsconsumptie (<250W), goede warmteafvoer
Aan de hand van uitgebreide reviews hier op Tweakers, op Youtube en elders:
- 4K kan deze kaart zeker, aldanniet met wat ingebakken- (FSR4), omgezette- (DLSS/XeSS via Optiscaler), of externe- (lossless scaling) scaling en/of frame generation.
- High-refresh rates op 1440P worden native behaald in de meeste recente AAA titels.
Dus die twee punten zitten met wat aan en uitzetten van features wel goed. Zeker aangezien ik een backlog aan games heb in Steam. Die wou ik op de best mogelijke kwaliteit kunnen runnen en ik wou een kaart hebben die krachtig genoeg zou zijn voor emulatie van 1+ generatie oude consoles. De PS3 kan daardoor de kast in, PS4 nog even voor een paar games laten staan, maar uiteindelijk alle games die ik bezit emuleren en mijn PC als console gebruiken, is het doel. PS5 en PS6 sla ik over met de aanschaf van de 9070 XT.
Future proof? Ja en nee als het op VRAM aankomt
AMD is degene die de 9070 XT lager prijst dan een equivalent uit de 40- of 50- serie van Nvidia. Dat gezegd, 16GB GDDR6 is volgens menig reviewer "genoeg" of passend bij deze kaart, en daar ben ik het absoluut niet mee eens. Meer GDDR6 zou beter schalen met met de vooruitgang die deze Navi 48 reeks heeft gebracht. Er zijn genoeg 8GB kaarten uit eerdere reeksen die haperden bij de release van wat VRAM hongerige games, terwijl hun slomere chip variant met wat meer VRAM het gewoon prima draaide (3060 12GB vs 3060 Ti 8GB).
Qua raster prestaties zou de 9070 XT gelijk liggen aan een 3090 Ti of 7900 XTX, beide 24GB kaarten. En waar eerder de GPU chips aanzienlijke ontwikkelingen meemaakten, is nu een erg artificiele limitatie geplaatst op de kaarten middels een VRAM stagnatie. AMD doet daar ook aan mee, maar met de 9070 XT zetten ze een kaart op de markt die het beter doet dan de concurrentie. VRAM stagnatie heeft natuurlijk wel als voordeel dat de huidige kaarten nog wat langer relevant blijven en gamestudios 16GB VRAM voorlopig nog wel zullen respecteren als limiet.
Generatieve AI prestaties
Alhoewel ik oorspronkelijk niet van plan was om meteen bezig te gaan met AI, wou ik alvast de mogelijkheden testen in ComfyUI. Ik heb ComfyUI zowel als ZLUDA variant en native gerund (ROCm/AMD HIP SDK) en kwam al snel erachter dat veel niet zomaar out of the box werkte. De ZLUDA variant gaf ook meer errors op sommige workflows, die terugsloegen op de beperkingen van ZLUDA zelf. Mijn voorkeur is om ROCm te gebruiken vooralsnog. Belangrijk detail is wel dat Amuse 3.0 recent is uitgebracht, wat laat zien dat AMD de AI ruimte nu ook steviger betreedt. Natieve ondersteuning en doorontwikkeling van ZLUDA brengen de kaarten hopelijk gauw op het niveau van Nvidia.
Text-to-image op ComfyUI werkt zonder problemen bij mij op ROCm 6.4.2 en numpy 1.26.4, maar nog niet op de volle snelheid (Voor SDXL 1.0 ongeveer 7sec voor 512x512 en 40sec voor 1024x1024, 30 steps). Voor video en audio krijg ik MIopen errors die ik niet heb weten weg te werken. De main.py met "--cpu-vae", stond renderen op de CPU toe, waarbij de generatie succesvol werd, maar bijzonder traag. Helaas was "--lowram" niet voldoende om GPU vae decoding mogelijk te maken. De test text-to-video op de ltx-video-2b-v0.95 checkpoint van de drone duurde daardoor ietsruim 400sec in de eerste run.
/m/910493/1UU8nLgYUzloZnXPczqhhYK6Bz9SvRuonQW6gsrYXlzzFg8CSH.png?f=620xauto)
.
Naast een paar hilarische image en audio generaties en een paar intensievere workflows te hebben getest voor potentieel gebruik in daadwerkelijke toepassingen, heb ik maar enkele echt handige toepassingen daarvoor. Als side project is mijn doel binnenkort om een thuis AI assistent te runnen die ik zelf host voor home automation (licht, airco en electronica) en AI assistance (boodschappenlijstjes en reminders). Gezichtsherkenning is al zeker mogelijk, maar vind ik zelf niet privacy-netjes naar anderen toe, dus daar heb ik een privacy-vriendelijker alternatief voor wat geen biodata nodig heeft.
Electriciteitsconsumptie
Kort gezegd: dit zit goed, maar niet vanuit de fabriek. Verschillende forums buigen zich over de capabele undervolts en overclocks die haalbaar zijn op 9070 XT kaarten. Voor mijn doeleinden in de SFF kast, ben ik voor een flinke undervolt gegaan. Op -85mV Voltage offset en -30% power limit% is mijn verbruik van 304W naar 212W gegaan.
/m/910493/1UPTIt1mt8HkA1eNjtznIxNu5sorKrLSFR3atjzQq0xo32e4vJ.png?f=620xauto)
Dit ging wel ten koste van ~6% performance. Er zijn alternatieven die nauwelijks verlies van prestaties opleveren (-60W), maar voor nu zijn de prestaties op 212W meer dan voldoende voor mij. De Powercolor Reaper 9070 XT in mijn bezit heeft dus gelukkig erg veel head-room voor latere eventuele overclocks.
Op mijn settings nu, is het een erg stille kaart en genereert het een stuk minder warmte in mijn SFF build. Mijn fan setup moest wel opnieuw geoptimaliseerd worden. De lage kaart in combinatie met silent mode (fans uit/gebruik luchtstroom kast) heeft het een aanzienlijk ander effect in mijn kast dan mijn snelblazende, minder lange en hogere 5700 XT. Een flip van 1 fan en het plaatsen van een extra intake fan hebben mijn temperaturen verbeterd tot een vergelijkbaar niveau, ook onder aanzienlijke load.