VideoCardz: AMD Radeon RX 9060 XT krijgt 2048 streamprocessors

AMD bereidt zich voor op de introductie van de Radeon RX 9060 XT, een videokaart die het moet opnemen tegen Nvidia's GeForce RTX 5060 Ti. Volgens boardpartners die met VideoCardz spraken krijgt de kaart 2048 streamprocessors.

De RX 9060 XT wordt uitgerust met een Navi 44-chip die beschikt over 2048 streamprocessors, zegt VideoCardz. Dat is de helft van wat de grotere Navi 48-chip in de RX 9070-serie bevat. Het model komt beschikbaar in twee configuraties met 8GB of 16GB GDDR6-geheugen dat op 20Gbps draait. De RX 9060 XT heeft een gameclock van 2620MHz en een boostclock van 3230MHz. Fabrikanten kunnen daarnaast OC-modellen uitbrengen die tot 3,3GHz kunnen halen. De videokaart vereist een voeding van minimaal 500W, oplopend tot 550W voor bepaalde uitvoeringen. Aangezien de tot nu toe bekende modellen enkel een 8-pinsstroomaansluiting hebben, blijft het maximale stroomverbruik beperkt tot 225W: 75W via het PCIe-slot en 150W via de voedingsconnector.

De Navi 44-architectuur ondersteunt drie displayoutputs, wat zich vertaalt in een connector minder dan de RX 9070-serie. De introductie van de RX 9060 XT staat volgens VideoCardz gepland voor techbeurs Computex. Deze vindt plaats van 20 tot en met 23 mei. Prijzen zijn nog niet bekend.

Door Andrei Stiru

Redacteur

15-04-2025 • 08:25

71

Reacties (71)

71
71
63
2
0
3
Wijzig sortering
Als AMD slim was/is, brengen ze dus GEEN 8GB versie uit, maar alleen de 16GB versie.
Zelfs op 1080p blijkt 8GB meer dan regelmatig te weinig geheugen te zijn.
En dan is zo'n xx60 kaart wellicht een "instap" model... voor de prijzen van de kaart zal het extra geheugen nauwelijks bijdragen aan de extra kosten...
Dat is echt heel uitzonderlijk dat op 1080p ultra 8gb niet genoeg is.
Niet echt.
Internet staat vol met dit soort videos:
YouTube: Breaking Nvidia's GeForce RTX 4060 Ti, 8GB GPUs Holding Back The Ind...

En voor een EUR 400 videokaart (of duurder) is het prijsverschil voor 8GB extra aan geheugen chips praktisch te verwaarlozen.
Tenminste, voor de maker van de kaart.
En voor een EUR 400 videokaart (of duurder) is het prijsverschil voor 8GB extra aan geheugen chips praktisch te verwaarlozen.
Tenminste, voor de maker van de kaart.
En dat is denk ik het sterkste argument. Er is best nog een markt voor 8 GB videokaarten ondanks wat sommige stemmingmakers beweren, maar voor wat GDDR6 kost is het niet de moeite waard om een kaart te maken met 8 GB die slechts €20 minder kost om te produceren.
De enige reden die ik kan bedenken om een 8 GB variant van de 9060 XT te maken is om de prijs van de 16 GB versie kunstmatig op te drijven.
Je hebt mensen die kopen die 8gb variant puur en alleen al omdat hij goedkoper is.
Ja dat zijn onzinnige video's waar ze express cherrypicken niet enkel games maak ook settings :

YouTube: Doom Eternal | RTX 4060TI (8gb) + R5 5600 | 1080p | 1440p | Ultra | ...

Zet van 1440p nightmare naar 1440P ultra en je hebt 130+ fps.
Als die minimale verbtering voor jou dat extra geld waard is koop dan gerust een kaart met meer dan 8GB vram, er zijn er genoeg.
Nee hoor zelf een 4070 super oc 12GB En nog een 1080p 144 hz monitor

games van tegen woordig zitten al op de 10/11 GB Vram

12GB is tegenwoordig minium ontwikkelingen gaan zo snel

tijd met 3060 dachten van 12GB is overkill nou echt niet
Aleen boven de 2k 4k red ie het niet met bus type 192 biti is niet zo geschikt voor die resoluties
Dit is gewoon niet juist, de overgrote meerderheid van games die zelfs nu uitkomen nemen geen 8gb vram in op 1080p .

Zelfs aaa releases zoals last of us part II :

YouTube: RTX 4060 - The Last Of Us Part II - Is it Optimized??

1080p/high 6-6.5GB vram effectief gebruikt.
Goed speelbaar op een 4060 8gb kaart.
Is dat niet een remaster van een PS4 game?
Dit is de verbeterde versie van de remaster voor de PS5 die PC/PS5 pro als doel heeft.
De laatste aaa titel die uitgekomen is voor PC vandaar dat ik die nam.
Je merkt wel dat games waar regelmatig (grafische) updates voor uitkomen deze ook steeds meer vram gaan gebruiken. Dit is uiteraard een beperkte selectie maar wel games die een grote userbase hebben.
Als voorbeeld Beam.ng drive, werkte voorheen op 1080p prima met 4GB VRAM na wat updates is 6GB niet meer voldoende zonder dingen uit te zetten.
Is echt uitzonderlijk hoor en dikwijls vele jaren later
AMD is ook heel slim, dat heet 'upselling' als het gaat om 8GB of toch 16GB kopen. Ik speel de nieuwste games (Deadlock, EA FC25) op 4K en 1440p en heb nooit meer dan 8GB nodig. Waar haal je deze info vandaan? Ben oprecht benieuwd, en dan heb ik het niet over spellen waar alles op Super-Ultra-High met RTX en zonder FSR oid aan staat. Let me know :)
Als ik Hogwarts Legacy speel op 4K met RTX en settings op Ultra, dan pakt ie tussen de 12-14GB aan VRAM op mijn 16GB 4080S.
Voor eenvoudige rasterizing is 8GB waarschijnlijk voldoende, maar zodra je extra features gaat gebruiken, zoals RT, upscaling etc etc... dan wordt het heel krap.
En zowel Nvidia als AMD willen wel graag dat iedereen deze extra features gaan gebruiken.

Daarnaast, voor videokaarten van EUR 400 en duurder is de meerprijs van 16GB tov 8GB hooguit 1 of 2 tientjes. (in productiekosten)

[Reactie gewijzigd door GarBaGe op 15 april 2025 11:11]

Of de prijzen in de praktijk bij launch ook maar een paar tientjes verschillen gaan we nog meemaken. Dan heb ik het over retail en niet MSRP.

Je noemt ook wel een spel dat veel VRAM vreet, zou je eens kunnen checken of met een paar settings omlaag schroeven en 1440p je nog steeds boven de 8GB uitkomt?
De 8GB is waarschijnlijk/misschien onderdeel van price anchoring strategie:
https://www.feedough.com/...e-anchoring-how-it-works/
The essential idea behind this is that customers perceive pricing relatively. An item is perceived as cheap or expensive in comparison to the initial price point or to another item whose price they knew about first.
En dus niet bedoeld om echt een bestseller te worden..

[Reactie gewijzigd door ronaldvr op 15 april 2025 10:31]

Zou ook een mooi onderscheid met Nvidia vormen: "Zij brengen wel nog 8GB-kaarten uit. Die desondanks duur zijn."
8GB op nieuwe kaarten is wel jammer. Ook als het "betaalbare" kaarten zijn.
? Je krijgt de keuze, koop dan de 16gb variant?
Het is effectief gewoon een upsell naar een model met meet VRAM die je nodig hebt. Tenzij het prijsverschil echt 3x niks is (e.g. 20 euro oid) is iedereen beter af met simpelweg een 12GB model.
Niet echt nee, genoeg gamers die nooit meer dan 8GB vram nodig gaan hebben, waarom die verplichten een duurdere kaart te kopen?
Mensen zijn geobsedeerd door vram tegenworodig
Er zijn inderdaad hele hordes die nog jaren genoeg gaan hebben aan 8GB voor 'competitive FPS' oftewel; toch al niet al te zware graphics op meestal niet meer dan 1080p medium/low.
Dat er gamers zijn die 'meer en/of anders' willen is dan gewoon gedekt met de 16GB optie, daarom dit is 8GB en 16GB, van 60 serie kaarten, compleet logisch van zowel Nvidia als AMD.
4060 ti 8gb cyberpunk 1440 met path tracing : dlls balanced & FG geeft een 55fps gemiddeld.
Perfect speelbaar en zowat de beste graphics die je in ene spel kan krijgen.

YouTube: Cyberpunk 2077 - Patch 2.21 - RTX 4060 Ti 8GB - 1440p Path Tracing -...
Dat kan er nu ook nog mee inderdaad, al is CP2077 natuurlijk ook alweer 4,5 jaar oud ;) , daarmee is dit voorbeeld dus juist ook weer een goede indicator dat de 'toekomstbestendigheid' van 8GB (voor de duidelijkheid nogmaals; voor alles wat niet 'competitive FPS' is) letterlijk niet bestaand is...

Als je een 5060/9060-serie kaart wil zit je met de 16GB uitvoeringen daarvan een stuk beter met de recente en nog komende games, dat is echt wel duidelijk.
Cyberpunk is zowat het graphische meest vragende spel (zonder gewoon slecht gemaakt te zijn) momenteel als je dat nog kan spelen op 1440p zit je voor 1080p wel goed voor de volgende jaren met de 5060 die terug iets sneller zal zijn met 8gb voor 1080p gaming.
Je zegt het goed "je kan het nog spelen", maar ook niet meer dan dat... Want; is het goed speelbaar? Je kan gaan zeggen 'dat het persoonlijk is' maar vanuit +/- 30 fps naar +/- 60 fps door FG (zoals in je gelinkte YT filmpje) speelt niet 'lekker' en/of 'normaal'. Er zit dan een duidelijk waarneembaar verschil tussen wat je ziet en wat je voelt, de meesten zullen hier niet bewust voor willen kiezen, als jij dat wel graag doet heb ik het vermoeden dat jij 'de uitzondering op de regel' bent.
1 Het gaat over dat 8GB voor 1080p ruim voldoende is.
2 Ik gaf cyberpunk als voorbeeld omdat dit zowat het meeste graphische vragende spel is dat er momenteel is.
3 In 1080p utlra zonder RT heb je 90fps met RT (path tracing) en dlss quality /FG ga je naar een 85 fps . In beide gevallen perfect speelbaar op een 8gb kaart.
4 Dit zal niet anders zijn voor de overgrote meerderheid van games die de komende jaren uitkomen.
Wacht even, jij komt met dit voorbeeld! Dan kan je prima een reactie krijgen op wat daar te zien is, wat had je anders verwacht... Als een voorbeeld op

1440p, met DLSS en FG

helemaal niet relevant is, of anderszins 'alleen maar afleiding van de 8GB VRAM discussie vormt', waarom heb jij die keuze dan gemaakt?
Ik dacht dat het duidelijk ging zijn dat als een GPU een enorm zwaar spel op 1440p aankan het dan vanzelfsprekend ook op 1080p aankan en dat er zelfs nog marge opzit.

Btw klein detail : DIe 1440p was met path tracing, wat enorm zwaar is. Op 1440p high (feen RT) haalt zelfs een 4060 nog 55fps. 4060 ti een 65fps dus ik verwacht dat een 5060 daarrond zal zitten, zelfs met 8gb vram.
Tsja, en dat is niet het enige 'vertroebelende probleem' van je rare keuze. Jou '1440p' (DLSS Balanced) CP2077 voorbeeld heeft namelijk maar:

835p

als basis, en dat is:

maar 60% van het aantal pixels i.v.m. 1080p wat uiteraard voor ruim minder VRAM gebruik dan bij 1080p zorgt...

Zie je nu in waarom je, als je het zuiver over 'is 8GB genoeg' wil gaan hebben, niet met zulke voorbeelden moet komen waarbij alles invloed op elkaar heeft en 'je uitgangspunt van discussie' daarom, 100% zeker, NIET (en ook; nooit) meer teruggevonden kan worden? Ik mag het hopen!
LOL daar ging het langs geen kanten over maar soit laat maar.
Dat is qua configuratie niet altijd mogelijk. Je zit met een geheugenbus die volledig gevuld moet worden en als er geen tussen-grootte variant chips zijn dan kan je als fabrikant niets anders dan de 8 of 16gb verkopen. Je kan ook compromitteren en een kleinere bus nemen maar ik vermoed dat dat een dermate negatief effect op de prestaties heeft dat het niet wenselijk is.
Er zijn tussen-grootte chips (3GB). Niet de meest gangbare, maar als AMD die wil hebben dan zijn ze groot genoeg om dat te bestellen.

Realistischer had AMD een 160 bits bus kunnen gebruiken. 10 GB was duidelijk een stap boven de 5060 geweest.
En de kosten van hun geheugenbus design aanpassen wegen ze af tegen de kosten van een 16GB model. Dan zegt AMD "dat is het niet waard" en voila, een 16GB model.

Is AMD groot genoeg om dat te bestellen? AMD levert helemaal niet zo veel gaming gpu's per jaar in verhouding tot hun groene tegenstander en het zou hier gaan om een chip die ze maar voor 1 SKU gebruiken. De chips die ze nu gebruiken, zitten waarschijnlijk ook in de 9070 en 9070XT.

Dat 8GB model gaat uitsluitend gekocht worden door 1080p gamers. Nog steeds de grootste markt in de Steam hardware survey. De kostprijs zo laag mogelijk houden en toch de kaart niet kneecappen is het enige doel. Voor 1080p is 8GB gewoon genoeg. Voor 1440p is het in een select aantal games niet genoeg.

[Reactie gewijzigd door youridv1 op 15 april 2025 10:08]

Welk design zou AMD moeten aanpassen? Dit is de eerste Navi44. Daar hadden ze prima vanaf het begin een 160 bits bus op kunnen zetten.

AMD heeft niet 1000 of 10.000 3GB chips nodig, en ook geen 100.000. Dat is voldoende volume voor een bestaand chipontwerp. Het is niet alsof ze een nieuwe 5GB chip vragen.

De Steam hardware survey is geen markt survey. Het is een survey van wat er in het veld staat per Q1 2025, niet wat er in Q3 2025 verkocht gaat worden. Het is vooral relevant voor game makers - een 10 GB minimum voor je game is nogal onhandig - maar dat is geen argument tegen 10 GB hardware.
Ja, maar Navi44 is natuurlijk gewoon een doorontwikkeling van Navi33 en die heeft een 128bit bus. Je kun bij je ontwikkelingsiteratie er dus ook gewoon voor kiezen daar niks aan te doen, wat kosten bespaart. Vergeet niet dat de kosten voor een 160bit bus bij AMD liggen en de kosten voor extra nand chips primair bij de boardpartners. Er komt geen reference model vermoed ik.
AMD heeft niet 1000 of 10.000 3GB chips nodig, en ook geen 100.000. Dat is voldoende volume voor een bestaand chipontwerp. Het is niet alsof ze een nieuwe 5GB chip vragen.
Dat snap ik, maar die andere chips worden ook gebruikt voor andere modellen. Overigens heeft AMD niks nodig. AMD verkoopt GPU dies, vrijwel geen complete kaarten.
De Steam hardware survey is geen markt survey. Het is een survey van wat er in het veld staat per Q1 2025, niet wat er in Q3 2025 verkocht gaat worden. Het is vooral relevant voor game makers - een 10 GB minimum voor je game is nogal onhandig - maar dat is geen argument tegen 10 GB hardware.
Het is ook geen argument tegen 10GB hardware. Ik zei alleen dat op basis van de steam hardware survey de meeste gamers nog steeds op 1080p gamen. 56,5% van de surveyed computers had dat als primaire resolutie. 1440p is de nummer 2, maar dit zit op 19%. Daar zou ik als AMD zijnde ook geen rekening mee houden voor je instapkaart.

8GB is objectief gemeten genoeg voor 1080p gaming. https://www.techspot.com/review/2794-amd-radeon-7600-xt/ Dat is gewoon getest bij het vergelijken van de RX 7600 en de 7600XT. De 7600XT scoort in deze test ~5% hoger dan de 7600 en is out of the box ook exact dat percentage hoger geklokt. Op 1080p, 1440p en zelfs 4K zat het gemiddelde performance verschil rondom het kloksnelheid verschil.

Ja, er zijn games als hogwarts legacy en the last of us die VRAM vreten alsof er geen morgen bestaat. Maar die games zijn de uitzondering, niet de regel. Als je die games wil spelen, dan kun je daar de juiste videokaart voor kopen, maar verwacht niet dat alle andere gamers die de instapkaart willen kopen méér geld moeten betalen voor dat model. De rest van de gamers kunnen ~50 euro besparen en daar nul performance voor inleveren. Budget gamers zijn niet beter af met een model met meer dan 8GB VRAM als dat ze extra geld kost. Ze krijgen er bij benadering geen extra performance bij in hun games.

[Reactie gewijzigd door youridv1 op 15 april 2025 11:25]

De Navi 44 is natuurlijk technisch afgeleid van de Navi 48, niet van de Navi 33. In de product portfolio is het wel de opvolger van de Navi 33, maar marketing gaat niet over de realiteit.

Vanuit de Navi 48 gezien heeft de Navi 44 simpelweg een 4*32 bits bus in plaats van de 8*32 bits bus. Er zijn 4 controllers geschrapt om een kleinere die mogelijk te maken. Op dezelfde manier zijn er streamprocessors geschrapt uit het Navi 48 ontwerp.

AMD moet aan de board partners vertellen welke chips zij moeten inkopen. 3 GB is gewoon te koop bij de gebruikelijke GDDR6 leveranciers. Dat was wel werk geweest voor AMD, want de geheugencontroller moet het ondersteunen. Dan is het dus eenvoudiger om maar 3 van de 8 controllers uit het Navi48 ontwerp te schrappen, voor een 5x2=10 GB configuratie.
De Navi 44 is natuurlijk technisch afgeleid van de Navi 48, niet van de Navi 33. In de product portfolio is het wel de opvolger van de Navi 33, maar marketing gaat niet over de realiteit.
Heel Navi 4x is afgeleid van 3x. Deze keuze is gemaakt bij het ontwikkelen van deze hele architectuur.
Er zijn 4 controllers geschrapt omdat er 4 "cores" geschrapt zijn. Die twee zijn aan elkaar gekoppeld.
AMD kaarten bestaan uit een fixed aantal streamprocessors/rops/etc per core. Als je 4 cores schrapt, schrap je ook 4 geheugencontrollers.

Navi 48 heeft 8 geheugencontrollers omdat het van alles 8 sets heeft. Navi 44 is in alle opzichten exact de helft.

Dit is niet "ff een extra geheugencontroller aanzetten". Dit soort ontwerpkeuzes hebben gevolgen voor de hele opzet van Navi 4 als geheel. De enige manier om dit te doen, is de complete die van de 9060 vergroten naar een Navi 45 of 46 design en dan stream processors gaan uitzetten. Dat is hoe de 9070 dezelfde busbreedte heeft als de XT. Dan krijg je dus een te grote die size voor je instapper, wat de kostprijs opdrijft.
AMD moet aan de board partners vertellen welke chips zij moeten inkopen. 3 GB is gewoon te koop bij de gebruikelijke GDDR6 leveranciers. Dat was wel werk geweest voor AMD, want de geheugencontroller moet het ondersteunen. Dan is het dus eenvoudiger om maar 3 van de 8 controllers uit het Navi48 ontwerp te schrappen, voor een 5x2=10 GB configuratie.
En wat had het de eindgebruiker opgeleverd? Een duurdere GPU en 0 extra fps.

De hele overweging slaat nergens op. AMD gaat geen complete die size omhoog omdat er een paar mensen 10GB willen voor hun 1080p game kaart, ondanks dat het geen meetbare prestatieverbetering oplevert in 99% van het normale gebruik van het product.

[Reactie gewijzigd door youridv1 op 15 april 2025 11:42]

Welk design zou AMD moeten aanpassen? Dit is de eerste Navi44. Daar hadden ze prima vanaf het begin een 160 bits bus op kunnen zetten.
Navi 44 is echter geen apart design... Het is 'de helft van Navi 48' en is de goedkoopste methode, die ook het grootste marktaandeel bedient, om zo het meeste geld te verdienen. Moeilijker dan dat is het echt niet.
Ah, dan kan het inderdaad (geen idee of die er waren, maar dat was in het verladen vaker een reden om het niet te doen).

Is bij AMD de bus niet gekoppeld aan de processor eilanden? Dan zou je ook meer streamprocessoren moeten toevoegen met verdere gevolgen voor kosten of het ontwerp aan moeten passen.
En maakt een kaart enkel duurder voor geen meerwaarde voor de doorsnee gebruiker.
Er is geen 12GB versie dan moet je naar een 7700XT kijken zolang die nog te krijgen zijn.
Maar ik ben het met je eens dat het prijs verschil klein zal zijn. Al is er vrees ik wel een markt voor.

Momenteel zijn er alleen 1GByte of 2GBbyte GDDR6 modules (Snellere spul is volgens mij allemaal 2GB per module). Bij een 7600XT 16GB kaart hebben ze dan ook modules aan de achterkant geplaatst zodat je twee modules per memory channel draait.
Bij GDDR7 krijg je meer flexibiliteit daar kan je volgens de spec voor 1,2, 3, 4, 6, 8 gaan. Echter moeten er wel memory fabrikanten zijn die dat dan produceren. Het lijkt er op dat nVidia voor de Blackwell RTX kaart met 96GB geheugen de 6GByte die's gebruikt en 2GByte op de 5090's.

Ik vind het ook jammer dat de 9070 maar 16GB heeft waar de 7900 XT en XTX, 20 en 24GB hadden. Er zijn al games die tegen de limiet van 16GB aan lopen en zeker als je wat mod's voor betere textures gebruikt. Ik hoop dat er nog een XTX of 9080 XT komt met een Navi48 chip die wel 32GB heeft.
32GB is wel een beetje overkill voor zo'n kaart maar er zijn geen andere opties als GDDR6 gebruikt wordt.

Then again de RX480 had toen de tijd ook een 8GB versie vandaag de dag doen die 8GB versies het nog best leuk in games. Zo'n situatie zou je met de 9070 over 5+ jaar ook kunnen hebben. Ik ken mensen die steeds langer met hun PC doen. Met zo'n 32GB kaart kan je over 5 jaar Ultra texture quality gebruiken waar dat met een 16/24GB kaart wellicht niet meer kan. Ookal moet de rest op low staan ziet een spel er nog steeds redelijk goed uit.

[Reactie gewijzigd door Astennu op 15 april 2025 10:17]

Neen want je betaald meer voor iets dat je niet gebruikt.

Dit hangt 100% af van op welke resolutie welke games je speelt. Doen alsof alle games 8+gb vram nodig hebben (zoals zovelen nu graag doen) is gewoon absurd en onjuist.
Hij komt beschikbaar in 8 en 16GB, dus voor ieder wat wils.
Er zijn nu al games die hickups hebben met 8GB, ook met lage settings. 8GB extra is qua productiekosten zo marginaal, 8GB modellen zouden gewoon niet verkocht moeten worden.
Inderdaad, meer keuze voor de consument is slechter en moet worden voorkomen
Zekers. Je moet de consument beschermen. Ik heb te veel mensen moeten vertellen dat ze hun 200€ Windows 10 laptop met 32gb emmc geheugen konden weggooien...

Verkocht als ideale school laptop, maar te weinig geheugen om de speciale tentamen webbrowser te installeren (of om überhaupt Windows update uit te voeren)
En toch hebben ook zulke producten gewoon een use case. Verder is een 9060xt met 8gb gewoon een meer dan bruikbaar product, dus het is geen goede vregelijking
Een auto met maar 1.0 motor is ook jammer, ik wou ook dat we allemaal een V12 kregen.
Ik zou het eerder vergelijken met een auto die te krijgen is met een kleine en grote radiator.
Maar hoeveel casual gamers hebben ook echt meer nodig dan 8GB?
8/16 GB wijst op een 128 bits bus, waarmee ze dus ook in dat opzicht identiek zijn aan NVidia. Aangezien ze ook al achter lopen qua AI features en launch date zal AMD ook hier dus aan de prijs moeten werken om de concurrentie aan te kunnen.
Met FSR 4 halen ze wel veel in hoor, niet alles maar ik weet niet of mfg ed zoveel gebruikt word.
Mfg is ook vooral interessant op high end kaarten
En alleen maar met 480+Hz schermen waar je je FPS niet de max van het scherm kan halen.
FG/MFG wil je niet bij een te lage base FPS gebruiken want dan voelt het nog niet fijn aan omdat je input latency veel te hoog is. voor MFG wil je eigenlijk wel 120 minimum als basis hebben.
Gezien de 9070(XT) een 256Bit bus heeft is het erg logisch dat deze 128Bit heeft.
AMD heeft deze generatie maar twee die's Navi44 en Navi48.

Ze kunnen ook nog concurreren op prestaties wellicht tegen een hoger verbruik maar ik gok dat ze die XT wel aardig gaan pushen zodat die rond de 3GHz kan clocken. Met 20GBps memory heb je toch nog aardige bandbreedte.

Met AI features bedoel je dan RTX voice en zo? voor sommige mensen zal nVidia vanwege de AI mogelijkheden interessanter zijn.
Persoonlijk geef ik daar weinig om de nieuwe upscaler is wel erg welkom met kwaliteit die vaak beter is als DLSS3.8 is dat een hele mooie stap vooruit.
Multi Fame gen is imo niet echt nuttig gewoon Famegen is met 1 om 1 fake frames is wat mij betreft genoeg. En niets houd AMD tegen zo iets in de toekomst met een driver update ook toe te voegen AMD deed dit al op een andere manier dan nVidia.

En ja afhankelijk van de prestaties zal de prijs gelijk of lager moeten zijn dat is altijd al zo geweest. Maar ik denk dat het best interessante kaarten kunnen zijn en een goed alternatief voor de 5060 en 5060 Ti kaarten.
Gaat het heel moeilijk krijgen tegenover de 5060 ti
Afhankelijk van de prijs en beschikbaarheid. Pure prestaties misschien wel, maar zoals de 9070 al heeft aangetoond, is dat niet per se bepalend voor de verkoop.
5060 gewoon doen met 12 GB voor full hd Eigenlijk ook al 16 GB

5060 ti 16GB voor 1080 2k gamen


8GB kaarten nu nog is echt zonde E waste

[Reactie gewijzigd door vipertje2 op 15 april 2025 13:08]

Misschien voor gaming maar niet voor andere toepassingen.
Er is een 16GB variant, de prijs is belangrijker denk ik, vooral de prijs van de 16GB variant.
De 16GB versie i.c.m. het steeds volwassener wordende ZLuda (directml met ONNX is "meh") kan nog heel interessant worden naast gaming gebruik
Heel benieuwd wat de prijs gaat worden in de markt. Het kan best een interessante GPU zijn voor de casual gamer die af en toe een game speelt en niet meer dan €600,00 over hebben voor een GPU (en die markt is groot). Dan heb je ook nog de keuze voor 8GB VRAM en 16GB VRAM. Toekomst wijs altijd voor de 16GB VRAM gaan nu.

Speel je één van deze huidige games, dan is 16GB al aan te raden zelfs op 1080p:
Microsoft Flight Simulator.
Cyberpunk 2077.
Red Dead Redemption 2.
Star Citizen.
Escape from Tarkov.
Indiana Jones And The Great Circle.

Bron: https://www.quora.com/Are...ire-more-than-8GB-of-VRAM.
Introductie???... de XT is al weken uit ... waar hebben jullie het over?
De specs kloppen ook niet echt.

Streamprocessen: 4096
Kloksnelheid: 1660MHz
Boostsnelheid gaming: 2460 MHz

[Reactie gewijzigd door FijneKerst op 15 april 2025 13:05]

Heb je inmiddels al een extra bakkie koffie op? ;) Komt ie dan:

9060 XT

Alstublieft, graag gedaan!
Dat heb ik ook overwogen, maar is het duidelijker? Ik weet het niet... ;)
adviesprijs 350 en verkoopprijs 700 zeker :)


Om te kunnen reageren moet je ingelogd zijn