Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties

Verschillende partners van AMD hebben hun 8GB-versies van de Radeon R9 290X-videokaart met een geheugenbus van 512bits aangekondigd. Onder andere MSI, Club 3D en PowerColor komen met een dergelijke kaart met 8GB gddr5, die vooral voor weergave van 4k-beelden in te zetten zou zijn.

De Club 3D R9 290X 8GB royalAce heeft met een gpu-kloksnelheid van 1030MHz een iets hogere kloksnelheid dan de standaardversie van de 290X, die op 1GHz loopt. Ook het geheugen loopt met 5500MHz iets sneller dan normaal. Club 3D voorziet de kaart van zijn Coolstreamkoeler met drie ventilatoren en vijf koperen heatpipes. Volgens de fabrikant gaat het niet om een gimmick, maar zou 8GB gddr5 nodig zijn om de komende games met al hun eye candy goed te kunnen uitvoeren op 4k. Club 3D zegt de kaart in beperkte oplage te kunnen uitbrengen.

De R9 290X Gaming 8G kaart van MSI koppelt de hoeveelheid van 8GB geheugen aan een GPU met een kloksnelheid die kan oplopen ot 1040MHz, terwijl het geheugen op 5500MHz loopt. De fabrikant voorziet de videokaart van zijn Twin Frozr IV-koeler met twee ventilators, die speciaal zou zijn aangepast voor de videokaart en daarom de aanduiding 'Advanced' draagt.

Ten slotte heeft PowerColor zijn PCS+ R9 290X aangekondigd. De kaart heeft een gpu-kloksnelheid van 1030MHz en de geheugen-kloksnelheid bedraagt 5500MHz. De kaart draagt een PCS+-koeler met drie ventilators, twee sets aluminium vinnen en vijf heatpipes. PowerColor voorziet de grafische kaart net als MSI en Club 3D van twee dl-dvi-d-outputs, hdmi en displayport.

Er zijn ook aanwijzingen dat XFX met een versie van de R9 290X uitkomt. De fabrikant heeft die op het moment van schrijven echter nog niet aangekondigd. Sapphire bracht al eerder dit jaar de Radeon R9 290X Vapor-X met 8GB gddr5 in een beperkte oplage uit. De fabrikant brengt die kaart nu opnieuw uit.

AMD Radeon R9 290X MSI PowerColor Club 3DAMD Radeon R9 290X MSI PowerColor Club 3DAMD Radeon R9 290X MSI PowerColor Club 3D

Moderatie-faq Wijzig weergave

Reacties (67)

Ben benieuwd of het wel verstandig is om een videokaart met 8GB aan te schaffen, vraag me af hoeveel nut het heeft en of je het wel volledig gaat gebruiken.
Op t forum loopt er overigens al een draadje:
http://gathering.tweakers.net/forum/list_messages/1611233
Voor 4k rendering kan dit zeer nuttig zijn helaas als je opties aan gaat zetten zoals Multisample anti-aliasing op 4k heb je vaak meerdere GPU's nodig. :P
In meerdere GPU's zoals Crossfire en SLI blijft het aantal GB namelijk hetzelfde, dus in dat opzicht kan het wel handig zijn.

[Reactie gewijzigd door jelle.balk op 6 november 2014 15:39]

Op 4k is AA en multisampling echter nutteloos tenzij je weer op 42 inch of groter schermen gaat gamen waardoor de pixels weer zo groot worden dat aliassing weer een probleem word.
op een 28 inch 4k scherm zijn de pixels simpelweg te klein om de pixels te kunnen zien waardoor aliassing niet voorkomt.
Nu waarschijnlijk nog niet. In de toekomst op 4k gaat het wel uitmaken.
Jarenlang ging de 8/1 geheugen nog aardig goed, nu is de sky de limit qua videogeheugen.

Met steeds hoger videogeheugen, wordt normaal geheugen minder belangrijk?
Nee, "normaal" geheugen wordt niet minder belangrijk.

Het geheugen op je videokaart wordt gewoon meer. Simpel gezegd: de weergave van als maar hogere resoluties kost ook steeds meer geheugen.

Edit: bedankt voor de nuttige en simpele aanvulling Rabbitto :)

[Reactie gewijzigd door dwebber88 op 6 november 2014 17:27]

Niet alleen hogere resoluties zijn het probleem, maar voornamelijk de enorm slurpende vram textures die developers klakkenloos van console naar pc lijken te gooien. Het begon al met games zoals Shadows of mordor die 6 Gb vram nodig had bij max settings... en dan speelde ik alleen maar op 1080p .
Betere textures = hogere resolutie textures.
Waarom denk je anders dat crappy textures er zo slecht uit zien? Juist ja, omdat ze een lage resolutie hebben. Dus hogere resolutie textures zien er beter uit.

Hey kijk eens aan. Het antwoord was dus toch resolutie.


*mompelt iets over compressietechnieken ook nog*
Uiteraard doelde ik op het spelen op native resolutie van je monitor en sli/crossfire combinaties op meerdere schermen, niet op de hogere resolutie textures. Maar klopt, daar gaat het inderdaad ook over resolutie
Het werd eigenlijk hoog tijd dat de textures er wat op vooruit gingen. Zit je op 1080p ultra te spelen, zijn de textures nog altijd van het jaar 2004... Het vram gebruik tussen 1 scherm en 3 schermen is echter niet zo'n enorm verschil.
Om die reden kunnen we met de 4K schermen voor de game pc nog wel even wachten. De game software ijlt nog wat na. En van mij mag de geometrie ook eerst wat minder grof, niet alles is met textures glad te strijken. Eerst die veranderingen, en dan wordt misschien, misschien, een hogere monitorresolutie weer relevant.
Al moet ik zeggen de games met graphic hoge memory vereiste hadden nog steeds crappy textures. Het was gewoon omdat het makkelijk was met een slechte port hun texture loading van de console over te nemen. Gewoon alles in de graphic card te gooien.
Volgens is deze 'beweging' naar 8 GB VRAM een reactie op de 8 GB VRAM in consoles.
Nee dan zou 6GB al voldoende moeten zijn, meer dan dat kan je GPU echt niet gebruiken in den console, er is ook gewoon een deel voor de GPU en het OS nodig namelijk...

Op je computer heb je daar niet voor niks 2 geschieden hoopjes ram voor nodig :)
Je werkgeheugen staat los van zo'n videokaart, hoezo zou een videokaart je werkgeheugen gaan gebruiken als hij zelf beschikt over het veel snellere GDDR5?
Ontwikkeling van VRAM en gewoon RAM staan volledig los van elkaar. Daarom komt nu ook voor gewoon RAM DDR4 langzaam op gang, terwijl VRAM al op GDDR5 zit. Al zou je bankjes kunnen produceren met VRAM erop weet je processor er niets mee te doen.

Kortom, beiden blijven even belangrijk!
Helaas niet, als je meet vram op je kaart heeft heeft dat ook meer invloed op je ram geheugen geloof ik. Er word dan namelijk die zelfde hoeveeld vram geheugen door het OS gereserveerd bij het ram geheugen.
Ah, de gevolgen van de xbone en ps4 worden duidelijk. Omdat spelfabrikanten makkelijker willen porten moeten videokaarten meer geheugen krijgen zodat de overlap nihil is tussen de pc en de console.
Je gaat dus gedwongen worden om een nieuwe videokaart te kopen als je ports wil gaan spelen op je pc....
Heeft verder niets met 4k te maken denk je?
Volgensmij heeft het vooral te maken met de specificaties vergeleken met andere apparaten. Gaming op 4k kan meer gebruiken dan 4GB maar dat kan de GPU wss toch niet of nauwelijks aan. Om goed op 4k te kunnen gamen heb je er wss 2 nodig in crossfire en dan is die 8GB wel een groot voordeel.
Ja idd, als ik de reviews zo lees van de 970 heb je er toch minstens 2 van nodig om rond de 50-60fps te komen in BF4 Ultra.

*edit* 50-60fps op 4K

[Reactie gewijzigd door crazylemon op 6 november 2014 16:07]

zal er inderdaad zeerzeker mee te maken hebben, de games gebruiken op de XBO en PS4 namenlijk lang geen 8GB aan vRAM. zal meer in de richting van 2 zijn, 3GB dedicated voor OS, de overgebleven 5 verdeeld over gewoon RAM consumptie en vRAM (wss minder dan de gewone RAM consumtie, vandaar mijn getal van 2GB)
deze 2GB die je met 4 vermenigvuldigen (4k=4*1080p) en voila, je hebt je 8GB
Helaas scaled de resolutie niet recht evenredig met de aantal GB anders zou ik met mn 3 Monitoren ook aan de 6GB kunnen komen.
ow, leek mij iigeval een redelijke verklaaring :)
Ik vind het jammer dat de er hier geen EyeFinity versies van komen met 5x mDP erop (of zelfs 3x gewoon DP). Juist met zoveel RAM zou dat handig zijn voor de mensen die EyeFinity draaien lijkt mij...
3x mDP is sowieso handig, ookal draai je je games niet in eyefinity. ik heb nu een 6870 met 2x mDP HDMI DVI-I en DVI-D. draai mijn standaard monitor op DVI-I, en mijn 3 oude VGA schermen (die ik niet met gamen gebruik) via DVI-D en de mDP uitgangen. maar dit is verre weg van een optimale combinatie. liever alles vie mDP

[Reactie gewijzigd door k.theuws op 6 november 2014 15:34]

Ik neem aan dat je het andersom gebruikt

dvi-D op je standaard monitor (als dvi). en dvi-i naar vga voor een van je andere schermen
Helemaal gelijk, ik run eyefinity op 5760x1080, ik zou evt graag nog 2 beeldschermen kunnen toevoegen voor TV ofzo. helaas is dat niet mogelijk en zijn de aansluitingen zelf ook altijd varierend
Goede vergelijking van de 290x met 4GB vs 8GB vs de 970. Zie de review van de buren:
http://www.tomshardware.c...x-r9-290x-8gb,3977-6.html

Er is dus wel degelijk enige winst op 4K resolutie of uiteraard bij heel specifieke toepassingen. Op Full HD (1080p) is er vrijwel geen verschil tussen 4GB en 8GB (2%).
Als er winst is op 4k dan moet er ook zeker winst zjn met multisampling wat call of duty advanced warfare ondersteund wat in feite betekend dat de game meer pixels renderd en downscaled voor scherper beeld.

Mijn ervaring was dan ook dat hij 8x multisampling niet aan kan door waarschijnlijk een gebrek aan video geheugen.
En dan zit je thuis met je 2GB GTX 770, aan de ene kant fijn dat de ontwikkeling zo snel gaat maar jammer dat je na 2 jaar toch wel echt een nieuwe gpu moet aanschaffen
Niemand zegt je dat het moet, altijd een vrijblijvende keuze. Het gaat zeker snel, te snel, wilt niet zeggen dat je GTX770 'slecht' is.
Kijk naar welke games je wilt spelen en of je kaart het trekt. Pas als je settings écht omlaag moet schroeven om het speelbaar te maken zou je moeten gaan denken aan upgraden. Die 770 kan vrijwel alle games nog prima draaien (<1080p).

OT: Dit doet mij denken aan die resolutierace op mobiele telefoons. Het staat allemaal leuk en aardig maar in de praktijk heb je er eigenlijk niets aan. Op die 0,1% na die op 4k zit te gamen...
Tot nu werkten de games die veel vroegen perfect op de GTX 770.
Benieuwd naar het prijskaartje van deze kaarten en of Nvidia ook met 8GB varianten gaat komen.
Ben benieuwd naar Nvidia's antwoord hierop. Ben ook erg benieuwd naar wat de prijzen gaan doen. Nu vind ik het niet lastig om voor een 970 of 290X te kiezen, met het lage stroomverbruik van de 970, maar als er straks meer verschil in komt.. Keuzes keuzes :)
Sapphire heeft ook al een 8GB variant klaar liggen. Kitguru heeft hier al een review van geplaatst (ik laat de kwaliteit van de review even ten zijde)

Edit: Tomshardware heeft zo te zien ookal een review klaar staan.

[Reactie gewijzigd door Caayn op 6 november 2014 15:30]

Jammer dat MSI niet meteen de TF V er op gezet heeft. Ik gok dat ze dan nog te veel aan die cooler moeten aanpassen voor die past. Ik gok dat die wel komt zodra de R9 3xx serie uit komt.

Ik ben wel benieuwd wat die "Advanced" toevoeging voor de gebruiker brengt. Misschien een iets betere base plate om de VRM's en het geheugen koel te houden?

Leuk dat ze nu met 8GB kaarten komen. Al is dit vooral interessant voor mensen die 2 of meer kaarten in CF gebruiken. De resoluties die zo hoog worden dat 4GB niet voldoende meer is zijn voor een single card toch al te zwaar en heb je weinig FPS voordeel. Maar in zie dit zeker nut hebben als de 3/4 way CF setup's hebt met bv 6x een 2560x1600 scherm.

[Reactie gewijzigd door Astennu op 6 november 2014 15:38]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True