Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

AMD zou zijn partners toestemming hebben gegeven om de Cayman-chips, goed voor de HD 6970 en HD 6950, te combineren met 1GB in plaats van 2GB geheugen. AMD zou op deze manier willen concurreren met de GTX 560.

De Duitse website ht4u meldt dat er binnenkort HD 6970's en HD 6950's verschijnen met 1GB gddr5-geheugen in plaats van 2GB geheugen. Sapphire zou een van de eerste fabrikanten zijn die dergelijke videokaarten uitbrengt. Minder geheugen betekent toch al een kostenbesparing, maar als dit wordt gecombineerd met een ander, goedkoper pcb, kunnen de nieuwe videokaarten significant goedkoper worden.

Een lager geprijsde HD 6950 moet vermoedelijk concurreren met de GTX 560, de opvolger van de GTX 460. De GTX 560 zal waarschijnlijk zijn uitgerust met een 256bit-geheugenbus en 1GB geheugen, waardoor de GTX 560 en de HD 6950 wat geheugen betreft aan elkaar gewaagd zullen zijn. Verder is het voordeel van 2GB geheugen ten opzichte van 1GB geheugen op dit moment verwaarloosbaar klein. Slechts in enkele spellen en op hogere resoluties komt het extra geheugen van pas.

Moderatie-faq Wijzig weergave

Reacties (50)

Het verschil tussen 1 vs 2 gb is niet zo groot op 3x 1920x1080 schermen.
http://www.tomshardware.c...0-eyefinity6,2595-11.html
Meer keuze is altijd beter. Vooral de mensen die vinden dat de 2 GB versies te duur zijn worden nu eigenlijk over de streep getrokken...

Ik zou zelf wel gaan voor de 2 GB kaarten. Ik wil altijd wel een paar jaartjes mee kunnen met mijn videokaart :)
Daar kan ik me iets bij voorstellen. Maar zelf gebruik ik geen Eyefinity o.i.d. en zie ik mezelf in de nabije jaren niet op resoluties hoger dan 1900x1200 werken, en dan is 2 GB toch echt overkill tot ergens in de toekomst. Eenmaal bij dat punt in de toekomst aangekomen, is die 2GB videokaart op alle andere technische specificaties allang zwaar ingehaald.
Dat houdt tevens in dat je tegen die tijd ook voor een prikkie een 'medium' videokaart kan kopen die dan weer beter (en zuiniger) is dan je oude.

Investeren in de toekomst komt in deze context dus vaak neer op betalen voor een processor en videokaart die aanvankelijk uit zijn neus zitten te eten, en een paar jaar later ga je je ergeren dat de kaart geen directX 12 ondersteunt, je nog met SATA300 opgescheept zit met alleen maar USB2.0 aansluitingen (om maar een paar voorbeelden te noemen).

Conclusie: mjins inziens is het zowel voor je portemonnee als de 'gemiddelde prestatie' van je systeem het beter om wat vaker een goede 'medium' kaart te kopen dan proberen 'future-proof' te kopen. Ook voor je portemonnee. Zeker als je bedenkt dat je dan ook qua garanties e.d. minder risico loopt.
Ik denk dat dit een mooie toevoeging is voor mensen die toch geen gebruik maken van eye-finity. Voor 1 beeldscherm van 1900x1200 is 2GB nogal overkill.
Hogere resoluties en meerdere schermen zie je anno 2011 wel steeds vaker. Ik denk dat op den duur meer geheugen voor ook gemiddelde games niet meer overdreven zal zijn.

Voor normale gebruikers is 1 GB zelfs veel en voor matige gamers lijkt het me wel op orde.

Mooie concurrent erbij :).

[Reactie gewijzigd door Eagle Creek op 10 januari 2011 11:14]

Toch zie je nog vaker kleine schermen met lage resoluties. 1680x1050 is op steam het best vertegenwoordigd, met 20%, 1920x1080 met 17%, 1280x1024 met 15%,1440x900 met 9%, 1024x768 met 7% en dan pas weer 1920x1200 met 6,5%.

En zelfs als je een 1920x1080-scherm koopt, zit je met 1GB wel goed hoor.
Op 1920x1200 ook, ervaar ik zelf al langere tijd. Zelfs met 4x AA en 16x AF is het nog prima te doen.
Bij GTA IV heb je op een resolutie van 1920x1200 met enkele instellingen hoger dan standaard aan 1GB videogeheugen niet genoeg. Vooral het vergroten van het zicht en het gedetailleerder weergeven van schaduws kostte destijds behoorlijk wat extra geheugen.

Grappig feit is dat bij crossfire, of een videokaart met interne crossfire opstelling, er bij 2 GB geheugen maar 1GB gebruikt kon worden in GTA IV. Een snelle kaart met 2GB geheugen was en is nog steeds vrij prijzig. Voor veel mensen zullen de 1GB versies dan ook een welkome aanvulling zijn.
Mag je eigenlijk als je twee kaarten in SLI of CF hebt het geheugen 100% bij elkaar optellen? Of moet je dan een soort factor 0.x toepassen?

Dat lijkt me dan namelijk wel interessant voor het geval je bijvoorbeeld een tweede kaartje op de kop kan tikken. Op die manier ben je goedkoper uit.

[Reactie gewijzigd door Eagle Creek op 10 januari 2011 12:53]

De framebuffer in het geheugen is op beide kaarten hetzelfde, ze berekenen alleen met die gegevens een ander deel van het beeld waardoor het processen sneller gaat. Het is dus niet zo dat de kaarten elkaars geheugen gebruiken.
Toch heb ik hier nu 2 kaarten met 1GB erop. Al mijn games zien nu 2GB. Ik denk dat dat veranderd is met de nieuwe catalyst drivers.
Je hebt ook wel 2 GB geheugen in totaal, maar effectief kan je maar 1GB gebruiken per chip.
Als je inderdaad tegen een limiet met het geheugen aan loopt zal een 2e kaart dit limiet niet op eens opheffen. Je mag het geheugen niet zomaar bij elkaar optellen, met de kaarten met beiden 1GB geheugen heb je gewoon effectief 1GB geheugen.

Echter zal de verbetering in prestatie met een 2e kaart bij SLI of CF in verreweg de meeste gevallen flink groter zijn dan met 1 kaart met 2 keer zoveel geheugen. Dus het kan nog steeds wel interresant zijn om voor een prikkie een 2e kaartje erbij te zetten. Maar goed, je moet een beetje nagaan voor jezelf of het geheugen genoeg is.
Dan noem je ook wel weer een spel wat extreem veel geheugen neemt... Een spel als COD kan makkelijk gespeeld worden met 1gb, met 512MB zelfs op 1920x1080 (doe ik ook, Radeon HD4770).
Helemaal mee eens, maar je kunt eye-finity ook toepassen op, 17` en 18` schermen (dus wel het om-je-heen-kijk-effect maar niet de ruimte verslinding van 3 24inc monitors).

Die ruimte besparing (op je bureau), zal ongetwijfeld ook schelen in de belasting van je vga kaart (aangezien de meeste 17inc / 18inc schermen al geen resolutie hebben van 1600 pix (of soms zelfs maar 1400), in plaats van de 1900pix (afgerond) die je bij grotere schermen ziet, en dąt, vermenigvuldigd met 3 schermen, gaat die besparing al snel over enkele megapixels.

Deze besparing van pcb en geheugen ga je dus in 'compacte' opstellingen misschien niet eens merken.

edit:
iets gedaan aan leesbaarheid

[Reactie gewijzigd door i-chat op 10 januari 2011 13:45]

Waarom is 2GB overkill? Ok, als je kijkt naar wat een GPU daadwerkelijk aanspreekt, dan wel. Maar hardwarefabrikanten zetten al jaren meer geheugen op videokaarten dan wat de gemiddelde gebruiker zijn/haar videokaart ooit zal laten gebruiken. Hardware moet vooruit geduwd worden. Soms door killerapps, soms door de hardware industrie zelf die met hogere specs meer willen verkopen. Toch zijn er ook al een aantal rijke stinkerds onder ons die Tweakers.net achter hun 30" WQXGA (2560x1600) scherm zitten te lezen en af en toe wel eens WoW...of zo...zitten te spelen op die resolutie :|

Ik hou het bij een bescheiden 1900x1200 en 2GB lijkt me voor de games die ik speel ook ruim voldoende ;)
2GB is dus geen overkill voor high-end kaarten van 400+ euro, deze zijn dan ook in veel gevallen daarmee uitgerust. De tweaker met een mindere portemonnee heeft waarschijnlijk niet zo'n hoge resolutie en neemt met minder genoegen. Dan is het leuk dat je een snelle videochip kunt kopen voor minder geld, omdat er minder geheugen op zit wat je toch niet gebruikt op je 23" scherm.
Meer geheugen betekent meer on-board caching wat de prestaties alleen maar ten goede komt.

[Reactie gewijzigd door Gielovic op 10 januari 2011 21:50]

Dit lijkt mij een vrij goede zet, aangezien 2GB VRAM. Tot een resolutie van 1920x1200 (Dus resoluties die een "Gewone" consument/gamer gebruikt) weinig toevoegt. Voor 9/10 gebruikers zal zelfs 512MB nog voldoen.

Een HD6950 met 1GB VRAM lijkt mij toch een lekker kaartje om te hebben, zeker als tegenhanger van bijv de 560GTX.
Iedereen roept dat zoveel geheugen overbodig is, maar met bijv. GTA 4 kom ik gigantisch in de problemen met 'slechts' 512 MB, terwijl de rekenkracht van een 8800 GTS voldoende is om moderne spellen op 1920x1200 te spelen.

Ik heb net een nieuw systeem met o.a. een HD6850 besteld voor m'n schoonbroer en ik ben benieuwd hoe GTA IV het daarop doet. Misschien zal me dat over de streep trekken om er ook een (of een 6950 / 6970) te halen.
Als het me goed bijstaat, is GTAIV dan ook een ontzettend inefficiente port geweest dat toendertijd vol bugs zat en de beste computers op de knieen kreeg (dus zonder daar iets voor terug te geven wat de belachelijke systeemeisen zou kunnen verklaren).
Ik weet niet hoe het tegenwoordig zit met uitgebrachte patches e.d. maar volgens mij is GTAIV gewoon niet zo'n goed voorbeeld.
Ik ken ook een oud spelletje genaamd Birth Of The Federation, wat grafisch en rekenkundig niet veel voorsteld maar zulke enorme memorylekken heeft dat het op de korte duur gegarandeerd iedere computer plat krijgt.
Dan kan het wel een slechte port zijn, het is wel het spel dat ik wil spelen. En hetzelfde geldt voor Episodes from Liberty City (volgens mij hetzelfde spel met andere inhoud). En als een videokaart met veel geheugen de honger van GTA stilt en ervoor kan zorgen dat het fatsoenlijk draait, wil ik een videokaart met veel geheugen hebben.

Overigens speel ik Call of Duty - Black Ops, Oblivion, Prototype en Need for Speed Hot Pursuit probleemloos met 512 MB, dus kaarten met 1 GB zullen zeker niet onbruikbaar of 'gehandicapt' zijn.
Dit is slimme zet van AMD/ATi, en goed voor de markt (consument).

Wel hoop ik dat de fabrikanten niet opeens met een batch komen met nog lagere geheugenbus snelheden. Dit trekt altijd de onwetende klant, dit dan denkt een snellere kaart in handen te hebben (voor nog minder geld), Ik hoop dat AMD/ATi dit heeft afgedicht in de contracten.

[Reactie gewijzigd door Jumpman op 10 januari 2011 11:18]

:) het is puur tactische goekopere productie dus goedkoper kunne verkopen niks over flashen of andere zaken puur de consument wil snel en goedkoop mogelijk dan krijg je dit soort acties
Zou bij de 6950 ook mogelijk zijn het geheugen verder te unlocken?
Nee want die gaat natuurlijk die geheugen chips gewoon niet krijgen.
Moooi, en hoeveel is goedkoper? speel op 1680 x 1050 en wil binnenkort wel overstappen vanaf me 8800 Ultra als het echt nodig is.
Ik gok ergens rond de 240euro, gezien ie tussenin de 6870 en de 6950 zal liggen.
Dit kan inderdaad leuk worden voor singledisplaygamers.
Mij leek het eerlijk gezegd al wat wiedes om de standaard op 2Gig te zetten. Ik denkd at ze dit enkel gedaan hebben omdat het maar een minimale meerkost betekend in hun productie.
de 6950 van club3d is al voor 240 te krijgen, deze kun je nog mooi flashen naar 6970 ook.
Ik denk eerder dat de 1GB 6950 en 6970 versies de prijs zullen drukken van de 6850 en 6870, aangezien de 6950 nu al rond de 250 euro schommelt. De 6870 zit daar met zijn 215 euro zo dicht onder dat er weinig ruimte tussen deze twee segmenten is. De prijzen van de 1GB versies hangen ook af van wat NVidia vraagt voor de gtx 560, omdat AMD daar juist rechtstreeks mee wil concureren.

Al met al lijkt het me dat de 1GB 6950 op het huidige prijsniveau van de 6870 komt te liggen, +/- 215 euro, en de dat 68xx versies een paar tientjes goedkoper worden.

[edit: typo]

[Reactie gewijzigd door flip154 op 10 januari 2011 12:03]

Als je op 1680x1050 speelt, zou de HD 6950 met 1GB geheugen juist ideaal zijn.
Vooral als je die, net als de 2GB versie, kunt bios-flashen naar een 6970...
Heb je weleens gekeken wat metro 2033 verbruikt op 1920x1200.. Dat is zo`n 1250 mb.
met 1 gig ga je dan al flink verliezen.
Volgens mij verwar je RAM geheugen verbruik met dat van een videokaart. Metro 2033 draait al top op een 512MB videokaartje.

OT: Interessant, ik heb zelf nog een 'kleine' monitor (20") en is dit wat interessanter dan een 2GB kaart. Mits het prijs verschil een beetje goed is.
Dan heb jij denk ik metro 2033 nog nooit op max settings proberen te draaien..
Dit kan een stevige concurrentie zijn voor Nvidia.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True