Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties

Asus en MSI hebben beide een GeForce GTX 960-videokaart aangekondigd waarin 4GB vram is geplaatst. De kaarten zijn allebei overgeklokt en bieden drie displayport-aansluitingen. Ook zijn beide videokaarten uitgerust met twee ventilators voor de koeling.

Asus heeft op de GeForce GTX 960 Strix 4GB vram geplaatst. De gddr5-geheugensnelheid bedraagt 7010MHz. Het geheugen wordt aangesproken via een 128bit-brede databus. De gpu op de videokaart is geklokt op 1291MHz met een boost van 1317MHz. Dat is hoger dan de referentiesnelheden van respectievelijk 1126 en 1178MHz die Nvidia hanteert.

Asus GeForce GTX 960 StrixOm de kaart koel te houden kiest Asus voor zijn zogeheten DirectCU II Strix-koelsysteem, waarbij twee ventilators een aluminium heatsink koelen. De kaart biedt drie displayport 1.2-aansluitingen, een hdmi 2.0-uitgang en een duallink-dvi-poort. Prijzen heeft Asus nog niet vrijgegeven.

De GTX 960 Gaming 4G van MSI bevat eveneens 4GB gddr5-geheugen, waarbij de effectieve geheugensnelheid opnieuw 7010MHz bedraagt. De gpu is geklokt op 1241MHz, met een boost-snelheid van 1304MHz. Een TwinFrozr-cooler met twee ventilators moet de gpu voldoende koel houden. Ook MSI heeft nog geen prijsinformatie gegeven.

MSI

Moderatie-faq Wijzig weergave

Reacties (88)

Ik snap deze keuze niet helemaal. Ik heb het een en ander gelezen over hoe de 128bit bus niet genoeg zou zijn voor al te grote resoluties en nu maken ze er een 4GB model van wat juist insinueert dat je weinig problemen zal hebben als je op een hogere resolutie gaat gamen. Loop je dan niet juist tegen die beperkende 128bit bus aan ? Ik vind het in ieder geval een opmerkelijke keuzen.
Indien de 960 dezelfde architect gebruikt als de 970 bij het uitschakelen van de ROP / L2 / etc ... zou het wel eens kunnen dat de daadwerkelijke bandbreedte lager uitvalt dan de 128bit. Indien ze weeral met zo een "split" memory probleem zitten.

De 128bit bit bus is nog altijd sneller dan proberen te accessen vanuit je systeem geheugen. Het voordeel dat je hebt met de 4GB is gewoon dat je minder de resources moet accessen en meer kan inproppen.

Maar het is eigenlijk een rekenwerk.

Stel dat game x dat bijvoorbeeld op de 960 maximum 50fps haalt. In die tijd haalt het game y MB in het geheugen. Je kan z aantal MB uit het main geheugen halen. Indien je beperkt word door de GPU en z niet hoger is dan y, dan heeft die 4GB extra geheugen geen nut. Indien het omgekeerd is en je game moet meer zaken accessen dat niet aanwezig zijn in het 2GB geheugen, dan heeft 4GB nut.

De 960 is eigenlijk een iets sneller GTX 660 en persoonlijk zie ik niet zoveel nut om 4GB op een GTX 660.

Linkje dat de GTX 680 vergelijkt met 2GB en 4GB. En hou rekening dat de 680 een deftige upgrade is tegenover de GTX 660.

http://www.pugetsystems.c...ce-2GB-vs-4GB-Memory-154/

En zoals je ziet ... bij de meeste games heeft het weinig nut. Enkel als je in de 4K gaat is er een voordeel. Maar aangezien de GPU die grafische niveau niet kan trekken, dan zit je nog altijd met lager dan 30fps gaming. En hou rekening dat was een GTX 680 in die review.

Dit is gewoon meer iets om mensen erin te doen lopen. Hooooo ... 4GB ... kopen ... en in praktijk zullen ze nooit het verschil zien. Ze zijn 1000% beter af dan een GTX 970 te kopen, of een ATI R9 290 (x) te halen als ze echt willen gamen. Of de 2GB 960 als ze niet gamen.

Er is echt geen midden terrein voor dat product in mijn ogen.
Bij een nieuwere kaart de GTX770 tekent zich eenzelfde beeld af. Ook hier presteert de 4GB nauwelijks beter dan de 2GB variant, zelfs bij resoluties van 5760x1080 pixels: http://alienbabeltech.com/main/gtx-770-4gb-vs-2gb-tested/3/

Edit: om jullie vast een voorproefje te geven ten aanzien van de verschillen. Verschil uitgedrukt in FPS in het voordeel van 4GB variant ten opzichte van de 2GB variant op 5760x1080 pixels.
Hitman: Absolution: 1,1 FPS
Metro Last Light: 0,8 FPS
Far Cry 3: 0,6 FPS
Crysis 3: 0,1 FPS
Tombraider 3: 0 FPS
Assassin's Creed III: 0 FPS

[Reactie gewijzigd door ChicaneBT op 11 maart 2015 16:46]

het gaat ook niet om de prestaties van huidige spellen, maar hoe future-proof je wil zijn voor de bak met slordige-console-ports die er aan zit te komen die gewoon niet draaien met minder dan 4gb aan vram.

Niet alles in die 4gb aan vram hoeft elk frame gebruikt te worden, mensen snappen dat blijkbaar niet. De bus (en eigenlijk belangrijker de effectieve snelheid van het vram) heeft nog niet direct iets te maken met hoeveel data je op de kaart zelf kan proppen.

Bij bepaalde resoluties kan je tegen een bottleneck van bandbreedte (En beschikbaar vram) aanlopen omdat dingen zoals MSAA gewoon heel veel ram kosten en per pixel gaan. Dus meer pixels en meer MSAA is gewoon meer bandbreedte nodig. Daarom dat er voor 2gb en 128bit en 7.0ghz voor de standaard gtx960 is gekozen, het is 'precies' genoeg voor de huidige 1920x1080 gamer.

Maar zoals ik al zei, als er meer en meer (console ports) spellen komen (Zoals nu de eerste paar al) die gewoon meer in vram willen stoppen en niet nadenken over 'streaming in and out of vram', dan heb je een probleem met minder dan 4gb.

Iets om over na te denken als je een kaart koopt voor de komende paar jaar.
Koop je elk jaar iets nieuws -> boeien, en je ziet vanzelf wel wanneer je daadwerkelijk meer ram nodig hebt.

edit: Er speelt ook nog meer zoals prijs natuurlijk. Toen ik voor een gtx 760 ging heb ik ook lopen kijken naar de 4gb versies, just to be sure... maar de meerprijs daarvan maakte het toen absoluut niet waard. Ik wil een mid-range kaartje best een beetje future-proofen, maar niet als hij daardoor dezelfde prijs heeft als een hogere segments kaart die ook (bijna) 4gb aan ram heeft. Je moet wel een beetje nuchter met je portemonnee blijven denken natuurlijk :).

Een vriend van me heeft een kleine 2 maanden geleden een PC in elkaar gestopt, en die doet dat echt niet vaak (denk echt dat deze op z'n minst 3 jaar geen enkele upgrade zal zien), maar hij had nu wel budget om er wat krachtigs van te maken waarvan hij hoopte dat hij dan ook eventjes mee zou gaan.
Nou 1) 'eventjes mee zou gaan' is altijd maar afwachten natuurlijk :P maar 2) die heb ik ook gezegd dat je dan eigenlijk 4gb of meer wil, ongeacht de render power. Alleen zat hij absoluut niet vast een bepaald type kaart (amd /nvidia) en is over het algemeen nu de amd-r290 4gb meer bang-for-buck. Once again, wel nuchter naar de prijzen blijven kijken, want anders loop je nog steeds in een marketing truuk :).

[Reactie gewijzigd door dipje2 op 12 maart 2015 08:25]

Future proofen met GPU?

Dat is toch echt een fabeltje. Het bestaat niet. Future proofen met hardware is sowieso vrijwel onmogelijk. Hardware gaat gewoon zo hard als het kan gaan en je enige manier om daarmee te future proofen is door er meer van in je systeem te stoppen. Dat heeft dus geen zin, aangezien er constant nieuwere, snellere hardware uitkomt die voor een lagere prijs gelijke prestaties levert.

Als je denkt dat je future proof bent door SLI te gaan met een GTX 970 kom je bedrogen uit. Over een jaar is er namelijk een single card net zo snel en heb je dus het dubbele betaald voor gelijke performance een jaar verder. Dan ben je welgeteld een jaar 'future proof' geweest. Als je het zo wil noemen :)

Uit de tests van de GTX 680, 770 blijkt nu ook gewoon dat een 4GB versie vrij zinloos is/was en zal zijn. Zelfs de games die meer vragen laten geen consistent hogere fps zien met een 4 GB versie. In SLI heb je wel een voordeel, maar ook daar is het zeer beperkt en je hebt dan een prijs/performance verlies mbt de scaling, waardoor je ook weer beter een prijsklasse hoger kunt gaan zitten met één kaart.

Ik speel momenteel talloze console ports op een GTX 770 met 2 GB en loop nooit 'alleen' tegen een VRAM bottleneck aan. Het is vrijwel altijd zo dat ik bij een overschrijding ook al op een andere manier onder de 60 fps terechtkom. Desondanks ziet elke game er nog steeds stukken beter uit dan op eender welke console en loopt het op 60 fps ipv 30. Die enkele game met zeer slechte optimalisatie laat ik gewoon lekker links liggen, want ik ga geen systeem bouwen op basis van slechte producten. Daar mis je overigens ook niks aan.

[Reactie gewijzigd door Vayra op 12 maart 2015 11:30]

Meer geheugen is niet gelijk aan snellere prestaties.
Zo lang je voldoende geheugen hebt maakt het niets uit hoeveel je er hebt.
Of ik nu 16 of 64GB heb zitten in mijn desktop, zolang ik er maar maximaal 10 gebruik zal ik 0.0 prestatiewinst boeken.
Feitelijk is heel het gedacht meer geheugen is sneller foutief, op het moment dat je er niet genoeg hebt krijg je een gigantische bottleneck wat een negatieve impact heeft op prestaties. Je boekt dus nooit winst met meer geheugen, je voorkomt alleen dat je tegen het te weinig geheugen probleem komt.

Als we het hebben over bussnelheid of GDDR3/4/5 ga je wel een gevolg zien in prestatie.

Het enigste wat de review aantoont is dat je met 2GB nog ruim voldoende hebt voor hedendaagse games zelfs op hele hoge resoluties. Meer geheugen heeft voor die games geen enkel nut.

De vraag is wat games in de (nabije) toekomst doen met de minimum eis voor VRAM. Echter als tegenargument kan je inbrengen dat komende games zwaarder zullen draaien waardoor je ze niet op ultra kan draaien omdat de GPU zelf te traag zal zijn. Echter om over die 2GB te gaan zal je de game op ultra moeten draaien, anders zal die waarschijnlijk onder de 2 GB grens duiken.
Aan de andere kant laat het mogelijk toe om enkel de textures op ultra te zetten en andere opties op high te zetten.
Ok en voer nu die zelfde test uit maar dan met Skyrim met 4k textures.
Niet iedereen is van plan jaarlijks of tweejaarlijks zijn videokaart te vervangen. Er zijn zeker klanten, waaronder mezelf, die een kaart kopen met als doel er zo lang mogelijk gebruik van te maken. Vermits games zeker niet minder geheugen gaan gebruiken zal 4GB net iets langer meegaan dan 2GB.
Je zou denken dat iemand die een toekomst gerichte kaart koopt met opzet 4GB geheugen neemt, geen GTX 960 zou kopen.

Ik kan je verzekeren dat de games dat de 4GB zouden taxeren, ook de GPU zullen taxeren. De 960 is meer een midden niveau ... ik zou zelf zeggen lager/midden niveau kaart.

Een game dat bijvoorbeeld de 970 zijn performance doet in elkaar stuiten en waarbij de 4GB gebruikt word, zal nog een groter effect hebben op de 960's performance ( en zeker bij hogere resoluties ).

Als we bekijken prestatie / toekomst gericht, dan komt de 960 toch niet in mijn ogen op die lijst. De 970 is een veel betere kandidaat.
De 970 Is ineens een pak duurder dan de 960. Mijn 9600GT (jawel, 2 nullen) doet nog steeds zijn best. Met Tomb Raider had hij het soms wat moeilijk, maar dat was voor mij niet storend genoeg om te gaan upgraden. Soms is een mid-range kaart gewoon voldoende.
De 128-bit bus is bij deze chip wel gewoon volledig bruikbaar, Bij de 970 waren er SMM-units uitgeschakeld waardoor een bepaald gedeelte van het geheugen moeilijk bereikbaar was.
Bij de 960 hebben ze een hele nieuwe chip, die volledig ingeschakeld is. Dus het probleem van een 970 zul je sowieso niet op de 960 terug zien.
De GeForce GTX 960 is geen onvolledig ingeschakelde GM 206 maar een volledig ingeschakelde GM 204 core, en dit zal in sommige gevallen wel degelijk een aanwinst zijn aangezien sommige spellen en engines, dan wel terecht/onterecht, minder instellingen beschikbaar stellen indien minder videogeheugen.

Een spel Dying Light is bijvoorbeeld van nature vrij zwaar op het videogeheugen zelfs als je de instellingen wat lager hebt staan zoals Anti Aliasing uit en alsnog een resolutie van 1920×1080.
Er is nog geen middenterrein voor de GTX 960 omdat ie nog te duur is. Zodra de prijs zakt naar 160-180 euro wordt het interessant om er twee in SLI te zetten: je haalt dan een hogere perf/euro dan met een enkele GTX 970. In SLI heeft de 4GB op een GTX 960 nog wel (beperkte) meerwaarde.

Zo was het ook met de GTX 660 destijds. Die begon ook op 200+ euro en zakte al snel onder de 200. Ook die kaart in SLI was net een tandje sneller dan de toen regerende HD7970.
Marketing wss, 4=meer dan 2, toen ik mijn eerste gpu ging kopen (X800XT) wou ik ook blind de 512mb (echt sloten ram destijds) kopen maar het bleek uit de CT en HWINFO magazine reviews dat meer geheugen vaak juist negatievere prestaties neerzette dan de 256mb versie.

Ik bedoel hoe vaak hebben jullie een vriend/kennis/familielid welke je de vraag stelt: Deze pc zal wel goed zijn toch? Hij heeft een 2TB harde schijf...
Ik vrij vaak en weet daarom ook dat de gemiddelde consument echt niets weet en denkt dat een hoger nummer van bepaalde dingen altijd beter is
Dat de X800XT met 512MB langzamer was dan met 256 was vooral te wijten aan het feit dat de 512MB versie een stuk langzamer geheugen gebruikte, niet vanwege het feit dat er meer geheugen op zat. Het ziet er naar uit dat dat in dit geval wel mee valt.
Dat is waar al had je ook versies die hetzelfde geheugen gebruikten volgens mij en deze waren niet heel veel beter.
Anyway mijn punt over marketing blijft staan dat er erg veel mensen gewoon voor zullen vallen want meer=beter is de gedachte.
Vooor SLi zou het extra nut kunnen hebben. Twee 960's presteren (volgens de review op Tweakers) beter dan 1 980, dus in SLi wordt er wellicht beter gebruik van gemaakt, gezien de hogere resoluties die gedraaid kunnen worden.
Twee 960's presteren beter dan 1 980

Niet mee eens. Uit de reviews die ik heb gelezen blijkt dat twee 960's een veel lagere minimale framerate hebben. En een veel grotere variantie in de frametimes. Je bent dus beter af met één 980.

En dan heb ik het nog niet over de vele recente games gehad waarbij SLI problemen oplevert.
Waar, maar 4 gb heeft eigenlijk geen nut voor een enkele GTX 960. Ook al zijn twee 960's slechter dan één 980, misschien dat het dan wel nut heeft.
wat ik me altijd afvraag in die SLI verhalen.. is de output van je systeem.. SLI is een leuk concept.. maar voor de energie rekening is het minder fijn.. als je gemiddeld 20 uur per week voluit aan het gamen bent.. en je kaarten hebben een max uitput van 500 watt per stuk.. dan ben je toch redelijk aan het slobberen met je 2 kaarten die op vol vermogen bijna 1k uit de muur trekken samen met je andere (wellicht overklokte spullen)

klinkt misschien beetje kort door de bocht.. maar zolang ze die chips niet NOG zuiniger maken is SLI/triple SLI een redelijke waste of energy
500 Watt voor 1 GPU ga je niet vinden dat krijg je namelijk niet gekoeld. De grens ligt ergens op 300 Watt. Je bent waarschijnlijk aan het kijken naar de vereiste voeding => hierbij word rekening gehouden dat ook nog al de rest stroom nodig heeft.
Daarnaast spreek je over piekverbruik dat je enkel haalt als de kaart voluit gaat. In de praktijk zal je dat piekverbruik niet continu hebben. En als Vsync aanstaat en je zit op 60 FPS kan het goed zijn dat een videokaart max 60% capaciteit aantikt waardoor het stroomverbruik pakken lager uitvalt.

Het neemt niet weg dat high end gpu's of cpu's aanzienlijk meer stroom verbruiken maar je koopt toch geen Ferrari om vervolgens te gaan klagen dat hij aanzienlijk meer verbruikt dan je Audi?
De chips zijn al enorm zuinig, daar is de laatste 5 jaar sterk op gehamerd voornamelijk ook door de komst van smartphones en tablets. Zelfs in de high end zie je dit terug, bij idle klokt een gpu gigantisch terug. On the fly throttling van een CPU/GPU en uitschakeling van cores is de normaalste zaak van de wereld. Toen ik begon moest je nog overclocken via de bios, niet dat het niet kon via het os maar gewoon omdat de clock aanpassen terwijl hij draait 1/4 van de tijd al genoeg was om een crash te veroorzaken.

En wat je blijft behouden, je mag een chip zo zuinig maken als je wil, door zot te doen met het verbruik kan de prestaties altijd nog hoger. Je kan met de laatste techniek heel veel pk uit een kleine motor trekken maar met diezelfde techniek kan je nog meer pk trekken uit een zwaardere motor.
en je kaarten hebben een max uitput van 500 watt per stuk
Een GTX 960 heeft een TDP van 120 Watt, dat is wat de kaart maximaal kan verbruiken. Twee in SLI verbruikt dus maximaal 240 Watt. Dat valt goed te overzien.

Wat niet wil zeggen dat SLI met de GTX 960 een goed idee is. Het veroorzaakt te lage minimale framerates en een te hoge variantie in de frametimes. Een enkele GTX 980 is veel beter.
De vraag is natuurlijk of die 4GB geheugen is opgesplitst in bijvoorbeeld een 3,5gb snel deel, en een 0,5gb traag deel, zoals bij de 970.
Dit is bij deze kaart niet van toepassing, hier werkt het weer heel anders als op de 970 en 980. Dit hadden ze bij de 970 hetzelfde kunnen doen als bij deze kaart, waren er geen problemen geweest. Maarja, doen ze nu toch niets meer aan :)
Dat weet jij zeker? Jij kan dit met vol vertrouwen zo garanderen hier? Het uit proporties geblazen "probleem" met de 970 werd ook veel later pas gevonden.
De 960 is precies een halve GTX 980 qua chip/specs. Hierdoor kunnen ze aan elke ROP het dubbele aantal geheugen toewijzen. Het probleem bij de 970 is dat ze het aantal fysieke geheugen chips niet over het aantal ROP's verdeeld kon worden en/of anders toegewezen. Hierdoor hebben ze door een bridge tussen verschillende geheugen chips te maken toch voor elkaar gekregen de volle 4GB te kunnen gebruiken, maar nooit getest wat hier de snelheid van was (denk ik) waardoor ze later tegen dit probleem aanliepen.

Misschien geen duidelijke uitleg, maar weet ook niet hoe ik het echt duidelijk kan beschrijven. Hoop dat je me begrijpt :+

Edit: Hier Is een schema met "de bridge" te zien

[Reactie gewijzigd door Yannick97 op 11 maart 2015 16:34]

+1 voor duidelijk maken dat het ram 'probleem' van de 970 een beetje out of control is in de media / meningen. Benchmarks zijn benchmarks. Anyway,

als je had gelezen waarom het zo gegaan is met de gtx970 (toegegeven, je moet het ook snappen, niet iedereen is gpu-technisch natuurlijk) dan wist je dat het ook een bijzondere situatie was. Er zitten een x aantal memory controllers op de kaart die elk een stukje ram aansturen. Aangezien de memory controllers bij Maxwell _in_ een blokje zitten met reken-kernen heb je dus een probleem wanneer je reken kernen gaat uitschakelen (zoals bij de gtx970). Want je zet dan ook een paar memory controllers uit.

Hoe zorg je er voor dat je dan toch 4gb kan plaatsen? Door meerdere stukjes ram op de laatste memory controller te zetten, en dat die moet gaan 'switchen' tussen de twee ram blokjes. En dat is het gtx970 probleem.

De gtx960 kwam standaard al met 2gb. Om daar een 4gb van te maken moet je gewoon hetzelfde aantal ram chipjes plaatsen op de kaart, maar wel ram chipjes met 2x zoveel inhoud. Dan veranderd er niks aan de layout of de memory config, alleen je hebt meer RAM.

Ze zouden denk ik ook gewoon 2 dezelfde ram chipjes achter 1 memory controller kunnen plaatsen om zo het dubbele te krijgen. Maar aangezien dat dan over de hele kaart zo gaat zal het niet veel impact hebben. De memory controller moet dan ook gaan switchen tussen de chipjes, maar doet dat synchroon met alle andere memory controllers op de kaart. Dit geintje is ook al eerder gebruikt in 1 van de high-end gtx 6xx kaarten om meer ram er op te zetten terwijl er toch een soort 'vreemde' memory bus was. Daar is toen geen media-spektakel over gekomen...
Ik heb ook een 970 (de SC ACX 2.0 versie van EVGA). Maar ik gebruik toch nooit 3,5GB. Het hoogste wat ik ooit heb gebruikt is 3. Nu vraag ik me al een tijd af: gebruikt de 980 hetzelfde RAM als de 970?
Ja, de 980 gebruikt hetzelfde systeem voor het geheugen.
Maar omdat een deel van de chip (GM204) is uitgeschakeld in de 970 heb je dat probleem van opsplitsen. In de 980 is het de volle chip, en die heeft het "probleem" dus niet.

Kan zo snel even het artikel niet vinden waar het is uitgelegd, maar dat staat volgens mij op anandtech.
Aha, bedankt voor je duidelijke uitleg. Dit had ik natuurlijk ook kunnen Googelen. Maar dit was net zo handig, en nóg duidelijker :).
Werkt dit wel goed als ze maar een busbreedte van 128 bits hebben? Sorry als ik fout zit. Of als ik iets totaal verkeerds zeg.

[Reactie gewijzigd door AnonymousWP op 11 maart 2015 14:32]

Ik schat de kans aardig groot dat met een 128 bits bus een 4GB uitvoering van de 960 weinig prestatieverschil neer zal zetten ten opzichte van een 2GB uitvoering.
Mijn ervaring is dat dit hele leuke marketing is, maar deze kaart weinig meerwaarde heeft dan een standaard 960 met 2GB.

Dit fenomeen zie je in het lagere segment videokaarten ook sterk terug. goedkope videokaartjes met 2GB DDR3 geheugen die net wat duurder zijn dan dezelfde kaart met 1GB DDR5 geheugen.
zet de prestaties van deze 2 budget videokaarten naast elkaar dan zul je zien dat in veel gevallen de kaart met 1GB DDR5 betere prestaties kan leveren.

Het zit hier gewoon vast op marketing. Voor mensen die een videokaart kopen op het aantal gigabytes van je videokaart kunnen ze in dit geval wat meer marge maken.

[Reactie gewijzigd door crime op 11 maart 2015 14:43]

Bij die kaarten halveren ze de bus van de GDDR5 varianten meestal nog een x van 128 naar 64 bits. Verschil is er daardoor zelden.

Vraag mij nog altijd af OF en wanneer er 8GB's gaan komen vd 970/980's

[Reactie gewijzigd door Double-X-L op 11 maart 2015 14:49]

Nee denkt niet, dan waren ze er al wel geweest, maar aangezien ze bij de 970 al problemen hadden om 4Gb goed aan te sturen...zal 8Gb wel echt niet gaan lukken!

Ben eigenlijk nog steeds behoorlijk teleurgesteld over de gang van zaken rond de GTX970, had van Nvidia gewoon beter verwacht, ook de afhandeling is belachelijk slecht (met de reactie zo is de kaart nou eenmaal!) toch zijn er dus duizenden (of miljoenen!) klanten gedupeerd door deze "oplossing" voor het probleem wat men tijdens ontwikkeling ervaarde!
De 970 zien we dan als 7GB model, daar verandert technisch verder niks aan.

Ben het er wel mee eens dat het 'verkeerd communiceren' een beetje nonchalant is afgedaan, al zijn er aardig wat shops geweest die hiervoor een retourbeleid hadden.

Het is geen probleem, het is een design keuze geweest om de 970 zo prijsgunstig te maken. Het enige wat ze hadden moeten doen is 3,5GB vermelden i.c.m. de juiste bus en L2 specs voor de reviewers.
De kaarten zonder die 'beperking' zijn de 980's en die zijn heeel wat duurder ;)

[Reactie gewijzigd door Double-X-L op 11 maart 2015 15:23]

Dan dacht ik in de theorie dus toch goed :).
EVGA heeft er onlangs ook een aangekondigd: http://www.tomshardware.c...tx-960-ssc-4gb,28685.html
Deze schakelt de fans uit als hij onder de 60 graden is.


Denk dat dit wel een goede zet is van de fabrikanten. Beetje meer ram kan geen kwaad lijkt mij.

[Reactie gewijzigd door spookz0r op 11 maart 2015 14:27]

Of je het in de praktijk zal merken is een ander verhaal ;). Lijkt me niet.
dit is al het geval bij asus strix kaarten.. dus zo 'nieuw' is het principe niet.. evga lift gewoon even mee op het succes verhaal van de asus strix die werd geintroduceerd met de launch van de 970
Wauw! Dit lijkt me een mooie gpu, alleen wachten op de prijs.
Dacht ik ook, zul je zien dat ze het dan weer een belachelijke prijs, 100 euro meer of zo. Dan kan je beter doorsparen voor echt iets goeds... Met een mooie prijs lijkt het me ook een mooie kaart die ik graag in m'n pc'tje wil...

Edit: spelfouten...

[Reactie gewijzigd door aimilius op 11 maart 2015 16:36]

Eerlijk gezegd denk ik dat deze kaart niet krachtig genoeg is om games te trekken die 4gb geheugen aan spreken. Lijkt mij een beetje nutteloos dus dit.
Als je een GTX 960 in SLI hebt komt hij in de buurt van de GTX 980 (https://tweakers.net/reviews/3878/5/nvidia-gtx-960-midrange-videokaarten-los-en-in-sli-getest-3dmark-en-unigine-heaven.html). Daar zijn/komen nog wel spellen voor die baat hebben bij 4 GB geheugen. SLI gaat niet zo efficiënt met het geheugen om
Ik zou dan gewoon voor een 980 gaan en niet voor sli.

Ik vind de 960 zowieso niet echt een indrukwekkende kaart. De r9 290 ligt vrij dichtbij kwa prijs en die is veel krachtiger.
Ik bedoelde meer dat er nog wel mogelijkheden zijn te bedenken voor een GTX 960 met 4 gb. Één GTX 980 lijkt me inderdaad ook een betere keus dan twee GTX 960's.
Als deze nou geen bizar hoger prijskaartje krijgt ga ik toch liever voor deze versie dan de 2GB versie die ik eerst op het oog had :). Hopelijk wordt er snel meer bekend hierover, zit toch wel te snakken naar een upgrade van mijn GTX 660.
Dit is denk ik nauwelijks een upgrade tov een 660. Tenzij je een specifieke feature van deze kaart nodig heb zou ik doorsparen. Voor de prestaties hoef je het in elk geval niet te doen.
ik gok op 249 USD ... oftewel 250 euro. Voor dat bedrag heb je andere kaarten die gehakt maken van deze kaart, 4GB of niet ..
Die 4 GB is puur omdat console ports allemaal gemaakt zijn voor systemen met veel videogeheugen (consoles) en bij die ports dit niet correct geoptimaliseerd wordt voor de PC. Eigenlijk bizar maar dit soort kaarten zijn waarschijnlijk gewoon een noodzakelijk kwaad terwijl het verspilling van resources is.
Nu nog de high end kaarten met 6 of 8 GB en motivatie bij developers om de games te optimaliseren voor 4k gaming en het gebruik van deze 6 en 8 GB.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True