Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 258 reacties
Submitter: Mee_

Gebruikers van de Nvidia GeForce GTX 970 stellen met problemen te kampen op momenten dat er meer dan 3,5GB aan vram wordt gebruikt. Dan lopen de prestaties rap terug, aldus de gebruikers. Het is nog niet duidelijk waar het probleem door wordt veroorzaakt.

Op verschillende gebruikersfora, waaronder Overclock.net, maken gebruikers melding van prestatieproblemen. De GeForce GTX 970 heeft in totaal 4GB aan vram, maar volgens gebruikers kan dit niet volledig worden benut. Het laatste blok van 500MB vram zou problemen geven. Gebruikers melden dat de prestaties fors teruglopen, bijvoorbeeld in games, zodra er meer dan 3,5GB aan vram wordt gebruikt.

In benchmarks die door ExtremeTech zijn verzameld is te zien hoe de prestaties afnemen zodra de hoeveelheid gebruikte vram de 4GB nadert. Uit vergelijkbare benchmarks die met de GTX 980 zijn gedaan blijkt dat de problemen daar niet optreden. De geheugenbug lijkt dus geïsoleerd te zijn tot het 970-model, maar het is ook niet duidelijk of de problemen bij alle gebruikers optreden.

Waar de geheugenbug door wordt veroorzaakt is nog niet duidelijk. Nvidia heeft gezegd dat ze het probleem zullen bestuderen, maar het is nog onbekend of het euvel verholpen zal worden.

Nvidia GeForce GTX 970

Moderatie-faq Wijzig weergave

Reacties (258)

1 2 3 ... 6
Zie deze foto voor een FPS / Vram impressie met de Asus Strix 970 GTX in Shadow of Mordor op verschillende texture (Vram) settings

Naar aanleiding van dit bericht heb ik een kort testje gedaan met de game Shadow of Mordor. Een zeer slechte console port die bizarre hoeveelheden Vram van de videokaart vereist. De test is overigens niet volledig valide aangezien het slechts één game betreft. Ik heb het echter gedaan om een licht impressie te geven van de Vram usage en invloeden hiervan op m'n FPS. Ik heb bewust geen nietszeggende benchmark gedraaid omdat ik wil weten wat de effecten zijn tijdens alledaags gamegebruik; dit is voor mij (en velen) belangrijk.

Welke (enigszins voorbarige) conclusies trek ik uit m'n kleine test?

- De maximale Vram die ik heb weten te bereiken is 3738;
- Het verschil in 2 GB of 3.5 GB Vram usage uit zich echt totaal niet in FPS verschillen;
- Ik ondervind geen enkele lag of stuttering als hij capped op de 3738 Vram usage;
- De extra Vram usage in Shadow of Mordor beïnvloed de prestaties niet negatief^
- Shadow of Mordor is een matige game en een belabberde consoleport :+

Uiteraard is dit een ontzettend oppervlakkige test maar zo op het eerste oog wordt er inderdaad niet de volle 4 GB aan VRAM van de 970 GTX gebruikt.

Kunnen we dit Nvidia kwalijk nemen? Ja.
Zou dit in andere games wat prestatieverlies kunnen opleveren? Dit betwijfel ik, maar lastig te zeggen nu. Ik gok dat het erg minimaal is.

Overigens ben ik ontzettend blij met m'n 970 GTX omdat hij uitzonderlijk stil, prima betaalbaar en zuinig is. De performance is in veel games ontzettend goed en op 1440P lukt het vaak wel de 60 FPS aan te tikken als ik wat kloot met videosetings; overal maar AA en dergelijken op maximaal knallen is zeker op een resolutie van 2560x1440px op een IPS paneel niet zinvol. Je gaat het verschil tussen bijvoorbeeld x2 en x8 niet meer zien op deze resolutie, terwijl het FPS verschil zeer positief kan zijn.

Ik vind dat sommigen hier echt overdreven reageren door gelijk de rechtsbijstand aan te halen en het willen retourneren van hun videokaart. Ik gok dat de meesten hier niet echt problemen hebben ondervonden en zeer blij waren met hun videokaart, totdat dit nieuwsbericht de media in werd geslingerd. Uiteraard is het voor de mensen die wel rare performance loss hebben erg vervelend, maar ik ben wel benieuwd wanneer deze dan optreedt. Ik heb er zelf nog in geen enkele game last van ondervonden.

Ik stel voor dat we even wachten wat Nvidia aangeeft en wat eventuele driver aanpassingen unnen opleveren. Ik ben er bewust van dit het waarschijnlijk een hardwarematig 'falen' is en dat Nvidia dit ook had moeten vermelden. Dit valt ze zeker aan te rekenen, maar ik lig er persoonlijk niet echt wakker van. Het blijft de fijnste videokaart die ik tot op heden heb gehad :)

[Reactie gewijzigd door stin00 op 25 januari 2015 16:12]

GTX970 is made by disabling 3 of SMM units. What nvidia refused to told us is which one of the raster engine has its SMM unit being disabled.
I found most reviewers simply modified the high level architecture overview of GTX 980 diagram by removing one SMM unit for each three raster engine with one raster engine has four SMM unit intact.
Ze hebben SMM's uit de GTX 970 gehouden

16 SMM(980) = 256 bit = 4096 Mb
13 SMM(970) = 208 bit = 3328 Mb

mathmatically of course.

http://www.guru3d.com/new...emory-allocation-bug.html

Hier staat dat de performance verschil niet groot is.

[Reactie gewijzigd door BJ_Berg op 25 januari 2015 20:19]

Oke, wow. Dit is dus precies wat ik dacht, maar nergens durfde te zetten..... Thanks @BJ_Berg!!!
De performance is in veel games ontzettend goed en op 1440P lukt het vaak wel de 60 FPS aan te tikken als ik wat kloot met videosetings; overal maar AA en dergelijken op maximaal knalle

uhmm... op 1440p is AA niet meer nodig (op sommige panelen) of je kunt aa op 2x zetten scheelt je nog eens fps en verschil ga je niet zien (gewoon een tip)
op een 23 inch monitor mischien niet maar op een 50 inch die ik gebruik heb ik ook nog steeds aa nodig bij 1440p
zoals ik al zei sommige panelen hebben geen AA nodig... en sommige weer wel (2xAA). Met 4x ga je geen verschil zien zowel dan heb je een verkeerde paneel te pakken.
Ah die zin had ik niet helemaal afgetypt! Ik bedoelde inderdaad te zeggen dat AA op 1440p bijna niet meer nodig is en het dus zinloos is om deze altijd maar op maximaal te knallen zoals veel mensen wel doen. Dank voor de correctie :) We bedoelden in ieder geval hetzelfde!
Is AA i.c.m. G-sync op 1440p dan ook zinloos?
Heeft op zich niets met G-sync te maken. Het gaat erom dat AA de randen van objecten ronder/minder kartelig maakt (dus feitelijk de boel wat onscherper maken plaatselijk). Echter heb je hier veel minder last van op 1440P dan op 640P dat verschil in beeldlijnen heft het effect van AA op.
Op 1440P (grofweg 3.6MP) zal je uiteraard wat vloeiender uit de voeten komen dan 4K (grofweg 8.2MP).
Het is net alsof er meer shaders geladen willen worden dan in het VRAM past en die daardoor even hangt in games (veelal een -10fps dip van 2 seconden elke 5 seconden).

Overigens met The Crew loopt het wel soepel op 4K @ 60fps alles max behalve AA dan.

Heb je overigens al een rec.exe VRAM benchmark gedraaid om te kijken hoe die van jou uit de bus komen?

[Reactie gewijzigd door Jeweettoch13 op 25 januari 2015 15:41]

Ik heb de rec test even bekeken en een poging gedaan om deze enigszins fatsoenlijk te draaien. Aero bleef echter wel actief en IDLE lag het verbruik op 213 Vram volgens Afterburner.

Foto van rec.exe resultaat

Allocated 3840 MB
Afterburner maximum: 4052 MB

Nou weet ik niet hoe representatief deze test is en of ik hem volledig goed heb uitgevoerd, maar ik heb dus wel m'n 3 monitoren ontkoppelt en een fresh reboot gedaan. Mijn Asus 970 GTX lijkt wel prima uit de bus te komen als ik deze getallen zo zie?
Ze hebben op een 980 de test ook gedraaid en alle blocks halen dezelfde snelheid (970 vs 980 benchmark)

echter bij mijn test heb ik andere blocks die minder presteren dan bij die van jou.
screenshot eigen benchmark
Er moet dus iets aan de hand zijn.
Zo dat ziet er vreemd uit inderdaad zeg !
Zelf ben ik ook eigenaar van een gtx 970. Ik heb de windforce editie van gigabyte en heb ook tot op het heden geen last gehad van problemen bij hoge v-ram belasting. Na dit artikel eens geprobeerd om The Crew op 4k DSR (Dynamic Super Resolution)te spelen, ook zonder problemen. Aangezien dat Gigabyte een custom pcb gebruikt net als Asus, denk ik dat het daar misschien aan kan liggen. Zeker weet ik dit echter niet. :?
Daarom moet je ook kijken naar frametimes. Ik merkte ook niets aan de framerates, maar de frametimes vertelde een ander verhaal. Het was niet echt stutter maar je zag een soort vreemde artifact, lastig uit te leggen. Het beeld had een vreemde transitie erdoor.

Heb het zelf getest met Crysis 2 en Arena Commander. Beide games ging de framerate niet echt van omlaag toen ik over de 3.5GB ging, maar de frametime verdubbelde.

Al kreeg ik dus bij Arena Commander zichtbare stutter.

[Reactie gewijzigd door Majestici op 25 januari 2015 22:06]

Voor mij als potentiele koper (ik wil mijn GPU upgraden) is dit wel een showstopper en twijfel ik nu wel heel erg wat ik zal gaan doen. Ik zat eerst heel erg te neigen naar de GTX970, maar door dit bericht (die ik gisteren las en misschien wel eerder al gemeld was op ons eigen het forum) ga ik wel twee keer nadenken of ik deze kaart nog wel wil. :)
Het zijn uitstekende kaarten, de meeste mensen merken geen rare dingen.
Je kan altijd nog rec draaien en als de kaart inderdaad rare resultaten geeft de boel retourneren.
Ik heb de Asus strix 970 en ben nog nooit zo blij geweest net eeb videokaart :). Passive mode for the win!

[Reactie gewijzigd door wezzie007 op 25 januari 2015 22:12]

Ik ben het volkomen met je eens. Vroeger had je al die toeters en bellen die nu op videokaarten zitten allemaal niet en was je al tevreden als je gewoon je spel kon spelen. En ja, ik weet dat spellen van vroeger niet hetzelfde zijn als die van nu en veel meer van de videokaart vragen. Maar kom op zeg: als iemand opeens 1 fps minder haalt of wat dan ook, dan is opeens de videokaart slecht.
Het zou opgesplitst moeten zijn in 3.584MB en 512MB. Echter die laatste 512 pakt hij niet en het wordt gepooled met system memory.

Zelf getest met star citizen; http://i.imgur.com/h25L3BD.jpg

Kijk maar zelf hoe op een gegeven moment het systeemgeheugen en ramgeheugen synchroon lopen in gedrag. Iets zit er fundamenteel mis met die dingen.

Zit nog gelukkig in de 14-dagen wet-van-kopen-op-afstand regeling. Dus hij gaat mooi retour. Dan maar wachten op de nieuwe videokaarten. Want ik zie geen "fix" aankomen.

Even ter aanvulling; Het gevolg is frametimes die alle kanten op stuiteren. Star Citizen is dus zonder gekke instellingen (high, 1080p) niet speelbaar op een GTX970.

[Reactie gewijzigd door Majestici op 25 januari 2015 02:52]

Uiteraard is dit zuur, en hopelijk kunnen ze het nog oplossen.

Echter voor mij zou de vraag zijn: Als hij werd verkocht als 3.5GB kaart, had je hem dan ook gekocht? Bij mij staat hij nog op mijn verlanglijstje, en of hij dan 3.5GB of 4GB VRAM effectief heeft maakt me niet heel veel uit.
Als de kaart enkel 3.5GB snel geheugen had was er geen probleem geweest. Immers wordt er dan simpelweg niet meer dan 3.5 gebruikt, en gaat de performance niet achteruit door het foutief gebruik van de laatste 0.5.
Dat is niet waar, je koopt wat er op de doos staat. En dat is dat de product 4g vram gebruikt. Niet 3,5g.

Als eerlijk over de product bent was dit namelijk geen probleem. Dan weet je als consument zijnde waar je aan toe ben.
Natuurlijk. Dat gaat dan ook enkel op als de kaart verkocht en geleverd werd als zijnde een kaart met 3.5GB zoals @Sissors stelde.
Het probleem is dat hij niet enkel de 3.5GB gebruikt maar 0.5GB system memory. En sommige games de 4GB pool proberen te vullen (CryEngine 3 games). Ik kan de game niet vertellen <3.5GB te gebruiken dus gaat het meteen mis als ik het probeer te spelen.
Als je deze comments leest, dan weet je al hoe nvidia dit waarschijnlijk gaat patchen.
Ja maar niet dat het voor mij wat uitmaakt omdat hij al stuk is gegaan.
En het is maar de vraag of ze dat gaan doen. Idle clocks multi-display fixen ze al niet, laat staan dit.

[Reactie gewijzigd door Majestici op 25 januari 2015 14:50]

Garantie-wijs, zit er 4GB aan geheugen chips in de GPU, die allemaal gewoon "werkend"(512MB low priority) zijn. In een rechtzaak zou dit niet werken.

[Reactie gewijzigd door BJ_Berg op 25 januari 2015 20:18]

Voor zover ik kan zien is dat geen abnormaal gedrag.
Veel data komt immers door het RAM naar je VRAM, als dat verlost word word het ram ook verlost.
Ik vermoed gewoon dat de applicatie denkt dat het een 4GB kaart is, alleen de 3.5GB pool kan adresseren en de rest uit system memory gaat halen als die vol is.

Dat verklaart een hoop...
Maar dan is dat toch op te lossen, door de driver de instructies te geven de overige 0.5GB pool ook aan te spreken. Of zie ik dit hier verkeerd...
Dat is waarom er op veel techsites verwacht wordt dat nividia eerst gaat proberen met bios/firmware updates het probleem te verhelpen. Ik heb begrepen dat deze 0.5gb pool in principe t zelfde zou moeten presteren als de 3,5 gb pool, maar dan is gereserveerd voor low priority tasks. Of is deze 0.5gb ook van slechtere kwaliteit?
Geen idee, ik heb nog iets minder dan twee weken om hem terug te sturen, maar als ze tegen die tijd geen oplossing hebben ga ik niet wachten ermee.
gelukkig is er ook iets als verkoopbescherming en kun je de videokaart ten alle tijden terug brengen naar waar je hem gekocht hebt. aangezien ze jouw geen deugdelijke product hebben geleverd. (indien je garantie natuurlijk niet is verlopen, maar dat ga ik niet vanuit bij deze kaarten :) )
Ja hoe dan ook krijg ik mijn geld terug. Want hij is net dood gegaan.
Hoe krijg je dat zo snel voorelkaar ?
Ik vermoed dat hij al DOA was. Ik heb hem netjes met ESD-polsbandje geïnstalleerd en verder niets vreemds mee gedaan (overclocken etc). Hij gaf al artifacts in Tomb Raider en bij Arena Commander toen ik een screenshot wilde nemen van de wilde frametimes boven 3.5GB ging het beeld op zwart (en Arena Commander gaf een memory allocation error) en was de displayport uitgang onbruikbaar.

Dus nu zit ie weer in de doos en gaat hij morgen op de post. Maar ik koop pas weer een nieuwe als ik weet wat nvidia gaat doen met de 970's. Want in deze toestand hoef ik er geen. (arena commander is erg slecht speelbaar).
Lullig voor je... Welke uitvoering/merk is het?
(In je inventaris staat nog een gtx 670)

[Reactie gewijzigd door trogdor op 25 januari 2015 22:04]

Dank je voor de info.
Dat systeem in mijn inventaris heb ik allang niet meer. Enige wat daar van over is, is de CPU + Memory =)
er zijn zat kaarten met 3GB die perfect werken, in het slechtste geval gaat nVidia dus gewoon in de firmware/driver aanduiden dat er geen 4GB vram is en "probleem opgelost"
uiteraard is het hopen op betere oplossing

ik begin alvast uit te kijken naar mensen die hun 970 goedkoop dumpen >:)
(want voor zo'n populaire kaart komt er zeker een oplossing)
Ik zie paar mogelijke opties:
1 nvidia ziet kans dit met een bios of driver update te repareren
2 nvidia doet een recall van al deze kaarten, immers de kaart voldoet niet aan wat beloofd is, en vervangt deze voor een nieuw model.
3 nvidia brengt een bios patch uit die de kaart terugbrengt naar 3,5G ram. Gebruikers zullen ontevreden zijn...

Ben benieuwd waar ze mee gaan komen.
Optie twee zal het niet worden, om de simpele reden dat Nvidia daar niet aan doet. Een aantal jaar geleden zouden ze dan ook de 8000-serie geheel terug hebben moeten roepen, wat hoogstwaarschijnlijk op dat moment het einde van Nvidia had betekend. Nvidia maakt wel vaker cruciale foute beslissingen in hardware productie design. Ik ben bang dat de winkeliers en ome-fabrikanten nu weer het baasje zijn net als met de 8000-series.

De consument kan de pech hebben dat winkeliers en ome-fabrikanten gaan zeggen ''Works as design''. De enige optie blijft over terug sturen binnen de 14 dagen als je zekerheid wilt hebben, in het geval van een dergelijk Nvidia product.

Ik spreek overigens uit ervaring zowel zakelijk als consument, als ik iemand moet adviseren in VGA kaarten dan zal ik alleen een Nvidia kaart adviseren alleen als er features nodig zijn die een ander niet kan leveren.

[Reactie gewijzigd door _Dune_ op 25 januari 2015 10:15]

Interessante onderbuikgevoelens maar feitelijk klopt er weinig van. Nvidia is namelijk het bedrijf dat regelmatig honderden miljoenen winst draait. Denk aan 800 miljoen. Dat zijn getallen waar de Graphics divisie van AMD na 10 jaar nog niet op komt. Nvidia zou de hele jaaromzet kunnen recallen zonder dat het "het einde van had Nvidia betekend".

Verder is het logischer om Nvidia als default choice aan te raden. Over het algemeen worden de drivers als kwalitatief beter bestempeld (zie bijvoorbeeld het frametime verhaal, AMD testte het nooit, Nvidia wel).
The end result of these investigations has seen AMD embarrassed and rightfully so, as it turned out they were stuttering far worse than they thought, and more importantly far worse than NVIDIA.
Dat was verder geen klein dingetje, dat ging over hoe vloeiend een game draaide. Laat dat nou net DE reden zijn om geen IGP te gebruiken maar een videokaart van ¤200+.

Verder valt de relatief hoge uitval buiten de garantie op. Zo liepen de GTX 260 en de HD 4870 nek aan nek gedurende hun verkoop jaar op de hardware stats. Drie jaar later waren er ineens factor 2 keer meer GTX 260 overgebleven. Zelfs anno 2015 is dat effect nog deels zichtbaar (0.37% voor de GTX 260 en 0.21% voor de HD 4870).

Om de radeon kaarten by default aan te raden zullen ze wat mij betreft eerst moeten werken aan de levensduur en de features. TrueAudio kan ik namelijk niet echt warm van lopen terwijl ik al veel plezier heb gehad aan de x264 encoder van de Kepler kaarten (streaming zonder cpu usage en shadowplay).

Wat mij betreft ligt de featureset van AMD dus een beetje achter die van Nvidia en zullen ze dus met een interessante prijs moeten komen om mij te verleiden (en soms doen ze dat ook).

[Reactie gewijzigd door sdk1985 op 25 januari 2015 14:55]

Om de radeon kaarten by default aan te raden zullen ze wat mij betreft eerst moeten werken aan de levensduur en de features.
Waar zie jij verscillen in levensduur en features dan? :) Ik doe nu al de nodige jaren met mijn 6870 en begin nu pas te merken, dat die kaart eigenlijk inmiddels tamelijk low-end begint te worden. Ik heb de kaart sinds de launch. Ik heb dus 4 jaar met de videokaart gedaan, wat op zich vrij netjes is als je weet dat eens in de twee jaar de videokaarten dusdanig sneller zijn, dat ze dan een SLI / CF opstelling die dan twee jaar oud is kunnen bijbenen.

Levensduur zit ook bij AMD wel goed. Featureset; dat is ook pure voorkeur denk ik. Sommigen willen wel dingen als Mantle, anderen niet en hebben lever ShadowPlay. Dat is dus echt pure voorkeur geworden. Ik begrijp daarom ook niet helemaal waarom AMD dan qua featureset achter zou liggen op nVidia, omdat beiden aparte features ook bieden, die de een wel heeft en de ander niet (of vice versa).

En juist dat soort dingen maakt de keuze voor mij om te gaan upgraden heel erg lastig.

[Reactie gewijzigd door CH40S op 25 januari 2015 17:22]

Die levensduur staat toch onderbouwd met cijfers in mijn vorige post? De 4870's zijn hard gesneuveld. De 6870 is nog iets te jong. Die had zijn piek in november 2011. Dus dat is nog geen 3.5 jaar. Bij mij blijven die kaarten jaren lang rondzwerven in oude systemen :P.

Overigens begint het bij de 6870 ook wel uit te lopen. Mbv de tijdmachine. Dat was toen 2.26% voor de 6870 en 2.57% voor de GTX 560 bij de DX11 kaarten. Nu staat de 6870 op 0.93% en de GTX 560 op 1,33%. Maar dat verschil is te klein om conclusies uit te trekken. Kan ook zijn dat de verkoop van de 560 langer door liep. Dat kan je dan wel met de timemachine gaan uitvogelen maar dan ben je minstens 30 minuten bezig;). Nvidia heeft verder ook geen features die mij echt boeien.

Mbt de features: Bij zowel Nvidia als AMD staat en valt het met de support.Mantle is qua nuttigheid voor mij gelijk aan Physx; haast niets maakt er gebruik van. Battlefield 4 speel ik niet en in Civilization haal ik al de maximale framerate. Verder komt Windows 10 met DX12 wat min of meer hetzelfde doet; alleen dan voor al je (toekomstige) games. TrueAudio is hetzelfde verhaal maar dan nog minder nuttig en zit in nog minder games.

Maar het toevoegen van een hardwarmatige feature als een hardwarematige x264 encoder vindt ik als tech liefhebber (lees nerd :P) erg interessant. Stream je nooit en maak je geen filmpjes dan heb je er natuurlijk vrij weinig aan. Maar NVENC is meer dan een feature a la PhysX/TrueAudio/etc. Je krijgt een stukje extra rekenkracht.

Om even het geheugen op te frissen: http://nl.hardware.info/r...me-times-review-far-cry-3

De 6870 valt ook nog ruim onder de tijd dat AMD significant slechtere frametimes haalde (zie link GTX 660 vs 7870) en dus geen soepele spelervaring bood. Dus je had toen best wel mooie fps, maar je had vloeiender beeld gekregen met een gelijkwaardige Nvdia kaart. Dat is de "bombshell" waar techreport mee kwam. Achteraf praten is altijd makkelijk maar nu kunnen we vaststellen dat de 560 Ti (of een 460) de betere videokaart was. Het gaat immers altijd om de spelervaring.

Als je al die ervaringen van de laatste 10-15 jaar optelt dan kom je eigenlijk steeds bij Nvidia uit als "default" choice. Ik herinner me nog het beste de release van Battlefield 2; op de DVD stond de nieuwste Nvidia driver en een andere pc met een Radeon kaart moest 2 maanden wachten op een update en zat tot die tijd met rare zwarte vlakken. AMD (/Ati) is het zeker beter gaan doen, maar voor alles buiten performance komen ze bij mij uit een achterstandspositie.

[Reactie gewijzigd door sdk1985 op 25 januari 2015 18:44]

Mwa, ondanks deze betrekkelijk karige cijfers vind ik niet dat je kunt vaststellen dat de AMD kaarten last hebben van kortere levensduur. Misschien, héél misschien is de quality control bij Nvidia een procentpunt beter te noemen, maar dan heb je het wel gehad hoor. Het is echt heel lastig vast te stellen of en in hoeverre dit ook aan AMD of Nvidia ligt. De AIB partners hebben er namelijk een handje van om lekker te besparen waar het kan of te stechelen met benchmarks (MSI met de Power Edition 660 ti?, EVGA met heatpipes GTX 970 die niet aansluiten, en dat is alleen nog Kepler en Maxwell...).

Verder laat je qua 'extra rekenkracht' de GPGPU/compute kracht van de AMD kaarten lekker links liggen, maar noem je wel hardwarematige x264 rekenkracht. Dubieus.

Nvidia is zeker niet de default choice - Nvidia zet zijn producten gewoon een stuk beter in de markt en ze zijn pas de laatste paar jaar kritisch gaan kijken naar de 'added services' - dus software. We weten allemaal dat AMD bijzonder slecht is in promotie en marketing, na al die jaren weten ze nog steeds niet beter dan er wat gratis games bij te gooien, iets wat GPU bouwers al sinds mensenheugenis doen. Mantle was een fiasco en is voor AMD wel een hele dure manier geweest om Dx12 te pushen. TrueAudio hoor je idd niemand over en is ook niet over te brengen in reclame, audio fabels hebben we onderhand wel een beetje gezien (dat is iets van 10 jaar geleden).

Ik ben het niet volledig met je oneens, maar stellen dat er in de hardware zelf een kwaliteitsverschil zit is veel te kort door de bocht. Ik zou eerder zeggen dat de AIB partners steken laten vallen en dat gebeurt in beide kampen, we hebben ook R9's gezien met niet aansluitende heatpipes bijvoorbeeld. Nvidia loopt alleen maar écht voor op de software kant dankzij Shadowplay en driver features en de time-to-market voor updates. Hardwarematig ben je nog altijd beter af bij AMD, die biedt meer 'metal' voor je geld, wat zich helaas niet altijd uit in betere, maar wel gelijkwaardige prestaties.

Momenteel heeft AMD ook op elk prijspunt van midrange tot sub-high end gewoon de beste papieren met (nog steeds) de R9 280x en de R9 290, met nu als saillant detail dat de R9 290 wél 100% functioneel VRAM heeft :) Dat ze daar bijna geen marge meer op hebben is natuurlijk het probleem van AMD, maar dat Nvidia dan de 'default' choice moet zijn vind ik een bizarre stelling.

[Reactie gewijzigd door Vayra op 26 januari 2015 11:55]

maar dat Nvidia dan de 'default' choice moet zijn vind ik een bizarre stelling.
Alleen het frametime verhaal lijkt me daar voldoende reden toe. Het hele prijs prestatie verhaal van de laatste 10 jaar leek volkomen triviaal te zijn omdat het op fps was gebaseerd. Als je voor hetzelfde bedrag gemiddeld 2 frames meer haalt maar 50ms inlevert dan heeft het geen nut.

Het levensduur verhaal is natuurlijk lastig hard te maken en is heel specifiek.

Echter ook het partner verhaal is iets van de laatste jaren. Vroeger was (vrijwel) elke videokaart vrijwel identiek en was het alleen de sticker die anders was. Daaronder valt ook nog de aangehaalde 4870 vs gtx 260 vergelijking.

Met al die custom pcb kaarten van "nu" gaat het natuurlijk wel steeds meer vertroebelen. Ik deed dan ook geen toekomst voorspelling. Ik baseer mijn alternatieve default choice op basis van het verleden.

Dat veleden noem ik de hoge uitval van de 4870 reeks, de gebrekkige driver ontwikkeling van de eerste 10 jaar van Radeon, beperkte budget dat beschikbaar is voor game developpers en het uitblijven van echt nuttige features. Over Nvidia is ook weleens wat te klagen geweest maar van Geforce 2 MX400 tot nu was het eigenlijk uitsluitend minder "gezeik".

Dus als je een default choice moet aanwijzen (waarbij ik dus niet beweer dat dat verstandig is, je kunt beter altijd je research doen) dan kom ik echt niet op de keuze van _Dune_ uit.
Dat ze daar bijna geen marge meer op hebben is natuurlijk het probleem van AMD
Vervelend genoeg heeft AMD nooit een acceptabele marge gedraaid met de aangekochte gpu divisie. Alleen toen ze een aantal kwartalen de royalties van de simi-custom erbij hebben geplakt zagen de cijfers er goed uit. De operationele marge (dus niet eens netto) bedraagt sinds de aankoop vrijwel uitsluitend enkele procenten.

Dat is in de eerste plaats een probleem voor AMD. Echter na de overname van Ati steeg het R&D budget van 1.2 miljard (2006) naar 1.8 miljard (2007). Daar is tegenwoordig vrij weinig meer van over. In 2011 1.2 miljard, 2012 1.4 miljard en 2013 1.5 miljard. Met inflatie correctie had het gecombineerde budget nu op 2.1 miljard moeten liggen. Grof gezegd is het huidige R&D budget dus 600 miljoen te laag. Daar komt dan nog bij dat ook onder andere semi-customs nog uit dat potje betaald moeten worden.

Uiteindelijk kan het haast niet anders dat AMD de Radeon kaarten in een neerwaarts spiraal laat komen. Dat is slecht nieuws voor iedereen die een goede videokaart wil uitzoeken.

Met Southern Islands heeft AMD voor het "eerst" een keer een verstandige beslissing genomen. Ze hadden de prijs/prestatie iets laten afnemen. Waarom verstanding? Omdat in de annual reports van de 5 jaar voorafgaand ELKE keer werd vermeld dat de sales werden beperkt door productie capaciteit. Als je dus hetzelfde aantal producten voor een iets hogere prijs verkoop dan ben je gewoon slim bezig. De nieuwe lineup van Nvidia lijkt echter roet in het eten te gooien.

[Reactie gewijzigd door sdk1985 op 26 januari 2015 16:27]

Optie 3 mag wettelijk gezien helemaal niet, gebruikers hebben betaald voor 4GB dus dienen deze ook te kunnen gebruiken.

nvidia is nu de partij die moet zorgen dat gebruiker krijgen waarvoor ze betaald hebben. Hopende voor nvidia kunnen ze het met optie 1 (bios update) oplossen maar ik ben haast bang dat het optie 2 gaat worden en heel veel mensen vanwege de tijd dat het gaat duren nog steeds ontevreden zullen zijn.

Het kan nvidia heel veel geld gaan kosten dit grapje.
Optie 3 mag wettelijk gezien helemaal niet, gebruikers hebben betaald voor 4GB dus dienen deze ook te kunnen gebruiken.
Is dit wel zo? Als ik namelijk een laptop koop met 8gb geheugen en geen dedicated gpu, dan reserveert 't systeem toch ook een pool voor de vram van de iGPU. Stel dit is 1.5gb, dan kan ik toch ook nooit meer dan 6,5gb aanspreken als werkgeheugen?
@Mozy: En toch krijg je waar je als consument voor betaald, met zo'n laptop. Dat de kennis niet ver genoeg gaat bij de consument om het onderscheid te kunnen maken tussen dedicated en shared memory, is niet de fabrikant aan te rekenen.

Wat een fabrikant wel aan te rekenen is: een product verkopen als X en dan leveren als X-1. Of die -1 nu bewust os onbewust is toegevoegd is of niet, dat is het probleem van de fabrikant. In dit geval verkopen ze als 4GB en leveren ze slechts 3.5GB welke bruikbaar is. Alles wat je daarboven gebruikt zorgt voor een ondermaats product.

Of dit ook zal leiden tot inruilacties valt nog te bezien, maar de consumenten die tegen dit probleem aanlopen (waaronder ikzelf) zullen niet tevreden zijn over het product dat is aangeschaft. Dit is reputatieschade welke niet in geld is uit te drukken voor een onderneming als NVIDIA. Ik ken genoeg mensen die nooit meer een ATI kopen door slechte ervaringen, andersom kan dus ook best eens gebeuren bij een kaart van dik 300 euro.

[Reactie gewijzigd door Pdvdp81 op 25 januari 2015 14:32]

Ik vraag me af hoe opte 2 dan uit zou pakken.

bv als je na aanschaf van je 970 gelijk een waterblok op gezet hebt of een andere koeler. Zelf heb ik de zegeltjes goed kunnen loshalen en heb deze ook bewaard.
Echter zijn er mensen die dit niet gedaan hebben.

Nu is er door deze "fout" vanuit Nvidia iets niet goed.
Gewoon garantie? krijg ik een andere met ref pcb terug?
Anders past het blok niet meer en moet ik 100,- neerleggen voor een andere.

Los van dit vind ik dat er van een mug een olifant gemaakt wordt.
Natuurlijk hoort de voledige 4GB gewoon te werken, daar betaal je ook voor.
Maar ik durf te wedden dat er maar een handje vol mensen hier uberhaupt last van hebben.
Nu dit naar buiten komt heeft opeens de halve planeet er last van.
" ja maar over een paar jaar, bladie bla " pff een echte gamer heeft over een paar jaar gewoon weer een andere graka om van de volle glorie van de toekomstige games te kunnen genieten.


Zelf ben ik op 1440P nog nergens tegen problemen aan gelopen.
Als Nvidia bv een game voucher geeft voor een game die je zelf mag kiezen, dan zijn de meeste gebruikers weer happy.
Als ze dat implementeren in de vorm van een tooltje waar mee ik met een bijvoorbeeld toetscombi dat aan of uit kan zetten als ik er last van zou hebben, dan zou ik dat gebruiken.
Nou lekker zeg..
Net een week geleden een systeem gebouwd met een EVGA GTX 970 SC..
er waren al veel klachten op andere websites te vinden van andere gebruikers.
hopelijk met een driver update te fixen, voor de gedupeerden.
Het is hoogstwaarschijnlijk niet te fixen. Het komt doordat er bij de GTX970 SM's zijn uitgeschakeld en bij de GTX980 niet.
Waarschijnlijk zal je alleen in extreme gevallen er last van hebben (dit zal meer voorkomen in SLI met hoge instellingen omdat je dan eerder de volle 4gb gaat aanspreken).

Reactie van Nvidia:
The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section. When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments.
http://www.pcper.com/news...GTX-970-35GB-Memory-Issue

Ben het niet helemaal eens met Nvidia's manier van testen en vergelijken in dat artikel omdat je juist stutteringen niet gaat zien in een average framerate.... Juist bij situaties waar je haast al je geheugen hebt gealloceerd en je je snel omdraait in een spel; dan zal je stutteringen merken.

http://www.reddit.com/r/p...emoryvram_allocation_bug/
Once more than 3.5GB gets allocated, there is a huge frametime spike. The same scene can be tested to get reproducible results. In 4k, memory usage stays below 3.5GB and there is no extreme spike. But in 5k (4x DSR with 1440p), at the same scene, there is a huge fps drop once the game wants to allocate 2-300MB at once and burst the 3.5GB. It happens in the tutorial mission when encountering the tennis field. With older driver (344.11 instead of 347.09), memory usage is lower, but you can enable MSAA to get high VRAM usage and thus be able to reproduce by 100%.
Feitelijk verkopen ze dus een kaart met maar 3,5GB bruikbaar geheugen maar verkopen ze het als een 4GB kaart (omdat die 512 extra mb's er wel opgeplakt zijn maar feitelijk dus niet bruikbaar)? Daarnaast gaan er ook al verhalen in de rondte dat de geheugenbus geen 256bits is zoals nvidia beweert in zijn specs.

Gelukkig hebben we hier in Nederland gewoon garantie en mag je de kaart terug geven aan nvidia en een volledig goed werkende terug verwachten. Gewoon 10x je kaart terug sturen en dan krijg je vanzelf een GTX980 terug omdat ze de problemen niet kunnen fixen en je voorgelogen hebben.
Een kleine correctie, de winkel is in nederland verplicht garantie te geven. Dus je moet je kaart 10x terugsturen naar de winkel. Die mag het uitzoeken met Nvidia.
Tip van iemand die daar ervaring mee heeft: gaat niet werken. Je krijgt wel steeds een nieuwe kaart maar die zal gewoon altijd hetzelfde defect hebben. Ik heb dat met een HD 7950 gedaan (letterlijk meer dan 10x teruggestuurd); die dingen fikten zichzelf na enkele weken/maanden steeds op door iets raars met de koeling.

Resultaat: de kaart doet het niet, je bent hem bijna altijd kwijt en er komt geen oplossing. Je blijft hem gewoon vrolijk terugsturen tot het einde van de garantie periode en dat was het.

Dus het beste is om nooit zo'n kaart te kopen. Verder heel heel erg goed de forums lezen op internet over de kaarten: er zijn wel meer modellen/fabrikanten die het lef hebben gewoon niet (goed) werkende kaarten te leveren die niet aan de specs voldoen.
Als jij een aantal keer een defecte kaart krijgt (zelfde model) kun je gebruik maken van je consumentenrecht. De winkel heeft je een goed werkende oplossing te verkopen, dat hebben ze in dat geval niet gedaan dus heb jij recht op een goed werkende oplossing (e.g. een andere kaart)
Klopt, maar hoe regel je dat in de praktijk? Jij wilt gebruik maken van de consumentenrecht, winkel zegt "nee, niet van toepassing" en dan? Dagvaarden en voor de rechter laten komen? Voor een videokaart?

Zeker in dit soort gevallen is dat denk ik erg lastig: de videokaart doet het in principe (in het begin) als je hem niet te zwaar belast. De winkel kan heel makkelijk zeggen dat er niets mis mee is en je moet dan aan de rechter gaan bewijzen dat dat wel zo is. Lijkt me een heel ingewikkelde (dure) zaak?

[Reactie gewijzigd door GeoBeo op 25 januari 2015 17:53]

Als de winkel zegt "nee, niet van toepassing" zijn ze verkeerd bezig. Gwoon vragen waarom je recht als consument opeens niet meer van toepassing is
Dan zeggen ze "omdat hij het gewoon doet".

Het hele conflict draait om het feit dat de winkel zegt dat hij het doet en jij zegt dat hij het niet doet. Daar kom je nooit uit zonder rechter in te schakelen en er een zaak van te maken lijkt me.

Ik in elk geval niet. Het is me zowel gebeurd bij een videokaart die steeds stuk ging als ook een laptop die uitviel als hij te warm werd (bij gamen na een half uur ongeveer). Allebij letterlijk 10x teruggestuurd, nooit een goede oplossing voor gekomen...
Dan weet ik niet waar je koopt of hoe je je gedraagt maar ik heb eigelijk nooit problemen met mijn rechten als consument in een winkel. Ik ga terug, geef aan wat het probleem is en dat ik al meerdere keren een vervanging heb gehad. Meestal krijg je dan een manager te spreken, daar geef ik aan wat er gebeurt is en dat ik het jammer vind dat het zo loopt. De manager is het met me eens en geeft me het bedrag terug, een waardebon of ik mag een vervangend product uitzoeken.
Ik zou daar dus geen garantie op geven aangezien na 10x " een defecte kaart" Deze mogelijk niet defect hoeft te zijn maar probleem mogelijk ergens anders aan ligt.

Dus voor garantie full blown diagnose van de kaart in de betreffende PC zelf.
Wat is er aan de hand? En dat niet na de 10de maar na de derde al.
Na iig contact met de leverancier of er iets van bekend is van massala defect. Vooral als er 100den verkocht zijn waar er maar enkele terug gekomen zijn.

Maar ja ik werk niet in een computer zaak.
Daar heb je weinig over te beslissen. De wet is nou eenmaal de wet, zo zit het consumentenrecht in elkaar, als winkeleigenaar heb je daar weinig aan te doen.
dat klopt maar jij hebt dat product uitgepakt en gemonteerd,

1: Hoe bewijs je dat het geen end user montage fout is?

en 2: Volgensmij als jij een product uit de verpakking haalt EN het daarna gaat gebruiken kun je het niet meer terug sturen als 14 dagen web winkel recht of bedenktijd. Dat geld alleen als je het product uitgepakt EN NIET gebruikt hebt.

Of heb ik het nu mis ?
1) NIet. Maar dat hoef je ook niet te bewijzen. Laat de verkopende partij dat maar doen.

2) Dan zou je nergens garantie op hebben
Retourrecht en garantie zijn ook niet hetzelfde.
Het retourrecht volgens de Wet Koop op Afstand dient ertoe consumenten hetzelfde te laten uitproberen als in een gewone winkel; bijvoorbeeld het passen van kleding of het bekijken van de doos. Daar valt dus niet het dragen van die kleding naar een feestje onder en het daarna retourneren, of het uitproberen van software.
Dat doet niets af aan je garantie...
DE KAART IS NIET DEFECT

De kaart heeft alles wat het op de doos heeft staan: 4 GB VRAM. Dat 0,5 GB in enkele gevallen voor een lagere prestatie zorgt kan wel zo zijn maar maakt het niet tot een defect product. Een defect product doet het niet. Dit product geeft een iets lagere prestatie, of beter gezegd, een minder 'stabiele' prestatie bij gebruik van meer dan 3.5GB.

Als dit een reden zou zijn voor aanspraak op garantie dan had AMD ook al zijn kaarten retour moeten nemen de afgelopen generatie toen er microstutter optrad. Ik heb het ze niet zien doen. Het probleem is 100% gelijk, alleen de oorzaak is anders. En bij hen speelde het probleem ook nog eens bij gebruik van 1 of 2 GB...

Laat ik even disclaimen: dat ik dit schrijf betekent niet dat ik het een handige of correcte zet vind van Nvidia. Maar de realiteit is wel dat je hier echt geen 'beter werkend' product voor gaat terugkrijgen, bespaar je de moeite.

[Reactie gewijzigd door Vayra op 26 januari 2015 12:06]

Dat zeg ik ook niet geloof ik. Ze verkopen je een kaart die niet doet wat aangeboden word. Ook iets waar je gewoon een nieuwe voor kan aanvragen dan, eentje die wel doet wat hij belooft.
De kaart doet ook gewoon wat aangeboden wordt: games afspelen.

Zoals ook door anderen aangekaart: er zijn talloze andere voorbeelden van componenten die in bepaalde situaties een andere prestatie laten zien. HDD platters bijvoorbeeld. Maar zie je al die webwinkels massaal HDD's vervangen om die reden?

Bovendien zal elke vervangende kaart exact hetzelfde gedrag vertonen. Als jij denkt dat je ooit een GTX 980 gaat krijgen ter vervanging van een 970... droom rustig verder :)

Trouwens, je zegt wel dat ie defect zou zijn:
Als jij een aantal keer een defecte kaart krijgt (zelfde model) kun je gebruik maken van je consumentenrecht. De winkel heeft je een goed werkende oplossing te verkopen, dat hebben ze in dat geval niet gedaan dus heb jij recht op een goed werkende oplossing (e.g. een andere kaart)

[Reactie gewijzigd door Vayra op 26 januari 2015 12:38]

hmm, ja oke. Lees eens goed wat ik zei dan. "Als je een defecte kaart krijgt" is volgens mij wel duidelijk, niet?

En als jij meerdere malen een product krijgt wat defect is (laten we even uitgaan van iets anders dan een videokaart voor het gemak, ok?) dan heeft de winkel je een product te leveren wat wél werkt. Ze hebben je immers verkeerd geïnformeerd.
Heb je ook iets verder omhoog gelezen waarop je reageert dan? Want anders ben je compleet offtopic bezig en snapt logischerwijs niemand wat van je stelling. Het gaat hier over de GTX 970 die een lagere prestatie levert bij gebruik 4GB VRAM, niet over een of ander 'random' defect product.

Wat er in het wetboek en consumentenrecht an sich staat is wel bekend lijkt me...
je hebt levenslang garantie is nederland (levensduur product). En als het stuk blijft gaan, kun je gewoon de koop ontbinden en je geld terugkrijgen.
Wat kan ik nu als consument zijnde gaan doen? Ik ervaar dit probleem namelijk.. Heb de kaart bij Alternate gekocht, moet ik de kaart als defect opgeven?

Je ziet niks aan de kaart dat die defect is of gebogen is, ze gaan hem testen.. En zij sturen het weer naar je toe met als bericht " we hebben niks kunnen vinden " wat voor recht heb ik dan?

Je zegt " net zolang opsturen totdat je een nieuwe kaart krijgt " is dat écht zo? Graag jou mening/ervaring hierover... Vind dit echt niet toff. Heb altijd gezworen bij Nvidia, maar dat dit nu gebeurd vind ik écht niet toff.

Als gebruiker ben ik " genaaid " om de term 4gb vRam " wat eigenlijk 3,5g vRam moet zijn.

[Reactie gewijzigd door aygul12345 op 25 januari 2015 10:30]

De kaart is vals geadverteerd met 4GB bruikbaar grafisch werkgeheugen. Nu is gebleken dat de laatste 500MB niet bruikbaar zijn binnen de specificaties die nVidia heeft gegeven, dus heeft nVidia een gebrekkig product geleverd. Probeer de winkel aan te laten tonen dat de laatste 500MB wel goed werkt: dit kunnen ze niet, dus de test zal falen. Als ze dit niet hebben getest heeft de winkel een gebrekkige onvolledige test afgelegd.
Nou ik denk niet dat er 4GB bruikbaar geheugen op de box staat.
Maar 4GB GDDR5 ram.
Als interpreter baar als zijnde fysiek aanwezig.

Als voldoet het aan wat gemiddelde consumer van het product kan verwachten?

Denk dat 500MB te technish gedetaileerd is om sterk te staan.

Maar je kan altijd proberen. Rechter ziet het mischien anders
Sorry hoor, maar als er op een auto staat dat het een 6 cylinder is, en er zitten 4 cylinders in de motor en 2 remcylinders dan is dat ook misleidend.
4gb op de doos = 4gb bruikbaar.

[Reactie gewijzigd door trogdor op 25 januari 2015 21:48]

en die 4GB wordt toch ook gebruikt, 3,5 GB als fast mem en 0.5 GB als low prio mem zoals Nvidea aangeeft.

Het is net een harde schijf de eerst x GB is dan ook slow mem en hoe verder naar buiten je gaat hoe sneller het wordt.

Probleem is meer dat jij als consument niet meer weet wat de gevolgen zijn van de technische implementaties.

Als er nu een GTX980 uitkomt met 8GB PLAM geheugen op 16 GHZ. Wat voldoet aan de 8GB en 16 GHZ maar in de praktijk zorgt voor 100x trager dan GDDR. ga je dan ook klagen of heb je dan als consument slecht onderzoek gedaan naar wat een kaart kon en verwachte je iets anders.

Het grote probleem hier is dat er geen standaard is in computer land. er zijn eigelijk op de doos moeten staan scoort 15000 3dmark punten met hardware combinatie X.
Het grote probleem hier is dat er geen standaard is in computer land. er zijn eigelijk op de doos moeten staan scoort 15000 3dmark punten met hardware combinatie X.
Zelfs dát zou niet volstaan. Want deze kaart scoort gewoon zijn punten in 3DM omdat daar niet zoveel VRAM wordt benut.

Ook goed onderzoek volstaat hier niet; je kan niet verwachten dat een consument elke aankoop technisch gaat doorlichten, dat valt niet onder die noemer.

Ik denk dat er geen andere oplossing is als slikken en doorgaan, tenzij hier een grote groep consumenten zich verenigt en samen een zaak aanspant. Met de winkelier kan je het in elk geval wel shaken, die heeft namelijk gewoon geen oplossing voor je.

[Reactie gewijzigd door Vayra op 26 januari 2015 12:10]

ga je dan ook klagen of heb je dan als consument slecht onderzoek gedaan naar wat een kaart kon en verwachte je iets anders.

Wat een kromme vergelijking...
1: complete geheugen is hetzelfde, bij hogere werklading gaat je kaart niet ineens minder presteren.
2: Er staat dan op de doos PLAM geheugen en niet GDDR dus dan weet je vantevoren dat dat anders is.
3: Als je deze kaart gekocht hebt dan had je ook met normaal vooronderzoek nog niet geweten dat de kaart dit probleem heeft.

Dus om je vraag te beantwoorden:
Ja, als je die PLAM kaart koopt dan heb je niet genoeg onderzoek gedaan, maar nogmaals, probleem met deze kaart wist je niet wat van af aangezien het nu pas aan het licht is gekomen.

Als je NU de kaart gaat kopen dan kun je zeggen, je had het kunnen weten!

Maargoed, moreel gezien zit nVidia alsnog fout met de kaart. Als je een videokaart van ze koopt mag je verwachten dat hij werkt zoals de andere kaarten. Er zijn ondertussen wel meer dan honderd (honderden?) type kaarten uitgekomen van nVidia en dit is de eerste kaart die dit euvel heeft. In al die jaren en al die types hebben we dit niet eerder gehad. Dan mag je dat wel even melden als fabrikant.

Ik drink wel eens warme melk met anijs erin van de Ruijter. Die hadden al jaren lang blokjes en een jaar geleden kwamen ze ineens aan met "handige" zakjes. Dat hebben ze duidelijk aangegeven op de verpakking. Als dat er niet op stond had ik het terug gebracht, want die zakjes zijn in 1 maat, maar mijn glas niet. Inhoudelijk is het hetzelfde product als ik van de Ruijter gewend ben, maar andere techniek. Prestaties van het product is ook minder geworden omdat 1 zakje niet genoeg is en 2 zakjes veel te veel is.
Ik denk niet dat dat in dit geval op gaat. Het is gewoon works as designed en geen bug. De kaart heeft 4GB geheugen en het geheugen werkt ook allemaal en is te benaderen. De performance zakt alleen wel in als je dat gaat aanspreken.

Maar het is wel een lelijke manier. Ik zou ook liever zien dat ze de kaart als 3,5GB kaart zouden verkopen en die laatste 512mb gewoon uit zetten. Dit geeft alleen maar issues. Vind het niet echt fraai van nVidia.
Draai dit nou eens om. Wat nou als ze een kaart verkocht hadden met "4GB geheugen" waarvan 512MB 'high priority' geheugen was wat gebruikt wordt als vram, en 3,5GB 'low priority' geheugen was wat gebruikt werd voor memory link training, waar RSpliet 't over had in zijn reactie. Is 't dan nog steeds 'works as designed'?
Ja. Is het slim? Nee.
Is het handig voor de eindgebruiker? Nee.

Voordeel daar van zou zijn dat het in review wel zichtbaar wordt. 3,5 gb wordt niet snel gebruikt dus helaas Is het bij de reviews niet naar boven gekomen en hebben sommige eindgebruikers er nu last van.

Ik ben het er ook niet mee eens begrijp me niet verkeerd. Maar dit Is Wel iets anders dan een bug nvidia heeft het in dit geval zo ontworpen. Maar ik vind het een slecht ontwerp.
Welke specificatie is volgens jouw dan niet waar, ?

er zit 4GB vram in -> check
bus is 256 bit -> check
snelheid van het memory is ??mhz -> check

Breng jij je Harddisk ook terug omdat er aan de binnenkant van de platter maar 20MB/s gehaald wordt en aan de buitenkant 130MB/s ?

Breng jij je Hyperthreadded I7 ook terug omdat hyperthreading voor een performance degradatie kan zorgen terwel er staat dat het een verbetering is ?? En dat er ook nog eens maar de helft van het cache gealloceerd word aan 1 processor.??

Breng jij je CAT5e kabels ook terug omdat ze maar 900Mb halen ipv 1 Gb ??
Ik denk niet dat daar sprake van is... NVIDIA heeft gekozen voor een partitie van 0,5GB met lagere prioriteit... omdat er op je videokaart ook dingen gebeuren met lagere prioriteit. Voorbeeldje zo uit m'n hoofd is memory link training, waarvoor een klein stukje geheugen nodig is. Dat geheugen hoeft geen prioriteit te krijgen op de memory bus, en als deze partitionering wel het gevolg heeft dat die eerste 3,5GB sneller wordt (en daarme al die situaties waarbij je aan 3,5GB genoeg hebt) dan spreek je van een ontwerpkeuze, geen bug. Plus het is nog steeds sneller dan GART, en die laatste 0,5GB is ook nog eens (deels) gebruikt als je games minder dan 3,5GB aan RAM behoeven; niet voor textures en framebuffers maar voor "het OS"... dus je krijgt waar je voor betaalt.

[Reactie gewijzigd door RSpliet op 25 januari 2015 10:28]

Alleen lijkt het mij dat de kaart werkt zoals ze ontworpen is. Dat dit performantieproblemen met zich meebrengt is dan ook geen defect. Jij kan proberen garantie te claimen, maar ze gaan dit niet aanvaarden. Met veel geluk, en als de aankoop recent is, wil de handelaar de kaart misschien nog terug innemen tegen een vergoeding.
Dit is dus ook de oplossing, een firmware of driver die slechts 3.5 gb toestaat zodat je er geen last van hebt.
Het zou een 208 bit kaart zou zijn ipv de 256 beloofde geheugen breedte.
Benchmarks blijken weinig verschil te geven, maar naar mijn inziens heb je dan een 3+ Gb ram, en geen 4.
Nee een 224bit kaart ( (3.5/4)*256), maar dat terzijde, dat is het probleem niet. Het is een 256bit bus bestaande uit 4 64bit controllers dus het probleem zit hem waarschijnlijk niet in de geheugen controller. Immers elke controller heeft 1 gbyte vram dus 3.5 duidt meer op een probleem veroorzaakt door de smm die is "afgesneden". Misschien dat een deel van de data lijnen naar de controller niet goed is.

Maar nvidia kan dit beter een 3.5gb kaart noemen.

[Reactie gewijzigd door Thekilldevilhil op 25 januari 2015 09:33]

Is dit niet een soort gelijk probleem zoals dat met werkgeheugen op 32 bits of 64 bits systemen?
Op 32 bits kon windows ook niet de volledige 4 gig aan.
Nee, dat is een heel ander probleem. Maar nvidia heeft het probleem al bevestigd en het ligt aan de intra chip crossbars, de traces tussen de smm's dus.
In theorie zou je het wel kunnen verhelpen door die laatste 500 MB niet bruikbaar te maken in de driver of firmware. Ik denk nu dat voor de engine of directX/openGL er geen verschil is tussen de laatste 500 MB en rest van het geheugen terwijl textures die naar dat geheugen worden geschreven zeer veel vertraging hebben.

Ik denk dat ze er gewoon voor gaan zorgen dat die 500 MB niet wordt gebruikt of een andere manier verzinnen om er voor te zorgen dat dit geheugen minder snel wordt aangesproken.
Heb nu al verschillende reakties van nvidia gehoort, welke is nu de juiste? nvidia zecht op guru3d dat het een driver bug is, andere volgens nvdia weer dat weer andere nvidia knakepoetser zecht weer wat anders.


Oftewel is gewoon niet zeker wat het probleem is.
Nvidia legt uit en zegt dat het meevalt en kwam met 3 benches:
The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section. When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments.

We understand there have been some questions about how the GTX 970 will perform when it accesses the 0.5GB memory segment. The best way to test that is to look at game performance. Compare a GTX 980 to a 970 on a game that uses less than 3.5GB. Then turn up the settings so the game needs more than 3.5GB and compare 980 and 970 performance again.

Here’s an example of some performance data:
GTX980 GTX970 Shadows of Mordor
<3.5GB setting = 2688x1512 Very High 72fps 60fps
>3.5GB setting = 3456x1944 55fps (-24%) 45fps (-25%)

Battlefield 4
<3.5GB setting = 3840x2160 2xMSAA 36fps 30fps
>3.5GB setting = 3840x2160 135% res 19fps (-47%) 15fps (-50%)

Call of Duty: Advanced Warfare
<3.5GB setting = 3840x2160 FSMAA T2x, Supersampling off 82fps 71fps
>3.5GB setting = 3840x2160 FSMAA T2x, Supersampling on 48fps (-41%) 40fps (-44%)

On GTX 980, Shadows of Mordor drops about 24% on GTX 980 and 25% on GTX 970, a 1% difference. On Battlefield 4, the drop is 47% on GTX 980 and 50% on GTX 970, a 3% difference. On CoD: AW, the drop is 41% on GTX 980 and 44% on GTX 970, a 3% difference. As you can see, there is very little change in the performance of the GTX 970 relative to GTX 980 on these games when it is using the 0.5GB segment.
Volgens Nvidia scheelt het slechts een paar procent ten opzichtte van de GTX980.

[Reactie gewijzigd door sdk1985 op 25 januari 2015 15:10]

Ik heb een GTX980 met hetzelfde resultaat. Verklaar dat maar eens.
Dat je de test verkeerd hebt gedaan? Waarschijnlijk is 500 MB videogeheugen in het gebruik door je OS.
Waarom jij op -1 stond is me een raadsel want 99,9% zeker dat dat het geval is... Hier zijn al meer mensen ingetrapt.
Ik denk dat dit niet te fixen is, wat ze wel kunnen aanbieden is dat elke winkel nu gedwongen 970 moet terugvragen en een korting moet aanbieden voor een nieuwe series 970 die nVidia zal moeten maken (ALs zij dat zien zitten) of game+Korting op de 980 die het wel probleemloos doet zodra hij over de 3.51gb springt.
Korting? Dat moet dan wel een hele hoge korting zijn...aangezien ze gewoon een product blijken te leveren dat niet naar behoren werkt.
Het probleem is dat ze niet iets hebben verkocht dat niet werkt of niet heeft wat ze hebben gezegt. Er zit 4GB op, het enige probleem is dat je extreem goede prestaties heb bij alleen die eerste 3.5GB, ze hebben namelijke nergens gezegd dat de hele 4GB dergelijk hoge prestaties heeft. Ik ben bang dat je als consument hier ook aan het kortste eindje trekt, als er al iets uit Nvidia komt voor dit issue dan zal het puur goodwill zijn en geen plicht. Zelfde zal gelden voor de winkeliers.

Als ik de reacties zo lees van Nvidia zien zij dit niet als probleem en werkt de kaart zoals ontworpen.
Als Nvidia zichzelf wil omleggen moeten ze absoluut dat soort retoriek gaan toepassen ja....
Als dat het antwoord gaat zijn op een glashard defect op een kaart van ruim 330 euro ga ik nooit geen hardware meer van ze kopen.
Met die instelling schiet je alleen jezelf in je voet. Wat we eigenlijk willen is dat de videokaart dus die laatste 0.5GB niet gebruikt. Dat zou toch wel te patchen moeten zijn...

Edit:
Sorry, maar de laatste ATI kaart die ik kocht was een ATi Radeon 9700 Pro en daarna altijd een Nvidia gekocht. Bij ATI/AMD nog steeds niets voorbij zien komen wat mij van gedachten heeft veranderd (en ik krijg toch wel wat ATI/AMD in handen) en dat doet die GTX 970 ook niet van gedachten te veranderen.

[Reactie gewijzigd door Cergorach op 25 januari 2015 14:15]

Hoe kom je tot die slotsom? AMD ATI is ook nog altijd een competente speler op de videokaartmarkt hoor.
En als je niet gamed heb je geen van beide nodig.

Nividia moet het probleem oplossen, niet geheugen wegpatchen.
Liever 500mb wegpatchen dan niets doen.
Ik heb mensen hetzelfde horen zeggen na de debacles met de 8000 serie van nvidia: "Nooit meer kaarten van nvidia!". Een paar maanden later en wat blijkt? Nvidia draait nog steeds goed, en mensen kopen gewoon nvidia kaarten.

Een glas, een plas en alles bleef zoals het was.
Dat is inderdaad een probleem...ik hoop voor degene die een 970 hebben dat nvidia met een gepaste oplossing komt. Zo niet...hebben ze in mijn ogen iig een enorme deuk in hun reputatie gekregen.
Bovendien gaat Nvidia never nooit niet een 970 ruilen voor een 980, een kaart die bijna 200+ euro (dus 64%) duurder is. Een nieuwe productie run schat ik veel groter.
Ik had het niet over de korting op de 980...maar over die op de 970. Sorry, mijn fout. Korting op een 980 zie ik idd niet zo snel gebeuren. Ik zou sws niet met een korting akkoord gaan maar eisen dat ze het probleem oplossen. Al dan niet in de vorm van een nieuwe productie run.
Aha, ik zal al te twijfelen. Korting op de 970 zou kunnen. Maar tot hoever moeten ze dan wel niet gaan? Ik zou, net zoals jij aangeeft, eigenlijk pas akkoord gaan als t ding doet wat ie moet doen. Korting is dus eigenlijk geen optie, een nieuwe productie run zou zelfs voor een bedrijf als nvidia behoorlijk killing zijn op de jaarcijfers. Helemaal nu de 970's de afgelopen periode bekend stonden als zeer goede bang-for-buck top of the line gpu's. Ik denk dat ze er aardig wat van verkocht hebben.
Pfieuw, als dat het zou zijn. Zou ik super blij zijn!
Ik heb veel reviews gelezen op Tweakers van zowel de redactie als van Tweakers. Daar heb ik niks over gelezen.
Heb zelf momenteel ook last van dit, zodra er 3,5g gebruikt wordt van de vram lopen de prestaties dramatisch terug..

Doet dit Nvidia bewust, om goedkoper Vram te gebruiken?
Het scheelt wel dat ik alleen op 1080p game. FarCry 4: 30-70 fps (met alles op allerhoogst). Zal dat ook door die prestatieproblemen komen? Of is dat normaal?
Gooi je er dan niet gewoon belachelijk hoge MSAA en supersampling tegen aan om meer dan 3.5 GB te gebruiken? Dat zou dan immers ook je verminderde prestaties verklaren ;)
Wat voor games speel jij waarbij jij meer dan 3.5 GB gebruikt?
Ik zie tevens video's voorbij komen in het nvidia forum die het tegendeel bewijzen en zonder problemen 4 GB gebruiken op een 970.

[Reactie gewijzigd door unfor op 25 januari 2015 02:32]

Nee, helemaal niet zelfs.. Het hele rare is dat ik het zelfs uit heb staan om meer fps te krijgen, dat lukt, maar zodra ik er 2x aanzet heb ik op een of andere manier meer fps dan als ik het uit heb (ookal is het maar 8/9 fps verschil, maar toch).

Heb mijn kaart bij Alternate gekocht, hoogwaarschijnlijk van de eerste batch.

Wat kan ik nu als consument zijnde gaan doen? Als ik het opstuur en zij gaan het bekijken, zien ze geen afwijking op de hardware ( niks is kapot, maar dat die lage fps haalt op 3,5ghz dat is raar)

Graag jullie mening.
Eerst maar eens even afwachten of het probleem niet te verhelpen is, en anders garantie claimen.
In welke situaties gebeurt dit; hoe weet je dat er meer dan 3,5GB vram gebruikt wordt?
Je zou dit kunnen checken met een monitor programa a la MSI afterburner. Soms heb je in spellen zelf een overlay die dit laat zien meestal te benaderen via de console. De commando's vind je meestal via google
Het is altijd beter om even te wachten als er iets nieuws op de markt komt om te bezien of er problemen mee zijn of dat nu een nieuw gelanceerde videokaart is of een auto maakt in principe niet uit,
Als een videokaart al 4 maanden uit is, slaat deze opmerking natuurlijk nergens op.

September 2014

http://en.wikipedia.org/wiki/GeForce_900_series

[Reactie gewijzigd door editoor op 25 januari 2015 05:56]

Juist wel, dan kopen de gebruikers die kaart en komen er allerlei problemen naar voren die bij Nvidia nog net naar voren zijn gekomen blijkbaar, dus wacht gewoon ff af en koop dan pas die kaart
Vraag me wel af hoe je weet of je 3,5 gig gebruikt
Dus jij zegt dat iedereen maar minimaal een half jaar moet wachten en dan een kaart van een oude generatie moet kopen? (om de 6 maanden is er zeker weer een nieuwe serie uit!)

Fabrikanten moeten hun producten gewoon beter testen voordat ze het uitbrengen, maar het kapitalisme is het dak uit geschoten en testen kost geld dus doen ze dat niet meer. Het is blijkbaar goedkoper om defecte exemplaren te vervangen achteraf. Vroeger maakte ze producten die het zo lang mogelijk moesten blijven doen, tegenwoordig maakt men producten die het moeten blijven doen totdat de gemiddelde gebruikerstijd is verstreken.
Dat NVidia en de fabrikanten het probleem niet gevonden hadden is misschien 1 ding, maar de GTX970 en GTX980 is echt door elke hardware site (inclusief Tweakers) getest en *NIEMAND* van de professionele testers heeft dit probleem gevonden..

Blijkbaar betreft het dus lang niet alle kaarten. Mogelijk dat NVidia meerdere productie lijnen heeft en dat een van de lijnen misschien later gedurende de massa productie een probleem heeft gekregen waardoor een component niet goed op de kaart wordt geprikt.

Wat je natuurlijk wel vaak ziet bij reviewers is dat ze bijvoorbeeld een game op 1080 en daarna op 4K testen (en dus ook veel sneller over de 3,5GB zullen gaan) en daarna concluderen dat de kaart niet 'geschikt' is voor 4K gaming. Ik vraag mij af hoeveel reviewers daarna op 4K de settings hebben verlaagd om te kijken bij elke settings 4K goed speelbaar is..

Maar het is erg gemakkelijk om te zeggen dat NVidia beter moet testen als ook jouw favoriete tech website de fout ook niet gevonden heeft..
Blijkbaar betreft het dus lang niet alle kaarten.
Dat is wel een hele vreemde conclusie. Het probleem is niet gevonden omdat je niet zo gauw meer dan 3.5 GB videogeheugen gebruikt. Meestal zit je daar ruim onder. En indien je wel boven de 3.5 GB uitkomt zakt de prestatie enkele procenten in, dat signaleer je ook niet zo gauw.

De GTX 970 is gewoon een goed werkend product...
Dat zegt editoor toch ook, als je hem vorige week kocht en nu leest over de problemen heb je al sinds september gewacht .

Nog veel langer wachten en er is al weer een nieuwe serie.
Ja, dat denk ik nog steeds. Ernstige fabrieksfouten worden in de eerste weken van de release al opgemerkt. Hier gaat het niet om een fabrieksfout, maar om een videokaart met verkeerde specificaties. Daarom is jou opmerking nog steeds onzinnig. 1 maand wachten na de release is meer dan voldoende.
Gezien ervaringen in het verleden en opgelopen schade hierdoor kijk ik altijd even eerst de kat uit de boom alvorens ik besluit te kopen omdat nieuwer zoals de ervaring geleerd heeft niet altijd beter betekent.
Tevens is het wel degelijk een fabrieksfout de fabriek heeft immers de specificaties niet nageleefd zoals nu inmiddels duidelijk is.
Hij is al 4 maanden uit. Als ik nog langer zou wachten, dan is er al weer een nieuwe videokaart..
Wat misschien niet eens zo'n slecht idee is...
Ja maar dan kan je net zo goed zeggen: ik wacht 10 jaar. Dan blijf je uitstellen en wachten. Dan kan ik wachten tot ik een ons weeg.
Nvidia komt meestal in het voorjaar met nieuwe kaarten.
Let me guess, de 960 brengen ze in het voorjaar uit..?
Dan zullen ze waarschijnlijk wel weer met een 960ti en ti boost komen :+ .

En dit dan? Deze moeten nog uitkomen: nieuws: Driver-update verraadt onaangekondigde grafische kaarten Nvidia

[Reactie gewijzigd door AnonymousWP op 26 januari 2015 10:27]

Bah, mobile kaarten... :-/
Dat veranderd niks over dat ze misschien in het voorjaar uitkomen hè ;)
Inderdaad.
Niet het afwachten waard, maar inderdaad, een lente release.
Ik heb evengoed mijn GTX970 bestelling on-hold gezet tot dit issue duidelijk is.
Het trieste is dat geen enkele zich zogenaamd respecterende hardware test site hier ook maar iets over schreef.Terwijl deze kaart toch al een tijdje uit is.
AnandTech heeft wel anomalieën gemeld met de GTX 970 die ze ontvangen hadden.
Hoe zit dit dan met de gtx970m en 980m die in de mxm vorm 6 en 8gb ram hebben en soldered 4 en 6gb. Is dit probleem daar ook aanwezig?

Lijkt me nog wat hinderlijker als je een 8gb kaart hebt die maar 3.5 kan gebruiken
Als ik de berichten hieronder lees zou het te maken moeten hebben met de uitgeschakelde SM's van de kaart. Dus ik denk dat als je een 8GB kaart zo kopen dat je dan gewoon het dubbele aantal geheugen per SM krijgt. Theoretisch zou dat betekenen dat je dan maar 7 van de 8GB kan gebruiken.
Het is vrij lastig te spotten, aangezien alle kaarten onder normale omstandigheden inkakken als de vram bijna vol zit.
Er is door NVidia ondertussen al een statement gegeven met figuren die aantonen dat het normaal is, waardoor het komt etc.

http://www.pcper.com/news...GTX-970-35GB-Memory-Issue
Dit is anders niet op de NVidia website, dus echt een statement van NVidia wil ik het niet noemen.
Helemaal correct, ik heb het probleem namelijk nauwlettend gevolgd (o.a. op het forum van Nvidia zelf), en de genoemde website noemt geen bron.

Verder hebben enkele gebruikers contact gezocht met Nvidia support en daar wordt dus ook aangegeven dat ze op de hoogte zijn van het probleem, er aan werken maar nog niet weten waardoor het komt.

Verder moet men nogal wat moeite doen om die 0,5GB aan te spreken. In mijn geval bleef het VRAM gebruik op ~3,55GB steken bij Shadows of Modor + texture pack, terwijl een GTX 980 met dezelfde settings al meteen 4GB alloceert in het main menu.

Edit: Nu wordt dezelfde reactie dus wel gegeven op het forum zoals vermeld @ PCPER

https://forums.geforce.co...-970-3-5gb-vram-issue/47/

[Reactie gewijzigd door David Regeling op 25 januari 2015 08:39]

Ja heel normaal dat ze adverteren en specificeren dat er 4GB geheugen op zit waarvoor een bepaalde geheugenbandbreedte wordt gespecificeerd. Dus nu blijkt dat de specificaties niet blijken te kloppen. Voor een geheugenblok van 500mb kan de gespecificeerde geheugenbandbreedte niet gerealiseerd worden.
De titel van het nieuwtje kan dus aangepast worden? Blijkbaar niet dus.

[Reactie gewijzigd door Cpimp op 25 januari 2015 09:03]

Heb je dit met Nai's benchmark vastgesteld? Die benchmark moet headless gedraaid worden, anders zorgt het feit dat je windows desktop ook een paar honderd MB aan VRAM reserveert er voor dat de laatste paar chunks in die benchmark overflowen over de PCI-e bus naar je systeemgeheugen.
Dit probleem heb ik nu ook, dacht dat het aan mij setup lag, blijkbaar dus niet.

Denk dat dit geen software matig gefixt kan worden. Nvidia was hier op de hoogte? Deden ze dit expres om de kosten uit te drukken? Deden ze dit expres zodat zij weten " er wordt toch niet 3g vram gebruikt door de gebruikers.. Laten we gewoon goedkope vram instoppen?
"

Ik weethet niet...
Nu ben ik erg benieuwd bij welke resolutie(s) dit probleem optreedt.
Het probleem is dus afhankelijk van het gebruikte geheugen en niet zozeer de resolutie. Uiteraard geld wel dat een hogere resolutie meer geheugen gebuikt.

[Reactie gewijzigd door Deem op 25 januari 2015 10:01]

Hopelijk dat dit op te lossen valt door firmware aan te passen. Als het een hardware probleem is dan wordt het vrij lastig.
Vond het al apart dat je met een SLI opstelling niet alle games op 4k redelijk kon draaien. Nu zal menige game daar nog niet voor geoptimaliseerd zijn maar als de GPUs dan ook nog tegenwerken wordt het vrij lastig om normale FPS te halen.
Zal wel een bios update worden uitgerold om het probleem op te lossen, want terug gaan naar oudere drivers scheen niet te werken
Denk eerder dat het hardware iseu is. Oftewel nieuwe gpu/ nieuwe batch maby? Zal beter zijn mag ik hopen.
Een BIOS update/firwmare update kan ook. Gewoon die kaart laten rapporteren dat er maar max 3 GB inzit, klaar.
Gewoon die kaart laten rapporteren dat er maar max 3 GB inzit, klaar.
Het probleem betreft slechts de laatste 500 MB geheugen niet de laatste 1000 MB zoals jij beweert. De eerste 3.5 GB is bij iedereen bliksemsnel. Als je bij het testen vindt dat de grens bij 3 GB ligt dan is er 500 MB videogeheugen in gebruik door het OS.
Ik heb zojuist ook een benchmark gedraaid om te kijken of mijn 2 970's van msi hier ook last van hebben maar het lijken andere blocks te betreffen dan ik op sommige sites voorbij zie komen.
Verklaart wellicht waarom het op de 4K monitor om de 5 sec hapert en op de fullHD tv niet.


Ik heb alternate een email gestuurd met wat mijn opties zijn, dus ik ben benieuwd naar hun reactie omtrend omruilen, reparatie, of vergoeding.

[Reactie gewijzigd door Jeweettoch13 op 25 januari 2015 13:43]

Zeer benieuwd wat hun reactie is, Hij zal sowieso RMA gestuurd moeten worden en dan hopen dat ze hem doorsturen naar MSI en die met een mooie oplossing komt.
Ik heb de Asus 970 Strix in combinatie met 2560 x 1440px resolutie met een refreshrate van 100 Hz. Toen ik nog Shadow of Mordor speelde haalde ik wel eens de 3,9 GB Vram maar had echt totaal geen last van performance problemen.

Ik vind het wel vreemd dat dit nu pas bekend is; de kaart is toch al wat maanden verkrijgbaar! Ik zal morgen eens wat Vram intensieve games proberen te testen :)

Maar tot nu toe gelukkig geen last van gehad nog!
Hoe kan je zien hoeveel vram een game gebruikt? Heb zelf de gtx 770 4gb maar ben nu wel benieuwd.
Ik gebruik hiervoor MSI Afterburner; dit programma laat ongelofelijk veel leuke settings zien :)

http://event.msi.com/vga/afterburner/download.htm
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True