Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 213 reacties

Nvidia claimt dat er maar iets meer terugloop is in prestaties als de GTX 970 veel geheugen gebruikt ten opzichte van de GTX 980. Gebruikers hadden geklaagd over de terugval in prestaties als de videokaart tegen zijn limiet van 4GB aan komt.

Volgens cijfers die Nvidia zelf noemt, en die Anandtech heeft gepubliceerd, is de terugval in prestaties als de GTX 970 meer dan 3,5GB gebruikt iets hoger dan bij de GTX 980, maar is het verschil klein. Zo valt de framerate volgens Nvidia zelf in Battlefield 4, met hogere settings waardoor beide videokaarten tegen de limiet van 4GB aanzitten, 50 procent terug bij de GTX 970 en 47 procent bij de GTX 980. "Zoals je kunt zien, is er weinig verschil in de prestaties van de GTX 970 als je het vergelijkt met de 980", aldus het bedrijf.

Het vram van de 970 is opgedeeld in segmenten van 3,5GB en 0,5GB. De 970 gebruikt die laatste 0,5GB alleen als het nodig is, omdat het de prestaties hindert. Gebruikers hadden daarover geklaagd, maar volgens de fabrikant is er dus niet echt een groot probleem. Anandtech merkt op dat Nvidia in feite weinig uitlegt over het probleem zelf en verwacht nog een volgend statement van Nvidia over dit issue.

Moderatie-faq Wijzig weergave

Reacties (213)

1 2 3 ... 6
Jammer nVidia. nVidia heeft precies getest op datgene dat het minst wordt benvloed. De gemiddelde framerate blijft inderdaad redelijk stabiel. Het is de frametime en de stutter die bij de laatste gebruikte 500MB swap naar voren komen. Dit zorgt voor een nog slechtere ervaring dan een constante ietwat lagere framerate. Ze geven het wel toe, maar ze verdoezelen het echte probleem, dat de videokaart gewoon niet is gemaakt voor 4GB VRAM gebruik.

Is dit een probleem? Bij 1080p op de meeste spellen niet. Echter is dit een kaart van 300 die mensen voor 1440p en hoger willen gebruiken, of mensen zijn van plan spellen op Ultra/Max te gaan spelen. Het VRAM gebruik zal wel degelijk oplopen naar >3.5GB en dan presteert de kaart niet meer.

Deze post kan het technisch wat duidelijker uitleggen: http://www.overclock.net/...m-issue/650#post_23458748
Ik ben nogal geschokt.
Het vram van de 970 is opgedeeld in segmenten van 3,5GB en 0,5GB. De 970 gebruikt die laatste 0,5GB alleen als het nodig is, omdat het de prestaties hindert.
Als ik het goed begrijp zit er dus een snellere hoeveelheid VRAM op de kaart, en een tragere. Als dit klopt is dit regelrechte vervalsing van de specificaties: dit is een beetje alsof je een PC met 8GB RAM verkoopt, maar in werkelijkheid zit er 6GB in, plus nog kleine 2GB SSD die als swap gebruikt wordt.
Het geheugen is dezelfde voor de volledige 4GB.

Het probleem is als volgende: Om het geheugen te accessen heeft men de toegang tot dit geheugen geprogrammeerd in de chips.

Bij de 980 is de chip 100% intact en kan deze de volledige 4GB accessen tegen de geadverteerde snelheid.

Het probleem dat ontstaat bij de 970 is dat men een deel van de chip uitgeschakeld heeft voor zo een "tragere" versie te maken van de 980 wat ze kunnen goedkoper verkopen ( maar natuurlijk trager is ). Jammer genoeg door het uitschakelen van een deel van de chip verliest men de directe geheugen toegang tot een deel van het geheugen, namelijk de 0.5GB. Om die 0.5GB te accessen gebruikt men dus een indirecte methode.

Je kan het vergelijken dat het geheugen naar de 3.5GB hardware matig geaccessed word en de 0.5GB software matig. Je ziet dat met veel programma's wanneer men rechtstreeks hardware access heeft dat dit enorm veel sneller is maar als men dat niet kan, dat de software matige enorm traag is.

Dat is het simpelste dat ik het kan uitleggen.

-------------------------------

De reden waarom Nvidia hun cijfers vals spelen zijn is omdat men de gemiddelde cijfers genomen heeft voor aan te tonen, dat dit geen invloed heeft op de games.

Waar mensen blijkbaar over klagen is dat er lag spikes voordoen zodra men boven de 3.5GB gaat. Wat logisch is...

Je kan 3.5GB bliksemsnel accessen maar die 0.5GB is traag. Als er bijvoorbeeld textures in je geheugen zitten ... je hardware kent geen verschil. Geheugen is geheugen. Terwijl je zit te spelen laad het 90% van de textures op vanuit je 3.5GB, en dat gaat lekker snel. Maar zodra het die textures moet accessen in de 0.5GB ... is zoals een verkeersopstopping. Voor een microsecond is er veeeeel trager toegang tot deze texture. Maar omdat games niet geprogrammeerd zijn om te kunnen omgaan met dit probleem ( voor de game is all het geheugen identiek snel ), dan zal bepaalde code achter het ophalen van die texture ook vertraagt worden, tot de texture opgeladen / gebruikt is.

M.a.w, je zal meer lag spikes zien in je FPS. En mensen dat gevoelig daarvoor zijn, zullen deze micro lag zien gebeuren tijdens het gamen.

Nvidia hun claim van... Zie er is niet veel verschil is gewoon een valse voorstelling van de feiten. Die paar procent trager effect op de 970 tegenover de 980, is veroorzaakt door die lag. Maar hun cijfers tonen dat niet. Al wat je ziet is dat de 970 iets trager is, en wij als domme mensen gaan er dan vanuit dat het "gemiddelde" trager is.

Dom voorbeeld:

980 970
-----------
100 100
100 100
100 100
100 100
100 100
100 100
100 100
100 050
100 100
100 100
-----------
100 95

Als je kijkt naar de volgende tabel bovenaan. Als iemand je zegt dat de GTX 980 een score heeft van 100 gemiddeld, en de GTX 970 een score van 95 gemiddeld... dan denk je dat de GTX 970 tien maal 95 gehaald heeft. M.a.w, een constante framerate dat je geen verschil opmerkt. Maar in realiteit geeft die "50" in het midden van je gameplay je een visueel delay / verandering op je scherm terwijl je speelt. Dat merk je wel op. Gemiddeld is de 95 van de GT X970 een paar procent trager dan de 100 van de GTX 980 en lijkt dat geen probleem. Maar zoals je nu ziet is dat wel een probleem.

Dat is wat Nvidia nu zit vals te spelen met hun cijfers. Door het gemiddelde aan te tonen zit men eigenlijk het wol over de mensen hun ogen te trekken. Men zet het probleem terug bij de eindgebruiker.

Nvidia: Die "lag" spikes dat je kan zien bij 3.5GB+ ... dat komt niet uit onze hardware want zie onze gemiddelde score.

Een beetje zoals een politieker dat cijfers verduisterd. Men toont je cijfers maar men toont je niet hoe men tot deze cijfers kwam. Waardoor men de cijfers kan misbruiken.

-------------------

Het probleem dat ik zie met de 4GB naar de toekomst, is dat

a) game developers moeten rekening houden dat de 970 dit probleem heeft ( m.a.w ofwel een limiet inbouwen in hun games dat geheugen gebruik beperkt tot die 3.5GB ). Want welke game developer heeft graag dat mensen zouden klagen over hun game, dat het niet "smooth" is omdat ze de volle 4GB gebruiken.

b) Zoals we nu al zien zijn er meer en meer games dat al volop hoge eisen stellen voor het geheugen gebruik ( vooral de console ports ). Bij de console ports doen ze nu al weinig moeite om te optimaliseren voor de PC. Denk je dat men echt rekening zal houden met n grafische kaart? Nee ...

Komt er op neer, dat je eigenlijk ofwel 3.5GB gebruikt van de GTX 970 indien mogelijk, ofwel de volle 4GB maar dat je dan mag verwachten aan spikes.

Het zal me niet verbazen dat we van Nvidia in de toekomst een driver zullen zien dat rekening zal houden met dit probleem en om het op te lossen zal proberen niet de volle 4GB te gebruiken. Dat zal dan weggeschreven worden in de changelog als "probleem in x game opgelost bij hoog geheugen gebruik".
Want welke game developer heeft graag dat mensen zouden klagen over hun game, dat het niet "smooth" is omdat ze de volle 4GB gebruiken.

Denk je? Met alle bagger ports van afgelopen jaar heb ik daar een hard hoofd in. Far Cry 4 wil niet draaien op dual-core processors (met het argument dat die te sloom zijn |:( ), maar ondertussen is de PC port hoogstens 'redelijk' te noemen wat betreft optimalisatie. Pure hypocrisie. De AAA game industrie lijkt meer en meer money grabbing.
De AAA game industrie is meer en meer money grabbing.
Fixed that for you.
Ik zit nog in de ontkenningsfase :P
Er zitten heel veel aannames in je post waarvan nog maar de vraag is of dit zo werkt.
Neen: zo is het niet. Alle RAM-chips op de kaart zijn gelijk.

Ik vermoed dat het om een vorm van paging gaat zoals dat ook gebruikt wordt/werd op 32-bit CPU's om meer dan 4 GB te kunnen aanspreken. Ook dat is trager dan het aanspreken van RAM binnen de normale adressenruimte. Die techniek wordt/werd daarom enkel toegepast wanneer het ontbreken van de extra RAM een grotere negatief effect had dan het performance-verlies bij paging.

Paging bij CPU's vereist bovendien ondersteuning van software. Ik vermoed dat dat vergelijkbaar zal zijn bij deze gpu's en dat dat deels verklaart waarom de performance lager uitvalt...
Als een fabrikant 4GB op de doos schrijft zonder verdere uitleg, dan mag je ook verwachten dat hij als 4GB werkt, zonder verdere poespas. Dat is de zogenaamde verwachtingswaarde en daar moet een product aan voldoen.

Je mag van een TV ook verwachten dat de 25% van de pixels die rechtsboven in het beeld staan ook net zo helder zijn als de andere, ondanks dat de fabrikant dat niet specifiek op de doos zet.

Ergo, misleiding, niet voldoen aan de verwachtingswaarde dus ontbinding van verkoop.
Je vergelijking gaat niet helemaal op.

Bij lcd tv's kan bleeding ontstaan. Zo kunnen bepaalde delen (soms 40% van het beeldscherm) veel lichter zijn (bij donkere beelden/zwart) dan andere. Dit wordt ook niet in een disclaimer gezet voor zover ik weet.

Dat RAM minder presteert vanwege het vollopen ervan, is niet zozeer misleiding. Het is zaak dat NVidia dit f software matig oplost, f hardware terughaalt wanneer het om een hw matige fout gaat. Wanneer de kaarten presteren zoals NVidia bedoeld heeft, is er geen actie vereist.
Ik kan natuurlijk ook klagen dat ik wil dat de onderste helft van mijn zak patat ook gaar is. Het ging er om dat de fabrikant een verwachtingswaarde schept en dat je dat krijgt.
Wanneer de kaarten presteren zoals NVidia bedoeld heeft, is er geen actie vereist.
Ja hier klemt de schoen dus; de kaarten moeten dus niet presteren zoals nVidia bedoelt heeft, maar zoals nVidia doet voorkomen dat ze werken. Als nVidia niets zegt (tijdens verkoop) over stotteringen als geheugengebruik >3.5 GB is, dan mag je verwachten dat dat ook niet zo is. Dat moet opgelost worden (financieel, of technisch).
Bij lcd tv's kan bleeding ontstaan. Zo kunnen bepaalde delen (soms 40% van het beeldscherm) veel lichter zijn (bij donkere beelden/zwart) dan andere. Dit wordt ook niet in een disclaimer gezet voor zover ik weet.
Nee, en als je daarover klaagt, zal men zeggen dat het een "producteigenschap" is. Niets aan te doen dus.
Zelfde zal hier het geval zijn.
Exact wat nvidia nu dus claimt (op dit moment welteverstaan).

Ze zeggen dat de kaarten normaal functioneren en presteren. Of de test die ze gebruiken ook het daadwerkelijke probleem toont, is een tweede.
Maar goed, hoe is dat verschillend van een SSD kopen van 120GB en vervolgens daadwerkelijk maar 110 kunnen aanspreken? En dit komt enkel en alleen doordat zij delen door 1000 ipv 1024. Dat accepteren we ook allemaal maar.

[Reactie gewijzigd door ItsNotRudy op 27 januari 2015 12:48]

Ja, daar is zelfs een wijziging in de eenheden voor bedacht (vroegah, was een MB-megabyte 1024x124 bytes, tegenwoordig is dat 10^6 bytes en heet 1024^2 een MiB).
Probleem met nVidia is dat ze het niet gecommuniceerd hebben maar hebben stilgehouden.
1) Lees de post op OC.net. Er is een hardwarematig verschil tussen de 3,5GB en de 0,5GB.

2) paging is net wat ik in mijn vergelijking beschrijf
1) Lees de post op OC.net. Er is een hardwarematig verschil tussen de 3,5GB en de 0,5GB.
Klopt niet: als je de kaart aandachtig bekijkt, dan beschikt die over een enkel type RAM chips voor de totale hoeveelheid van 4GB.
De kaart lijkt ook in staat om die volle 4 GB (op die RAM chips) te kunnen gebruiken, alleen gebeurt het aanroepen van de laatste 0,5 GB op een andere (minder performante) manier dan de eerste 3,5 GB.

Op zich is hier niet meteen iets abnormaals aan. Het is natuurlijk wel van belang dat je in real-world scenario's (t.t.z. de use cases waarvoor de kaart bedoeld is) de, redelijkerwijs, te verwachten performance kunt halen. De testen die het problemen aantonen, zijn synthetische tests (althans de tests die ik gezien heb). Synthetische tests zijn interessant om technische karakteristieken te onderzoeken, maar correleren lang niet altijd met real-world scenario's.
2) paging is net wat ik in mijn vergelijking beschrijf
Ik had het over paging binnen het RAM (dus zonder gebruik te maken van secondary storage). Op x86 processoren werd dat ondersteund via Physical Address Extension (PAE).

[Reactie gewijzigd door apa op 26 januari 2015 14:44]

Klopt niet: als je de kaart aandachtig bekijkt, dan beschikt die over een enkel type RAM chips voor de totale hoeveelheid van 4GB.
De kaart lijkt ook in staat om die volle 4 GB (op die RAM chips) te kunnen gebruiken, alleen gebeurt het aanroepen van de laatste 0,5 GB op een andere (minder performante) manier dan de eerste 3,5 GB.
Het gaat niet om het type ram chips, het gaat blijkbaar om de geheugenbus(als ik de posters om het Overclockers forum mag geloven tenminste). De 0.5 GB wordt aangesproken door een 64 bit geheugenbus, de 3.5 GB door een 192 bit bus. In totaal kom je dus aan een 256 bit geheugenbus. Als dit zo is heeft de 970 eigenlijk een 192 bit geheugenbus als er minder dan 3.5 GB vram gebruikt wordt. Afzetterij vind ik dat van nVidia en hier is zeker nog niet het laatste over gezegd.
De geheugenhardware is exact hetzelfde. Het gaat hier niet goed omdat Nvidia het geheugen virtueel in tweeen gehakt heeft, zoiets als partities op je harddisk. Dat op zich zou niets uit mogen maken, maar het blijkt nu dat het benutten van het tweede blok vram niet vanzelfsprekend gaat en er latency-snelheids issue's optreden.
Waarom moet je pers het product zelf hebben om geschokt te zijn? Kan je alleen geschokt zijn over ISIS onthoofdingen als je de slachtoffers persoonlijk kent? 8)7
Extreem voorbeeld, waar ik verder niet op in ga.

Het product zelf hebben is geen vereiste, maar gebruik maken van je inlevingsvermogen of ervaring/herinnering lijkt me een duidelijk begrijpbaar verschil.

Iets ondervinden of erbij betrokken zijn geeft een extra dimensie aan de gevoelens die je erbij ervaart. Ongeacht de belangrijkheid.
Ik heb een MSI GTX970 Gaming 4G, een paar weken geleden gekocht. Dus ja, ik ben geschokt dat er dergelijke mankementen aan mijn nieuwe, toch wel dure aankoop zijn. Ik kocht deze GPU met het oog op een duurzame kaart (ik update niet elke 2 jaar). Maar nu games meer VRAM gaan gebruiken, en de GTX970 helemaal blijkt in te zakken bij hoger geheugen gebruik, heb ik er veel twijfels bij mijn aankoop.

Maar goed, bedankt om meteen dingen over me aan te nemen. Dees.
Dat niet alleen, zijn opmerking over zeldzame probleem raakt ook kant nog wal. Men koopt namelijk ook niet een kaart met X GB geheugen erop om vervolgens dat niet volledig te gaan benutten...

Ik durf te wedden dat als jij een spel gaat spelen dat je ook je graphics opkrikt tot je kaart niet meer kan geven. Waarom een spel met high texture settings spelen als het ook up ultra kan
Helemaal waar. Ik heb deze GPU net gekocht met het idee dat 4GB geheugen wel een hele tijd mee kan, en ik een tweede GTX 970 kan kopen wanneer de GPU kracht wat tekort gaat schieten.

Maar als het geheugen niet ten volle kan worden benut, is dat wel een streep door mijn rekening.
Nvidia houdt zich gewoon netjes aan het script dat alle fabrikanten gebruiken in dit soor gevallen.

Klanten klachte, de eerste reactie is altijd nee het klopt niet, zie hier de reactie nu.

De volgende stap is, meer klanten gaan klagen en er komt meer media aandacht. De stap nu is we gaan kijken naar het probleem en gokje een nieuwe driver lost het probleem op.

Weer een stap verder lost ook dat het probleem niet op dat gaan ze nog verder kijken.
Pas als er heel veel negatieve reacties zullen ze echt iets gaan doen.

Bovenstaande zie je keer op keer terug bij problemen. Apple is er een mooi voorbeeld, van. Eerst kop in het zand, dan beetje wakker worden en vooruit antenne probleem je krijg gratis een telefooncondoom.
nVidia doet het hierbij relatief goed. Ze hebben al direct aangegeven dat de videokaart gewoon niet is gemaakt om meer dan 3.5GB VRAM te gebruiken, en als het zover komt, dat de bandbreedte van het geheugen compleet verdwijnt. Ze schuiven alleen de resultaten en het praktische effect opzij. Ook is op te maken dat dit puur op hardware-niveau is, daardoor is dit onmogelijk weg te krijgen met een driver update. De driver doet al zijn best om alles onder die 3.5GB te proppen, maar als die grens eenmaal wordt overschreden, vallen de geheugen prestaties geheel. Wat ze kunnen doen is de kaart flashen naar 3.5GB bruikbaar geheugen, maar dat zou marketingwijs een slechte zaak zijn.

Het wordt interessant om nVidia hier te volgen met de keuzes die ze gaan maken om dit weer recht te krijgen.
Laak ik gewoon eens een domme consument zijn:

http://www.geforce.com/ha...ce-gtx-970/specifications

Daar lees ik bij de specificaties:
Standard Memory Config: 4GB

Ze geven dus duidelijk 4GB aan, er is geen sprake van 3,5 gb.
Als domme consument zeg ik dan ik heb betaald voor 4 GB ram krijg nu ineens iets te horen over 3,5 GB. Over die 3,5 gb kan ik nergens iets lezen. Als consument zou ik me bekocht voelen.
En de kaart heeft ook netjes 4GB bruikbaar geheugen...
Die laatste 512MB zijn niet benaderbaar met 224GB/seconde, terwijl dat wel de opgegeven specificaties zijn.

[Reactie gewijzigd door db87 op 26 januari 2015 12:32]

Klopt maar je mag dan ook verwachten dat de prestaties hetzelfde blijven tot 4gb geheugen. Nu worden ze dus schijnbaar vanaf 3,5 gb een stuk minder.

Op zich geen probleem als er een disclaimer gebruikt zou worden en dit duidelijk naar de klant gecommuniceerd wordt, hetgeen nu schijnbaar niet het geval is.
Als jij een SDD koopt dan weet je als domme consument ook niet dat er standaard een aantal gigs af gaat voor...wat...intern gebruik...weet ik veel...ik ben maar een domme consument.

Heb nog nooit een HD gehad die precies de volle 100% kon aanspreken.

Een ouderwets fotorolletje, zelfde zaak. Daar zat altijd nog een beetje extra op dat ik niet kon gebruiken. Alleen viel dat meestal in je voordeel uit. En dan is het natuurlijk geen probleem hahahaha.

Ja zo zijn we.

Op een pak suiker staat ook zo'n dikke E van netto.

[Reactie gewijzigd door Vendar op 26 januari 2015 11:53]

Inderdaad een SSD wordt erg traag als hij bijna vol is. Dat zou dan ook een defect zijn. Het is gewoon een design beslissing van nVidia. En wat er staat klopt.

Het is geen mooi ontwerp en ik zou het zelf nooit kopen nu ik dit weet maar ik vind dit niet anders dan met SSD's. Bij videokaarten is het alleen minder gebruikelijk dat de prestaties achteruit gaan. In het verleden hadden ze gewoon minder geheugen.

Nu is de vraag: wat had een 3,5GB kaart qua prestaties neer gezet zodra die 3,5 vol was en de overige 400 mb ergens anders heen moeten? wat voor een performance drop heb je dan? Ik vermoed dat je dan nog wel eens slechtere prestaties zal hebben dan dat je met deze methode hebt.

Maar dit is iets wat AMD mooier gedaan heeft. Zo heeft elke architectuur voor en nadelen.
"Je voorbeeld van ssd is leuk, kijk op tweakers eens bij samsung, die verkopen geen 256 gb maar 250 gb, geen 128 gb maar 120 gb. Hoe zou dat nu komen, Samsung doet het netjes en dat hou je ook over, bij andere merken dus niet."

Complete onzin wat je hier roept, mijn Pricewatch: 250GB Samsung 840 Evo heeft in Device Manager slechts 232GB beschikbaar.
Of wat denk je van een enorm gemodde Skyrim, ik zou deze kaart daar anders serieus voor hebben overwogen :) Helaas kan ik net zo goed nu mijn HD7970 pakken.
Ik zat ook te denken aan deze kaart als upgrade, aangezien de R9 300 series nog wel even op zich zal laten wachten. Mijn Skyrim gebruikt ook lekker veel VRAM door al die 4096*4096 textures, dus het wordt waarschijnlijk wachten op de R9 390 of 380X.
Op welke resolutie speel je dan? Ik draai skyrim zonder issues op een GTX770 2GB met 92 mods.

Ontopic: Dit is een vreemde move van Nvidia, misschien moesten ze een deadline halen om de kaart te pushen en zijn de drivers nog niet 100%? Of is dit echt een hardwarematige issue, ik zie ook reageerders zeggen dat het de bandbreedte is die onvoldoende is.

Nouja, ik ga toch over een jaar a anderhalf jaar pas upgraden, laat ze nog maar even uitvogelen hoe ik star citizen straks op 4K kan draaien :Y)
De zwaar gemodde skyrim draait op een 970 helemaal fantastisch, wat een gezeurt, helemaal als je de kaart niet zelf hebt. Sfeermakerij..

99% van de mensen die hier reageren hebben niet eens een 970, en van de mensen die reageren en wel een 970 hebben, heeft 99% geen last van de stellibg die hier gepost wordt. Wat een storm in een glas water en wat zijn er hier op tweakers een hoop aanstellers zeg.
Dat jij dit zou accepteren moet je helemaal zelf weten, maar ga niet mensen aanvallen als ze hier wel (terecht) een probleem mee hebben

_eXistenZ_ geeft alleen een goed voorbeeld waar je tegen dit probleem kan oplopen.
De zwaar gemodde skyrim draait op een 970 helemaal fantastisch
Kan jij onmogelijk roepen, aangezien elke gemodde skyrim anders gemod is
wat jij zwaar gemod vind, vind iemand anders misschien light gemod

[Reactie gewijzigd door Sinester op 26 januari 2015 14:13]

Ook kan niemand direct de grafische kaart als schuldige aanwijzen, aangezien mods vaak ook met elkaar ruzie krijgen en de gekste problemen veroorzaken.
Dus omdat weinig mensen er last van hebben is het minder erg? Rare redenering. Veel mensen waaronder ik hadden tot voor kort vertrouwen in Nvidia en zouden zonder te twijfelen zo een nieuwe videokaart van ze kopen. Maar met dit soort misleiding en problemen heeft dat vertrouwen een flinke deuk opgelopen. Niks storm in glas water, dit is een serieus probleem wat heel simpel voorkomen had kunnen worden. Jammer dat je dat nu net niet snapt.
Ik heb een 970 en ik zou het niet eens kunnen zeggen als ik tegen dit probleem aanloop. Welke games hebben echt meer dan 3.5 GB nodig? Ik draai Elite:Dangerous op volle toeren.

Als Anandtech het zegt moet het echter wel zo zijn. Blijkbaar. Meten is weten. Of dit in de praktijk allemaal wat uitmaakt...ik denk dat er veel mensen zijn die zo veel snappen van de techniek dat ze wel problemen kunnen zien, omdat dit dan fout gaat en dat en dit beinvloed hier en daar en zus en zo en dat is allemaal prima, maar ik ben niet zo diep in videokaart techniek. Als ik plaatjes zie in vergelijking tussen een game shot met een of andere vorm van anti aliasing en een andere vorm, dan zie ik nooit het verschil.

Blur? Welke blur? Edges? Hmmm. Neep. En zie je de distortions daar end aar? Mmm. Nee. Ik denk dat 80% van de mensen helemaal nix gaat merken van deze ENORME fout.
@Millman, 155 pagina's alleen al over dit gevalletje Vram in een topic (er gaan meer topics over), op de Geforce site van Nvidia, De storm waait behoorlijk op Nvidia's virtuele adres }>

Kijk ma, 4GB == 3.5GB , raar maar waar :+
https://www.youtube.com/watch?v=wgRir5JwKyU

Oops, zijn dat glitches..omg, dat is errug; pannekoek!
https://www.youtube.com/watch?v=ZQE6p5r1tYE
(onder 3.5GB vs 4GB vram usage videocapture)

[Reactie gewijzigd door Madrox op 27 januari 2015 21:22]

Sfeermakerij, aanstellers, je weet hoe je moet discussiren inderdaad.

Ik betaal niet voor een kaart die niet doet waarvoor ik 'm het meest zou gebruiken, namelijk het geheugen stampvol rammen met hoge resolutie textures.

Was bijna over naar het groene team maar nu blijf ik weer onbeperkt in het rode kamp :*)
Precies, ik gebruik hem gewoon voor alleen 1080p, om alles op MAX settings te spelen. Ik ben zeer tevreden met mijn EVGA GTX 970 SC. Met Black Ops 2 gebruikt hij maar 1,5 - 2 gb VRAM. Met Far Cry 4 moet ik nog testen.

1 van de dingen waarom ik dus nog wacht met 1440p gaming of hoger (vanwege dit artikel)
Echter is dit een kaart van 300 die mensen voor 1440p en hoger willen gebruiken
Sorry maar als je enige verwachting hebt om fatsoenlijk op 1440p of hoger te gamen dat moet je niet met een videokaart van 300 euro aan komen. Dit is verre van mainstream gaming af en voor dat soort dingen zijn er de echte highend kaarten. Kost wat maar dan krijg je ook wat.

Wat uiteraard niet weg neemt dat het schandalig is van Nvidia dat de gehele 4gb niet goed gebruikt kan worden
Apart dat mijn benchmark weer heel wat anders laat zien, namelijk 896mb minder presterend vram.
Wat een rare dip tussen de 2560 en 2072MB. Had je de benchmark gedraaid met de kaart zelf of de IGP?
Heeft iemand misschien een benchmark gedraaid om te kijken naar framerates en frametimes boven de 3,5GB?
Op de kaart zelf maar ik ga de test nog een paar keer doen om te kijken of sli ook van invloed Is. Ik heb zowel de Samsung als de Hynix variant dus dan kan ik mooi een vergelijking maken.
Ben benieuw of er grote verschillen zitten tussen de Samsung en Hynix geheugenchips.
Omdat het veroorzaakt word door het "design" van de GPU verwacht ik haast kleine verschillen. Zat eerst ook te denken aan een SLI voor 4K, heb er nu nog een.
Duidelijk geval van een hoop videogeheugen in gebruik door het OS. Doe de benchmark fatsoenlijk met minder dan 100 MB VRAM in gebruik en je vindt deze resultaten niet.
je hebt gelijk, ik heb nu resultaten als alle andere 970's. Maar ik merk wel in sli dat ik al een geheugenblock minder heb dan in non sli.

Het probleem uit zich echter ook goed in AC Unity (settings maxed op 4K zonder AA) wanneer de volle 4gb aangesproken word (klik) en ook weer goed terug te zien is in een Fraps screenshot

[Reactie gewijzigd door Jeweettoch13 op 26 januari 2015 19:57]

Stamper op Hardwareinfo zegt het volgende:

Het is jammer om te lezen dat dit nieuws nog steeds gepropageerd wordt terwijl de jongens en meisjes van Guru3D.com hebben bewezen dat het hier NIET om een probleem met Nvidia gaat, maar het gevolg is dat het geheugen gewoon volloopt en systeem geheugen gebruikt moet worden.

CUDA gebruikt virtueel geheugen van grafisch en systeem geheugen. Dit houdt in dat wanneer het videokaart geheugen vol is, het systeem geheugen gebruikt wordt wat veel minder snel is. In sommige spellen zorgt dit voor microstutters terwijl in anderen de FPS dropt. Het ligt er maar net aan wat in het systeemgeheugen geplaatst wordt en hoe goed het spel geprogrammeert is. De kwaliteit van de meeste spellen van grote uitgevers zijn de laatste tijd ronduit... twijfelachtig

De tool die hier als bewijs wordt gebruikt is gemaakt door een programmeur onder de nick Nai. Hij is al naar voren gekomen dat zijn tool NIET gebruikt kan worden om het bewijs te leveren dat er blijkbaar een bug zit in de GTX 970. Zijn tool maakt gebruik van het CUDA virtueel geheugen en nadat de eerste partitie van het grafische geheugen vol is, wordt systeem geheugen gebruikt en gaan de prestatisch drastisch omlaag. Net als bij elke andere kaart. Zijn tool kan dus niet het verschil detecteren. Hij laat het door de gebruiker aangegeven geheugen gewoon vollopen.

Het enige is dat dit normaal gesproken bij 4gb hoort te gebeuren maar er wordt 0.5gb gereserveerd voor andere doeleinden lijkt. Ook lijkt het erop dat de bus niet zo groot is als Nvidia beweert.


Het volledige verhaal kan je nalezen op Guru3D: http://www.guru3d.com/new...ry-allocation-bug,56.html

Ze hebben vandaag onderzocht of ze het probleem reallife konde reproduceren maar komen tot de conclusie dat dat niet echt lukt:

On a generic notice, I've been using and comparing games with both a 970 and 980 today, and quite honestly I can not really reproduce stutters or weird issues other then the normal stuff once you run out of graphics memory. Once you run out of ~3.5 GB memory or on the ~4GB GTX 980 slowdowns or weird behavior can occur, but that goes with any graphics card that runs out of video memory. I've seen 4GB graphics usage with COD, 3.6 GB with Shadows of Mordor with wide varying settings, and simply can not reproduce significant enough anomalies. Once you really run out of graphics memory, perhaps flick down the AA mode a tiny bit from 8x to 4x or something.

I have to state this though, the primary 3.5 GB partition on the GTX 970 with a 500MB slow secondary partition is a big miss from Nvidia, but mostly for not honestly communicating this. The problem I find to be more of a marketing miss with a lot of aftermath due to not mentioning it.

Would Nvidia have disclosed the information alongside the launch, then you guys would/could have made a more informed decision. For most of you the primary 3.5 GB graphics memory will be more than plenty in 1920x1080 (Full HD) up-to 2560x1440 (WHQD).
.

[Reactie gewijzigd door Deem op 26 januari 2015 16:00]

Ehm, dat is gewoon niets meer dan "de banaan is niet krom maar recht" goedpraterij.
Verklaar dit eens nader dan:

Nvidia zegt:
The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section. When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments.

Maw: Nvidia heeft zelf voor deze "bottleneck" gekozen; bewust! Dan kan je dat helemaal negeren en het probleem bij de pcie-bus en systeem geheugen leggen; maar dat is "om de hete brij heen draaien".

Je kan het dus een design-keuze noemen, een feature of whatever. Feit is dat Nvidia hiervoor verantwoordelijk is en niemand anders, punt.

[Reactie gewijzigd door Madrox op 26 januari 2015 16:58]

De terugloop is dan wel weinig, maar het resulteert in een veel opvallendere "stutter"...
Nvidia heeft de klachten inderdaad verkeerd onderzocht of ze weten precies welke statistieken ze vrij moeten geven. Want het gaat hierbij niet over de gemiddelde prestaties van de GPU maar de grote hoeveelheid stutter die hierbij optreed doordat de GPU gegeven opslaat en leest vanaf het 0,5GB geheugen. Dit komt doordat deze 0,5GB een lagere bitrate heeft dan de rest van het geheugen. Hierdoor ontstaat hetzelfde gedrag als wanneer een GPU te weinig geheugen heeft voor een game en constant textures en shaders naar het RAM geheugen uitwisselt. Een ongelofelijke hoeveelheid stutter bij elke draai. Nvidia had deze GPU dus eigenlijk net zo goed kunnen publiceren met 3,5 GB geheugen. Dan wist de consument precies waar hij aan toe was. Nu kan ik eigenlijk alleen maar concluderen dat Nvidia de consument misleid heeft.

[Reactie gewijzigd door Wezelkrozum op 26 januari 2015 09:17]

Anandtech heeft het antwoord. Lees dit artikel maar eens en het zal je duidelijk worden.

http://www.anandtech.com/...ploring-memory-allocation

Het komt erop neer dat nVidia verkeerde specs vrijgegeven heeft voor de gtx 970. De kaart heeft geen 64 rop's maar 56 en geen 2048 KB L2 cache maar 1750 KB. Er is een rop/L2 unit in een rop/mc partitie uitgeschakeld. De marketingafdeling van nVidia zou niet op de hoogte geweest zijn van de mogelijkheid om de geheugenarchitectuur van Maxwell diepgaander aan te passen tov Kepler en dan maar dezelfde waarden als de GTX 980 opgegeven hebben voor rop en L2. Of we dit moeten geloven of niet is een tweede.

Het vram is opgedeeld in twee segmenten: een segment van 3.5 GB en een van 0.5 GB. De 3.5 GB heeft een bandbreedte van 196 GB/s(7 ghzx7 ports x32bit) en de laatste 0.5 GB een bandbreedte van 28 GB/s(7 ghzx1 port x32 bit). De laatste 512 MB is dus significant trager maar nog altijd twee maal rapper moest je deze 512 MB uitschakelen en je dan over de 3.5 GB vram gaat waardoor je je systeemgeheugen gaat aanspreken over de pci-e bus. 196 GB/s + 28 GB/s=224 GB/s bandbreedte wat nVidia ook opgeeft voor de GTX 970 maar.... die 3.5 GB en 0.5 GB vram kunnen niet tegelijk uitgelezen worden. De eerste 3.5 GB is prioritair tov de 0.5 gb en wordt altijd eerst gebruikt tot hij vol is. Gebruikt je game <3.5 GB vram heb je dus slechts een bandbreedte van 196 GB/s ipv de opgegeven 224 GB/s,gehruikt je game >3.5 gb dan wordt het tragere 512 MB + het 3.5 GB segment aangesproken. Als er gelezen moet worden uit het 512 MB segment wordt lezen van 3.5 GB segment geblokkeerd en vice versa, dat verlaagt de bandbreedte nog eens. De volledige 4 GB kan d s nooit tegelijk uitgelezen worden itt de GTX 980.

Negeer mijn posts d s maar waarin ik zeg dat het 0.5 GB segment via 64 bit geheugenbus en het 3.5 gb segment via 192 bit geheugenbus wordt aangesproken. Dit is niet correct. De geheugenbus is wel degelijk 256 bit, het is de onderliggende structuur die anders is. Dit was iets wat op het Overclockers.net forum werd gezegd.

[Reactie gewijzigd door Fredi op 27 januari 2015 06:22]

Nu komt de belangrijke vraag, kan ik geld terug gaan claimen?

Oftewel ik heb betaald voor de 4g vram. Niet voor de 3,5 vram.

Heb ik het recht om geld terug te krijgen?

[Reactie gewijzigd door aygul12345 op 26 januari 2015 12:28]

Feitelijk heb je ook 4GB gekregen, dat zit daadwerkelijk fysiek op de kaart, en is volledig te gebruiken, zij het met een impact op de performance. Je kunt dus niet claimen dat er maar 3.5GB beschikbaar is.
Je zult met andere argumenten moeten komen.

[Reactie gewijzigd door Zer0 op 26 januari 2015 12:39]

De kans om je geld terug te krijgen is gewoon 0...

Wat je kan doen is terug gaan naar de winkel en proberen je kaart in te ruilen. Sommige winkels zullen je kaart misschien terugnemen. Maar de meeste winkels zullen geen benul hebben wat dit probleem is en hoe het de game benvloed.

Maximaal kan je lastig doen over verkeerde marketing van hun product. Aangezien er geen enkel indicatie is op de doos, dat er problemen zijn bij hoger dan 3.5GB gebruik. Alles toont aan dat je de volledige 4GB kan gebruiken tegen de volle snelheid.

Maar zoals het verleden aangetoond heeft met andere producten, is de kans om echt iets te doen ertegen weinig. Men gaat geen recall doen van al hun GTX 970. Het is geen echte bug... Het is echt designed op deze manier. Het probleem dat ontstaat is, dat men blijkbaar niet goed gedacht heeft toen men de 980 design beperkte voor de goedkopere 970 te verkrijgen, dat dit effect zou optreden. Alhoewel, technische valt dat ook wel onder bug. Alle ja ... komt er op neer dat je weinig legale kansen hebt, toch niet tegenover zo een grote firma's.

Dat is het probleem dat men in Europa geen "class action lawsuit" kent. In de VS durf ik wedden dat we n van deze dagen iemand een lawsuit zien starten.
Je hebt geen poot om op te staan. Je hebt 4 GB aan RAM er in. Hoe de interne structuur werkt, ja...wat ga je dan beargumenteren in de winkel. De winkel kan er ook niets aan doen. Leuk voor ze, kunnen ze allemaal vidkaarten terug nemen en die terug sturen aan Nvidia? Kunnen ze dat? Ik betwijfel het.

Laten we nu niet massaal in paniek raken en winkels naaien met onze typisch moderne claim cultuur en entitlement issues.
Framerate is toch al lang een achterhaalde methode om prestaties te meten? Tenminste, er dient k nog gekeken te worden naar de frametime begreep ik. Zeker bij dit geval lijkt het me dat de klachten van gebruikers kwamen vrdat zij hoorde van 3 procentpunten verschil in prestaties. Dus het valt zeker op, 't is geen tussen-de-oren geval.
Maar is Frametime dan niet dezelfde statistiek maar dan vanuit een andere hoek? Dat je dus niet het aantal meet maar de tijd per frame die verder ook afhankelijk is van de FPS? Want met een nieuwe frame is je frametime weer 0?

[Reactie gewijzigd door Martinspire op 26 januari 2015 09:19]

Frametime metingen zijn vooral een toevoeging bovenop de normale framerate metingen.

Wat men inderdaad doet is de tijd tussen iedere frame meten. Je kunt bijvoorbeeld wel 30 fps halen, maar als tussen frame #1 en #2 10 milliseconden tijd zit maar tussen frame #2 en #3 60 milliseconden, dan ervaar je dit als stotter. Dit was ook het probleem bij AMD met Crossfire opstellingen.

Wat je eigenlijk wilt is dat als je 60FPS hebt dat iedere frame 1 seconde/60 frames=16.67 milliseconden op het scherm aanwezig. Dit is de meest vloeiende oplossing.
de beste methode om prestaties te meten is de gemiddelde frametime en de standaardafwijking
meer heb je niet nodig
Je kunt met een fps van 50 bijv 20ms per frame kwijt zijn (20ms x 50 = 1sec). Maar ook 49x10ms en een frame van 510ms is 1 sec. Dit levert dus dezelfde framerate op als eerstgenoemd geval, maar zorgt wel voor een "stottering" van een halve seconde.
Nee je houdt bij hoeveeltijd elke frame steeds nodig heeft om te renderen. Je kan een constante 30/60fps hebben en toch stottering ervaren omdat de frametime niet constant 33,3/16.7ms is maar varieerd. 60frames in 1 seconde kan bijv met meerdere combinaties aan frametimes, de 1 stuk sneller dan 16,7ms en de andere weer langzamer.
Wat ik ervan begrepen heb, is dat je bijv. een framerate van 10 per seconde zou kunnen hebben, maar dat er 9 in de eerste 0,1 seconde zijn en vervolgens de 10de op 0,99 seconde. Dan lijkt het 10fps, maar heb je toch bijna een seconde geen nieuwe frame gehad.
Hier is nog een aardig linkje naar FPS vs frame time.
Maar wat merk je er als gebruiker van? Ik stel twee scenario's voor en denk hierbij gelijktijdig aan een wandelend persoon en hoe het eruit zou moeten zien.
1) Neem een serie frames die heel netjes precies elke 10 milliseconden op het schermverschijnen. Onze hersenen nemen dat waar als een vloeiende scene.
2) Nu varieert de tijd wild van frame tot frame. Frame 1 zie je na 4ms, frame 2 pas na 8ms. Dan al heel snel frame 3 na 2ms. De hersenen kunnen hier geen mooi soepel filmpje van maken, al helemaal niet als er beweging moet worden gesuggereerd: het komt houterig over.
Een flinke frame tijd variatie breekt de illusie van het spel doordat bewegingen niet natuurlijk overkomen.
Vergelijk het met twee auto's die allebei gemiddeld 100km/u rijden, een uur lang.

Auto 1 (laten we zeggen HD7970, 3GB) doet dat uur met n constante snelheid van 100km/u

Auto 2 (GTX 970 3,5GB+0,5GB) doet dat uur met een hoog variabele snelheid van 20 km/u tot 240km/u

Welke auto rijdt prettiger? De GTX 970 is alsof je de hele tijd een file inrijdt, om vervolgens weer vol gas verder te kunnen. De. Hele. Tijd. (Beetje gechargeerd natuurlijk, maar hier komt het wel op neer)

[Reactie gewijzigd door Vayra op 26 januari 2015 10:25]

Zoals je kunt zien, is er weinig verschil in de prestaties van de GTX 970 als je het vergelijk met de 980
Dat de nvidia kaarten onderling ongeveer dezelfde drop hebben in prestaties, betekent dat toch niet dat het "normaal" is dat er zo'n drop ontstaat? Dus Nvidia kan wel de 970 met 980 vergelijken, maar waarom vergelijken ze niet met de directe concurrent van de 970, de r9 290(x)?
Het artikel zou iets genuanceerd moeten worden. De performance drop van 47 / 50% wordt niet zozeer veroorzaakt door het extra geheugen gebruik, maar doordat de resolutie omhoog gaat / andere settings (en er dus meer geheugen gebruikt wordt).

Op die manier kun je de GTX 970 en 980 dus wel vergelijken. En de performance drop is bij de GTX 970 iets hoger (3%) dan bij de GTX 980, maar het verschil is minimaal.

Anders gezegd, GTX 970 haal 30fps en GTX 980 haalt 36fps op setting A met < 3,5GB geheugengebruik, en ze halen 15 en 19fps respectievelijk op > 3,5GB geheugengebruik.

<3.5GB setting = 3840x2160 2xMSAA
en >3.5GB setting = 3840x2160 135% res

[Reactie gewijzigd door Marc Rademaker op 26 januari 2015 09:16]

Het probleem is dat ze alleen naar frame rate kijken en niet naar frame time. Je kunt best een hoge frame rate hebben maar als de frame time heel erg varieert is het nog steeds een slechte ervaring.

Verscheidene mensen hebben stotteringen gemeld wanneer het geheugengebruik boven de 3,5GB uit kwam bij de GTX970, je frame rate mag dan wel hoog zijn maar de frame time is dan instabiel.

[Reactie gewijzigd door EnigmaNL op 26 januari 2015 09:18]

Hmm, goed punt, met name het swappen van geheugen kan dan inderdaad funest zijn. Jammer dat Anandtech niet eventjes meeneemt en uitvoerig test, in plaats van naar de pijpen van Nvidia danst.
Omdat ze zich proberen in te dekken, en de AMD waarschijnlijk een mindere/geen drop heeft. Mocht dat zo zijn, dan zouden ze hun eigen glazen ingooien. En dat is juist niet de bedoeling met dit bericht.
Gebruikt Battlefield 4 zo veel geheugen dan? Ik heb zelf een 2GB kaart maar het enige moment dat bij mij het geheugen echt volloopt is als ik bijvoorbeeld Skyrim met veel texture mods speel of Flight Simulator met te veel grafische addons.

Ik zit niet zo in het onderwerp thuis maar is het ook niet meer dan logisch dat fps terugloopt zodra het geheugen volloopt (omdat het dan in princiepe in de wachtrij staat om verwerkt te worden).Of zit er een bug in de drivers waardoor de kaart het niet snel genoeg kan verwerken?
het probleem is de kwaliteit van de laatste 0,5 GB aan videogeheugen op de kaart, dit geheugen is van een andere snelheid dat de eerste 3,5Gb!

tis raar maar waar!
Ok dat is wel een bijzondere keuze geweest dan van Nvidia. Wel jammer want in principe zou de GTX970 een redelijk high end kaart moeten zijn. Daar ga ik dus wel goed op letten als ik over een paar maand ga upgraden (heb momenteel een EVGA GTX670 FTW).
Het klinkt dom maar dit probleem is voor mij de reden geweest om bij de concurrent te gaan winkelen. De GTX 970 is een uitstekende kaart en het was een mooie upgrade van mijn GTX 660.

Maar ik zie duidelijk de trend dat games meer en meer geheugen gebruiken ( vooral de console ports ). En ik draai Skyrim ook graag met lekker veel mod's enz.

Moest de GTX 970 gewoon gecapt geweest zijn op 3.5GB dan zou het minder een probleem geweest zijn in men ogen. Maar dit design keuze introduceert een onbekende factor. Je moet dan ieder game gaan controleren dat het niet te veel geheugen gebruik zodat je niet de lag spike gaat krijgen.

Het is zoals een harddisk kopen maar "o wacht, schrijf deze niet vol want de laatste 12.5% van de schijf gaan je problemen bezorgen dat je opmerkt".

Heb me een AMD R9 290X op de kop kunnen tikken gisteren voor 250 en dat zal goed genoeg zijn. En daar is de volledige 4GB beschikbaar.

Ieder gaming kaart heeft wel links of rechts een probleem. Of het nu drivers is of andere toestanden maar persoonlijk vind ik deze fout iets te lomp. Ik hou gewoon niet van zo een toestanden.
Heel erg lomp. Dit is puur een kwestie van marketing en het had erg eenvoudig voorkomen kunnen worden.
Geheugen is niet ve andere snelheid, geheugenbus van laatste 0.5 GB vram schijnt 64 bit te zijn en van 3.5 GB vram 192 bit volgens Overclockers forum.
Ik speel geen BF4, maar je kan er natuurlijk op rekenen dat games in de toekomst meer veeleisender zijn qua geheugen.
Het geheugen is niet vol. Het gaat over het gebruik van de laatste 12% van het geheugen.

Gebruik van het geheugen is ook afhankelijk van de resolutie waarop je speelt en inderdaad de kwaliteit van de textures.
Ik heb hier sli gtx970 op 4k merk inderdaad bij battlefield de framedrops :( :( :(
Helaas.. Ik was van plan deze kaart te kopen om mijn HD7970 te vervangen.. Als ik zulke berichten lees dan wacht ik nog wel even af :( .
Ik heb anders nog niets hiervan gemerkt. Meeste games nemen ook helemaal niet zoveel in. Unity doet het bv prima op Ultra op 1080p op 60fps, dus wat dat betreft zit het wel snor :)
Ik ben na deze berichten ook ongerust gaan kijken naar mijn GTX970. Ik had nog niets gemerkt. Dat klopte ook, want met de games die ik heb (ik ben niet zo'n hardcore gamer): WoW, Tomb Raider en zelfs de Firestrike Benchmark, kwam ik nergens boven de 2 GB verbruik op 2560x1440.

Het maakt dus blijkbaar nogal uit welke games je speelt.
Mja en hoeveel monitoren je eraan hangt volgens mij
Ik begrijp niet wat de hoeveelheid monitors te maken heeft met het texture geheugen?
Het gaat om het algemene geheugen, meer monitoren is hogere resolutie dus moet er ook meer geheugen worden gebruikt voor het genereren van de beelden ;)
Meer monitors = hogere resolutie dus wordt het zichtveld wat gerendered moet worden een stuk groter.
Maar ook hoe hogere (zwaardere) res. gebruikt. Dus ook meerdere beeldschermen.

[Reactie gewijzigd door aygul12345 op 26 januari 2015 13:01]

Dat klopt inderdaad. Maar ik heb nu een R9 280x in principe een een update naar de R9 290 is niet echt een grote stap.. Dan ga ik liever voor de GTX 970 of de R9 290X
Persoonlijk zie ik niet veel voordelen in om je R9 280x te upgraden. Het verschil is niet zo denderend tussen de R9 280x en de R9 290X / GTX 970.

Denk dat je beter bent om pas een upgrade volgende jaar te doen. Maar dat is mijn mening.

Ik kom van een GTX 660 en een R9 290X/GTX970 is bijna letterlijk 2 a 2.5 maal verhoging van FPS. Dat is een upgrade! *lol* ...
True that :P Ik wacht nog maar even dan..
neem je een r9 290? verschil is niet heel erg groot. of je wacht tot de 380(X) komt.
Tussen de R9 290 en de GTX 970 zit een behoorlijk verschil. Waarschijnlijk heb je het over de R9 290X :), en ja daar zat ik inderdaad ook aan te denken.
'behoorlijk verschil' waar heb jij het over? ik zou zeggen kijk hier is http://www.anandtech.com/bench/product/1068?vs=1355 dan praat je wel anders de 290 is soms zelfs sneller dan de 970 :')

je kan tw refurbished R9 290s kopen voor de prijs van een 970 op dit moment wat zou sneller zijn ;)

[Reactie gewijzigd door DarkBlaze op 26 januari 2015 09:23]

Er zit wel een stuk minder OC potentie in de kaart. Daarnaast is de ervaring met de 970 in mijn ogen een stuk fijner. De kaart is stiller, zuiniger en word minder warm. En ik heb het gevoel dat games ook soepeler draaien in de meeste geavllen. De enige uitzondering is eigenlijk battlefield 4.
Zoals je hier ziet verslaat de 970 de 290x toch met bijna 10% op fullhd ultra settings
http://nl.hardware.info/r...organgers-en-concurrentie
Ik heb een 290 en 290x gehad en nu een 970. De 290 was nog wel te OC'en. Maar de 290x werd gewoon te warm. Alleen met waterkoeling kun je daar serieuze OC uit halen. En dan hebben we het over een compleet blok, anders word de VRM simpelweg te warm.
Tjah zonder enige informatie over welke 290x daar gebruikt is en in welke stand kan je daar weinig uit halen.

Ik weet dat een 290 met overclock al sneller is dan een stock 290x, dus nogmaals de HWI data kan ik niet veel mee.

Om maar even een 'betere' vergelijking er bij te pakken de stock 290x tegen een EVGA met stock bios http://www.anandtech.com/bench/product/1059?vs=1355 en dan zul je zien dat wat je nu claimt gebakken lucht is en zoals je eigenlijk zelf al zegt af hangt van het spel.

Op 1440p haalt de 290x in genoeg spellen al een overwinning op de 970 dus zodra de load iets hoger wordt legt de 970 het gewoon af door zijn beperkte bandbreedte.

[Reactie gewijzigd door DarkBlaze op 26 januari 2015 12:14]

IK ben het met je eens dat de 290x vooral tot zijn recht komt op de hogere resoluties. Het probleem is dat elke 290x uit de doos tegen hitte problemen aanloopt waardoor hij zichzelf terug klokt. De VRM's worden te warm of de GPU en de kaart begint te throttelen. De 290 heeft hier iets minder last van omdat de kaart iets minder warm word. Op 1080P is de 970 duidelijk de betere keuze in eigenlijk elk opzicht. Natuurlijk zijn er genoeg games waarop de 290x wint. Maar meestal is dit dus niet zo. Dat blijkt dus uit de test van HWinfo. Als je daarbij optelt dat de 970 zuiniger/minder warm en meer OC potentie heeft. Dan kun je niet anders dan concluderen dat op 1080P het de winnaar is.
Ik zou op de hogere resoluties overigens nog eerder voor een 780ti gaan.

[Reactie gewijzigd door j0ppie op 26 januari 2015 12:21]

Natuurlijk heeft de 970 voordelen, maar mijn punt was eigenlijk dat een OC model van de 290 dus vergelijkbaar presteerd met de 290x uit die benchmarks. Als je dan bedenkt dat de 970 dus problemen heeft, en de Asus aftermarket 290 op dit moment 249 kost terwijl je voor een Asus Strix 970 gewoon 354 euro moet neerleggen dan vind ik dat je echt niet zo maar kunt claimen dat de 970 de betere keuze is, een prijsverschil van 100 euro is nogal wat namelijk.
j0ppie :

Niemand dat slim is koopt die standaard blower cooler versies. Coolen slecht, oververhitte makkelijker en maken enorm wat lawaai.

Je koopt de custom versies met dual of tripple fans. Die hebben geen problemen met oververhitting en throtteling enz.

DarkBlaze:

idd ... gisteren een Asus 290X dual fan cooler op de kop kunnen tikken voor 250 ... De koper wou een 970 kopen. *lol*. Soms weten mensen niet wat ze hebben en lopen ze in de "buzz" als kippen zonder kop.

De meeste 970 met dual of tripple fan ( niet die standaard blower cooler ) kost op dit moment tegen de 350 of meer aan.

[Reactie gewijzigd door Wulfklaue op 26 januari 2015 14:29]

Je hebt gelijk :) Dan zou ik liever meteen voor de R9 290X gaan ipv de 290. Zoals ik kan zien in de benchmarks van anandtech vind ik de prijs van 280 euro niet de 10-15 FPS meer waard tussen de 280x en 290.
Je hebt helemaal gelijk hoor, mijn vader heeft ook nog steeds een 7970 en de upgrade naar een 290 zou natuurlijk nog steeds zinniger zijn dan naar een 970 die is namelijk nog weer 100 euro meer alsde 290.

Veel mensen denken helaas voor AMD dat een 290 langzaam is ivm met een 970 maar dat valt dus heel erg mee hij is zelfs sneller in sommige gevallen door de betere bus.

[Reactie gewijzigd door DarkBlaze op 26 januari 2015 09:45]

Klopt! Zit nu te twijfelen of ik toch de 290X moet nemen..
Kijk ook even naar je voeding en je komende stroomrekening dan. Die 290X verbruikt nogal wat.
Als je zit te gamen is het verbruik hoger ... Bij idle is een R9 290X even zuinig als een GTX 970/980... En idle is wat de meeste mensen 90% van de tijd doorbrengen.

Je gaat niet 24/7 gamen he. Het schil is een aantal euro's op het einde van het jaar voor de meeste mensen. De 290X gebruikt ongeveer 50W meer. Dat is wat? 1/6 of 1/7 meer dan de totaal stroom verbruik van je volledige systeem?
Klopt, ik betaal echter 1 vaste prijs voor mijn huurwoning :) (incl. stroom). MIjn voeding zal het probleem niet zijn!
working as intended houdt concreet in dat het gewoonweg gebrekkig werkt?

Boeiende strategie om miljoenen aan marketing uit te geven en dan zo'n product uit te brengen.
Zoals jij zijn er nog duizenden die afwachten en talloze fans (met een product) die hier de balen van hebben. Dit levert sowieso schade op.
Het gevolg hiervan is behoorlijk extreem aangezien dit nog jaren een smet op de naam geeft. Niet alleen de consument maar ook de third party kaartenfabrikanten lopen hierdoor reputatieschade op. Ook de fabrikanten zullen Nvidia ter verantwoording roepen.
De (wereldwijde) claim die Nvidia hierdoor in het verschiet ligt maakt kennelijk angstig. Het uitblijven van een een officile reactie op een persconferentie of deugdelijke reactie op de eigen website is kenschetsend voor dit euvel. Men lijkt nog geen enkel idee te hebben waar het precies door komt laat staan dat er een volledige oplossing voor is. Hier gaan in ieder geval wat koppen rollen.

Op de vraag of het product deugdelijk is:
Het is als een auto die verkocht wordt omdat hij eenvoudig 200 kilometer per uur kan rijden maar als de auto boven de 150 kmph komt dit alleen maar kan bereiken met horten en stoten en continue korte motor uitval gedurende de laatste 50 kmpu.
Het antwoord dat de auto toch rijdt stuurt en remt voldoet dan niet.
Knap dat iemand z'n gezicht in de plooi heeft kunnen houden bij het bedenken van de Nvidia uitleg.

Wat ik alleen jammer vindt is dat AMD eigenlijk geen goede concurrent heeft in hetzelfde prijssegment met eenzelfde prestaties en degelijke warmte productie ( ergo stille koeling).

[Reactie gewijzigd door hoeretoeter op 26 januari 2015 09:31]

Die upgrade is het toch nog helemaal niet waard? Je kan beter wachten op de 16nm dx12 gpus met stacked ram volgend jaar. Maak je veeeel grotere stap
Wat een storm in een glas water. Veel tweakers hebben die 970 niet eens, maar dat zijn de mensen die hier het hardste schreeuwen en conclusies er aan verbinden. Ik heb een GTX970 G1 Gaming en ben meer dan tevreden. Als je dan een single kaart gat gebruiken voor hoge resoluties, koop dan lekker een 290x. Zoals bekent is die goedkoper en sneller op hoge resoluties.

Mijn 970 doet alles wat ie moet doen en dan nog wat meer.
Ook die mensen die hem niet hebben hebben er belang bij dat fabrikanten leveren wat ze beloven. Dat zijn immers de consumenten van de toekomst, dus dat argument kan van tafel.

Verder zou hij hoge resoluties aan moeten kunnen en dan mag je verwachten dat hij niet ineens langzamer wordt boven de 3.5GB omdat er een shortcut is genomen in de hardware. Het is prima dat de fabrikant dat doet maar dan moet hij dat wel duidelijk maken en de klanten vooraf informeren.

Ik heb er ook een, en ja ik ben wel gepikeerd ondanks dat ik 1200p draai; Blijkbaar kan ik nu dus niet eer goed over stappen op een hogere resolutie.
Je weet wat de prestaties zijn op hogere resoluties, als jij daarvoor een enkele 970 hebt gekocht dan ben je gewoonweg dom, en pak je dat er alleen maar bij om je argument te maken. Laat ik een argument terug maken. (1.) Je hebt er tot op heden nooit last van gehad. (2.) je hebt deze kaart gekocht voor nu, niet voor een 4k resolutie over een jaar of 5. (3.) als je werkelijk op hogere resoluties wil gamen had je de reviews beter moeten lezen.Een 290x is sneller en goedkoper op hoogste resoluties.
Ik koop mijn kaarten inderdaad voor een aantal jaar, en dat die 290X zoveel goedkoper is valt te bezien. Reken je ook het energieverbruik even mee, en de evt aanschaf van een nieuwe voeding? (en een setje oordopjes)
Verder zal de tweedehandsprijs nu een stuk dalen, dus dat is direct een verlies die ik de fabrikant kan aanschrijven.

Punt blijft (over) dat een fabrikant niet levert wat ze belooft. Dat moet hersteld of afgestraft worden anders kan je volgend jaar helemaal nergens meer op vertouwen.
Vind ik van niet. Als jij een BMW koopt die 200 rijd volgens de specs, en je merkt dat boven de 160 dat gaat met horten en stoten ben je ook niet blij en heeft BMW een probleem. Bestuurders die blaten dat ze toch nooit harder dan 150 rijden is mooi voor hen, maar totaal irrelevant. De auto kan 200, BMW beaamt dat en dan moet die wagen gewoon 200 gaan, zonder rare fratsen.

Idem met deze videokaart. 4GB Vram moet gewoon, zonder issue's gebruikt kunnen worden. Als dat niet zo is, heeft Nvidia een probleem; terecht.
Pardon? Hoef er zelf niet een te hebben om te weten wat stutter en frametimes is.
En wat ik ervan zie, ook in grafieken van gebruikers die het getest hebben klinkt het zeer plausible. Maar ach, ze liegen allemaal natuurlijk?

En WTF jezelf alstublieft. We kunnen gewoon normaal met elkaar discussieren; of helemaal niet.

Op je laatste zin; wederom onjuist; het is meetbaar en het is al gemeten:
http://www.neogaf.com/for...read.php?t=977645&page=14

Wat de BMW bereft; een wagen die hortend en stotend naar zijn max rijd, valt niet in een marge uit te drukken. Het gaat erom HOE die er komt, niet DAT hij er komt. Produktie marges en/of snelheidsmarges, daar gaat het helemaal niet om. Idem met de videokaart, Niemand zegt dat de 4GB NIET gebruikt word; het word gebruikt. De vraag is juist: HOE?? Schijnbaar niet zo geweldig....

[Reactie gewijzigd door Madrox op 26 januari 2015 11:59]

Haha zou leuk zijn.. auto's die alleen worden beoordeeld OF ze bij een bestemming aankomen }>
Wat doet dat ertoe of hij een 970 heeft of niet? Hij kan een potentile koper zijn van een 970 en nu van die aankoop afzien vanwege deze prestatieproblemen. Doe je roze bril af en erken het probleem.
Het is geen storm in een glas water. nVidia heeft verkeerde specificaties op voor hun 970. Dit is misleiding vd consument en zeer ernstig.
Ik snap het niet, er is duidelijk een probleem. Ze laten hun eigen klanten iets te dom overkomen naar mijn mening. De resultaten die bevonden zijn door de community zijn duidelijk.

Maar goed, het gaat hier over een relatief goedkope kaart, en de 980 heeft de problemen niet. Er zullen gewoon goede keuzes moeten gemaakt worden door de gebruikers, maar het is altijd handig om zulke dingen op voorhand te weten, nietwaar?
Ik vind dat je het bagatelliseert door de 970 relatief goedkoop te noemen. Dit is op de 980 na de duurste kaart die ze voeren (Titan laat ik even buiten beschouwing, dat is een buiten-klassement kaart)! Ik heb er 350 euro voor betaald, voor dat zelfde bedrag heb je ook een tablet of een mooie smartphone.

Of de 980 dezelfde problemen niet heeft, is mij nog niet duidelijk. De gebruikers zeggen van niet, maar Nvidia zegt impliciet van wel, want de performance van de 970 en 980 schaalt bijna gelijk volgens hen.

Ook is het mij eerlijk gezegd nog niet duidelijk of er echt een probleem is, of dat veel mensen dat er van willen maken. Ik heb zelf nog niets gemerkt, maar ik speel wellicht de gevoelige games niet. Dat de kaart boven de 3.5 GB langzaam wordt is jammer, maar bij de 4 GB zou hij dat zeker ook gedaan hebben.

Het komt op mij over als een beperking van het ontwerp, maar is Nvidia verantwoordelijk om alle details van dat ontwerp aan consumenten uit te leggen, terwijl 99% van die consumenten onvoldoende onderlegd is om zo'n uitleg te kunnen begrijpen? De snelste SSD wordt ook traag als stroop wanneer hij voor meer dan 95% vol is en dat zetten de fabrikanten daarvan ook niet op de verpakking.
Ik vrees dat je de reactie van Nvidia iets teveel lof geeft. Maar daarin ben je (zoals gewoonlijk) niet alleen. De reactie van Nvidia is slim: ze gebruiken gemiddelde framerates, die de lastige stutters en framedrops (en de mankerende frametimes) niet volledig weerspiegelen.

Daarbovenop is het helemaal niet zo moeilijk als je denkt om meer "onderbouwt" dan nvidia te zijn...
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True