Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 234 reacties
Submitter: Deem

De GTX 970 van Nvidia heeft 56 rops in plaats van 64 rops, waarmee het bedrijf aanvankelijk adverteerde. Ook de hoeveelheid L2-cache bedraagt 1792KB in plaats van 2048KB. Volgens Nvidia gaat het om een communicatiefout.

De werkelijke specificaties kwamen aan het licht bij het ophelderen van het geheugenprobleem van de GTX 970. Nvidia liet maandag aan de pers weten dat de kaart het geheugen in delen van 3,5GB en 512MB aanspreekt, waarbij dat laatste geheugen lagere doorvoersnelheden heeft. Dit zou echter geen invloed op de prestaties geven. Inmiddels heeft Nvidia aan onder andere PC Perspective, TechReport en Anandtech meer details over het geheel gegeven.

De basis van het probleem zit in de mogelijkheid bij Maxwell om een slecht functionerende unit, bestaande uit 8 rops en 256KB L2 cache, uit te schakelen. Maxwell beschikt over vier blokken met twee geheugencontrollers en twee delen L2-cache. Elk van die blokken communiceert met het dram via twee 32bit-geheugeninterfaces. Bij het uitschakelen van een rop/L2-unit kunnen beide geheugencontrollers wel actief blijven. De overgebleven rop/L2-unit kan echter niet de belasting van twee geheugencontrollers aan. Om toch snel met het geheugen te kunnen communiceren, is het geheugen verdeeld in een pool van 3,5GB groot en een van 512MB. Het 3,5GB grote blok geheugen heeft prioriteit boven het geheugen van 512MB, waardoor games die tot 3,5GB videogeheugen gebruiken geen prestatieproblemen ondervinden.

GTX 970 diagram

Daarmee blijven alle 32bit-interfaces, en in totaal dus de 256bits geheugenbus, intact en kan Nvidia dus ook imperfecte chips inzetten. Dat is de reden dat Nvidia de GTX 970 specificaties mee kan geven die voor een groot deel overeenkomen met die van de GTX 980, voor een lagere prijs. De uitgeschakelde rop/L2-unit werd niet in documentatie, zoals de reviewer's guide van de GTX 970 vermeld. Volgens Nvidia was het team dat de marketing van de GTX 970 verzorgde simpelweg niet op de hoogte.

Volgens Nvidia is de prestatiedegradatie als games 4GB in beslag nemen bij de GTX 970 in vergelijking met de GTX 980 één tot drie procent. Het bedrijf concludeert dat de gekozen functionaliteit de kaart tot een beter product maakt, maar sommige kopers maken op internet hun onvrede kenbaar over de aanvankelijk onjuiste weergave van specificaties.

Nvidia GeForce GTX 970

  GTX 980 GTX 970 (Oorspr.) GTX 970 (Gecorrig.)
Cuda-cores 2048 1664 1664
Tmu's 128 104 104
Rop's 64 64 56
Core-kloksn. 1126MHz 1050MHz 1050MHz
Boost-kloksn. 1216MHz 1178MHz 1178MHz
Geheugen 7GHz gddr5 7GHz gddr5 7GHz gddr5
Geheugeninterface 256bit 256bit 256bit
Hoeveelheid dram 4GB 4GB 4GB
L2-cache 2MB 2MB 1,75MB
Tdp 165W 145W 145W
Moderatie-faq Wijzig weergave

Reacties (234)

1 2 3 ... 7
Ik ben best wel blij met de Gtx970, stil niet te veel stroom verbruik.
Ik vind het wel vervelend dat Nvidia er niet gewoon eerlijk over is.
"Volgens Nvidia was het team dat de marketing van de GTX 970 verzorgde simpelweg niet op de hoogte."
in Gpu-z staat ook gewoon ROPs/TMUs 64/104 in plaats van 56 ROPs, vraag me af wat het marketing team daar mee te maken heeft. Ik vraag me ook af wat de meerwaarde van de tragere 500 MB is in plaats van gewoon 3,5 GB, of is dit alleen beter voor de verkoop cijfers? Maar misschien moet ik niet praten over dingen waar ik niet veel verstand van heb, maar cijfertjes zijn cijfertjes.
Ik zit nog in de bedenktijd met deze videokaart en ik twijfel erg of ik hem moet ruilen. Ik probeer me niet al te gek te laten maken door de nieuws berichten en door de hoge vram eisen van nieuwe games: nieuws: LOTR: Shadows of Mordor vraagt 6GB vram voor optimale textures
Volgens mij nemen de makers van GPU-Z gewoon de specs van Nvidia zn marketing team over in hun tabel, en zodra GPU-Z detecteert dat je een GTX970 hebt zoekt hij volgens mij gewoon in zn tabelletje op wat de specs zijn.

Het lijkt me iig sterk dat GPU-Z zoveel details kan uitlezen. Het lijkt me vreemd dat de GPU data als op wat voor procede hij is gebakken, en oppervlak van de chip etc laat uitlezen. Dus het merendeel van die info zal gewoon uit een eigen database in de applicatie komen.
Dat dus, een videokaart kan volgens mij niet vertellen hoeveel ROPs die heeft :)
Oei, flinke domper van Nvidia als je het mij vraagt. Communicatiefout ammahoela; ik kan me niet voorstellen dat de marketing afdeling van je bedrijf niet op de hoogte is van hetgeen je wilt adverteren, of je moet het bewust willen verzwijgen..

Wat is nu de oplossing? Worden mensen met een minder functionerende GTX 970 gecompenseerd op een bepaalde manier? Je mag er toch van uit gaan als consument dat een product wat je koopt functioneert naar de daarvoor vastgestelde criteria.
Achteraf de specificaties aanpassen en verder niet met een oplossing komen voor de mensen die deze kaart al hebben gekocht vind ik nogal wat.
Het probleem bij deze 'feature' ;) is dat Nvidia er mogelijk heel gemakkelijk mee weg kan gaan komen.

Op dit moment is het namelijk zo dat je best wat moeite moet doen om die 3.5Gb binnen één swap op het geheugen vol te krijgen. En het is ook zo dat heel veel mensen nu 'denken' dat ze aan 3.5Gb zitten terwijl dat helemaal niet zo is. VRAM wordt namelijk een beetje opportunistisch gebruikt door games; vullen tot het niet meer gaat, en daarna wisselen wat nodig is. Er staat dus in veel gevallen een aardige sloot geheugen 'geparkeerd' zonder dat dat invloed heeft op prestaties.

De énige situaties waarin je hier dus last van hebt is wanneer er erg veel data door dat geheugen heen moet voor één frame. Meestal past dat binnen 3.5Gb en in dat geval werkt de arch van Maxwell perfect, ook voor de GTX 970. Maar heb je 3.51Gb te 'swappen' voor de volgende frame dan heb je dus een stutter te pakken. Shadows of Mordor is hét voorbeeld omdat dat een draak van een engine is die dus dergelijke swaps doet. Veel andere engines hebben daar veel minder last van. Het lijkt vooralsnog meer voor te komen bij games op CryEngine.

Het probleem? Dit topic warmhouden totdat games écht structureel meer dan die 3.5Gb gaan vragen. Die tijd komt eraan, maar voordat dat zodanig gemeengoed is dat het merendeel deze stutter gaat ervaren, kan het al weleens een beetje doodgebloed zijn.

Daarom ook: de mensen die nu roepen, net als Nvidia, dat het prestatieverschil nihil is, hebben niet begrepen wat hier werkelijk aan de hand is. Zodra je die 3.5Gb overschrijdt zit je gewoon met een doorvoersnelheid die slechts een fractie hoger ligt dan het doorpompen van data naar je DDR3 reepjes over PCIe - 28GBps (op de kaart) tegenover de schamele 16GBps over PCIe. Dit terwijl de eerste 3.5GB dus op 192GBps loopt. Stellen dat je dus effectief 3.5GB tot je beschikking hebt voor gaming is vrij accuraat - de resterende 0.5GB heeft namelijk vrijwel dezelfde spec als je system RAM.

Dit leidt dus allemaal tot een situatie waarin een grote groep gamers het probleem niet, of niet juist kan samenvatten en/of reproduceren, en al die foutieve analyses maken de stelling van Nvidia steeds sterker, 'de klagers' worden een beetje uit de markt geduwd op die manier. Getuige overigens ook de modding op Tweakers over dit onderwerp; Nvidia is misleidend geweest, wellicht was het 'de minst slechte optie' voor Maxwell, maar dan had dat ook netjes gecommuniceerd moeten worden. Bottom line is namelijk wél dat de GTX 970 een GM204 is met een memory handicap en dat ie onspeelbare games oplevert boven de 3.5Gb. Toen AMD slecht voor de dag kwam met de microstutter op ALLE kaarten was de wereld ook te klein, het zo bizar zijn als dat nu wél wordt toegestaan bij Nvidia. Het probleem is hetzelfde namelijk, maar komt minder structureel voor. Ben je genept - ja - want het is ongebruikelijk gedrag voor een videokaart en het is een ontwerpkeuze van Nvidia die primair tot doel heeft zoveel mogelijk GPU's af te zetten.

Heb je geen GTX 970 maar wil je zelf ervaren wat stutter is, dan zet je op je 2GB kaartje lekker de DSR aan met alle settings hoog genoeg om boven de 2GB uit te komen, het zal zéér snel opvallen en duidelijk worden waarom het niet terugkomt in average FPS. Stabiele frame time is belangrijker dan stabiele FPS voor een goede speelervaring, en dat weet 'Gsync' Nvidia natuurlijk als geen ander! Best ironisch eigenlijk :)

[Reactie gewijzigd door Vayra op 27 januari 2015 15:59]

Mooie correcte representatie van de zaak.

Ookal komt het in het merendeel van de situaties niet bovendrijven zoals sommige bronnen correct rapporteren, het potentieel gevaar hangt zowizo in de lucht.

Als je geen L2 cache kan leveren voor een bepaald stuk geheugen, laat dat stuk geheugen er dan van tussenuit? De manier waarop maxwell met geheugen omspringt is de L2 veel te cruciaal, en kan je niet zomaar weglaten voor een correcte werking en benutting.

Kortom, hadden ze van in het begin als een 3.5GB kaart gelist, had niemand (en zelfs ik) er geen problemen mee gehad, de prijs was nogaltijd terecht.

Maar door deze rare dans te maken hebben ze alles onnodig opvallend (en schandalig in mijn ogen) gemaakt.
Hadden ze de kaart met 3,5 GB geleverd en je had toch meer nodig, dan moest de kaart gebruikmaken van de het RAM uit je pc. Dat gaat dan over de pci-e bus die nog heel wat minder bandbreedte biedt dan die laatste 512 MB vram.
Ja ok, maar dat is bij ELKE kaart zo als de Vram opgebruikt is, dus dat kan je ze dan ook niet bepaald kwalijk nemen.

Bij 3.5GB ram wist je wat je had, en was er helemaal geen plaats voor misverstanden (in bandbreedte bv). EN zo hoort een product specificatie ook te zijn: Geen plaats voor misverstanden. Wat ik vandaag veel lees is dat mensen hun vinger wijzen naar andere misverstanden van andere merken. Is het dan de bedoeling dat elk bedrijf al die slechte gebruiken mag overnemen?

Als de specificaties niet meteen duidelijk gerepresenteerd kunnen worden, dan komt dat zwak over, hoe je het ook probeert te bekijken. Dan ben je niet zelfzeker over je product. (of zelfs niet op de hoogte!)

En ik vind het ook zonde dat er dan 512mb verloren gaat, want de DDR5 packaging is wss per 2 GB (correct me if im wrong), maar als de de L2 cache er niet kan voor aangeboden worden voor interne redenen (Productiekost?), dan is dat gewoon een feit, en geen keuze.
Sterker nog, ik durf wel te zeggen dat als ze de GTX 970 hadden gemarket als een '3.5GB VRAM' GPU, Nvidia nog meer GTX 980's had weten te verkopen ten koste van GTX 970 sales met een lagere marge. Het zou het prijsverschil tussen de twee meer rechtvaardigen...

Nvidia 'doet een AMD' zou je bijna zeggen :D

[Reactie gewijzigd door Vayra op 28 januari 2015 12:15]

Klopt wat je zegt!
wellicht was het 'de minst slechte optie' voor Maxwell
Een veel minder slechte optie is om het ding te marketen als een 3.5 GB kaart (met eventueel de mogelijkheid om de laatste 512 MB op de een of andere manier te unlocken, voor mensen die weten waar ze mee bezig zijn).
Als ze hun driver zo kunnen schrijven dat ie zo lang mogelijk alles in de eerste 3.5 GB stopt, dan moeten ze ook in staat zijn om hoe dan ook niet boven de 3.5 GB te alloceren.
het is een ontwerpkeuze van Nvidia die primair tot doel heeft zoveel mogelijk GPU's af te zetten.
En ik maar denken dat ze juist hun klanten zitten af te zetten. ;)
Dit gebeurt wel vaker, er worden wel meer kaarten verkocht met veel geheugen puur om kaarten te verkopen waar het laatste niet bruikbaar van is.

De fout hier zo is dat ze het ook nog is verkeerd geadverteerd hebben waardoor het net leek of er daadwerkelijk 4gb geheugen bruikbaar was op dezelfde snelheid.

Dit is niks nieuws.
Zou je een voorbeeld kunnen noemen?

Ik weet dat er kaarten worden verkocht met onzinnig veel geheugen ("onzinnig" in de betekenis "ver voordat het geheugen vol zit is de kaart op tien andere punten keihard aan het bottlenecken"), puur omdat het leuk staat op de verpakking. Maar op alle andere kaarten die ik ken werkt dat overschot aan geheugen wel op de gegeven specificaties.

Met andere woorden, als je een randgeval kunt bedenken waarin je al het geheugen gebruikt, zonder dat de rest van de kaart het niet bij kan houden (desnoods met een memcopy benchmark), dan zal het geheugen keurig werken zoals beloofd is. En dat is hier nou juist niet het geval.

Bij mijn beste weten is dit dus wel degelijk iets nieuws. Niet als concept; strikt genomen is het gewoon een (enigszins extreem) gevalletje NUMA, maar wel binnen de context (waarin iedereen uniforme access verwacht).
660 2gb versie had hetzelfde probleem.

Ding heeft 3 controllers elke controller = 64 bit waar 2x geheugen modules aan vast zitten van 256mb per stuk.

Dat is dus 32 bit per geheugen module = 1,5gb in totaal

Natuurlijk moesten ze er 2gb geheugen op hengsten anders begonnen mensen boos te worden. Dus hebben ze de overige 2 geheugen modules die dus 2gb maken ( de laatste 500mb ) gewoon op 1 controller erbij gehengst wat dus 4 chips op 1 controller maakt.

Als je 1,5gb maximaal gebruikt dan zal hij op 144gb/s bandwidth tot zijn beschikking hebben, als je de 2gb pakt dan zal die nog maar 44gb/s presteren.

In andere woorden een 970 gevalletje van het lijkt heel wat v-ram, maar je heb er toch niks aan.

Natuurlijk heb je ook onzinnige dingen zoals een 550ti waar 4gb 1066mhz of wat dan ook ddr3 geheugen op getrapt is met een 128bit bus en erg trage clock. Veel plezier daarmee :P.

Echter gaan ze met de 970 iets verder door gewoon verkeerde gegevens te vermelden. Maar dan nog blijft het idee hetzelfde.

[Reactie gewijzigd door Gatygun op 29 januari 2015 01:08]

Eindelijk komt er schot in de zaak. Dit probleem is al maanden bekend bij de makers van Redshift3D, een GPU renderer voor de vfx industrie. De lead programmer had al maanden geleden een fix geschreven. Wegens NDA redenen moest hij zwijgen.

https://www.redshift3d.com/forums/viewthread/4013/

Enkele quotes van Panos.

This is the driver bug we’ve been dealing with regarding 970/980.
As these guys figured out too, the solution (what we call the “hack fix”) is to leave quite a bit of memory unallocated (384MB in Redshift).
So, yeah, we figured all that ourselves a few months ago. We’re under NDA with NVidia so I cannot say too much but what I can say is that we recently provided them with some more clues on what could be the issue. So NVidia already has the info they need. Hopefully this “internet noise” will help expedite a fix and we’ll be able to remove the crap “subtract 384MB of memory” code! And have you guys happier too!]

-Panos

Yeah we are subtracting 384MB on 970/980 videocards so Redshift cannot ‘see’ that last bit of memory and therefore not use it. If it did use it… that could produce crap rendering performance! That’s the essence of the driver bug.
You don’t need to do anything about this. The subtraction happens automatically on 970/980 GPUs. You just need to keep in mind that your 4GB card is treated a bit more like a 3.5GB card as far as Redshift is concerned.
-Panos


Yeah, I read about it being a hardware limitation over the weekend.
Now that we know what the issue is, we might be able to target it more precisely. We’ll still have to see what NVidia tells us about this and what their advice is regarding CUDA apps in particular.
Access to half a gig being slow is one thing but Redshift (or any other app, CUDA or not) doesn’t have a clean way of avoiding that ‘slow’ half gig partition. We could allocate 3.5GB for Redshift but it’s not necessary that all of it will live in the ‘fast’ 3.5GB partition.
-Panos

[Reactie gewijzigd door jan van akkere op 28 januari 2015 06:28]

Ik denk dat Nvidia dit helaas ook in de driver gaat afwikkelen. Die opening is er in elk geval wel. Een fix kán simpelweg niet bestaan uit het afkaderen van die 0,5GB, want dan levert het product dus geen 4 GB VRAM meer. Op dit moment nog wel.

De popcorn staat hier in elk geval al klaar ;)
Dit is inderdaad geen communicatiefout maar misleidend adverteren. Ze gooien bij bedrijven tegenwoordig wel heel makkelijk met de term 'communicatiefout' schandalig. Als ik zo'n kaart in bezit had was ik terug gegaan naar de winkel en mijn geld terug gaan opeisen. Het product voldoet niet aan wat je er in alle redelijkheid (dus wat er op de verpakking staat) van mag verwachten.

En ja alleen op hogere resoluties dan 1080P zal je er een keer last van krijgen, maar dat is in deze irrelevant als je het mij vraagt.

[Reactie gewijzigd door BastiaanNL op 27 januari 2015 14:26]

Misleidend wordt nog interessant, het ding heeft wel degelijk 4 GB (en kan dat ook gebruiken), maar het is inefficient. Ja het is een blunder van de marketing-boys, maar zelfs dan had het vragen opgeleverd, en om je kaart nou met 3.5 GB af te leveren is wat vreemd. 3 GB werd her en der al met scheve ogen bekeken, als ze nu 3.5 GB gaan doen, dan slaan mensen helemaal op tilt. Die laatste 0.5 GB erop plakken en via drivers uitschakelen is dan weer wel flauw, dus dat kan ook niet. Ik denk dat marketing het wel wist, maar het liever stilhield, want dan maakt misschien niemand zich er druk om. Die strategie is ze welbekend, zoek eens op bumpgate (waarbij chips na een aantal aan-uit-sessies krak deden omdat een laagje in de opbouw brak was). Dat is ook vakkundig stilgehouden, want anders krijg je alleen maar ophef om bijna niks...

Als ze nu netjes willen zijn bieden ze mensen gewoon geld terug aan, ik verwacht dat 9 van de 10 de kaart alsnog houdt (hij presteert gewoon netjes) en weet dat er eventueel mogelijk problemen kunnen opduiken bij heel veel geheugengebruik.
Ze hebben ook opgegeven met welke snelheid het geheugen communiceert met de GPU, dus in die zin gaat het argument dat er inderdaad 4GB op zit maar dat niet is aangegeven hoe het moet presteren niet op.

Dat de soep niet zo heet gegeten zal worden is een ander verhaal. Ik geloof er niks van dat mensen nu echt een andere kaart kunnen halen. En daarbij, wat haal je dan? De 980 is bijna 2x zo duur en veel mensen hebben bewust een 970 en geen AMD gekozen. Ook met 500MB minder blijft het een erg goede prijs/kwaliteitverhouding als je het mij vraagt.
Klopt, ze geven ook aan dat er 4 GB op zit, en ik verwacht het dan ook te kunnen gebruiken, maar het blijft wat fishy. Je *kunt* het ook wel gebruiken, maar het is ongeveer hetzelfde als de jerrican achterin je auto bij de benzinetank rekenen. Niet helemaal netjes, maar vermoedelijk hoopte de marketing-afdeling ermee weg te komen.

Natuurlijk blijft de 970 gewoon een goede kaart, ondanks dit soort foutjes, maar als ik zie hoe sommige mensen er nu over in de stress schieten, en roepen nooit meer NVidia te willen, denk ik dat die mensen prima af zijn met een AMD 290(x) of nog even wachten op een beter alternatief.
Eens, maar ik denk dat de helft ook niet goed kan inschatten wat de consequenties zijn (mijzelf incluis). Om een gevoel te krijgen ben ik maar even gaan meten met m'n favoriete spellen en met de settings waarop ik speel blijf ik in dual-sli en triple-screen onder de 3500MB. Voor nu gaat het dus goed en is de bottleneck niet zozeer de hoeveelheid geheugen. Ik zie het grootste probleem erin dat ik de kaarten waarschijnlijk eerder moet vervangen dan ik anders had gedaan. Maarja, mocht de 8GB 980 een keer uitkomen, koop ik die over een jaar of 2 wel op marktplaats voor weinig en heb ik er zeker geen last meer van.

Voor nu zit het me niet in de weg en ga ik me er dus ook zeker niet druk om maken. :+
Ik vraag me dan wel af waarom ze de 500MB nog toevoegen, als ze de fysieke RAM ook weg hadden gelaten was het misschien nog goedkoper geweest zonder de klachten over performance. (Goed mogelijk dat 4GB goedkoper is dan de losse modules om 3,5GB te maken)
Waarschijnlijk hebben de 980 en de 970 dezelfde printplaat en worden de ramchips er gewoon steeds per 4GB opgeplaatst.
Dat lijkt mij makkelijker en goedkoper dan 2 versies printplaten te maken. De chips zijn ook dezelfde, gewoon met bepaalde units uitgeschakeld, dus lijkt mij dit het meest logische.
niet alle 970s hebben dezelfde printplaat, er zijn ook kleinere versies voor op een itx (en waar mijn 670 waterblock op past O+ )

vraag ik me dus even als extra af of er er dan tussen die twee ook verschil in prestaties zou zijn
Puur kijkend naar dergelijke tabellen + specs die ze naar tech sites sturen is in mijn ogen gewoon misleidend. Met jouw laatste oplossing ben ik het eens.

Edit * tabellen + specs

[Reactie gewijzigd door BastiaanNL op 27 januari 2015 14:52]

Het is net zo misleiden als een cpu omhoog klocken als je weet dat er een benchmark gedraaid wordt om er zo beter uit te komen.
De strategie om marketing er juist niet van op de hoogte te stellen wordt veel vaker toegepast.
Dit is inderdaad geen communicatiefout, maar anders hoeveel fouten zijn in de jaren er nog meer ingeslopen.
Waarschijnlijk is het niet gecommuniceerd naar de marketing afdeling. Dat betekent nog niet dat het een communicatiefout is. Een communicatiefout is als je de specs niet goed doorgeeft.

Nvidia probeert goedkope geheugenmodules voor dezelfde prijs te verkopen als de "duurdere" maar dit moet niemand weten.

Nu er een probleem is met de techniek en komt het uit. En er komt zelfs meer uit, namelijk de L2 cache is kleiner en het aantal rops. Of ze nu verschil uitmaken of niet, het ruikt naar een stukje misleiding.

Ik vraag me hierdoor af met welke kaarten er nog meer geknoeit is?
Ik denk dat het opzich wel meevalt, tegenwoordig kunnen bedrijven dit soort dingen echt niet lang geheimhouden. Doen alsof er niks mis is met een product komt je vaker duur te staan in de vorm van verminderde reputatie.

En ze leveren proberen niet goedkopere geheugenmodules te verkopen, de geheugenmodules die op de kaart zitten werken niet volledig naar behoren gewoon. Dus deze zijn uitgeschakeld om te voorkomen dat deze problemen veroorzaken. Opzich een aardige manier om een chip alsnog te kunnen verkopen.

Ze hadden het inderdaad wel netter kunnen communiceren maar het is te begrijpen dat in dergelijk groot bedrijf de communicatie wel vaker dan eens simpelweg bellabberd is.
AMD verkocht ook jaren en denk nog steeds chips waarvan 1 of 2 cores uitgezet werden. Dit werd echter netjes vermeld.

Sterker nog de 970 is gewoon een 980 met afgekeurde chips die beperkt zijn. Dat wist men.

Het is onzin wat men nu verkoopt en past precies in het script dat men gebruikt.
Het script heb ik eerder gepost.

Stap 1 ontkennen van het probleem, hebben we no gehad
Stap 2 bagetaliseren van het probleem, excuus zoeken.
Stap 3 komt als er nu veel nagative aandacht komt klanten gaan klagen. Dan komt men met oplossing, misschien paar euro korting.

Neemt niet weg dat men iets verkoopt met specificaties die het niet heeft. Als klant kun je dan de boel gewoon terugbrengen en nvidia moet het maar oplossen.

Communicatieprobleem, onzin, als dat zo is kun je meteen roepen het is er een zooitje als de ene afdeling niet weet wat de andere doet.
Onzin is het niet, er is in principe 4 GB geheugen aanwezig, dat een deel minder snel aanstuurbaar en inderdaad niet praktisch is is. En hier is toch ook netjes vermeld dat je minder CUDA cores hebt, en het aantal ROP's wordt nu toch gewoon bijgesteld.
We kunnen dit probleem wel gaan opblazen maar daar bereik je niks mee, als de kaart hierdoor opeens niet meer voldoet aan je verwachtingen kun je toch gewoon de koop ontbinden? En vervolgens een 290X kopen, problem solved. Denk dat we hier niet te veel aandacht aan moeten besteden, bagataliseren doen ze niet want het is een klein probleem; Een kwestie van een domme fout.

En ik begrijp niet helemaal wat je zegt over communicatieprobleem
Maar is er in Nederland niet sprake van "een deugdelijk product"?

Daar doel ik dus mee dat je een product krijgt waar je met alle redenen mag verwachten dat alle 4GB gewoon aanspreekbaar is, zoals geadverteerd. De GPU wordt geadverteerd als Gaming kaart en dus zou alle 4GB in games gebruikt moeten kunnen worden


In een Nederlandse rechtzaak zou dit erg interessant kunnen worden

[Reactie gewijzigd door BJ_Berg op 27 januari 2015 15:44]

inderdaad een interessante zaak, hopen dat de rechter technisch goed onderbouwd is dan (of juist niet). Ik weet niet of die gaming zo veel zeggend is, kaartjes van 30 euro adverteren soms ook met gaming 8)7
Er zijn zat bedrijven waar de ena afdeling niet weet wat de ander doet! Ik geloof niet dar ze de boel opzettelijk bedrogen hebben, helemaal tegenwoordig niet, dat zoiets toch zeker een keer uitkomt.
Het ironische is dat de kaart zelfs met de dus nu blijkbaar wat lagere specs, nog steeds erg goed is, afgezien van de wellicht verminderde prestaties op die laatste 500mb vram na.
het probleem is dat men nu het gevoel krijgt dat ze een product hebben gekocht dat met de specs van waar die origineel mee is gepromoot wellicht wat beter zou zijn geweest dan dat die nu is...
Afgezien dat het een nogal slordige fout is is het eigenlijk niet zo erg. Men weet dat degenen die zich hier goed op inlezen, de cijferneukertjes (niet lullig bedoelt) hier uiteraard achter zullen komen.

Persoonlijk vind ik het niet een groot probleem, die 500mb fout vind ik een stuk minder.
Persoonlijk vind ik het niet een groot probleem, die 500mb fout vind ik een stuk minder.
Inderdaad. Hoeveel ROPs er in zo'n kaart zitten zegt mij als leek niet veel en ik heb de kaart ook niet gekocht op aantal ROPs, maar op de benchmarks. Die benchmarks veranderen niet in het licht van deze nieuwe informatie, dus wat dat betreft is de 970 nog steeds even goed als enkele weken geleden.

Maar dat RAM, dat zit me wel dwars. Ik koop de kaart zodat ik 4 GB kan gebruiken. Ik mag daarbij - vind ik - veronderstellen dat de laatste GB van dat RAM even goed presteert als de eerste. Dus dat de benchmarks die waarschijnlijk met < 3.5 GB belasting gemeten zijn, doorschalen tot en met de 4 GB. Dat blijkt dus nu niet zo te zijn en dat betekent dat de performance waar ik nu tevreden mee ben, niet gegarandeerd blijft op hogere resoluties of bij zwaardere games.

Niet het einde van de wereld, maar ik vind wel dat Nvidia hier door het stof mag richting de consumenten. Want ongeacht of dit per ongeluk (yeah right!) of opzettelijk was, dit is een stukje misleiding waar je niet met alleen een "oeps!" mee weg zou moeten komen.
Het probleem zit hen niet het ram, wat extern zit, maar in de geheugencontroller(s) die communiceren met het externe ram. De mem-controller, die zit in de chip gebakken.
De "verminderde reputatie" als Nvidia heeft gekregen in de loop der jaren wil ik anders wel mee ruilen.

En dat terwijl er toch echt heel veel misleiding is geweest, van benchmarks tot press-releases, van technische specificaties tot garanties.
Ik kan er best inkomen dat het daadwerkelijk een communicatiefout is geweest, zoals de auteur van het artikel op op anandtech ook aangeeft is dit de eerste reeks kaarten van nVidia waar ze in staat zijn om een deel van een ROP/L2 unit uit te schakelen i.p.v. de complete unit. Als de productengineers dit niet vertellen aan de afdeling marketing dan kan het dus gebeuren dat ze op de marketing afdeling verkeerde aannames gaan doen. Nvidia is echt niet zo dom om zoiets bewust te doen want zij weten ook donders goed dat als zoiets uitlekt dat ze zichzelf daar uiteindelijk mee in de voeten schieten.

Nvidia probeert simpelweg het beste uit hun yields te halen en ik geef ze geen ongelijk. Als ze namelijk een complete unit uit hadden moeten schakelen hadden ze met een kaart met 3GB VRAM en 1.5MB L2 cache gezeten die minder presteert en dus moeilijker te verkopen is. Nu heb je 3.5GB VRAM + 1.75MB L2 cache dat kan functioneren op volledige snelheid en 500MB VRAM dat trager is maar altijd nog een stuk sneller dan je werkgeheugen.
Ben het met je eens. In de reviews wordt er niet veel aandacht besteed aan deze zaken. Vaak alleen hoeveel cores en op welke snelheid ze lopen. Basis van die gegevens wordt er een verwachting gemaakt door de techsites. Na het testen wordt de conclusie gebaseerd op de benchmark resultaten en de prijs, niet op hoeveel en wat allemaal is ingeschakeld.
Gaat nVidia GTX970 eigenaren ook op enige manier compenseren? Ze spreken over een "communicatiefout" maar het is natuurlijk gewoon misleidende reclame.
Mjah, de vraag is een beetje wat een consument verwacht of meer, wat ze uiteindelijk belangrijk vinden. Specificaties vs Prestaties

De gemiddelde koper van deze videokaarten doet dat op basis van performance, niet zozeer de technische details onder de motor kap.

Trekken we dezelfde vergelijking bijvoorbeeld verder door naar auto's. Er is gesteld dat de videokaart 0 naar 100 doet in 8,5 seconden. Bij reviews van NVidia en extrene review bleek de videokaart inderdaad 0 naar 100 in 8,5 seconden te halen.

In de brochure van de auto/videokaart werd er gesteld dat de auto een 6 cilinder was maar in de praktijk blijkt het een 4 cilinder te zijn (ok, beetje lomp groot verschil, maar toch). Maar ook dat de auto alle gestelde prestaties waar maakt zoals ze vooraf in benchmarks is laten zien en vervolgens onafhankelijk getest zijn. Maar dat via slimme trucjes en andere zaken de prestaties van een 6 cilinder nu gehaald kunnen worden met een 4 cilinder, inclusief het geluid, etc.

Dat van die 6 cilinder en 4 cilinder is pas 3 maanden later bekend geworden toen vele mensen de auto, naar volle tevredenheid, dus al enige tijd reden. Is het dan daadwerkelijk een probleem? Je videokaart heeft de prestaties zoals vooraf beloofd en gemeten. Hij word, omdat de technische details onder de motor kap anders zijn dan eerst op papier stonden, niet trager.

Het enige waar je een beetje over zou kunnen vallen is het opgedeelde geheugen en dat het laatste stuk inderdaad trager is dan voorheen verwacht. Maar wederom veranderd dat de prestaties van de videokaart niet tegenover de bekende gegevens (bechmarks, etc.) waarop hij gekocht is.

Technisch/letterlijk gezien is het inderdaad anders dan wat er initieel aangegeven is. Qua prestaties en alle zaken die je vooraf aan informatie verzamelt om de betreffende videokaart te kopen veranderd echter niets. Ben je dan genept... of niet? En zo ja, doet de kaart minder dan initieel beloofd/voorgedaan en is hier een compensatie voor nodig?

Ik ben in dit geval van mening, nee. De kaart doet wat er beloofd is op het niveau zoals aangegeven (Zowel door NVidia en alle benchmarks).

Kleine add:
Verder moeten we ons denk ik niet blind staren op pure bandbreedte. Veelal is in dit geval de latency ook belangrijk, zo niet belangrijker!

Ik verwacht dat framebuffers en dergelijke ten alle tijden in de 3,5GB partitie zullen belanden en dat de 0,5GB veelal gebruikt zal worden voor texture gegevens. Als er een scene over je beeld komt waarin een texture zit die in het 0,5GB geheugen zit dan is de latency vele malen belangrijker dan de pure bandbreedtes. PCIe/CPU geheugen heeft een veel hogere latency dan lokaal beschikbaar geheugen.

De bandbreedte word pas interessant als er zoveel textures uit dat stuk moeten komen dat er een bottleneck word gevormd waardoor dit langer duurt dan uit het 3,5GB stuk. Die kans bestaat uiteraard maar aangezien de partitie zoveel kleiner is dan het hoofd gedeelte gaat dat in de praktijk wel meevallen verwacht ik.

Staar je dus niet blind op bandbreedte, het ligt er helemaal aan waar het specifieke stuk voor gebruikt word.

[Reactie gewijzigd door Quindor op 27 januari 2015 15:48]

Die vergelijking klopt niet. Zoals eerder aangegeven is er (bijna) geen verschil in gemiddelde FPS, maar wel meer stutter door trage frametimes als er geheugen gebruikt wordt wat toevallig in het 'slome' deel staat. Er zijn dus zeker wel situaties waar de kaart minder presteert door dit 'probleem'.

Een betere vergelijking is: als je met je auto van hier naar zuid Spanje rijdt en onderweg valt ineens je auto 5x een paar seconde uit. Je komt misschien maar een minuut later aan, maar je hebt onderweg wel een paar problemen ondervonden.

De eerste fabrikant (MSI) heeft bekend gemaakt te werken aan een bios update mbt dit probleem: http://nl.hardware.info/n...egen-uitleesfout-geheugen - de update verhelpt het probleem zelf overigens niet.

[Reactie gewijzigd door Mitchell-CWD op 27 januari 2015 14:56]

Daar ben ik het niet helemaal mee eens. De kaart presteerd zoals initieel aangegeven en te zien was in alle benchmarks, inclusief frame-time, minimum dips, etc. Daarin is NIETS veranderd nu dat de specificaties op papier iets anders blijken te zijn. Daaronder valt ook de 0,5GB geheugen die trager is dan de andere 3,5GB.

Er zijn honderden benchmarks uitgevoerd in 4K met maximale settings, etc. en daarin kwam de kaart goed naar voren. Dat is niet veranderd nu dat de specificaties iets anders blijken te zijn of het verhaal van het geheugen bekend is. Dat het blijkbaar initieel door geen enkele benchmark site gemerkt is, geeft aan hoe vaak een dergelijke situatie voorkomt lijkt me en dus ook dat de kaart gewoon bruikbaar is in dergelijke situaties.

Ik snap wel wat je zegt, maar het scenario wat jij schetst komt voort uit dat de kaart niet juist, of anders dan vooraf bekend zou functioneren, en dat is niet het geval. Hij presteert nog steeds exact hetzelfde als de gegevens die bekend waren toen een persoon de kaart heeft aangeschaft.

Als tweede is er nog het stukje 0,5GB geheugen gebruiken en specifiek gaat meten hoe snel dat stuk is, ja, dan klopt het. Maar dat is niet wat er in de praktijk gebeurt met een videokaart. Dat is hetzelfde als zeggen dat als je de motor van je auto voor 5 minuten op 2348 toeren precies houd, deze eventjes sputtert, iets wat je normaal nooit zal doen.

De IT wereld is wat dat betreft wat apart. Voordat mensen een videokaart kopen kunnen ze eerst via 10 verschillende websites onafhankelijke benchmarks op zoeken om te zien hoe de kaart werkelijk in de praktijk presteert. Daardoor zijn de specificaties van de kaart (vanaf die review sites, niet bij NVidia volgens mij), of hoe het geheugen hiervan is opgebouwd, etc. niet meer van zo'n groot belang voor de meeste mensen, die kijken puur naar de prijs en het uiteindelijk prestatie niveau.

Dus in theorie klopt alles wat je zegt, maar maakt dat hoe de kaart presteert in de praktijk anders dan toen de mensen deze hebben aangeschaft met de op dat moment bekende gegevens. Daarvan blijf ik nog steeds nee zeggen.

p.s. Het artikel waar je naar linked gaat erover dat het systeem maar 3,5GB geheugen te zien krijgen en niet 4GB zoals op de kaart aanwezig is. Dat heeft naar mijn mening niet te maken met dit issue behalve dan dat MSI zijn BIOS niet goed op orde had of ervoor gekozen had de 0,5GB niet beschikbaar te stellen voor gebruikers.

[Reactie gewijzigd door Quindor op 27 januari 2015 16:59]

Daar ben ik het niet helemaal mee eens. De kaart presteerd zoals initieel aangegeven en te zien was in alle benchmarks, inclusief frame-time, minimum dips, etc. Daarin is NIETS veranderd nu dat de specificaties op papier iets anders blijken te zijn. Daaronder valt ook de 0,5GB geheugen die trager is dan de andere 3,5GB.
maar hoe weet je of er ook benchmarks gedraaid zijn met > 3.5 GB geheugengebruik?
Mijn gok is dat dat niet gebeurd is, want dan waren de stutters meteen al ontdekt geweest en dan had de 970 niet de lovende kritieken gehad op reviewsites die het nu heeft.
De benchmarks laten dus de prestaties zien in de gunstigste situatie en niet in de minder gunstige.

In jouw auto analogie: stel dat een autoblad de topsnelheid van een nieuwe auto meet met 1, 2 en 3 personen erin en de topsnelheid is dan steeds 200 km/u. Dan zul je toch behoorlijk teleurgesteld zijn dat als je die auto gekocht heb en er met vier personen mee gaat rijden en de topsnelheid dan opeens nog maar 80 km/u blijkt te zijn.
Daar kan ik wel inkomen, aangezien er wel degelijk een verschil zit in de snelheden tussen de geheugens.

Echter hebben bijvoorbeeld Anandtech.com en NVidia zelf op dit moment problemen om een benchmark te verzinnen waarin de impact daadwerkelijk goed te meten is, of meer dan enkele procenten verschil maakt (inclusief minimum framerate en frametimes, etc.)

Hoe dan ook, klopt het in theorie wat je stelt, daar ben ik het dan ook niet mee oneens, maar ik verwacht dat het probleem in de praktijk veel kleiner, zo niet überhaupt merkbaar is dan dat er nu word aangenomen. En daarmee dus wellicht helemaal geen probleem is.

Ik verwacht dat we dat ergens in de komende dagen in een gedegen test wel gaan zien! Voor die tijd is er nog maar weinig over te zeggen ben ik van mening, en daarbij het feit dat een grote partij als NVidia dit gebruikt in zijn product verwacht ik dat ze vertrouwen hebben in hoe het product ontworpen is.
Zou het niet kunnen dat die reviewsites de 970 niet tot het uiterste gedreven hebben door niet te testen met 4K en de max. instellingen, kortom de hoogstmogelijke instellingen waardoor ze nooit de 3.5 GB vram overschreden hebben en het probleem niet aan het licht gekomen is?

Voor huidige games is het misschien nog geen probleem, maar voor toekomstige die meer dan 3.5 GB vram vereisen wel.

En gebruikers die melden dat er stutter optreedt bij >3.5 GB vram gebruik, liegen die dan allemaal? Het kan natuurlijk zijn dat de instellingen zodanig hoog zijn(4K, max. instellingen,....) dat je daardoor die stutter krijgt enniet door het trage 512 MB segment. Het kan alleen maar aangetoond worden ie direct vergelijk met de 980, als je alle klokinstellingen terugklokt op 970 niveau,maar dan nog heeft de 980 meer SM units, rop's en L2 waardoor als de 980 geen stutter vertoont bij >3.5 gb je niet kan concluderen dat het komt doordat de 980 wel 4 gb snel vram kan aanspreken of dat het komt door die extra SM units,rop's en L2. Het zal moeilijk zijn om te bewijzen dat het trage 512 MB segment echt een invloed heeft op het prestatieverlies. Het is twee x rapper dan systeemgeheugen maar ook heel wat trager dan het 3.5 segment.

Anandtech heeft gemeld dat ze verdere benchmarks zullen uitvoeren, dus even afwachten.
Zoals ik het zie hebben jullie allebei een goede vergelijking, Quindor m.b.t. de specificaties en jij m.b.t. de ervaring.

Kan dit opgelost worden door een spel en/of drivers te updaten zodat die anders het geheugen benaderen? Anders kan dit wel eens een nare ervaring worden voor nVidia lijkt mij. Een bios update is al niet voor iedereen weggelegd en is ook niet zonder risico, zeker als er maar 1 bios op zit.
Er kan een driver gemaakt worden die hier rekening mee houdt, maar niet één die het probleem helemaal op lost. Het is een probleem in de hardware. Die 0.5gb zal altijd slomer blijven. Wel kan je er slimmer mee omgaan, maar dat is meer een workaround.
De meeste mensen kijken alleen naar de frame rate terwijl frame time misschien wel net zo belangrijk is.

Het stotteren bij games die 4GB gebruiken is gewoon heel erg storend en dat is niet zoals de kaart hoort te functioneren.
Technisch/letterlijk gezien is het inderdaad anders dan wat er initieel aangegeven is. Qua prestaties en alle zaken die je vooraf aan informatie verzamelt om de betreffende videokaart te kopen veranderd echter niets. Ben je dan genept... of niet? En zo ja, doet de kaart minder dan initieel beloofd/voorgedaan en is hier een compensatie voor nodig?
Maar daar zit nu juist het (mogelijke) probleem. Sommigen melden dat er flink lagere framerate en nog erger forse spikes in frametimes komen boven de 3.5GB gebruikt VRAM. Het zal nu moeten uitwijzen of dit echt komt doordat de GM204 chip van de GTX970 anders in elkaar zit, of dat het komt door drivers en/of slecht geoptimaliseerde games. Als games door de hardware problemen krijgen kan NVidia nog niet naar die gamedevelopers gaan wijzen en zeggen "ja door onze hardwarematige fout moeten jullie de boel maar anders programmeren".
De komende tijd zullen er vast uitgebreide tests worden gedaan door verschillende tech websites en als daaruit eenduidig blijkt dat de hardware de boosdoener is, dan heeft NVidia mijn inziens geen poot om op te staan en is mijn inziens elke vorm van kritiek die ze hierop krijgen helemaal terecht.

Ik kan begrijpen dat mensen zeggen dat wij, als consument, niet in een keer moord en brand moeten schreeuwen. Anderzijds denk ik dat men wel moet begrijpen dat het kopersbedrog is en NVidia, of wel ander bedrijf dan ook, niet snel wat zal doen zolang niemand wat zegt. Dat zowat niemand het interesseert hoe een grafische kaart tot prestatie X komt is waar, maar ik gok dat vele kopers van een GTX970 op dit moment nog geen volop gebruik maken van hun kaart. Als je nu een gemiddelde game op 1080P speelt zul je vrijwel nooit boven die 3.5GB geheugen uitkomen en merk je het probleem niet. Echter wil je die kaart wel 2, 3 of 5 jaar gebruiken en tegen die tijd zijn games veeleisender en zijn 4K schermen wellicht de maatstaf. In dat geval kom je (mogelijk) wel ineens in de problemen.

Daarnaast is het wellicht voor jou of persoon X niet zo interessant, want "ja ik kom nooit aan die 3.5GB VRAM grens", maar het is ook marktvervalsing richting AMD. Er zal qua kosten best een verschil tussen zitten voor AMD of zij een competitieve kaart moet ontwikkelen met (volledig, goed werkende) 4GB geheugen of dat ze het met 3 of 3.5GB af hadden kunnen doen. Al zou het AMD netto maar 2 of 5 euro per kaart besparen om een gelijkwaardige kaart neer te zetten, of dat ze diezelfde 2 of 5 euro konden gebruiken om een betere kaart neer te zetten, dat loopt met miljoenen verkochte GPU's toch aardig in de centen.
En zeker in een markt zoals die van de desktop GPU's waar er eigenlijk maar 2 spelers zijn is het des te kwalijker als een van hen de boel belazerd en het is even zo erg als wij als consumenten ze daarmee laten wegkomen.

En nee, ik vind niet dat we meteen met de fakkels en hooivorken naar het hoofdkantoor van NVidia moeten gaan, maar duidelijk laten horen dat consumenten niet van dit soort gedrag gediend zijn moet wel. Het is vervolgens aan NVidia om zichzelf uit de penarie te halen en de klanten tegemoet te komen. Uiteindelijk is het NVidia die er doelbewust voor gekozen heeft om de GPU zo als nu bekend is te ontwikkelen en zij hebben de verkeerde informatie naar buiten gebracht. Of dat laatste bewust is of niet laat ik nog even in het midden, daarover zal de waarheid t.z.t. ook wel van boven water komen.
Ok, daar kan ik wel inkomen inderdaad.

Ik ben erg benieuwd naar de review sites die inderdaad gaan testen met testen om het geheugen maximaal (4GB) te gebruiken. Tot nu toe heb ik geen enkele officiële review gezien die dit probleem heeft opgemerkt, ook niet in alle 4K tests waar juist de GTX970 voor aangeprezen werd! (Inclusief frametimes, minimum dips, etc.)

Maar goed, wat je zegt, wat niet is kan nog komen. Maar ik ben inderdaad benieuwd hoe groot daadwerkelijk het verschil gaat zijn. Ik verwacht dat de memory partitioning die NVidia erin heeft gebakken express op die manier gemaakt is zodat frame buffers en andere zaken ten alle tijden in de snelle 3.5GB blijven zitten dus dat het wellicht puur textures zijn of andere zaken die naar de 0,5GB verplaatst worden.
Veel gaat idd. afhangen hoe goed de driveroptimalisaties zijn voor specifieke games. Minder veleisende gamezaken(zoals je zegt textures ed...) in het trage 0.5 GB segment en veeleisende in het snelle 3.5 GB segment. Maar aangezien de drivers van nVidia meestal wel goed zijn, zie ik daar geen problemen in.
Ik vermoed dat ze het toch bewust verzwegen hebben hoor. Door niet te vermelden dat de 970 minder rop's en L2 cache heeft is niet aan het licht gekomen dat het vram opgedeeld is in een rap 3.5 GB segment en een traag 0.5 GB segment. Had nVidia die informatie wel gegeven, dan gingen er veel meer mensen de GTX 970 links laten liggen. Eigenlijk is dit regelrechte produktvervalsing(als ze gelogen hebben).
dat is denk ik het probleem, de kaart doet het in 90% (gokje) goed. tot op het moment dat een game de laatste trage halve GB gaat aanspreken. het klinkt misschien gek maar ik denk dat NVdia er goed aan doet deze laatste halve GB uit te schakellen in de drivers zodat games die laastste halve maar tage GB niet kan aanspreken en dus ook niet als balast hoeft mee te slepen.

ik zie het meer als het is een hele snelle auto. waar een kilo of 100 gewicht aan toe is gevoegd om mee te mogen doen. het is dan nog steeds een hele snelle auto maar toch ondervind je wat problemen door het toegevoegde gewicht.

[Reactie gewijzigd door dezejongeman op 27 januari 2015 16:53]

Als je een 4 gig kaart koopt dan wil je deze ook ten volle gebruiken. Anders had je een kaart kunnen kopen met minder geheugen.

Het is gewoon pure misleiding hier. Juist de mensen die op specs letten, net die 1% meer eruit willen slepen tegen het voor hun beschikbare budget worden op deze manier gewoon genaait.

Daarnaast is dit gewoon echt slechte publiciteit. Ik denk dat veel mensen zich wel even achter de oren krabben als ze een nieuwe videokaart uitzoeken en blind lopen te staren op specs en reviews. Ik zou me in elk geval WEL afvragen of de specs kloppen?
Waar zit de misleiding? Heeft de kaart dan geen 4GB? Het is de eerste keer dat dit probleem zich voordoet en de eerste keer dat men zoiets gaat nakijken. Het feit dat alle grote reviewsites het niet gezien hebben doet een mens afvragen hoe groot het probleem nu werkelijk is.
Lees het artikel van Anandtech dan maar eens. Ze slaan serieus mea culpa dat ze het niet gezien hebben in hun benchmarkresultaten van de GTX 970. Er waren nochtans afwijkingen genoeg, zeggen ze zelf.
Het probleem is dat de performance een dump neemt bij 3,51 GB belasting.

En als je kijkt naar de trend ingezet door consoles voor massief geheugengebruik. (zie Shadow of Mordor) heb je die laatste halve gigabyte straks ook nog echt nodig.


Dus momenteel niet zo'n groot probleem maar dat komt later nog wel.

[Reactie gewijzigd door Torched op 27 januari 2015 16:57]

Volgens mij heb je gelijk, zij geven op de doos aan X aantal RAM met een X snelheid.

Maar ook een X gebruik aan stroom.

Meeste mensen vinden deze kaart interessant ivm de specs en het stroomgebruik, nu zie je waar het door komt.

Benchmarks maken in een rechtszaak niet uit, wat er op de doos staat en wat er vervolgens in de doos zit wel - en dat is toch echt anders.
De laatste 0.5 GB uitschakelen maakt de prestaties nog slechter: de kaart moet dan het normale geheugen over de PCIe-bus gaan gebruiken en dat is nog een factor twee trager dan de laatste 0.5 GB on-board geheugen.

De laatste 0.5 GB uitschakelen zou alleen helpen voor game engines die proberen om het geheugen precies geheel op te vullen door evt. extra ruimte als cache te gaan gebruiken. Maar ik weet niet of er engines zijn die dat doen.
Kun je onderbouwen dat de kaart het in 10% van de gevallen niet goed doet? Wat nou als dat 0,001% is?
Dan eisen de 970 gebruikers wel stickers... voor op hun doos 4GB 3,5GB
Technische specificaties moeten in principe gewoon kloppen. Als ze niet kloppen, word je gewoon om de tuin geleid. In dit geval gaat het om harde data, niet om verbruiksgegevens, topsnelheid of iets dergelijks. Een 4 voor een 6 cilinder verkopen is dan ook gewoon een leugen; cilinders zijn ook harde data. Zou dom zijn om daar over te liegen.
Nou over verbruik cijfers is algemeen bekend dat ze wel degelijk misleidend zijn. De opgaves zijn onmogelijk onder normale omstandigheden te behalen.

Sorry verkeerd gelezen je hebt helemaal gelijk.

[Reactie gewijzigd door toet-toet op 27 januari 2015 15:34]

Het is uiteraard duidelijk dat er een fout is gebeurd in de communicatie. Die fout is echter enkel geslopen in de communicatie naar reviewers voor zover ik begrepen heb. Op de NVidia pagina over de GTX 970 staan dit soort specs niet eens vermeld. Ik weet niet in hoeverre zo'n specs op de retail-dozen vermeld worden, maar gok van niet.

Vraag is of het koopgedrag wezenlijk anders was geweest indien die specs (aantal ROPs en hoeveelheid L2 cache) vanaf het begin wel juist waren vermeld. Dat lijkt mij onwaarschijnlijk: de gpu's nu zijn namelijk nog steeds dezelfde als deze die door reviewers werden getest en hun benchmark-resultaten zijn nog steeds geldig onder die omstandigheden. Als je je aankoop-beslissing hebt genomen op basis van reviews, dan is er IMHO geen probleem.
Ik denk niet dat NVidia ertoe gedwongen kan worden een compensatie te voorzien. Dat gezegd zijnde, zou het natuurlijk wel een mooi gebaar kunnen zijn van hun uit...

Ik volg de mening van AnandTech die gelooft dat dit niet meer dan een (weliswaar vervelende) vergissing was.

[Reactie gewijzigd door apa op 27 januari 2015 14:11]

Op de specs pagina staat 4 GB terwijl het eerder 3,5GB + 0,5 GB is.
Bandwidth staat 224 GB/s Voor de eerste 3,2--3,5 GB daarna zakt het als een baksteen in. Dus klopt ook niet.
Dus zelfs Nvidia loopt naar de mensen te liegen op hun eigen pagina.
Op de specs pagina staat 4 GB terwijl het eerder 3,5GB + 0,5 GB is.
Mja, de kaart heeft wel degelijk 4 GB en kan die ook volledig gebruiken. In dat opzicht vind ik dit niet meteen misleiding.
Bandwidth staat 224 GB/s Voor de eerste 3,2--3,5 GB daarna zakt het als een baksteen in. Dus klopt ook niet.
Bandbreedte is altijd piek: ook voor de eerste 3,5 GB. de effectieve bandbreedte hangt van hoe je uit het geheugen precies leest. Het is net dat laatste (hoe de kaart de laatste 512 MB leest) die voor de vertraging zorgt. Ook hier vind ik dat niet meteen misleiding.

Bij harde schijven, SSD's, dual- en quad-channel RAM in PC's en dergelijke geldt overigens net hetzelfde en daar hoor je eigenlijk amper iemand over klagen.

Begrijp me niet verkeerd: NVidia heeft zeer zeker een fout begaan in de communicatie van de technische specsaan reviewers en dat moeten ze in de toekomst zeker proberen vermeiden. Ik denk alleen dat dit hele verhaal ietwat een storm in een glas water is. Ik denk dat de verkopen van de GTX970 niet wezenlijk anders waren geweest mochten de specs vanaf de eerste dag volledig correct zijn opgegeven.
Geheugen heeft niet hetzelfde als harde schijven. Het punt is dat de geheugen bus zo'n 200 GB/sec leest over de gehele lijn tot je op zo'n 3,2-3,5 GB van het geheugen zit dan zakt het heel hard tot waardes wat gaat tot 12 GB/sec. Dat is nu niet een gevalletje van iets minder.

Wat Nvidia nu waarschijnlijk gaat doen is gewoon die 512 MB uitschakelen en dan mogen de gebruikers het maar slikken.

Misleiding is misleiding en er is helemaal niks per ongeluk aan. Het is per ongeluk als ze er binnen 2 weken mee komen dit hebben ze ruim 4 maanden stil gehouden en pas nadat tig gebruikers begonnen te klagen kwam de aap uit de mouw.

Of het de verkopen veranderd zou hebben? geen idee, Ik had hem waarschijnlijk wel gekocht maar het is een princiepe kwestie. Je moet je eigen achterban/klanten gewoon niet voor liegen en als gebruikers ermee aan komen zetten het afschepen als lulkoek.

Ik weet in ieder geval 1 ding zeker. Dit is de eerste kaart in een lange tijd die ik van Nvidia kocht en het is gelijk de laatste en het gaat mij niet om de prestaties want ik heb er zelf nog niks van gemerkt maar het gaat om het princiepe en hoe Nvidia dit af probeert te wimpelen.

[Reactie gewijzigd door Hakker op 28 januari 2015 12:09]

Die specs zijn wel te vinden op de nVidia pagina,in de reviewers'guide, maar daarin was de informatie over de 970 ook verkeerd. Ik kan niet geloven dat niemand vh nVidia personeel die reviewers'guide (en andere documentatie) gelezen heeft en de fout niet opgemerkt heeft.
Waar op de NVidia-site vind je die reviewer's guide precies?
Ik weet dat de informatie in die reviewer's guides verkeerd is, maar dacht dat die guides enkel naar reviewers gestuurd werd (en niet beschikbaar was voor het grote publiek)...
Waarom zouden ze? NVIDIA verkoopt niet direct aan consumenten. Als consumenten problemen hebben hiermee dienen ze zich te melden tot de verkopende partij
Yep, maar als je alle verkopende partijen hiermee laat zitten maak je als bedrijf geen beste beurt. Om daarna alle rechtszaken van de verkopende partijen richting distributeurs, en daarna NVidia zelf voor te zijn kunnen ze beter nu al iets doen. Als je het goed doet is het alsnog goeie marketing.
Waarom lees ik niks over de extreme framerate variation? Dat is juist de grootste ergernis van GTX970 eigenaren.

Dit is niet merkbaar in de average FPS, maar wel in het gebruik.
Dit gaat niet in op het probleem wat ik bedoel. In de eerste post onder dat nieuws item behandelt een Tweaker het probleem waar het werkelijk over gaat.

Zie: http://www.overclock.net/...m-issue/650#post_23458748

Nvidia negeert het werkelijke probleem volledig. De gemiddelde FPS mag dan wel 1 tot 3% verschillen, de framerate variation daarentegen is problematisch. Dit zorgt voor frames die of te vroeg of te laat binnenkomen, wat een onvloeiend beeld geeft.
Maar in welk scenario kom je voorbij die 3,5GB? Ik gok in de basis enkel bij games voorbij de 1440p resolutie, met name de 4k games, waar dit pas echt een probleem wordt. Ik zie bij aantal 4k tests dat een Titan met 4x aa de 3.6GB aantikt.

http://www.digitalstormon...uhd-resolutions-idnum146/
Als ik dit zo snel bekijk, gaat een Crysis 3 dus gewoon door tot maximale geheugen gebruik. Is het dan voor de 970 geen idee om VRAM te locken op max 3,5GB? Dat geval gaat de game ook nooit meer gebruiken en loop je ook niet vast in die laatste 500MB. Geen idee of dit nog echt invloed heeft op prestaties (gezien hij die 3,5GB voltrekt).

Maar in de basis is de 970 dus gewoon een afgekeurde 980?
Maar in de basis is de 970 dus gewoon een afgekeurde 980?
Jep, maar dat is in de industrie niks nieuws. Intel doet dat al jaren met CPU's
En AMD met de Radeon HD XX50/XX70 bijvoorbeeld. Herinneren jullie de 6950/6970 nog? Of de athlons en phenoms die geunlockt konden worden?
Met FarCry4 kom ik ook al gauw op de 3GB (1080p, alles op hoogst).

[Reactie gewijzigd door AnonymousWP op 27 januari 2015 14:28]

vrijwel alle nieuws games me high-end ghx trekken gewoon 3.5GB + op 1080 met alle opties aan
verklaar je nader, heb t nog niet meegemaakt..
Zo'n videokaart koop je natuurlijk niet alleen voor vandaag maar ook om er een tijdje mee vooruit te kunnen...
Hij wordt juist verkocht als een kaart waarmee je die hogere resoluties kunt gamen ;)

Edit: En gewoon omdat de prestaties nu zo zijn, betekent niet dat die over 2 jaar ook zo zijn.

Uiteindelijk is deze kaart toch oud en ondermaats... en door deze 'bug' is hij veel snelller ondermaats omdat hij meteen echt fouten krijgt bij hogere stress.

[Reactie gewijzigd door Thystan op 27 januari 2015 16:04]

Modded Skyrim, daar kom je makkelijk bij 4GB geheugengebruik op 1920x1200.
Alle GTX 970 doen de VRAM al min of meer locken op 3,5 GB VRAM. Zodra je meer dan 3,5 GB dreigt te gaan gebruiken verwijdert hij onnodige zaken uit het geheugen zodat je weer onder de 3,5 GB zit. Alleen in zeer extreme gevallen, bijvoorbeeld 1440p met 8x AA, waarbij er echt niet meer onderuit te komen is verbruikt hij meer dan 3,5 GB videogeheugen.

Bij gamen op 1080p met 4x AA zul je de komende jaren dus echt nooit last hiervan hebben.

[Reactie gewijzigd door dusty-2011 op 27 januari 2015 17:41]

Far cry 4 tikt bij mij met alles op hoogste setting op 1080p iets over de 3.6GB aan uitgelezen met afterburner, ik merk wel wat stutters maar misschien komt dat ook omdat de kaart op vol vermogen werkt afterburner zegt 99%
Ik zal ook hier nog maar eens bevestigen dat het langzamere 500mb deel wel degelijk van invloed is op de performance in games.

Zie hier de test met AC unity op 4k zonder AA en maximum settings.

De volle 4gb is aangesproken en de dip Is zichtbaar als stabiele fps drop.

Perfect voorbeeld van traag 500mb vram.
Ik snap niet helemaal hoe dit een voorbeeld is van een framedrop door het specifieke stukje 0,5GB geheugen.

Als je zoveel in je vram propt dat ook daadwerkelijk gebruikt zou worden zou de framedrop constant moeten zijn. Niet structureel om de zoveel seconden. :S

Veelal zullen er textures in gecached staan (frame buffer, etc. word zeer waarschijnlijk ten alle tijden in de 3,5GB gezet door de memory partitionining), meer vram is meer cache. Stel je zou dit doen op een videokaart met te weinig/minder geheugen dan had het van disk gehaald moeten worden (of CPU memory). En DAT kan een hikje veroorzaken. Maar dan wel random, tijdens hevige wisselende scene's en met sowieso een meer schommelende framerate als dit.

Ik denk dat de test niet helemaal test wat je initieel dacht.
Ik dacht in eerste instantie terug aan de synthetische rec.exe benchmark waarbij je ziet dat de laatste 500mb behoorlijk langzamer word uitgelezen dan de rest en dat dan die drop verklaarde maar blijkt als ik jou zo hoor van niet dus?
Nee, naar mijn mening zit de werking van video geheugen een stuk complexer in elkaar. Stel je zou de frame buffer in de tragere 0,5GB geheugen stoppen, dan ja, dat ga je zeer zeker merken.

Maar een texture wat in bepaalde scene's gebruikt word wat iets trager binnenkomt, maar nog steeds veel sneller dan van het CPU geheugen zul je weinig tot niets van mee krijgen.Ook praten we over latency en bandwith. De bandbreedte is inderdaad minder maar de latency naar dat stukje geheugen is nog steeds hetzelfde als van het andere videokaart geheugen!!

Veelal cached het spel textures om deze sneller bij te kunnen. Als er dan enkele textures uit het tragere stukje moeten komen wil dat niet meteen altijd betekenen dat dit een probleem vormt of zelfs maar een vertraging.

Je hebt dus nog steeds een echte 4GB videokaart en er zijn zeker scenario's te verzinnen waarbij het problemen en vertraging gaat geven, maar of dat in de praktijk ook zo is, is een heel ander verhaal en kan alleen met praktijk benchmarks uitgewezen worden.
Inderdaad, je ziet duidelijk dat je gpu load niet constant is en hickups heeft. Wellicht dat je cpu een bottleneck vormt (al kan ik mij dat niet echt voorstellen), ik denk dat het dus inderdaad met het aanspreken van dat laatste stukje geheugen te maken heeft.

Tweede plaatje kan je weinig over zeggen omdat je de tijdspan niet weet van de as. MSI Afterburner geeft dit mooier weer :P.

[Reactie gewijzigd door Sp3ci3s8472 op 27 januari 2015 14:25]

Tijd tussen de dips in is 5 seconden en betreft de framerates.
Nee, het vram is even snel; het probleem komt van de geheugencontroller of beter gezegt de "rop/l2 unit" waarvan er normaal gesproken 8 actief zijn. Als er eentje uitgeschakeld is, kan er niet meer optimaal met het vram gecommuniceerd worden. Nvidia probeerd dat af te vangen, door de goede rops met het 3.5GB te laten communiceren en daar, waar de rop/l2 unit deels uigeschakeld is met de resterenden 0.5GB te laten communiceren. Dat veroorzaakt de slechtere performance, niet het vram ansich.
Kun je mischien uitleggen waarom je denkt dat die framerate drop veroorzaakt wordt door het aanspreken van dat geheugen? Volgens mij zouden eventuele negatieve effecten zich allemaal binnen een frame moeten afspelen.
Je geeft hieronder aan dat de dips met afstand van 5 seconden plaatsvinden. Ik zie eigenlijk geen goede reden om een stukje geheugen precies om de 5 seconden aan te spreken in een spel.
Ik denk eerder dat het aan de drivers of AC ligt.
De uitgeschakelde rop/L2-unit werd niet in documentatie, zoals de reviewer's guide van de GTX 970 vermeld. Volgens Nvidia was het team dat de marketing van de GTX 970 verzorgde simpelweg niet op de hoogte.
Dat zou ik ook zeggen ja.
Aan die percentages heeft niemand wat, wat we willen weten is wat de frametimes zijn op 4k met een hoog geheugen gebruik; en met name in SLI setups.
Inderdaad, ik vraag me ook af hoe ze dat percentage bereken. Als je last hebt van hickups in de framerate en hij een paar ms stottert is het super irritant maar als je het over een tijd van een minuut bekijken en dan de totale tijd van het stotteren bij elkaar optelt dan zal het qua procenten wel meevallen ja. De kaart zal dan misschien wel goedkoper zijn maar dat mag een slecht ontwerp niet goedpraten. Bij CPU's (ik weet niet hoe het tegenwoordig zit) werden vroeger ook wel eens cores uitgeschakeld die niet helemaal betrouwbaar waren maar dit leverde in principe geen onverwachte prestatietegenvallers op omdat de cores die wel ingezet werden gewoon goed werkten.

Deze kaart begint wel een beetje een klein schandaal voor Nvidia te worden.
Die was hier niet al te best in het geval van Shadow of Mordor op 4K.
Continue stutters ondanks 48FPS gemiddeld in de ingebouwde benchmark.
Aanpassen van settings maakt niks uit zolang je over de 3,5GB gaat.

SLI draaien is iets wat je dus eigenlijk pas met 8GB varianten moet willen.
Of je moet onder de 4K resolutie en/of 3,5GB VRAM blijven.

Zou je met 8GB modellen dan ook effectief 7GB VRAM hebben als je deze 'communicatie fout' door trekt?
Sterker nog, het lees met GPU-Z maar eens uit ROPs de chip beweert dat je hebt? Juist ja, daar staat gewoon 64, en niet 52 zoals de waarheid is.

Één grote cover up van Nvidia dus, want het marketing-team heeft niet de bios voor de GPU geschreven!

Of was dit "toevallig" ook een onschuldig foutje van Nvidia dat "toevallig" hetzelfde weergeeft als het marketingteam, dat zich ook "toevallig" vergist?

Heeft de ontwikkelteam van de bios soms eerst even bij het marketingteam gecheckt wat voor chip ze moesten programmeren? En hebben ze toen die riepen "Is gewoon met 64 ROPs, ik zweer!" alsnog met hun vingertjes 64 ingetypt?
De basis van het probleem zit in de mogelijkheid bij Maxwell om een slecht functionerende unit, bestaande uit 8 rops en 256KB L2 cache, uit te schakelen.
Wil dit zeggen dat dit niet altijd het geval is? De mogelijkheid tot het uitschakelen, alleen indien defect...
Dat zou kunnen verklaren waarom niet iedereen dit probleem ervaart?
Wil dit zeggen dat dit niet altijd het geval is? De mogelijkheid tot het uitschakelen, alleen indien defect...
Dat zou kunnen verklaren waarom niet iedereen dit probleem ervaart?
Zo is het niet. Een fabrikant (zoals NVidia, Intel, AMD, ...) gebruikt eenzelfde chip-design voor verschillende produkten: ze worden gedifferentieerd door kloksnelheden te variëren en bepaalde functionele blokken in- of uit te schakelen. Dat laatste is wat hier gebeurt: de GTX970 gebruikt chip-design GM204 (net als GTX980). Om die als een GTX970 chip te verkopen, worden de kloksnelheden aangepast en worden wat functionele blokken uitgeschakeld.

Wanneer een nieuw chip-design in productie wordt genomen, is het niet ongewoon dat een relatief hoog percentage van de chips gebreken vertoont. Het uitschakelen van functionele blokken kan er dan voor zorgen dat die defecte chip alsnog kan verkocht worden. Naarmate de productie verfijnd wordt, vertonen de geproduceerde chips minder mankementen. Ook dan worden de chips nog gedifferentieerd door kloksnelheden en functionele blokken in- en uit te schakelen omdat een apart/simpeler chip-design vaak duurder uitkomt.
Echter dat zou dus kunnen betekenen dat de chip niet daadwerkelijk defect is, maar wel een aantal uitgeschakelde elementen bevat. Wellicht wat aan de echte tweakers onder ons om deze weer in te schakelen?
Kan me herinneren dat dat in het verleden vaker bij kaarten is geweest.
Of het technisch mogelijk is om ze weer in te schakelen heb ik geen idee van.
Uitgeschakelde SM's zijn niet zo even 'in te schakelen'. En al kon je het wel dan is het zeer aannemelijk dat er fouten in die SM zitten waardoor ze niet of niet optimaal werken (immers, een 100% werkende chip zal naar een 980 gaan, en niet doelbewust gehandicapped worden om een 970 te worden, dat zou kapitaalvernietiging zijn). Wanneer de 'yield' hoog genoeg is en er dus minder fouten in het proces zitten, maar dat is vaak pas laat na productie, ontstaat die mogelijkheid wel, maar het kan ook zijn dat Nvidia er dan voor kiest de 980 te rebranden en opnieuw in de markt te zetten zoals dat met GK104 is gebeurd (dat was een GTX 680, werd een GTX 770 met sneller geheugen), of zoals GK110 (Titan) later een mass produced 780/780ti werd.

Vroeger waren dat soort 'hacks' inderdaad een optie, maar dat wordt nu vrijwel altijd wel op zo'n manier verhinderd dat je er niet meer bij kan. Het meest extreme wat je tegenwoordig nog kan is een BIOS flashen van eenzelfde chip (zoals een 980 bios op een 970) om via software dus de 'grens' van een overklok wat op te rekken.

[Reactie gewijzigd door Vayra op 27 januari 2015 15:21]

Niet helemaal waar; als de vraag naar 970 vele malen groter is en ze blijven zitten met een hele vracht 980's, dát zou pas kapitaalvernietiging zijn. Het productieproces kost toch even veel, dus gewoon een andere bios er in flashen die 1 ROP lockt en hopsakee, je hebt weer zat units om te verkopen.

Heeft AMD geloof ik ook wel gedaan met de 290 / 290X, en zeker weten met de 9800Pro waar op een gegeven moment de R360 van een 9800XT ipv de R350 aan boord zat, alleen lager geclockt.
Ik denk dat het anders werkt: ze bouwen de chips met alle units, testen die dan, en deze die niet ok zijn worden dan hardwarematig uitgeschakeld en vervolgens op de markt gebracht als 'lager' model.

In deze is dit geen probleem, maar een designkeuze.
Edit: maar je moet er transparant over communiceren, natuurlijk. 3,5 is geen 4...

[Reactie gewijzigd door Quilt op 27 januari 2015 14:51]

klopt, maar de kans bestaat dus zo'n kaart maar 1 kapotte SM heeft en dat het L2 volledig intact is
tweakers: start met uitzoeken hoe deze opnieuw kunnen geactiveerd worden :)
Dan hebben ze lekker zitten slapen, onprofessioneel. Verbaast me dat er niemand binnen dat bedrijf daar eerder zoiets had van "dit klopt niet".
Ik denk eerder dat dit een kwestie "wat niet weet, wat niet deert" is.
Zolang het publiek niet klaagt, is er niks aan de hand met de specs die ze vrijgeven. Nu blijkt dat er toch een probleem is en het publiek daar luidkeels over begint te roepen, komen ze met de eigenlijke verklaring.
Ik vermoed dat dit allang bekend was bij nVidia. Marketing wist hier ook gewoon van maar heeft besloten het te verzwijgen omdat ze vermoeden dat de impact laag zou zijn en er slechts weinig mensen over zouden gaan klagen.
Ze zijn blijkbaar vergeten dat de mensen die dit soort dure kaarten aanschaffen, voornamelijk de elite gamers zijn die ook mondig en technisch genoeg zijn om dit aan de grote klok te hangen.
Publiek 1 : nVidia 0

Nu maar eens kijken hoe ze dit gaan oplossen.
Dat denk ik inderdaad ook. Gewoon niks zeggen en met het k*tsmoesje aankomen dat het een communicatiefout was zodra men begint te klagen. In die tijd hebben mensen wel een product gekocht dat niet overeenkomt met de specificaties van de fabrikant.

Nu kunnen we het hele verhaal wel gaan bagatelliseren, maar wat mij betreft zijn ze bij nVidia gewoon bewust bezig geweest om klanten te besodemieteren. Je maakt mij namelijk niet wijs dat zo'n bedrijf niet weet wat ze op de markt brengen.
Ik denk eerder dat dit een kwestie "wat niet weet, wat niet deert" is.
Dat zou uitermate dom zijn; als er iets is wat de laatste tien jaar nog harder achteruit gegaan is dan privacy, dan is het wel de bereidheid van klanten om zich door bedrijven af te laten zetten.
Ooit was er een tijd dat je kon roepen "de klant is koning" en hem vervolgens lekker een poot uitdraaien, want ja, wat gaat ie doen (zo lang je het niet zo bont maakt dat ze aangifte doen)...!? Tegenwoordig roep je "de klant is koning" en heb je nog maar twee mogelijkheden over: het waarmaken, of monopolist zijn.

// Iemand die nog steeds, indien enigszins mogelijk, weigert om Sony spullen te kopen; niet vanwege de hack, vanwege de rootkit.
edit:
Waarmee ik niet wil zeggen dat nVidia's blunder, zelfs al zou het opzet zijn, even grof is als Sony indertijd; dat was natuurlijk nog vele malen erger.

[Reactie gewijzigd door robvanwijk op 27 januari 2015 21:23]

nee, juist erger
de elite gamers hebben immers een GTX980 gekocht
de mensen die nu zagen zijn degenen die een GTX980 willen, maar een GTX970 gekocht hebben (wat lomp door de bocht)

wat doen de specs er immers toe? de kaart is veelvuldig gereviewed en iedereen op tweakers die zo'n kaart heeft, heeft zeker weten minstens 1 zo'n review gelezen, de prestaties goed bevonden en overgegaan tot aankoop
dat de specs nu iets minder uitvallen maakt de kaart niet trager dan tijdens de review
het enige minpunt is wel dat de performance bij gebruik van meer dan 3,5GB vram soms achteruit gaat (niet altijd vreemd genoeg, hangt waarschijnlijk af van game tot game), maar ook dat was reeds zichtbaar tijdens de reviews
(ik acht mij gelukkig dat we niet weten wat de microcode updates doen bij cpu's)
Niet alle elite gamers kunnen (meteen) een 980 betalen.
Het zijn wel de elite gamers die specs vergelijken ;)
Elite gamers? Wait what?
Ik kan het me niet voorstellen dat ze hebben zitten slapen, aangezien het kunnen uitschakelen van bv de L2 en MS units een grote troef was van de Maxwell architectuur, zonder dat dit invloed zou hebben op de bus-snelheid. Door deze techniek kunnen ze dus de 970 verkopen met een 256-bit bus.

[Reactie gewijzigd door Deem op 27 januari 2015 14:34]

1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True