Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 399 reacties
Submitter: Neglacio

Tegen Nvidia is een class action-rechtszaak aangespannen vanwege de problemen met de GTX 970. Klanten willen hun geld terug omdat de videokaart niet presteert zoals verwacht: dat heeft te maken met geheugenproblemen die kortgeleden aan het licht kwamen.

De aanklacht is ingediend bij de rechtbank van het noordelijke district van Californië in de Verenigde Staten. Uit de aanklacht, die online is verschenen, blijkt dat de aanklagers Nvidia verwijten zijn klanten te hebben misleid. De documenten die bij de rechtbank zijn ingediend, zijn online verschenen. Het gaat om de GTX 970-videokaart die in september werd geïntroduceerd: die zou niet zo goed presteren als geadverteerd. Het gaat om een class action-rechtszaak, waar gedupeerde klanten zich bij aan kunnen sluiten. In de aanklacht is ook Gigabyte genoemd, als producent van de GTX 970.

Eerder kwam naar buiten dat de GTX 970 kampt met geheugenproblemen: het laatste blok van 0,5GB vram presteert aanzienlijk minder goed dan de rest van de 4GB die op de kaart is ingebouwd. Nvidia reageerde door te stellen dat het wel meevalt met de terugloop in prestaties. Daarna bleek dat de GTX 970 over minder rops beschikt dan Nvidia had opgegeven: volgens het bedrijf gaat het om een communicatiefout.

In de aanklacht worden zowel de geheugenproblemen als de lagere rops genoemd. De aanklagers willen gecompenseerd worden, wat inhoudt dat zij hun aankoopbedrag terug willen hebben. Nvidia heeft nog niet op de aanklacht gereageerd.

Nvidia GeForce GTX 970

Moderatie-faq Wijzig weergave

Reacties (399)

1 2 3 ... 6
Wat Nvidia hier gedaan heeft kan gewoon echt niet, schandalig, Er is gelogen over vrijwel alle specs

1. 3,5GB uniform geheugen ipv 4GB
2. 56 ROPS ipv 64
3. 1,75 MB L2 cache ipv 2MB
4. 192GB/sec bandwith ipv 224 (224 wordt alleen gehaald als het trage 512mb geheugen wordt aangesproken en dan is inmiddels je framerate al ingestort.

Deze class-action lawsuit kan mijns inziens ook niet verloren worden.
Het meest verbazende vind ik nog wel de totale minachting naar de consument toe (op hun forum kreeg je eerst te horen dat ze bezig waren met een oplossing om daarna gewoon totaal niks meer van zich te laten horen). Ontzettend arrogant.

Uiteindelijk snijden ze zich hiermee hard in de vingers en terecht, gelukkig hebben we in de EU een veel betere consumenten recht regeling, waardoor je hier zonder veel problemen je kaart kon terugbrengen, maar in bv USA is dat veel minder goed geregeld.

Ik gebruik zelf bijna exclusief Nvidia kaarten sinds de Riva TNT, dus dat is al even terug, maar mijn volgende kaart zal wel een AMD worden.

edit:
Bijgevoegd het originele plaatje wat Nvidia naar de reviewers stuurde om te gebruiken na het vervallen van de NDA (deze mocht dus daarna ook gepubliseerd worden, deze komt van HardOCP , die vorige week dit plaatje met specs heben veranderd in hun review voor een nieuwe met aangepaste specs).

http://s17.postimg.org/ii...595nit_FZ11_Eg1_1_2_l.gif

Zoals je kunt zien staan daar gewoon onwaarheden wat het aantal ROPS en L2 cache betreft, ook wordt er nergens vermeld dat het geheugen uit verschillende "partities" opgebouwd is (snel en zeer traag).

[Reactie gewijzigd door Hellhound op 23 februari 2015 02:04]

Zoals al een aantal keer is aangehaald. De specs die op uw doos staan kloppen wel allemaal. Jij hebt het over specs die je op internet leest en die dus niet officieel aan de consument worden medegedeeld.

Dat Nvidea een grote fout heeft gemaakt geef ik gerust toe. Of ze het expres hebben gedaan laat ik in het midden. Maar juridische gezien zit Nvidea nog wel redelijk goed ...

Ik heb trouwens ook een GTX 970 en benchmarks zijn belangrijker dan de specs die ergens op een bladje papier staan ...
De specs die op de doos staan kloppen inderdaad en hij heeft het zéér terecht over de specs die je op internet leest. Dat ze niet officieel aan de consument worden medegedeeld maakt het geen minder kwalijke zaak; wellicht zelfs nog kwalijker.

Het achterhouden van enkele 'beperkingen' die klanten nooit redelijkerwijs hadden kunnen voorzien zou wel degelijk juridisch strafbaar kunnen zijn. Ik denk dat Nvidia juist juridisch niet zo heel erg sterk staat, al zullen ze er alles aan gaan doen om te laten blijken dat de laatste 0.5 gb Vram geen enkele beperking is bij alledaags gebruik. Wat er op de doos staat is inderdaad niet gelogen, maar er zit wel een naar luchtje aan deze hele zaak. Ik geloof er zelf geen barst van dat de marketing afdeling geen idee had van de zaken die bij de productie plaatsvonden - en vice versa. Maar dit kan ik natuurlijk niet hardmaken en dat blijft speculatie.

Benchmarks zijn inderdaad belangrijker dan de specs die op een bladje papier staan. Maar nog belangrijker zijn je eigen speelervaringen met de 970 GTX. Ik game op 2560 x 1440px en heb in twee games meer dan 3.5 GB Vram aangetikt en kreeg last van rare micro stuttering lag. Dit kon ik verhelpen door bepaalde vram intensieve settings te verlagen. M'n FPS bleef overigens zo goed als gelijk, maar toch werd de game op bepaalde momenten wat schokkerig.

Overigens is het wel zo dat dit (hopelijk) met een driver update wat bijgespijkerd kan worden. De snelheid van de laatste halve GB vram zal niet omhoog gaan natuurlijk, dat is fysiek onmogelijk. Verder is het vervelend dat games de laatste tijd bizar veel zinloze, oude data in je Vram pleuren waardoor deze dus langzaam volloopt. Een groot deel van de textures die erin opgeslagen worden dienen nergens voor en kunnen er prima uit geflikkerd worden. Het moet echter niet zo zijn dat dit voor prestatieverlies gaat zorgen.

Maar is het een storm in een glas water? Een beetje wel. Bij het merendeel van de consumenten zullen er nooit problemen zich voordoen, omdat de performance loss erg moeilijk te simuleren is en slechts bij bepaalde random scenario's zich voordoet. Maar toch is het Vram probleem aan de orde gekomen doordat een aantal consumenten wel degelijk last hadden van rare lags en problemen. Kort hierna is dus onderzocht dat het laatste gedeelte Vram aanzienlijk trager is; dit is niet 'per ongeluk' gevonden zonder aanleiding.

Feit is wel dat er gelogen is over een aantal specificaties. Een rechtszaak vind ik overigens geen juiste oplossing, dit gaat natuurlijk een lange zaak worden waarbij advocaten bakken met geld verdienen. Een rechtszaak is in mijn ogen voor beide partijen niet heel erg zinvol en slechts kapitaalvernietiging. Verder ben ik wel van mening dat de communicatie van Nvidia ontzettend zwak is. Aanvankelijk reageerden ze heel erg terughoudend en vooral behoudend, alsof er helemaal niets aan de hand was met de 4GB. Later stapelden de reacties zich op en toen kon het niet meer verzwegen worden - Ik vind het maar een amateuristische manier van communiceren.
Dus als ik de specs niet goed overneem van nVidia en deze op het internet zet is het de schuld van nVidia of heeft nVidia anders specs gepubliseerd dan dat ze op de doos gezet hebben?
Niemand had de specs goed overgenomen van Nvidia omdat Nvidia de verkeerde specs moedwillig aan alle reviewers heeft doorgegeven, dezelfde specs als degene die op de doos stonden inderdaad.

Dat is toch niet lastig te begrijpen?
Hoe weet jij nou dat ze moedwillig de verkeerde specs hebben doorgegeven? Sorry hoor, maar dit is pure speculatie.
Daarnaast wordt er net verteld dat op de doos wel de juiste specs staan (ik neem aan dat dit klopt?), dus dan kunnen het toch niet dezelfde foute specs zijn als die op internet?

Dat is toch niet lastig te begrijpen?
@Vayra hieronder:
Kun je er even een samenhangend verhaal van maken? Wat is exact lang en breed uitgemeten, en waar beweer ik iets anders?
Uit je reactie blijkt in mijn ogen enkel dat je bijdehand probeert te zijn en slecht tegen kritiek kunt.

@Vayra hieronder 2:
Volgens de reactie van Nactive -waar we hier uiteindelijk op reageren- zouden de spec die op uw doos staan wel juist zijn.
Als dat NIET zo is waarom zeg je dat dan niet gewoon in je reacties? Het heeft in ieder geval niets met "begrijpen" te maken.
Dat ik geen tijd en zin heb om ieder techsite dagelijks door te lezen lijkt me irrelevant. Dit bericht staat NU op tweakers.

Dat ze dit moedwillig hebben gedaan blijft verder nog steeds speculatie, maar jij hebt er al voor jezelf een waarheid van gemaakt.
Met je huidige manier van reageren maak je geen vrienden.

[Reactie gewijzigd door MaZeS op 23 februari 2015 11:25]

Mazes ik stel net als Vayra voor dat je jezelf even wat beter inleest. Op de doos staan inderdaad de juiste specs, omdat hier nauwelijks specs op staan. Het enige dat er zo'n beetje op de boos staat is marketing geblaat over hoe geweldig de chip is, de fabrikant en dat de koeler uiteraard het allerbeste model is. Verder staat er met koeienletters 4 GB GDDR5 op. Dit is inderdaad geen onjuistheid, maar wel slechts de halve waarheid. Specs als L2 cache, bandwith en ROP units worden niet op de doos gezet, maar zijn wel (met veel moeite) op sites te vinden.

De specs volgens Nvidia aanvankelijk:
ROP Units 64
L2 Cache 2048 KB
224GB/sec bandwith

Daadwerkelijke specs:
ROP Units 56
L2 Cache 1792 KB
192GB/sec bandwith

Je zegt overigens geen tijd en zin te hebben om jezelf dagelijks in te lezen, maar toch wil je graag jezelf in de discussie mengen. Een mening vormen over een onderwerp maar niet alle kennis hebben over het onderwerp zorgt voor een oppervlakkige reactie vol onvolledigheden.

Het is inderdaad speculeren of Nvidia per ongeluk de verkeerde gegevens heeft gemarket. Mijn mening hierover is echter dat ze donders goed wisten wat ze deden. Zou er echt niemand binnen het gigantische bedrijf Nvidia de gemarkete specs hebben gelezen terwijl hij wel de juiste specs wist? Het is in mijn ogen moedwillig achtergehouden. Maargoed ik kan dit niet, of nooit, hard maken dus blijft het speculatie.

Edit
http://s17.postimg.org/ii...595nit_FZ11_Eg1_1_2_l.gif

Een mooie afbeelding gemaakt door Nvidia zelf waarin de specs van de 970 GTX staan. Hier staan gewoon onjuistheden in die het bedrijf nóóit over het hoofd heeft kunnen zien.

[Reactie gewijzigd door stin00 op 23 februari 2015 12:04]

Het is voor mijn reactie niet relevant dat ik niet alle ins- en outs weet. Voor een korte introductie tot begrijpend lezen doe eens het volgende:
-scroll naar boven
-Lees mijn initiële reactie
-Zeg me welke informatie daarvan onjuist is, want jullie verwijten mij dat ik me niet goed heb ingelezen en dat mijn reactie dom is.
-reageer vervolgens op dit bericht en zeg maar waar ik de fout ben ingegaan.

Ter info: Ik zeg niet dat Nvidia geen fouten heeft gemaakt.
Jullie lijken alleen blind voor de inhoud van mijn reactie omdat deze waarschijnlijk niet kritisch genoeg is richting Nvidia.

[Reactie gewijzigd door MaZeS op 23 februari 2015 12:16]

Het is wél handig als je een beetje weet waar het over gaat als je wil meepraten. Dat was het punt. Je hebt twee halve zinnen gelezen en pakt er wat aannames bij en wil daarmee dan in discussie gaan.

Dat gaat toch niet werken of wel?
Dat antwoord is al tot vervelens toe gegeven, je mag zelf de moeite nemen de zaken door te lezen. Dat is ook de reden dat je deze reactie in de eerste plaats kreeg. Stin00 heeft het in reactie op jou nog eens uitgelegd en ik ook.

[Reactie gewijzigd door Vayra op 23 februari 2015 16:22]

Dit hebben ze moedwillig achtergehouden want er is gewoon geen mogelijkheid dat Nvidia dit niet wist.

En mensen die het argument opgooien dat je zelden 4gig nodig hebt, hebben vast gelijk. Ik speel alleen LoL en WoW dus ik zou het niet merken. Het feit is echter dat Nvidia dit bewust verkocht als 4gig kaart, mensen dit kochten als 4gig kaart, en ze geen 4gig kregen. Ik heb genoeg gelezen over de tergend trage laatste .5 gig. Dat is pure false advertising.
sommige mensen blijken het wel nodig te hebben en die zijn begrijpelijk gefrustreerd.
Zo'n beetje elke techsite heeft dit lang en breed uitgemeten, ik weet niet onder welke steen jij gelegen hebt?

Iets met klokken en klepels, lees je ff in, dit ziet er zo heel erg dom uit.

@MaZeS: reviewers kregen de specs zoals die op de doos stonden, in de praktijk blijkt dat die specs niet kloppen. Minder ROPs, minder L2 cache. De geheugenbus is *alleen technisch gezien* 224GB/s / 256 bit maar ook dit is in de praktijk nooit haalbaar. Puur technisch gezien klopt dus alleen de 256 bit, de rest niet, Nvidia wist dit natuurlijk gewoon, maar heeft er een drogverhaaltje aan gehangen 'dat de marketingafdeling dit niet wist'. Dan wist je het dus gewoon maar vond je het handig om het niet te vertellen.

En dit is echt algemene informatie die werkelijk overal is besproken; daarom vind ik het vreemd dat je wél wil reageren maar dit niet weet. Net als de poster waarop ik in eerste instantie reageerde. Dit topic is al een maand oud.

[Reactie gewijzigd door Vayra op 23 februari 2015 11:08]

Wat maakt het uit? De specs op de doos kloppen, de specs die aan reviewers werd gegeven kloppen niet. De informatie naar de consument toe is dus correct.
Hier staan de specs van Nvidia:
http://www.geforce.com/ha...ce-gtx-970/specifications

Niet goed dus.

Edit: Link klopte niet: http://www.geforce.com/ha...ce-gtx-970/specifications

[Reactie gewijzigd door Thystan op 23 februari 2015 16:13]

NVidia heeft zelf specs online bekend gemaakt en die zijn anders dan de daadwerkelijke specs (en dus op de doos staat).
En dus komt alles neer op dat wij als consumenten moeten kunnen vertrouwen op de specificaties van de fabrikant en dat die over die specs absoluut eerlijk moet zijn. Dat concept ligt ook wel verankerd in de wet, meen ik.

Voor mij is dat het belangrijkste. heb zelf zo'n kaart maar zal denk ik nooit aanlopen tegen problemen. Het is voor mij te abstract want ik houd me niet echt bezig met de fijne details. Ik snap framerates en resolutie maar ik draai geen benchmarks en zo. Ik kan mij zelf geen koppeling voorstellen tussen het spelen van een high-end game zoals wellicht Elite Dangerous en die latse 500 MB aan langzamere RAM.

En als dat framerates kost dan zou ik niet op het idee komen dat dat daaraan ligt. Wel, dat zou ik nu, maar anders had ik dat nooit geweten.

Maar op het moment dat specificaties niet helemaal kloppen met de werkelijkheid, dan koop je als mens gebakken lucht. Waar ligt dan de grens?

Ik weet niet of ik met mijn kaart naar de winkel kan. Ik denk het niet. En zeker niet met het argument dat in een ver vreemd land zoals amerika er een rechtzaak loopt. Of dat mensen benchmarks doen en deze feiten blijken.

Ik wil bovendien de verkoper niet duperen, want die kan er net zo min wat aan doen.

Verder, als achtergrond bij dit soort zaakjes... Wij consumenten eisen erg veel van fabrikanten. Enerzijds zou je willen dat een Nvidia de poot stijf houdt en zegt: 'Meneert de consument, wilt u niet zo veeleisend zijn, we doen ons best on steeds sneller en beter te maken, maar er zijn grenzen, dus verwacht niet zo veel.'

Aan de andere kant is dat niet goed voor hun aandeelhouders' rendementen. Dus zullen ze dat niet doen. Wat ze zullen doen is om steeds een snelelre kaart te maken, die beter presteert...etc.

Wij eisen, zij draaien. En de druk wordt groot. We willen gamen op steeds hogere resoluties, de game designers maken gretig gebruik van de capaciteiten van de hardware en zoeken de grenzen. En terwijl de fabrikant steeds meer tech er tegenaan gooit, meer rops en RAM etc, programmeren de designers slordig.

Herinner je de tijd van de eerste Elite. David Braben zei dat ie een week bezig was om nog een 8 bytes extra op de disk te kunnen persen. Ook op de Amiga werd slim geprogrammeerd. Je had een disk van 880k en dat was het. En dan kon je nog een spel bouwen op meerdere disks. Prima.

Tegenwoordig maakt dat allemaal niet meer uit. Een spel is rustig 20 GB. We hebben geen ruimtegebrek of gebrek aan hi-tech specs. We lopen gewoon straks een 4TB schijf er bij!

Consumenten, fabrikanten en software ontwikkelaars hebben elkaar allemaal in een houdgreep. Het verbaast mij dan ook helemaal niet dat een fabrikant uiteindelijk over de eigen voeten struikelt in de haast om aan de verwachtingen van de consument te voldoen.

Als software bouwers nu eens efficiënt leren coden en zuiniger zijn met de schijfruimte en RAM behoeften van hun software, dan hoeft de tech-ontwikkeling niet zo hard, dat scheelt weer een stuk energie en dus klimaat. Dan hebben wij als consument niet meteen meer schijf en geheugen nodig. En dan vragen wij de fabrikant niet steeds om meer en meer van alles.
Ik snap niet waarom je grootte van games er bij pakt
Dat is totaal niet relevant?

Stel nou jij hebt een 1440p, 1600p of zelfs 4k monitor, als jij "ultra" textures wil, dan kost dat nou eenmaal veel ruimte. Zo heeft het altijd al gewerkt, dat heeft NIKS met programmeren te maken! Gelukkig geven de meeste games je tegenwoordig de optie om de "HD texture pack" er extra bij te installeren/downloaden.. de pixeltijd van vroeger kun je onmogelijk vergelijken met de hedendaagse situatie, waar elke gebruiker een andere resolutie heeft.

Ik ben zelf eigenaar van een GTX 970. Op 1080p zul je geen problemen ondervinden, ik heb dan zelf een 1440p monitor en ik zit in bijna alle AAA games op dat 3,5Gb limiet. Dying Light, Battlefield 4, etc.
De game begint dan enorm te stotteren, en ik vind het verdomme onrechtvaardig dat ik mijn geld niet terug kan krijgen.

Deze rechtzaak kan niet fout gaan. Hopelijk komt er in Europa een soortgelijk iets, van mijn part mag Nvidia alles gaan terug lappen, dan stap ik weer lekker over naar AMD..
@Nactive, hierbij de officiële pagina van Nvidia die de specs ook aangeeft:
http://www.geforce.com/ha...ce-gtx-970/specifications
Nvidia. Het staat slechts 80 x in het artikel. Blijft moeilijk. Nivea is zalf en Nvidea bestaat niet.

Overigens ben ik het deels met je eens w.b. de benchmarks... Nog belangrijker: hoe zijn de prestaties irl.

[Reactie gewijzigd door Jack Flushell op 22 februari 2015 22:45]

Wat Nvidia hier doet met onjuiste specificaties hebben gedaan is niet goed.
Natuurlijk zullen aantal gamers niet snel van merken, maar met zware games zoals Skyrim, FarCry4, BF4, en nog wel genoeg titels te noemen tegenwoordig en in de toekomst ligt de zaak anders. Ja de toekomstige games zullen nog sneller opvallen.

We willen graag allemaal genieten van mooie beelden en textures. Dat betekent dus al snel dat we het spel op high settings zullen zetten. Hierdoor worden er high-res textures gebruikt. Dat zal zeker veel geheugen gebruiken en kan zelfs boven 3,5 GB komen.

Een gamer vertrouwt vaak op zijn high-end videokaart. De fabrikant heeft tenslotte specificaties voor opgegeven en dus 4GB zou volledig moeten werken, ook in laatste 0,5 GB moet lekker vlot lopen.
Zodra de game echter niet goed loopt, het gaat shutteren, micro-banding en andere onprettige situaties waar een gamer al snel in de war komt en misschien niet meer goed kan spelen in de lastige gevechten. Dan verliest de gamer.

Hierdoor zal de gamer dus eerder bij de software maker gaan aanklagen. Jullie spel doet het niet goed! Het schokt te veel. In verleden is er daarom regelmatig mee aangeklaagd bij Battlefield makers door vreemde schokken en fps problemen. De software maker komt in de war...

Maar met achtergehouden problemen op GTX970/980 weet gamer NIET dat het aan zijn videokaart kan liggen. De protesten aan de deur van software maker gaat dus gewoon door in plaats aan de deur van hardware maker. Dat is precies waarom hier oneerlijk gaat: de software maker krijgt er zo aantal onterechte klachten mee en dat moet niet.

Nvidia had hier beter niet dingen moeten achterhouden. Waarom moet alles naar software maker lopen terwijl het achteraf blijkt dat niet hun fout is? Het is net als naar dokter lopen omdat de kunstbeen niet goed doet maar in werkelijkheid is het kleine fabrikage foutje. De dokter heeft geen fout gemaakt. In dat geval moet fabrikant wel zijn excuses aanbieden. De patiënt moet dus niet boos worden op dokter, maar op de fabrikant.

Door de gebreken in de chip en voorgelogen specificaties koop je dus een minderwaardig product en toch betaal je de volle prijs voor. Dat mag niet. Dat is waarom mensen geld terug willen omdat hier om een soort "defective" product gaat. Het heeft uitgeschakelde delen en doet dus niet meer 100% volgens de opgegeven fabriekseigenschappen. Fout. Terug naar de winkel.

Als Nvidia gewoon netjes opgeeft met 3,5 GB en prijs hiervoor aanpast, dan was er niks aan de hand. Maar de GPU concurrentie is zo hard dat Nvidia wel beetje vals moet spelen. Beetje TE vals. En natuurlijk zoveel mogelijk geld verdienen zodat minder goede chips uit de fabriek toch nog gebruikt kunnen worden. Daardoor kan de prijs per kaart iets lager en ook meer winst mee maken door met normale "goede kaart" prijs te verkopen. Maar dat is geld verdienen op de oneerlijke manier. Want Nvidia blijft doorgaan met veelbelovende specificaties opgeven... misleidend.

AMD en Intel doen dit al hele tijd zo met uitgeschakelde delen als bepaalde delen niet goed werkt. Gelukkig worden ze onder juiste eigenschappen verkocht en dus geen leugens. Het doet verder zoals het hoort volgens de opgegeven eigenschappen. Natuurlijk willen de gamers hier extra voordeel uitslaan door uitgeschakelde delen weer aan te zetten via firmwares of zo. Dat is hun risico en dat gaan ze niet aanklagen. Dat weten de gamers prima.
Maar wat Nvidia doet, dat weet gamers juist NIET. De bal ligt daarom bij de fabrikant: ze hebben fouten gemaakt en dingen voorgelogen.

We zullen zien hoe de rechtszaak loopt. Het is in elk geval zeker schade op hun imago en velen kunnen niet meer Nvidia vertrouwen en gaan over op AMD... (Hoewel, ik ben al hele tijd AMD gebruiker)
Waarom zouden ze de laatste 500 MB minder laten presteren, wat is de logica daarachter?
Deze Nederlandstalige video van collega site Hardware Info legt het haarfijn uit:
Nvidia GeForce GTX 970 memory gate: 3.5GB of 4GB?
Of voor wie op zoek is naar een uitleg met een structuur diagraam voor het verschil tussen de 980 en de 970 (plaatjes zeggen mij tenminste vaak meer dan woorden ;) ):
NVIDIA Discloses Full Memory Structure and Limitations GTX970
Interessant artikel, het beschrijft ook goed waarom game benchmarks de veronderstelde problemen niet zichtbaar maken.
Geheugenallocatie is veel geavanceerder dan het simplistisch beeld wat we gemakshalve aannemen om de situatie te beschrijven. De drivers hebben wel degelijk controle over welke delen van het geheugen welke content bevatten. Zo zal die 0.5 GB geheugen niet alleen gebruikt worden wanneer de rest vol is. Tenzij je een game hebt die voor elke renderactie de volledige 4gb aan data probeert te verzetten (probeer daar maar eens een fatsoenlijke framerate mee te halen) of wanneer je random elementen uit het geheugen opvraagt zul je niet veel prestatieverlies opmerken.

Detail, de GTX 660 Ti had ook zo'n configuratie, 1.5 GB met 0.5 GB.
Op zich is "de werkelijkheid" :/ inderdaad wel zo genuanceerd als je stelt. In een andere reactie verder in de topic moet ik alleen zelf ook tot de conclusie komen dat het verhaal iets te subtiel is voor de klantenschare en een niet technisch onderlegd juridisch systeem. Door de subtiliteit is het echter voor de aanklagers ook een hele toer om tegen nVidia een punt te maken.

Wat mij opvalt aan veel van de reacties in dit topic is dat deze nuancering aan veel Tweakers voorbij lijkt te gaan. Dit bedoel ik niet als verdediging van nVidia. In een andere post van mij verder in het topic kom ik tot de conclusie dat de configuratiekeuze van nVidia wel tot discussie moest leiden. De wijze waarop nVidia de 970 heeft aangevlogen is op zich wel een technisch legitieme oplossing. De oplossing heeft alleen veel uitleg nodig en leidt dus makkelijk tot een verschil in verwachtingspatroon. Diegenen die een full 4GB kaart verwachten en hiervoor ook de game-display combinatie hebben die dit nodig maakt krijgen met een 970 een andere kaart dan ze verwachten te kopen.

Ik kan mij echter niet voorstellen dat nVidia hierop bewust heeft aangestuurd. Geen enkel bedrijf wenst zich de controverse toe die nu is ontstaan. Kijk maar eens wat voor reacties er in dit topic worden gegeven. En dan zou de Tweakers gemeenschap nog in staat moeten zijn te rationaliseren wat bij deze 970 configuratie nu precies het probleem is. Bij nader inzien (achteraf gepraat...) had nVidia deze subtiele technische tussenvorm beter achterwege kunnen laten. Bij klanten overheerst nu verontwaardiging. Communicatie achteraf kan deze emotie nu nog moeilijk terugdraaien.

Over de link hierboven: de link communiceert naar mijn idee het geluid van de fabrikant. Op zich geen issue, maar wel iets dat je jezelf bij het lezen moet realiseren. Anandtech biedt een uberanalyse met vooral het eigen geluid. De eerste link is vooral interessant om de opinie van de fabrikant over deze situatie te weten te komen. Dit is iets waar ik zelf bij het schrijven van mijn tweede post ook achter moest komen.

[Reactie gewijzigd door teacup op 22 februari 2015 21:46]

Het gáát niet om 'bewust of onbewust'. Het is namelijk wel 100% duidelijk dat dit 100% bewust is gedaan, dat Nvidia het wist en dat elk trucje uit het PR handboek is benut om zoveel mogelijk in te cashen op GTX970 sales voordat er een reactie kwam. Sterker nog, er is nog steeds geen échte reactie van Nvidia. Ze laten het erop aankomen en de retailers en kopers mogen ervoor bloeden. Daarom is het wat mij betreft heel erg belangrijk dat Nvidia hier flinke schade van ondervindt. Het is gewoon bad business practice.

We moeten de dingen wel terugbrengen tot de basis: Nvidia brengt een product uit, de GTX 980. Dit is een product dat 100% van de GM204 presenteert. Duur om te maken, want geen hoge yield, dus maakt men ook een GTX 970. Maar let op: die GTX 970 maakt Nvidia niet voor ons, maar voor zijn eigen winstmarge. Het is immers zonde om al die niet-perfecte GM204's weg te gooien. En dat kaartje verkoopt. Het verkoopt als een tiet! Waarom toch... omdat het prijsverschil met de GTX 980 enorm is, maar het prestatieverschil niet. Tegelijkertijd staan we aan de vooravond van 4K, aan het begin van een console gen die nu een beetje op stoom begint te komen, en er komen nieuwe games uit die meer vragen. Een kleine selectie games en engines leunen nog steeds zwaar op die IMC, pompen er veel doorheen, Shadow of Mordor is daarvan slechts een éérste voorbeeld, waarvan er velen gaan komen. Daarmee blijft het probleem vooralsnog onderbelicht, maar waar rook is is vuur. Daarom heeft nu vooral de high-end gamer er last van. Jan met zijn 1080p of 1440p schermpje lult lekker mee maar ziet niet hetzelfde. NOG niet.

De timing van Nvidia, de spin die er achteraf aan werd gegeven, de opzettelijke verkeerde info aan reviewers, het is allemaal een optelsom die het beeld laat zien van een bedrijf dat actief bezig is zijn consumenten te verneuken om zichzelf zo sterk mogelijk in de markt te zetten én de enige concurrent een volgende genadeslag te geven. Want denk maar niet dat AMD minder R9's verkoopt als er alleen een GTX 980 was geweest, of wanneer de GTX 970 duurder was om te maken.

Dat laatste punt is essentieel in dit verhaal. Nvidia gebruikt trucs en valse gegevens om een concurrentievoordeel te behalen en AMD uit de markt te drukken. NIET om ons gamers een GM204 te geven voor een zacht prijsje. Maak je geen illusie. Die winstmaximalisatie van Nvidia betalen WIJ in de vorm van minder concurrentie op de markt (die al heel ongezond is) en een GPU die in specifieke gevallen crippled is en slecht presteert.

Mensen die dit bagatelliseren hebben er niet goed over nagedacht, simpel. Je moet verder denken dan je huidige (of volgende) GPU aankoop, kijk naar de CPU markt en je weet waarom. Ook Anandtech mist met zijn sterke analyse dat punt volledig.

[Reactie gewijzigd door Vayra op 23 februari 2015 09:24]

Je bent wel erg emotioneel voor iets wat niet meer is dan een storm in een glas water. Je doet alsof de kaart slecht presteert maar dat is helemaal niet zo. De kaart presteert prima zoals de reviews aangetoond hebben. Het is in zeldzame gevallen dat wanneer de geheugennood hoog is dat er wat minder prestaties zijn. Maar niets dramatisch.
Nu ben je alle zonden van Israël in NVIDIAs schoenen aan het schuiven, van marktvervalsing tot het onvermogen van AMD om concurrentiële gpu's te maken toe. Toe maar.
Of de kaart wel of niet presteert is niet de strekking van zijn verhaal.
Let's agree to disagree. Marktvervalsing is het wel, en Nvidia is daar niet vies van. Het is een glijdende schaal: Fermi bevatte al een truc om een asymmetrische bus op een kaart te drukken. Bij Kepler werd dat omgezet van een iets smallere bus naar een zéér trage 0,5GB partitie (44Gb/s) en nu zitten we op Maxwell en is er op de laatste 0,5GB nog een bandwidth van 28 Gb/s over. What's next? Dit gaat over inventiviteit en creativiteit cq. design wins, en of dat nou werkelijk een design win is, of een achterbakse manier om consument en concurrent te misleiden voor een hogere yield.

Concurrent AMD is minder inventief maar is ook niet betrapt op dergelijke zaken, en loopt daardoor achter. Nvidia gaat tot het gaatje en zelfs nog iets verder, zoekt de grens op en het is aan ONS om de grens aan te geven.

Ik loop gewoon even een generatie op de muziek vooruit en schets de toekomst, want feiten zijn feiten: Nvidia heeft belachelijk veel GTX 970's afgezet in korte tijd, aan de vooravond van een nieuwe AMD release en de sales zijn nu flink afgeremd. Tegelijkertijd heeft Nvidia moedwillig de werkelijke specs verzwegen. En nog steeds gaat er geen lampje branden bij jou, en is het argument 'maar de kaart zet prima FPS neer voor het geld'.

Als dát de reikwijdte van je denken is, dan is dit een verloren zaak en kan ik praten tot ik een ons weeg.

Enne... emotioneel? Het lachen staat me nader dan het huilen eerlijk gezegd, ik volg dit gewoon met grote interesse. Dat is iets anders.

[Reactie gewijzigd door Vayra op 23 februari 2015 15:51]

Ik kan begrijpen dat het als AMD fan het moeilijke tijden voor je zijn en dat je NVIDIA hartsgrondig haat. Ik denk dat iedereen jouw posts in dat perspectief moeten zien. Dat je dan iemand persoonlijk begint aan te vallen is het beste bewijs dat we je reacties niet serieus moeten nemen.
?!? Euhm.

Okay. (Gamed verder op z'n GTX 770)

[Reactie gewijzigd door Vayra op 23 februari 2015 15:55]

http://www.scribd.com/doc...idia-lawsuit-over-GTX-970

Lees dit maar eens door.

Er zijn genoeg punten waarbij Nvidia door de mand valt.
Mijn persoonlijke favoriet is paragraaf 17.

"17.
2014 was a banner profit year for Nvidia, as according to published reports “revenue grew 13 percent to $4.68 billion”. In fact, “[r]evenue increased 9 percent year over year to a record $1.25 billion for the quarter”. Nvidia’s Chief Financial Officer noted that “[g]rowth was driven by the full quarter availability of our Maxwell™ GeForce® GPUs for gaming and by strength in accelerated computing GPUs . . . .” In other words, Nvidia’s record profits were driven in part by the sale of the company’s flagship GTX 970 GPUs, which is likely why it did not want to disclose the material limitations at issue herein until after it had made millions of dollars in sales of such products."
Die video is duidelijk eigenlijk.

NVIDIA heeft kwa marketing niks verkeerd gedaan, en in de werkelijke praktijk hebben ze met Game Tests niets kunnen merken.

"Storm in een glas water" zoals ze zelf zeggen.
Als NVidia marketing bij de specificaties aangeeft:
4GB GDDR5, 7.0 Gbps, 256-bit, 224GB/s

Dan verwacht je als koper toch niet:
4GB GDDR5 total memory
0-3,5GB: 7.0 Gbps, 224-bit*, 196GB/s**
3,5-4,0GB: 3.5 Gbps, 32-bit*, 28GB/s**
* peak bus width 256-bit, ** peak bandwidth 224 GB/s

Om over 7/8e van het geadverteerde aantal rops en cache grootte nog maar te zwijgen. Marketing is dus zeker fout in deze. Je mag wettelijk gezien geen onjuiste specificaties adverteren. Als een deel van de specificaties dus afwijkt zoals hier dan moet er een * bij met uitleg, of anders moet je ze geheel weglaten. Als iemand dan vraagt aan NVidia wat de geheugenbandbreedte is van een GTX970 en NVidia zegt: dat is niet eenduidig te benoemen, dan mag je hem op basis van reviews kopen of niet. Als NVidia enkel aangeeft 224GB/s dan moet je daar ook ondubbelzinnig van uit kunnen gaan.

[Reactie gewijzigd door Bas van der Doorn op 22 februari 2015 19:18]

Je mag wettelijk gezien geen onjuiste specificaties adverteren. Als een deel van de specificaties dus afwijkt zoals hier dan moet er een * bij met uitleg, of anders moet je ze geheel weglaten.
Je noemt zelf de 'peak bandwidth'...
Sowieso is bandwidth *altijd* een piek-waarde (die haal je alleen in het ideale geval van sequentiele access met zogenaamde burst-transfers... anders gaat de overhead van de addresseer-commando's van je effectieve bandbreedte af, wat dus in de praktijk meestal het geval is).
Het enige verschil is dat deze kaart z'n piek op een iets andere manier bereikt dan de meeste kaarten.
Maar de specificaties zijn strikt gezien niet onjuist.
De 224GB/s haal je ook nooit op die kaart; als ik me goed herinner had iemand berekend dat je in het allerbeste geval maximaal op 208GB/s peak aankomt. De 0,5GB partitie wordt door de driver namelijk niet op dezelfde manier aangesproken. Waarschijnlijk is het zo ingeregeld dat daar de minst essentiele stukken opgeslagen staan (waaronder ook een paar honderd MB voor Windows) maar op het moment dat die 3,5GB in gebruik is, komt er data in het 0,5GB deel te staan en pak je stutter. En wanneer je ALLEEN het 3,5GB gedeelte in gebruik hebt, haal je ook nooit een 224Gb/s peak, want die 3,5GB loopt over 192bit en communiceert niet met de resterende 0,5GB, zoals een degelijke GPU dat doet zelfs wanneer die assymmetrische setup heeft (zoals GTX 660ti).

Kortom de oplossing van Nvidia voor GTX 970 is slechter dan de oplossing voor 660ti op 192 bit. Waar 660ti ook merkbare problemen had, is dat op de GTX 970 verder uitvergroot: 44 GB/s op de 660ti voor het trage deel tegen 28 GB/s voor de 970, waar de 970 een véél sterkere GPU is.

[Reactie gewijzigd door Vayra op 23 februari 2015 09:36]

Dat klopt niet helemaal.
Lees het artikel op Anandtech maar eens goed door...
Het is mogelijk om tegelijk van het 3.5 GB-deel te lezen en naar het 0.5 GB-deel te schrijven. En dan haal je de 224GB/s wel degelijk.
Je hebt gelijk, alleen dat is geen realistisch scenario. Technisch gezien kan de kaart het nummertje halen, maar er is vrijwel geen enkele user-case te bedenken waarin dat ook gebeurt. De driver steekt daar zelfs een stokje voor: daarom zien mensen 3.5GB in gebruik en niet meer dan dat.

Een beetje zoals een auto die de topsnelheid alleen met berg af en orkaan in de rug kan halen.

[Reactie gewijzigd door Vayra op 23 februari 2015 09:58]

Technisch gezien kan de kaart het nummertje halen
Dus kun je nVidia niet verwijten dat 256-bit een onjuiste specificatie is.

Ik ben het er natuurlijk verder mee eens dat het in de praktijk ergens tussen de 224-bit en 256-bit zweeft, maar dat is een andere discussie... Dat gaat er meer om of je waar voor je geld krijgt... De kaart kost X euro, en presteert Y.
Het wordt ook heel interessant om te zien wat er uit deze aanklacht gaat komen.

Het zou de markt goed doen als Nvidia hiervoor compensatie moet uitkeren. Het zou nog beter zijn als ze gedwongen worden GTX 970 van de markt te halen, maar dat zie ik niet gebeuren.

[Reactie gewijzigd door Vayra op 23 februari 2015 10:52]

Het zou de markt goed doen als Nvidia hiervoor compensatie moet uitkeren.
Hoezo? Dat kost nVidia dan weer geld, en dat moeten ze dan weer op een andere manier binnenhalen (prijsverhoging op alle producten?).
Het zou nog beter zijn als ze gedwongen worden GTX 970 van de markt te halen, maar dat zie ik niet gebeuren.
Waarom? Er is in principe niets mis met de GTX970.
Het komt er vooral op neer of de prijs van X euro goed genoeg is voor prestaties Y, zoals ik al zei.
Dat de kaart minder presteert als games 3.5+ GB geheugen gebruiken is natuurlijk geen reden om de kaart van de markt te halen. Dan kun je vrijwel alle kaarten wel van de markt halen, want de meesten hebben niet eens 3.5 GB aan boord.

Ik denk ook niet eens dat een prijsverlaging nodig is, want de 970 is best scherp geprijsd voor z'n prestaties. Maar dat kan de markt prima zelf regelen: als de kaart te duur is, kopen mensen wel kaarten van de concurrent. Dan zal nVidia zelf wel besluiten de prijs te verlagen.
"Er is in principe niets mis met de GTX 970"

Doe eens effe Dying Light spelen.
Doe eens effe Dying Light spelen op een 1440p of 4k monitor.

Dan merk je wat er nou echt mis is.
Het hele spel is gewoon in zijn geheel onspeelbaar...

En dan heb ik het niet over gare benchmarks en praktische use-cases, maar iets reguliers, waar de kaart voor gemaakt is.. gamen.
Doe eens effe Dying Light spelen.
Doe eens effe Dying Light spelen op een 1440p of 4k monitor.

Dan merk je wat er nou echt mis is.
Het hele spel is gewoon in zijn geheel onspeelbaar...
Kun je niet gewoon even uitleggen wat je precies bedoelt? Ik heb net zoals de meesten hier geen 970, en ik heb ook het spel Dying Light niet.
Bedoel je dat het spel boven een bepaalde resolutie niet goed meer te spelen is? Nou... als we alle kaarten van de markt halen waar dat het geval is, dan houden we niets over natuurlijk...
Of uberhaupt kaarten waarbij een bepaald spel niet goed draait...
Die dingen gebeuren nu eenmaal.

[Reactie gewijzigd door Scalibq op 23 februari 2015 20:14]

Je moet het zo zien; ik heb mijn GTX 970 net een maand.
Als ik Dying Light op Ultra speel op 1080p dan zit ik al op het 3.5Gb limiet op de grotere gebieden in het spel.

Ik heb helaas een 1440p monitor. Het spel draait dus totaal niet op ultra door het VRAM probleem... terwijl de GPU het makkelijk aan kan! En doordat de GTX 980 niet zo'n halfgebakken kaart is met alles intact heeft deze hier geen last van; deze gaat door tot de laatste paar MB van de 4Gb vol zit. Voor de duidelijkheid;
https://www.youtube.com/watch?v=lw5AWWj2-Z4

Ik kan na een maand tijd dus al geen spellen meer op ultra spelen, laat staan wat er gebeurd met GTA V, en alle andere spellen die er nog aan zitten te komen dit jaar.

Bij aanschaf was ik overtuigd dat het gewoon een binned 980 was. Aan de officiële Nvidia specs van toen te zien was dit ook zo. Door een productiefout en/of leugens van Nvidia (of miscommunicatie, ik geloof er geen drol van..) zit ik nu dus met een gelimiteerde kaart. De 660 ti had een soortgelijk probleem, maar daar was het beter opgelost en was de GPU bij lange na niet zo krachtig. Het was dus minder merkbaar.

Snap je nu wat ik bedoel?

En de cherry on top is dat ik na 8 jaar ATI/AMD eindelijk de overstap heb gedaan naar Nvidia, puur om het uit te testen. Ik kom dus direct al bekakt uit en zodra ik een manier vind om mijn geld terug te krijgen dan koop ik de nieuwe lijn AMD kaarten als die beschikbaar zijn later dit jaar.. Verder is met 380 euro de kaart tevens de duurste die ik tot nu toe heb gekocht.. juist omdat ik een 1440p monitor heb.

[Reactie gewijzigd door Zexion op 24 februari 2015 16:04]

Ik heb helaas een 1440p monitor. Het spel draait dus totaal niet op ultra door het VRAM probleem... terwijl de GPU het makkelijk aan kan!
Is dat zo? Ik heb eens op benchmarks gegoogled, en kwam hierop uit:
http://www.techspot.com/r...ght-benchmarks/page4.html
De 970 is daar in 2560x1600 de derde uit het lijstje.
De 290X is een tikje sneller, en qua prijs ook ongeveer hetzelfde.
Maarja, de 290X is in alle resoluties iets sneller in dit spel, dus of je nu echt van een probleem kunt spreken...
In sommige benchmarks is de 290X trager dan de 970 (zoals bv hier: http://www.anandtech.com/...tx-970-review-feat-evga/4), dus het is niet dat we hier met iets structureels te maken hebben. Deze game is toevallig niet zo geschikt voor de 970/980-architectuur.
Als je hem omruilt voor een R290X, ga je dan weer zeuren dat die kaart weer minder presteert in andere games, en dat je toch een 970 wil?
Zo werkt het helaas niet.
En doordat de GTX 980 niet zo'n halfgebakken kaart is met alles intact heeft deze hier geen last van; deze gaat door tot de laatste paar MB van de 4Gb vol zit.
Zo heel veel verschil is er nu ook weer niet tussen 970 en 980. En nogmaals, ook op lage resoluties gaat ie goed.
Sterker nog, op 2560x1600 is het verschil tussen 970 en 980 kleiner (~13%) dan op 1366x768 (~19%).
Ik kan na een maand tijd dus al geen spellen meer op ultra spelen, laat staan wat er gebeurd met GTA V, en alle andere spellen die er nog aan zitten te komen dit jaar.
Beetje voorbarige conclusie. Niet ieder spel heeft dezelfde eisen qua processorkracht, geheugenbandbreedte, en geheugengrootte. Daarnaast kan het ene spel beter dynamisch textures inladen dan het andere.
Snap je nu wat ik bedoel?
Nee, eigenlijk niet. Als je ontevreden bent, verkoop dan je 970 en neem wat anders.
Maar ga niet naar allerlei excuses zoeken die er gewoon niet zijn.
Het begint al bij je eerste link
Medium quality gevolgt door high, en very high..
In het geval van Dying Light nemen de physics en de enorme schaal van de wereld gepaard met de textures een flinke hap uit je VRAM.. Afhankelijk van welke texture quality je instelt natuurlijk. Ook al zou je alles op low zetten en textures op max dan begin je al in de buurt te komen van de 3,5Gb VRAM, en dat vind ik een kwalijk iets.

Tevens is het zeer vreemd dat techspot 46fps haalt op Ultra op die resolutie, dat kan gewoon niet als je verderop in het spel zit. Misschien in het begin van het spel, in de kleine hubs, maar niet in de grote open wereld. Dat is waar het spel zich afspeelt; dat is waar het probleem begint; de eindeloze zee van stuttering en af en toe een complete fps meltdown als het echt heel bont wordt.

En dan heb ik het nog niet eens over het feit dat zodra ik op dat limiet zit; dat Windows resource management aangeeft dat mijn system RAM usage van ~30% naar 80% schiet? Wordt dat laatste segment van 512Mb wel eens gebruikt?

Verder ben ik het gewoon simpelweg niet eens met de leugen van Nvidia dat het miscommunicatie was tussen marketing en engineers.. Na al die maanden is er niemand die het ff aan het licht gebracht had?

Mooi stukje uit de documenten van de rechtzaak:
17.
2014 was a banner profit year for Nvidia, as according to published reports “revenue grew 13 percent to $4.68 billion”. In fact, “[r]evenue increased 9 percent year over year to a record $1.25 billion for the quarter”. Nvidia’s Chief Financial Officer noted that “[g]rowth was driven by the full quarter availability of our Maxwell™ GeForce® GPUs for gaming and by strength in accelerated computing GPUs . . . .” In other words, Nvidia’s record profits were driven in part by the sale of the company’s flagship GTX 970 GPUs, which is likely why it did not want to disclose the material limitations at issue herein until after it had made millions of dollars in sales of such products.
Nou nou nou... dat vind ik toch echt schromelijk overdreven hoor, dat het uit de markt gehaald moet worden. Of dat het voor de markt goed zou zijn als Nvidia compensatie moet gaan betalen. Ik zie graag je beargumentatie hiervoor.

Reviews gaan immers niet uit alleen van de specificaties. Een goede review test het ding in de praktijk, en geeft de benchmarkresultaten weer. Als die tegen zouden vallen voor de specs of het geld dat je ervoor betaalt, dan zou dat in de benchmarks ook terug moeten komen.

En geen enkele eigenaar van de kaart, die nu zo valt over dat cijfertjesverschil, die de kaart direct naar de winkel teruggebracht toen hij op de doos de waarlijke specs las. Je kunt je ook eens hardop afvragen waarom dat is. En waarom nu die cijfertjes alleen zo belangrijk zijn.

Ik durf het wel te zeggen: Het is veel genuanceerder dan dat. Nvidia heeft misschien een kleine tik op de vingers nodig. Ik zou eerst eens even afwachten of dit niet stelselmatig gaat gebeuren.

Ik keur niet goed dat NVidia al dan niet bewust die specs heeft gestuurd aan reviewers, maar ik vind het azijnpisserijgehalte erg hoog, een class-action lawsuit erg overdreven, en eigenlijk ook meer een storm in een glas water. Mar kijken wat een rechter hiervan vind...
We gaan het zien he ;) Laat de rechter maar beslissen of nVidia hier fout zit of niet.
Nu mogelijk nog wel maar wanneer de kaart ouder wordt en eer meer games wel de volledige 4gb willen gebruiken krijg je er wel last van.
Dus je hebt het over het probleem dat de kaart bij toekomstige zware spellen slechter zal presteren?
Dat is toch bij alle hardware zo. Dan moeten ze ook AMD en Intel aanklagen aangezien hun producten bij toekomstige spellen ook meer moeite zullen hebben.
Nee, de kaart presteert dan duidelijk minder dan zou mogen.

Als je een 500 GB SSD koopt welke nettje 500mbps/500mbps prestaties neerzet, maar als de SSD nog 50GB over heeft opeens maar 25mbps/25mbps haalt ga je toch ook terug naar de winkel?

Als het nou in de productbeschrijving stond had je het kunnen weten, maar nu ben je dus gewoon de lul. voorgelogen. per ongeluk of niet.
Beetje Slecht voorbeeld vind ik..
Als je een SSD koopt van 500GB krijg je er ook maar een van ongeveer 465GB...

Daar zijn ook geen aanklachten over geweest zover ik weet, terwijl het toch misleidend is.
NEE, dat is heel wat anders. De SSD-fabrikant sjoemelt door de definitie van GB te gebruiken als veelvoud van 10, terwijl Windows een veelvoud van 2 gebruikt. Daar komt geen valse marketing aan te pas, op de doos zal waarschijnlijk ook in kleine lettertjes staan dat een veelvoud van 10 is gebruikt als definitie van gigabyte.

nVidia heeft in de techniche gids die verstrekt is aan reviewers foute informatie gezet. De kaart heft minder ROPs en L2 cache dan beloofd. De benchmarks kloppen natuurlijk, maar als wat exotischer dingen getest worden, zoals hoge resoluties met gheugenverslinde grafische opties ingeschakeld, zal blijken dat de kaart niet goed om kan gaan met meer dan 3,5GB aan benodigd (=! gebruikt) geheugen, wat tot stuttering kan leiden. Dat je heel wat moet doen om dit tevoorschijn te laten komen, maakt het niet minder vervelend.
De SSD fabrikant sjoemelt niet.
Wat Windows GB noemt is geen GB maar GiB, de fout zit dus bij MS
http://nl.wikipedia.org/wiki/Gibibyte
Volgens mij is de term GiB pas ingevoerd nadat er problemen ontstonden en heeft Windows altijd al GB als macht van 2 gebruikt. Ook in de tijd dat GiB nog niet bestond.
Precies... Dat GiB-geleuter is vrij recent. Windows en DOS bestonden al veel langer, en deden het altijd al met machten van 2, zoals destijds gebruikelijk was.
Harddisk-fabrikanten deden dit niet, want met machten van 10 kon je de consument mooiere getallen voorspiegelen.
Verder speelt dit verhaal eigenlijk niet. Alles gaat in machten van 2, ook systeemgeheugen, floppy disks, CD-ROMs, DVD's etc.
Beetje onzin dus om speciaal voor harddisks GiB in je OS in te gaan voeren, omdat die fabrikanten graag de boel willen flessen.
Ik weet niet wanneer dit is gebeurd, maar vroeger waren de definities van Gigabyte en Gibibyte, dan wel MB en MiB, KB en Kib etc. omgedraaid. Hoewel het vanuit de taal wel logisch is om een gigabyte letterlijk een miljard bytes te laten zijn, heb ik het idee dat de fabrikanten deze verandering hebben gepushed, maar zeker weten doe ik dat ook niet. Ben trouwens benieuwd wat wetenschappers zeggen. Vroegâh was een megabyte wel degelijk 1048576 bytes, en een kilobyte 1024 bytes. Ik sta dus bij de notatie die MS, en trouwens meeste software producenten, gebruiken. Eigenlijk ken ik er geen die het niet doet, maar laat ik maar voorzichtig zijn.
Die definities zijn nooit omgedraaid geweest
De gibibyte is juist geintroduceerd om het (verkeerde maar in praktijk standaard) gebruik van gigabyte als 1024 megabyte te vervangen.
Om precies te zijn is dat gebeuren geintroduceerd in 1998: http://en.wikipedia.org/wiki/IEEE_1541-2002

Het klopt wel min of meer dat de definities omgedraaid zijn...
Gibibyte bestond voor 1998 niet, maar de term gigabyte wel (evenals de kilo/mega/etc-varianten), en betekende toen meestal een macht van 2 (hoewel 'giga' binnen de SI-context just een macht van 10 was).
Gigibyte en varianten zijn dus geintroduceerd als vervanger van de gangbare termen voor machten van 2, en de gangbare termen zijn opnieuw gedefinieerd als machten van 10.
Ze zijn nooit omgedraaid geweest, en de zin erna zeg je meteen dat ze net wel omgedraaid zijn.
Met deze beredenatie kan je ook gelijk het gebeugen van de GTX 970 maal 0.57 doen want ja marketing.
Van beide(Nvidia en alle hard disk fabrikanten) klopt er dus geen reet van.
Dat is onzin, je krijgt er een van 500GB of 465GiB. Dat Windows het (nog steeds) verkeerd laat zien is wat anders :P
Niet voor ons mensen die voor 1998 ook al computers gebruikten :)
Ik kan bv een stel oude CD-Rs uit de kast trekken, waar duidelijk op staat dat ze 650MB of 700MB zijn.
Dat is toch echt gelijk aan 650MiB-700MiB, als in machten van 2, niet machten van 10.
Zie ook hier: http://en.wikipedia.org/wiki/Mebibyte#History
Zo is het altijd geweest, en de nieuwe termen zijn nooit echt populair geworden, en dat zal vast ook wel niet gaan gebeuren.
We zijn gewoon gewend geraakt aan het feit dat harddisk-fabrikanten hun eigen MB's, GB's en TB's hebben.

[Reactie gewijzigd door Scalibq op 23 februari 2015 12:17]

Windows laat het net juist zien. Heel wat mensen hadden wat moeite met het 1MB=1024KB dus voor het gemaak maar in 1000'en gerekend, en dat is uiteindelijk aangeslaan. Het rekenen met 1000 ipv 1024 is puur voor het gemak en onjuist.
Natuurlijk was het ook leuk voor de opslag makers om 1000 ipv 1024 te gaan gebruiken want dan klonk het meer dan wat het was.

Je gaat een byte toch ook geen 10 bit noemen? Het zijn er 8!
Grappig, een ssd die bijna vol is zal aanzienlijk slechter presteren.
http://www.howtogeek.com/...down-as-you-fill-them-up/
Niet helemaal waar, aangezien je voor de volle 4GB betaald en dus "future-proof" wilt zijn
Je kan ook alle 4GB gebruiken, alleen is de laatste 500MB velen malen trager.

En met een enkele 970 ben je toch niet "future-proof", tenzij je genoegen neemt met 20FPS op 4K.

Heb je SLI 970 zou ik me niet eens druk maken, aangezien DirectX 12 het mogelijk maakt VRam te combineren. (mits geprogrammeerd in de game)
Evolve gebruikt hier mijn volle 4 GB,COD AW ook op 1080P. En zo zijn er vast meer games, maar daar heb ik niet echt op gelet.
1080p duurde toch een aantal jaar voor het gros van de gamers het gebruikte en het zal net zo gaan met 4K. En zolang de prijzen zo hoog blijven zal het niet zo rap gaan bij de gemiddelde gamers.
Je kan ook op 1080p blijven spelen op je 4K scherm al kan ik me niet inbeelden dat dat er super gaat uitzien (720p games zien er nu ook al vrij slecht uit op een 1080p scherm).

In zowat alle overgangen van de ene resolutie naar de andere kan je niet verwachten dat je GPU het zomaar zal aankunnen, zelfs al is hij "top of the line" (moet je maar eens de 980 met een 290x gaan vergelijken op 4k, wat een ramp bij Nvidia als je ziet dat ze op 1080p meestal wel heel goed doen, op heel wat games doet de 290x nauwelijks onder voor de dubbel zo dure 980 op 4K).

Op SLI ga je nog altijd het trage stukje (V)RAM gebruiken en levert het nog altijd een probleem op. Volgens mij moet dit met een driver wel te regelen vallen maar daar lijkt Nvidia geen zin in te hebben (of ik ben verkeerd in het denken dat drivers doen wat ze horen te doen).
Maar niet indien de games dan meer dan 4GB gebruiken: in dat geval wordt het ram uit de pc gebruikt en zakt de snelheid nog veel verder weg. Het probleem doet zich dus enkel voor bij games die tussen 3,5GB en 4GB gebruiken.
Het word gewoon tijd dat Game Developers meer aandacht besteden aan hun Console Ports, en geen half werk meer PC land in sturen.
Dus het is nu de developers' schuld dat de videokaart niet naar (opgegeven) specificaties presteert?
Opgegeven specificaties kloppen toch op de doos?

970 GTX met 4GB.

Er staat niet op dat 3,5 GB werkt op 196GB/s en 500MB op 28GB/s. Er staat dat hij 4GB heeft, een dat heeft ie ook en ook kan die 4GB gebruikt worden.
Dan zijn er nog genoeg andere dingen die niet kloppen. De hoeveelheid L2 cache is 1,75MB ipv 2MB zoals beloofd, ROP 56 ipv 64 en de maximale geheugenbandbreedte kan niet gehaald worden.
Precies hetzelfde bij bijvoorbeeld de hd 7990.
Op de doos staat ook 6gb vram. Maar in werkelijkheid kan men beschikken over 3gb vram.
Zelfde geldt voor gtx590 gtx690, hd 6990.
Opgegeven specificaties kloppen toch op de doos?

970 GTX met 4GB.

Er staat niet op dat 3,5 GB werkt op 196GB/s en 500MB op 28GB/s. Er staat dat hij 4GB heeft, een dat heeft ie ook en ook kan die 4GB gebruikt worden.
Nou, stel nou het was 0,5 gb op 196GB/s en 3,5 GB op 28GB/s.

Dan klopt jou stelling nog steeds?
Tegen die tijd hebben de meesten al een nieuwe kaart.
Klopt 4gb = 4gb.

Maar als je het product gebruikt dan zal de laatste 500 ram niet bruikbaar zijn omdat het alles onspeelbaar maakt.

Dus het is geen 4gb dat bruikbaar is en zijn ze voorgelogen.

Veel mensen hebben besloten om voor de kaarten te gaan puur op die 4gb. Misschien wel van hun 3gb kaarten naar 4gb. Als ze dit geweten hadden, dan hadden ze misschien wel voor een andere kaart gegaan of nog eventjes gewacht.

Maja nvidia is tegenwoordig wel erg vaak slecht in het nieuws als het komt om hun slechte business praktijken, dus ik sta nergens meer van te kijken.

Tevens hebben game tests de framedrops aangetoond elke keer maar weer, eerst dachten mensen dat het een bug was in de driver( veelal omdat reviewers voorgelogen werden door nvidia over de specs ) maar later kwam nvidia op de proppen met wat we nu weten.
De marketing heeft wel iets verkeerds gedaan, hoewel ze in principe correct waren dat er 4GB in zit waren er een hoop andere specificaties zoals de grootte van L2-cache waarvan er geraporteerd werd dat er geen verschil in zat met de GTX980.

Dat is niet correct en hadden ze die andere specificaties goed geraporteerd dan konden review sites daaruit de conclusie trekken dat het geheugen minder goed zou presteren.

[Reactie gewijzigd door Armada651 op 22 februari 2015 17:34]

En zij onderschatten het probleem. 1080p geen problemen inderdaad, maar daarboven gaat die kaart nu, en anders bij releases eind dit jaar, wel problemen geven. Vond dat ze de problemen wat makkelijk wegwuiven.
Dan kun je bij elke grafische kaart een aanklacht indienen.
Ja bij de huidige games en bij de nu meest gebruikte resolutie doet hij het goed. Maar bij toekomstige games zullen de prestaties flink minder zijn.

Dat is bij elke kaart zo.

Ik heb zelf het gevoel dat een advocaat wat leuke slachtoffers zag en lekker geld gaat verdienen aan ze.
Nee want elke andere grafische kaart is 4GB ook echt 4GB en niet 3,5GB en een 0,5GB rommel restantje wat nog trager werkt als de budget kaarten
Gtx660(ti) en 550ti..

Hebben ook een vreemde constructie qua Vram
Klopt, en die stutterde ook als een gek wanneer je 2000mb in gebruik nam. Ik ben een ervaringsdeskundige met die kaart :)

Verschil is wel dat je met een GTX 660 zóveel stutter kreeg dat het gewoon resulteerde in lagere fps over het geheel. Je zag tussen de stutter de 60 fps niet meer, zullen we maar zeggen. Dat komt omdat de GPU het ook slechter trok. De GTX 970 heeft een stuk meer kracht, levert verder wel zeer goede frames, en daarmee is het probleem beter zichtbaar. De 660ti had er ook meer last van dan de GTX 660 bijvoorbeeld.
Volgens mij heb je het niet begrepen.
Je FPS zal lager worden bij elke verhoogde resolutie, bij elke kaart is dat zo.
Feit dat je stutter/slechtere frame time krijgt is niet normaal. Je zit dan wel gemiddeld op XX fps, maar je krijgt om de zoveel seconden een halve seconde stilstand. Dat is niet goed.
Lees eerst maar even bij voordat je reageert. Niet voor niets dat webshops in NL aan refunds doen voor deze kaart.
Enkel spreken ze niet over frametime. Dat is iets dat je ziet met je ogen maar niet in standaard benchmarks.
En toch ben ik bang dat ze geen kans maken. Want de prestaties van de kaart zijn nu hetzelfde als toen de kaart gereleased werd.

Dus een aanklacht wegens prestatie problemen zal niet veel succes hebben.
Meneer zijn naam is wel van toepassing in elk geval. Hij zegt balletje op gooien.
De GTX970 heeft dezelfde GPU als een 980 maar er zijn enkele delen (die mogelijks defect zijn) uitgeschakeld. Het betreft hier 3 SM modules in 1 deel van het L2 cache geheugen. Het L2 cache geheugen dient als buffer tussen de SM modules en het RAM geheugen. Met 1 van de 8 L2 caches uitgeschakeld verlies je in principe dus 1/9ste (of 0,5GB) van je RAM geheugen.

nVidia heeft dit opgelost door het naastliggende stukje L2 de mogelijkheid te geven om met beide geheugencontrollers te spreken en dus ook als buffer te dienen voor 1GB aan RAM geheugen. Maar omdat er slechts 1 controller per keer kan worden aangesproken word de tweede dus enkel in geval van nood gebruikt (wanneer het geheugen meer dan 3,5GB nodig heeft).

nVidia had dit deel van het geheugen kunnen uitschakelen en de GTX970 op de markt kunnen zetten met 3,5GB aan RAM, maar heeft voor de huidige oplossing gekozen omdat er zo 512MB beschikbaar blijft die nog altijd een stuk sneller aan te spreken is dan wanneer men het RAM geheugen van de PC moet aanspreken over de PCIe bus. Het besturingssysteem word verwittigd dat het geheugen in twee delen is geplitst en word aangeraden om eerst hey deel van 3,5GB te vullen en pas daarna het laatste blok te gebruiken.
Eigenaar van GTX970 SLI, persoonlijk zou ik het liefst mijn kaarten terug geven, puur omdat bewust of onbewust de zaak heeft lopen bedonderen, iets waar ik erg allergisch voor ben.

Maar kan dat niet echt doen om twee reden,
  • ik gebruik de HDMI 2.0 voor mijn 4K TV.
  • Het AMD alternatief is gewoon erg warm voor mijn HTPC.
Maar als de nieuwe AMD kaarten uit komen, en een alternatief zijn, probeer ik als nog mijn kaarten om te ruilen, want zelfs de huidige 290X is tijdens idle/video weergave stil genoeg.

Ik wacht en zie wat er gebeurd, want over het algemeen ben ik wel tevreden over de prestaties van de kaarten, en ze beloven een fix.

Maar wederom laat nVidia zien waarom ik een bloedhekel heb aan het bedrijf, en het is niet de eerste keer dat ik mijn vingers brand aan een product van hun, en ook toen bagatelliseerde het bedrijf de problemen die gebruikers hadden.
Begrijp niet zo goed waarom jij -1 krijgt. Je hebt enkel kritiek op nvidia wat ik volledig kan begrijpen.

Ik stond op het punt een 970 te kopen, maar wil deze situatie even afwachten. Op dit moment heb ik nog een AMD vanwege goede prijs/prestatie, maar nvidia heeft gewoon betere drivers en kan bepaalde technieken beter ondersteunen (Ambient occlusion). Helaas heeft dit wel een bepaalde arrogantie teweeg gebracht.

Hopelijk wordt dit een wijze les voor ze en gaan ze compensatie bieden voor de huidige eigenaren en de prijs van de 970 bijstellen gezien de werkelijke (lagere) hardware specificaties.

Ik wacht ook vooral even af hoe AMD hier op gaat antwoorden met de 300 serie. De 390x zou 15-20% sneller zijn dan de 980 volgens geruchten. Dat zou in ieder geval weer voor balans zorgen.
Misschien omdat het vreemd klinkt dat iemand een GTX970 SLI opstelling heeft in een HTPC? Misschien omdat het meer een "ik wil maar kan niet"...niet echt iets waar we wat aan hebben. Maar goed, een 0 had wel gekund natuurlijk

[edit] Overigens als je de film kijkt (http://nl.hardware.info/t...0-memory-gate-35gb-of-4gb) dan zeggen ze gewoon heel simpel: "wij hebben echt getest en hebben geen praktijk voorbeelden kunnen vinden waar we zeggen..dat is nou echt een achilles hiel van 3,5gb only."

Nope...er wordt wel heel erg overdreven..

[Reactie gewijzigd door yvez op 22 februari 2015 19:08]

Is het zo raar dat ik game op mijn TV/beamer?

Woon in een groot huis in Noorwegen, en game veel op mijn HTPC, gewoon omdat ik het soms prettig vind om daar te doen.

Maar hoe is het ook maar enigszins relevant of ik een 4K TV of Monitor gebruik, het probleem blijft het zelfde.
Nope...er wordt wel heel erg overdreven..
Heb geen echt probleem met 3.5GB, maar dat is niet wat ik gekocht heb, neem aan als je een HDD koopt van 4TB, en late blijkt dat er maar 3.5TB op past, het maakt niet uit of de prijs/GB nog steeds lager is dan van de rest, het is niet wat je hebt gekocht, punt.

Als nVidia nu met een gratis game komt ter compensatie of zo, dat zou al een hoop goed maken, ze hebben geblunderd met de spec, en ja heel soms is het wel degelijk een probleem als je die laatste 0.5GB word gebruikt heb ik gemerkt, een driver update die die 0.5GB afschermt voor normaal gebruik zal het probleem verhelpen, maar nog steeds is dat een lap middel voor niet nagekomen beloofde specs.

[Reactie gewijzigd door player-x op 22 februari 2015 20:30]

Geen appels met peren vergelijken. Immers, zoals _duidelijk_ wordt verteld in het filmpje _met_ technische onderbouwing, heb je gewoon je 4gb. Punt.

En wederom, ze hebben niet geblunderd met de specs. De enige specs waarmee ze geblunderd hebben, zijn specs die naar reviewers gegaan zijn, niet naar de winkeliers/consumenten. Er staat nergens op de doos een spec die fout is.

Dat "wel degeljk een probleem bij die laatste 0,5gb" opmerking, staat haaks op de mening van de mannen van Hardware.info en menig andere sites die er in gedoken zijn en hebben geconludeert dat je hier niets van zult merken.

Ik snap wel dat je je genaaid voelt, maar zo als er gereageerd wordt is het gewoon overdreven en niet onderbouwd. Althans, niet met meer dan gevoel...

Voor het gemak reageer ik hier ook even op je HTCP rant: nee, het is allerminst verboden. Doe wat je wilt. Ik zeg alleen dat het _vreemd_ klinkt dat iemand een HTPC heeft met een SLI GTX970 opstelling en dat kun je niet ontkennen. Dat je daarna vertelt dat je er ook op gamet....jah, dat mag ik HOPEN met zo een aso opstelling ;) Maar goed, dan zou ik het dus niet mijn HTPC noemen, maar dat ben ik. Blijkbaar heb jij de middelen om elke machine te vetmesten, maar dat klinkt nog steeds vreemd voor ons :)
Geen appels met peren vergelijken. Immers, zoals _duidelijk_ wordt verteld in het filmpje _met_ technische onderbouwing, heb je gewoon je 4gb. Punt.
Ja, je hebt 4GB, maar daarvan is alleen 3.5GB echt effectief bruikbaar, dus ja technisch gezien het is correct, de kaart heeft 4GB, in de praktijk is daar maar 3.5GB echt bruikbaar.

Ik zeg dus dat ik praktisch gezien een 3.5GB kaart heb.
Ik zeg alleen dat het _vreemd_ klinkt dat iemand een HTPC heeft met een SLI GTX970 opstelling en dat kun je niet ontkennen.
De reden geef ik hier boven duidelijk, ik game met andere regelmatig op meerdere PCs, en een 4K scherm heeft gewoon twee 970's nodig.

Woon op familie land, een oude boerderij dat nu een hobby boerderij is met meerdere huizen van familie leden, 2x per week game ik met mijn zwager, en een vriend, en gaat mijn vrouw op bezoek bij haar zus.

En ja ik heb de middelen, we hebben beiden een goed inkomen, ik heb een hekel aan geld verspilling, maar dit is een investering die ik gebruik voor sociale bezig heden, jij mag dat raar vinden, ik zie dat niet echt zo.
Laatste offtopic reactie: ik zeg niet dat ik het _raar_ vind dat jij de middelen hebt, of dat je het daar aan uit geeft. Ik zeg dat men, waaronder ik, de term HTPC dan _raar_ vinden. Dat betekent niet dat het niet mag, dat betekent niet dat het verkeerd is, dat betekent alleen dat +/- 99,99999% van de mensen de goedkoopste HDMI kaart in een HTPC steken en dus inderdaad raar op kijken als iemand het over een HTPC heeft met een SLI GTX970 opstelling.
Dat is imho een foute definitie van een HTPC, mijn definitie van een HTPC is, is een computer die absoluut stil is tijdens het afspelen van media content, en daar voldoet mijn HTPC zich prima aan.

Heb deze discussie al eens eerder gevoerd in mijn HTPC build guide, lees die en de opvolgende reactie, geeft denk een nieuw inzicht.
Is snap het nut niet van een HTPC. Je kan ook gewoon een lange hdmi kabel + lange actieve usb verlenger kopen en je normale PC laten waar hij nu staat. Bij een appartament gaat dat helemaal makkelijk bij een huis minder.

[Reactie gewijzigd door Tweaker Sebas op 22 februari 2015 20:28]

En wat als ik gewoon twee 970s in mijn HTPC wil hebben, is dat verboden of zo?
Waarom in een HTPC en niet een normale build :)

Heb zelf een pricewatch: LG 55UB850V Zwart maar mijn R9 290 heeft HDMI 1.4 en op 30hz spelen @ 4K heb ik niet echt zin in.

Nog paar maanden wachten voor de 390(X) :9~

[Reactie gewijzigd door Tweaker Sebas op 22 februari 2015 20:29]

De GTX970 heeft ''Hoogste HDMI-versie HDMI 2.0'', waarom zou ik wachten, als de GTX 970, prima prestaties levert voor een goede prijs, met een laag energie verbruik, en past prima in mijn Node 605.

Geef een voorkeur aan AMD producten, maar ben zeker geen dief van mijn eigen portemonnee, en als nVidia met het beter product komt, dan koop ik die gewoon.

Edit:
En heb daarnaast twee andere game PCs, een met 4x 5870 voor 5760x1200, en een met 4x Titan v1 voor 7680x1600.

Daarnaast staat mijn TV ongeveer 10m van mijn PC en het iets van 25m HDMI kabel nodig om bij mijn versterker te komen.

[Reactie gewijzigd door player-x op 22 februari 2015 20:49]

Dus als ik het goed begrijp heeft u 4! Titans in een PC!? Wat doet u daarmee?
Nu kan ik hier dit filmpje niet bekijken, maar vraag me af of ze een game op 4k met flinke texture pack of iets dergelijks spelen. Dan ga je die 4gb namelijk vol maken en ik heb live kunnen zien hoe het passeren van de 3,5gb stuttering en lagspikes opleverde.

Zelf speel ik bijvoorbeeld modded Skyrim en die zou graag de 4GB gebruiken. Deze kaart is zo gewoon niet toekomstvast en dat verwachten mensen wel. In de toekomst met meer 4K en meer grotere textures ga je de vram steeds vaker gebruiken. Om nog maar niet over 4K oculus VR te hebben. ;)

Al helemaal voor x-player met sli opstelling op 4k beamer/tv zou ik balen want dan heb je brute rekenkracht maar 2x mirrored 3,5gb vram.

Wellicht dat het de performance zelfs ten goede komt als ze die laatste 0,5 afsluiten. Dan val je tenminste niet in dat laghole na de 3,5.
In dat geval zou ik dat eens melden bij ze...wellicht dat ze hun bevindingen dan aanpassen. Want als het klopt wat je zegt, en ik geloof je meteen, dan is dat natuurlijk kwalijk. 4K mag dan misschien nog geen gemeengoed zijn, maar dat kan wel _een_ reden zijn om deze kaart te kopen.......dus, ik zou zeggen, help de community en laat het ze weten.

Bedankt voor de info :)
Dat drivers issue is echt onder Windows heel erg achterhaald... Ik heb zelf op het moment zowel nvidia als AMD en heb zelfs de laatste tijd meer ruzie met de drivers van nvidia dan van AMD...

Over AO kan ik niet oordelen, maar over stabiliteit is weinig verschil tussen de drivers onder Windows.

Ook het verhaal over het geheugen ligt complexer... De geheugen controllers kunnen namelijk wel simultaan read en write acties verwerken, alleen kan 1 geheugenchip niet tegelijk beschreven en gelezen worden... 2 daarentegen wel, dus in 1 cycle kan er tegelijk 3.5gb gelezen worden en de 0.5gb beschreven of andersom, waardoor er dus wel degelijk effectief gebruik wordt gemaakt van de volledige bus. Het wordt echte een probleem als er meer dan 3.5gb beschreven of gelezen moet worden... Dat kan namelijk niet in 1 cycle.

Daarnaast schijnt dit niet de eerste kaart te zijn die op deze manier werkt, ook de gtx660 met 2gb vram zou per controller 2 geheugenchips aansturen en het vram opgedeeld zijn in partities. De gtx970 is daarentegen wel de 1e kaart uit het high-end segment gebruik maakt van deze technologie...

Uit eindelijk was een rechtzaak te verwachten aangezien er nu eennaal niet vanaf het begin de correcte specificaties zijn gecorrespondeerd naar de buitenwereld, wat bewust of onbewust wel een kwalijke zaak is. Of het nu echt terecht is dat mensen hun geld terug gaan eisen laat ik verder in het midden...

Het blijft hoe dan ook nog steeds een krachtige kaart en een mooi staaltje techniek.
Zeker het filmpje van hardware.info gekeken :p
Ik geloof dat de kaart daardoor goedkoper geproduceerd kon worden.
Niet. Ze maken allemaal 980's en de goeie worden verkocht als 980, degenen met kapotte L2 worden verkocht als 970. Ook als de vraag voor 970's enorm is en ze anders met een overschot aan 980's blijven zitten, worden de 980's verminkt en verkocht als 970.
Interessant. Dus de 980 is gewoon niet duurder om te produceren maar omdat 'ie beter is is hij gewoon duurder? Dat vind ik vreemd.
Ik denk wanneer Nvidia z'n 980s zo goedkoop maken als de 970s, dat ze dan heel wat omzet halen.
Dus wat maakt nu een videokaart duur en wat niet?
Ze willen wel allemaal 980's maken, maar het gaat niet altijd goed.
Ze bakken dus 1000 van die chips, waarvan er 800 helemaal goed zijn, en 200 niet helemaal.

Zie ook http://en.wikipedia.org/w...e_fabrication#Device_test.

Wat doe je dan als bedrijf zijnde? Je gaat kijken of je met die 200 toch nog wat aan kan vangen, zodat je het verlies kan minimaliseren. Je hebt immers al volop geinvesteerd in een mooie nieuwe generatie videokaarten waarvan de ontwikkeling erg duur was, dus je wilt het liefst de opbrengst dan ook zo maximaal mogelijk uitbuiten. In de bak gooien levert in ieder geval helemaal geen geld op.

Nvidia (en elke andere chip-bakker) heeft hier dus een oplossing voor bedacht door van de chips die het niet gered hebben de problematische L2-cache af te schieten naar de maan, en één van de overige L2's met de zware taak te belasten niet uit 512MB, maar 1G aan memory te cachen. Daardoor werkt wel al dat achterliggende geheugen, maar wordt het traag. zodra je de laatste 512MB vol gooit, want immers moet dan één L2 aan de gang voor 1GB geheugen. Onder de 3.5GB maakt het niet uit, dan kan ook die ene L2-cache rustig aan doen, omdat ie toch maar uit max 512MB geheugen hoeft te cachen waar ie oorspronkelijk ook bedoeld voor was.

Problem solved, crisis averted. Nvidia kan alsnog ál z'n chips verkopen.

Even later blijkt dat de hele wereld inziet dat zo'n GTX980 wel superleuk is enzo, maar ook heel erg duur. Ze settlen dus massaal voor de GTX970 omdat Nvidia beweert dat het ook gewoon een kaart is met 4GB geheugen*

Nu zit Nvidia met probleem 2: Ze hebben allemaal goeie chips liggen, maar niemand wil ze. Dan kun je weer twee dingen doen: ze gewoon niet verkopen, of één van de L2-caches uitschakelen en ze verkopen als 970. In het eerste geval krijg je per chip 0, in het tweede geval krijg je per chip tenminste nog een groot deel van het beoogde geld.

Zo heeft AMD in het verleden de ATi 9800pro geleverd met de R360-chip er op maar dan gedownclocked, hoewel dat eigenlijk dus de chip was voor op de 9800XT, de snellere variant van de 9800Pro. De 9800pro hoorde eigenlijk een R350 te hebben.

Ook hebben ze de 9600Pro gehad dat als ik het goed herinner een tragere versie van de 9800Pro was met maar 4 pixel pipelines ipv 8. Hierdoor bestond de vreemde situatie dat de 9500pro (die wel 8 pixel pipelines had maar lager geclocked was) sneller was dan de 9600pro.

Dit is ook bij AMD wel in CPU-land toegepast, waarbij delen van chips uitgeschakeld waren. Denk aan de AMD Triple-cores. En hoewel CPU's vaak doorgelaserd worden, begreep ik onlangs van een maat van me dat er in videokaart-land nog steeds pareltjes te vinden zijn, zo zijn de eerst geleverde AMD 290's ook om te flashen naar een 290X.

* Hier zit ook de catch: Nvidia had, zoals Blokker_1999 terecht aangeeft, bij het uitschakelen van die L2-cache ook het achterliggende geheugen uit kunnen schakelen (of wellicht helemaal niet plaatsen, ik weet niet of dit op dezelfde chip zit) en de kaart verkopen als een kaart met 3.5GB RAM. Dan had niemand geklaagd, want was het duidelijk geweest. Nvidia heeft echter gewoon beweerd dat het een kaart is met 4GB geheugen terwijl die laatste 512MB eigenlijk nutteloos zijn in games, omdat je FPS in elkaar stort. Effectief heb je betaald voor een kaart met 4GB ram terwijl er maar 3.5GB fatsoenlijk bruikbaar is.

[Reactie gewijzigd door _eXistenZ_ op 22 februari 2015 18:01]

Vergeet ook niet amd deed hetzelfde met cpu's een slechte 6 core kon een 4 core worden.

Intel doet het ook al jaren. Als de yields goed zijn hebben ze allemaal hoog geklokte cpu's. Vele klokken ze gewoon terug, de reden waarom sommige dan weer goed te overklokken zijn.

Probleem zoals je aangeeft is dat nvidea het als 4gb verkoopt en dat dus niet heleaal waar is.
Wel waar, ze verkopen 4GB ook bruikbaar. maar deeltje is wat langzamer.
Precies dat is het probleem wel bruikbaar maar langzamer.

Gelukkig hebben we rechters om in dit soort zaken te bekijken.
Bedankt voor de geweldige uitleg!
Dus wat zou nu een slimme zet van Nvidia zijn, de 970 nóg goedkoper maken of 4 GB 3,5 GB maken?
De beste en meest klantvriendelijke oplossing zou zijn.

3,5gb + bios uitbrengen om voor de die hards de laatste 500 mb te unlocken als ze dit willen met de gevolgen van dien ( gebeuren al tientale jaren zo ).

Echter gingen ze liever voor het snelle geld en hebben de kaart als 4gb uitgebracht wat.

Gewoon smerig praktijkje en nu zitten ze op de blaren.
Door de mining vraag van r9 290 en grote hoeveelheid 290x chips. Hebben ze ook 290x chips als 290 verkocht. Gebeurt zo vaak.
Even later blijkt dat de hele wereld inziet dat zo'n GTX980 wel superleuk is enzo, maar ook heel erg duur. Ze settlen dus massaal voor de GTX970 omdat Nvidia beweert dat het ook gewoon een kaart is met 4GB geheugen*

Nu zit Nvidia met probleem 2: Ze hebben allemaal goeie chips liggen, maar niemand wil ze. Dan kun je weer twee dingen doen: ze gewoon niet verkopen, of één van de L2-caches uitschakelen en ze verkopen als 970. In het eerste geval krijg je per chip 0, in het tweede geval krijg je per chip tenminste nog een groot deel van het beoogde geld.


Leuk verhaaltje, maar het viel natuurlijk van tevoren te voorspellen dat de GTX 970 veel beter ging verkopen dan de GTX 980. Nvidia had dus ook van tevoren al bedacht om heel veel goede chips om te bouwen naar GTX 970 uitgekleedde chips. Niet dat daar iets mis mee is, ik vind deze manier van verkoop prima, maar het is wel een cruciale inzichtsfout in jouw verhaaltje.

[Reactie gewijzigd door dusty-2011 op 22 februari 2015 15:50]

Nvidia weet donders goed dat een dure GTX980 minder verkoopt dan een beter geprjsde GTX970. Dat kan geen verrassing zijn. Feit is gewoon dat ze bewust voor de GTX970 "geheugen"en "rop" knijp operatie hebben gekozen, want de GTX970 mag natuurlijk niet te dicht bij de GTX980 komen qua prestaties.
Ze hebben zich echter in dit geval in de vingers gesneden, mede geforceerd door de architectuur die ze zelf bedacht hebben.

Dat past niet zo goed met de ingrepen die ze toegepast hebben, en nu zitten ze terecht op de blaren.
Interessant. Dus de 980 is gewoon niet duurder om te produceren maar omdat 'ie beter is is hij gewoon duurder? Dat vind ik vreemd.
Ik denk dat je wat achtergrondinformatie mist.
Chips worden gebouwd uit wafers van silicium.
Het is niet mogelijk om 100% zuivere silicium te produceren, er zit hier en daar altijd wel wat 'vervuiling' in (vooral aan de randen van de wafer).
Daarna worden de GPUs in de wafer ge-etst, en worden de chips losgesneden.

Nu moeten de chips getest worden om te zien hoe goed ze werken. Als er toevallig hier en daar een een vervuiling in zit, werken bepaalde delen van de chip misschien niet, of alleen op een lagere frequentie en/of hoger voltage.
Hier is dus rekening mee gehouden bij het ontwerp: Bepaalde delen van de chip kunnen uitgeschakeld worden als ze niet goed functioneren. Zo kunnen veel chips die niet 100% werken toch gebruikt worden als een iets minder high-end part.

Dit proces van testen/selecteren wordt ook wel 'binning' genoemd: er zijn een aantal 'bins' gedefinieerd, bv chips die een bepaalde kloksnelheid moeten kunnen halen, of chips waarbij een bepaald aantal units wel/niet werkt.
Het testen van de chip bepaalt in welke 'bin' hij valt. In dit geval heb je dus een '970'-bin en een '980'-bin.

Het aantal chips dat in een bepaalde bin valt, wordt ook wel de 'yield' (opbrengst) genoemd.
Omdat over het algemeen de bin van het topmodel een relatief lage yield heeft, is deze dus schaars, en daarom kost ie meer.

Het is dus in het geval van de 970 en 980 zo dat beide chips in principe hetzelfde kosten om te produceren. Het zijn namelijk dezelfde chips, uit dezelfde wafers, die alleen in verschillende bins terechtkomen.
Het verschil is dat nVidia gewoon minder van de 980 kan maken, omdat het productieproces nu eenmaal niet perfect is, en niet alle GPUs 100% foutvrij zijn.
Als ze de 980 te goedkoop zouden maken, zou de vraag ernaar groter zijn dan het aanbod, en blijven ze met hun grote aanbod 970s zitten.

[Reactie gewijzigd door Scalibq op 22 februari 2015 12:42]

Yep, in andere woorden: je moet de prijs precies zo stellen dat er precies genoeg perfecte en minder perfecte kaarten geleverd kunnen worden. Dat is natuurlijk een helse klus dus je zal dat af en toe bij moeten stellen. Als er teveel 970s worden geleverd heb je de mogelijkheid om productie op te voeren (wat misschien te veel geld kost, want je produceert dan te veel 980s), je kan de prijs van de 970 verhogen (als je productie het niet aan kan) of je kan natuurlijk de prijs van de 980 verlagen.

Maar dat maakt allemaal niet uit als je 970 voor een groot gedeelte van de markt niet goed presteert. Dan moet je of met je billen bloot, of je weet er nog een technische draai aan te geven.
Nee, de prijs die gevraagd wordt heeft niets direct te maken met de yields, maar met wat de markt wil dragen. Zo heb je in het verleden ook gewoon gehad dat omdat er zoveel vraag was naar de ¤350 kaarten er gewoon GPUs in die kaarten werden geleverd die ook gewoon geschikt waren voor de ¤600 kaarten. Zelfde fenomeen heb je bij CPUs. Voor chipmaker maakt het niets uit, want de chip kost niet meer om te produceren. Alleen als je teveel vraag heb naar de ¤600 kaarten en je yields niet hoog genoeg zijn zal je meer wavers moeten maken en dan met een berg overtollige chips zitten die je niet kwijt kan. Andersom is het geen probleem.

Als de yields goed zijn en de markt er naar x maanden rijp voor is zal je vanzelf een nieuwe kaart erbij krijgen die dan de 970ti of zo gaat heten, die net even beter is dan de reguliere 970.
scalibq slaat de plank op alle fronten mis, niet alleen vwb yields maar ook idd qua marketing keuzes en opties.

Die goede of slechte yields hebben nl vrij weinig te maken met het ge-ente monokristallijne silicium maar alles met het optische ets proces wat nou eenmaal altijd beter verloopt in het midden van je werkveld dan aan de randen. Dit is inherent aan iedere lens constructie.

De keuzes die Nvidia maakt zijn al langere tijd onzuiver tav haar klanten. Deze zgn "miscommunicatie" is slechts 1 voorbeeld. De verkoop van een 10 cent kostend chipje voor 150 euro in monitoren onder de noemer G-sync is flater nummer 2.

Omdat Nvidia het blijkbaar niet erg nauw neemt tav de realiteit zullen er nog wel meer fratsen volgen. Altijd 100% gesteund door scalibq.

Edit:
Bedankt voor de foute -1 moderatie: hoe bedoel je kortzichtig.

[Reactie gewijzigd door trm0001 op 23 februari 2015 09:36]

Die goede of slechte yields hebben nl vrij weinig te maken met het ge-ente monokristallijne silicium maar alles met het optische ets proces wat nou eenmaal altijd beter verloopt in het midden van je werkveld dan aan de randen. Dit is inherent aan iedere lens constructie.
Dat de lens ook invloed kan hebben, wil niet zeggen dat andere factoren dat niet hebben.
Zie hier voor een overzicht van mogelijke problemen: http://ieor.berkeley.edu/~ieor130/yield_models.pdf
Ze noemen daar bv het probleem van de verschillende chemische coatings die vanuit het midden worden aangebracht terwijl de wafer draait. Dat gaat in het midden goed, maar naarmate het meer naar de randen toe gaat, wordt de afwijking van de gewenste dikte van de coating groter.

Je doet trouwens niet alle dies op een wafer in 1 keer. Je maakt verschillende 'shots', met een stepper: http://en.wikipedia.org/wiki/Stepper
Je lens is dus veel kleiner dan de hele wafer, en de wafer-grootte heeft er niet direct iets mee te maken. De grootte van de die dan weer wel. Maar daar hadden we het hier niet over, omdat de 970 en 980 dezelfde die zijn, en dus dezelfde grootte. Yields zijn hier dus alleen van andere factoren afhankelijk.

[Reactie gewijzigd door Scalibq op 23 februari 2015 01:22]

Wat je punt ondersteund is dat de kostprijs voor een 970 gelijk zal zijn aan die van een 980. Dat de 970 als een "uitval" van het 980 proces kan worden geschouwd doet daar weinig aan af.
Yep, in andere woorden: je moet de prijs precies zo stellen dat er precies genoeg perfecte en minder perfecte kaarten geleverd kunnen worden. Dat is natuurlijk een helse klus dus je zal dat af en toe bij moeten stellen.
Het is nog iets complexer dan dat, want ook de bins bepaal je zelf.
Door bv een iets lagere kloksnelheid te kiezen, zouden er misschien meer chips als 980 gebind kunnen worden.
Je moet dus bij een nieuwe GPU proberen de bins zodanig te kiezen dat je gunstig uitkomt qua vraag/aanbod, en ook nog eens binnen de juiste prijssegmenten valt, zodat je zo veel mogelijk aan een GPU kunt verdienen (je zit natuurlijk op een bepaalde schaal van prijs/prestatie, waar je concurrent ook een deel van bepaalt) .

Het komt ook wel eens voor dat na een tijdje de productie dermate verbetert dat men een nieuwe bin erboven introduceert (bv een '980Ti' model).
Je verhaal klopt toch ergens niet. Zoals jij het stelt worden er meer slechte gpu's gebakken(de 970) dan goede(980). Dit klopt niet. Je gaat altijd voor een zo hoog mogelijke yield. Dan heb je altijd meer 980's dan 970's, terwijl het eigenlijk omgekeerd moet zijn omdat de 970 de mainstream variant is en er meer van verkocht wordt omdat hij goedkoper is. Kapotte chips worden verkocht als 970(20 % als yield 80 % is) maar dat is te weinig. Dus volgens mij schakelt nVidia een deel van de L2 cache uit bij de goede chips(980) en verkoopt ze als 970.

[Reactie gewijzigd door Fredi op 23 februari 2015 04:31]

Je verhaal klopt toch ergens niet. Zoals jij het stelt worden er meer slechte gpu's gebakken(de 970) dan goede(980). Dit klopt niet.
Waarom zou dat niet kloppen?
Er worden toch ook meer videokaarten met 970 verkocht dan met 980?
Je gaat altijd voor een zo hoog mogelijke yield.
Ja, maar 'zo hoog mogelijk' betekent niet per se 100%.
Verder gaat men voor 'zo hoog mogelijk' in het algemeen.
Dus niet per chip, maar voor de hele lijn. In dit geval wil men dus een goede balans tussen 970s en 980s, en zo min mogelijk chips die ook niet als 970 geschikt zijn.
Dan heb je altijd meer 980's dan 970's
Hoezo zou dat *altijd* zo moeten zijn?
Je maakt hier een sprong in je gedachtengang die niet logisch is.
Zoals ik al zei, nVidia bepaalt zelf de bins. Als je de bins maar 'moeilijk' genoeg kiest, zijn er altijd minder 980s dan 970s. In theorie kun je zelfs bins verzinnen die in de praktijk nooit gehaald worden (dat was bv zo bij de GTX480... de versie met alle 512 CUDA cores bestond in de praktijk niet).

[Reactie gewijzigd door Scalibq op 23 februari 2015 09:26]

De top kaarten bestaan om de R&D kosten terug te verdienen, dat is wat een GPU zo duur maakt
Je redeneert de verkeerde kant op: de 980 is niet duurder omdat hij sneller is, de 970 is juist goedkoper dan de 980 omdat niet alle features gebruikt kunnen worden :)
Dit is niet geheel correct iets wat ook tweakers zelf aangeeft. GPU (en CPU) bakkers produceren chips die universeel zijn (binnen een bepaalde lijn 980/930) ware het niet de 930 bijvoorbeeld minder transistors heeft of minder lanes. Dus in plaats van een 980 weg te gooien kunnen ze de defecte componenten uitschakelen waardoor je een goede 930 overhoudt. Is teveel defect dan kan de GPU in de prullenbak.

Qua productie zijn de kosten dan ook gelijk echter qua performance uiteraard niet waardoor een 930 minder waard is op de markt logischerwijs.
Heel gewoon bij zowel hardware (CPUs & GPUs als ook RAM) als ook software. De beter gelukte producten worden voor meer verkocht. De minder goed gelukte producten goedkoper - als de vraag naar de mindere producten dankzij de lagere prijs te groot is dan kan via firmware of het simpelweg letter deels uitschakelen (lees kapot maken) de voorraad wel vergroot worden.
Hier kon in het verleden door de tweakers nog wel eens een leuke gratis boost te behalen zijn door de m.b.v een firmware flash je videokaart naar een duurder model om te zetten of bij een CPU meer cores in te schakelen.

Bij software wordt dit ook veel gedaan, denk bijvoorbeeld aan Windows met de vele varianten. Komt allemaal tegelijk de markt op, de 'Ultimate' versie is tegelijk uitontwikkeld als de 'Home' versie. Bij de home versie worden enkel features verwijderd of er worden zelfs kunstmatige limitaties toegevoegd.
Ontwikkelings kosten en de relatief korte periode waarin dat weer terug verdient moet worden? De 980 verkopen voor 970 prijzen en dan de 970 verkopen voor 225,- sloopt hun eigen line up aangezien de 960 dan ook goedkoper moet enz enz.

Het blijft een rare kwestie maar ze hebben hier gewoon een fout gemaakt.
Ik geloof niet zo in de beredenering die zij geven maar opzettelijk de gok nemen lijkt me ook niet zeer waarschijnlijk. Ze zijn toch ook specifiek bezig geweest om er High/Low prioriteit segmenten van te maken dus 'het probleem' was hoe dan ook breed bekend. Anyway, de waarheid zal daar ergens tussenin liggen.

Hadden ze inderdaad geadverteerd met 3,5GB (al dan niet met + 0,5GB toevoeging incl leuke marketing term) en de ROP's juist benoemd dan was er gewoon niks aan de hand. Uiteindelijk gaat het om de benchmarks en die zijn, en waren, prima. Zoals jer123c hierboven al stelt zou men met een 3GB/192bits variant minder performance gehad hebben tegen dezelfde prijs.

Er is al veel over geschreven/gezegd en getest, maar zoals het er nu voor staat is de marketing incorrect en dus misleidend geweest. Als dit niet in opspraak zou komen krijgen we straks wellicht nieuwe marketing trucs met afwijkende specs.
Dan heb ik het niet over de ROP's aangezien die spec fysiek incorrect was.

Kortom, goed dat het boven water is gekomen, maar als het bekend en eerlijk was gebracht hadden ze er net zoveel verkocht en misschien wel wat meer 980's.
Denk dat Nvidia hier wel iets van geleerd heeft.
Het is gewoon goedkoper 1 model te maken en die met diverse begrenzingen te gebruiken in alle videokaarten, dan tig modellen apart te moeten produceren. Dit gebeurt met veel producten, niet alleen videokaarten.

En zoals anderen ook al aangeven, je kan zo chips die deels kapot / afgekeurd zijn, toch nog gebruiken.

Als productiekosten het enige criterium zouden zijn voor de prijs van een product, dan zouden de verschillen tussen low en high end sowieso veel kleiner zijn, lijkt me.
Voor de wat jongere tweakertjes even het verhaal van de AMD Athlon.
AMD bracht in 2000 een hele serie Athlons uit. Ik weet de exacte specs niet meer, maar de verschillende snelheden werden voor verschillende prijzen verkocht.
Echter, het was allemaal exact dezelfde chip, en de langzamere werden langzamer gemaakt door een connectie op de chip met een laser door te branden.

Als snel had iemand uitgevonden dat je met een eenvoudig potlood-streepje op de goede plek de connectie kon herstellen. Ik had destijds een Athlon 600 die daardoor ineens een 900 werd.
Linkje naar een artikel uit die tijd: http://www.anandtech.com/show/740/6


Het "verminken" van CPU's en GPU's bestaat dus al jaren. Je maakt 1 product, en de net-niet-perfecte verkoop je voor een lagere prijs, of je "verminkt" ze zelf en verkoopt ze dan goedkoper.
de mensen die nu een 980 kopen leggen meer geld neer dan de klanten die er bij zouden kunnen komen die nu geen 970 zouden kopen.
De afzet markt voor 500++ euro G-kaart is veel kleiner dan 300+ euro kaart.
Dus de omzet wordt grotendeels dedaan met midrange en low budged.

Als de yield en Bin van procede goed is en men meer 980 eruit kunnen halen dan 970 dan wordt er deel van de goede 980 gekortwiekt naar 970
Alternatief is een hogere type te releasen en prijs punt shift in upper produktlijn. .
dat gebeurt als er teveel "goede" kaarten worden gemaakt, maar daar ging zijn vraag niet over, hij wil 980 performance voor een 970 price:
Ik denk wanneer Nvidia z'n 980s zo goedkoop maken als de 970s, dat ze dan heel wat omzet halen.
Dus wat maakt nu een videokaart duur en wat niet?
de prijs de de fabrikant aanraad maakt hem duurder. Het zelfde geld voor i7 en i5 een i5 is niks meer dan een i7 waarbij Intel hyper threading heeft uitgeschakeld. Aan matriaal kosten zijn de zo goed als even duur, maar omdat i7 beter presteert word er meer voor gevraagd , dit geld ook voor de gtx 980 vs gtx 970

(Er zijn geruchten dat Nvidia expres de GTX 970 een prestatie limiet ( als de gpu meer als 3.5gb gebruikt ) heeft proberen op te leggen, omdat ze bang waren dan anders de gtx 980 te weinig verkocht zou worden, omdat je dan beter een gtx 970 kon kopen. )

[Reactie gewijzigd door holhuizen op 22 februari 2015 12:26]

waarom verkopen ze de 980's dan niet tijdelijk voor een lagere prijs?
zie deze 2 scenario's:
1. Nvidia 'verminkt' hun 980's en verkopen ze als 970's voor ¤300, de consument koop een 970 en krijgt minder vertrouwen in Nvidia omdat de videokaart niet presteert als verwacht. dus stapt in de volgende generatie over op AMD of koopt een tweede 970.
gevolg: Nvidia krijgt ¤300-¤600 en er zijn meer mensen die hun aanklagen.

2. Nvidia verkoopt hun 980's tijdelijk voor een stuk minder geld (¤350-¤450), de consument heeft optimale performance en is erg blij met zijn aankoop. tegen de tijd dat de klant graag nog een 980 wil, is de prijs hiervan weer gestegen tot ¤500.
gevolg: Nvidia krijgt ¤400-¤900 en klanten hebben veel vertrouwen in Nvidia.
Ja, maar wat doen ze dan met hun uitval?
die verkopen ze wel als 970's, mijn punt is dat het dom is als ze de niet uitgevallen chips gaan verminken, dan kunnen ze beter de prijs tijdelijk laten zakken tot ¤50 boven de 970's.
Mijn vermoeden is dat wanneer je wel al het L2 cache had ingeschakeld op de 970, die met een goede overclock sneller kan lopen dan de stock 980 voor een paar honderd euro minder.
Dan had hij gewoon als een 980 verkocht geworden, je verhaal gaat niet op er is namelijk maar één chip die geproduceerd word, de 970 is geen aparte chip, nogmaals het is gewoon een gehandicapte 980 met div. parts uitgeschakeld.
is al gestuurd in de link door Red_inc
maar dit is waarom de 970 slecht kan presteren wat niet per se gebeurt doordat niet veel spellen 4 GB vram nodig hebben

196 GB/s (3.5 GB)
28 GB/s (512MB)
de 970 is eigenlijk een 980 met een paar uitgeschakelde delen. Deze delen worden dan uitgeschakeld omdat deze eigenlijk defect zijn.

het gevolg is een ietswat langzamere kaart voor een zeer lichtere prijs. de technologie die nvidia gebruikt om de defecte delen uit te schakelen gaan steeds verder. Als nvidia de oude methode had aangehouden was de 970 een 3GB kaart met een 192 bit bus geworden, hierbij verlies je dus nog meer.

de laatste 500MB van die extra GB is dan langzamer, maar in 95% van de gavallen nog steeds sneller dan je DDR3 geheugen die anders hiervoor gebruikt zal worden.
Misschien kunnen ze hem dan goedkoper maken ofzo.
Ik blijf het grappig vinden hoe mensen er zo'n groot probleem van maken. De kaart blijft even snel als voordat het bekend was. Ik heb zelf ook een gtx 970 en ik ben er echt blij mee. Noem mij is een game waarbij die laatste 0,5 gb in gebruik wordt genomen.
Skyrim met veel texture mods en een ENB ... 4 GB loopt dan snel vol Er zijn ook andere games die echt om 4 GB staan te springen als je het op very high wilt draaien.

[Reactie gewijzigd door Johan tb op 22 februari 2015 11:13]

Maar koop jij een videokaart op basis van specificaties of op basis van reviews en benchmarks welke je hier of elders leest?

De enige conclusie die je zou kunnen trekken is dat voor gaming op 4K een hogere FPS zou hebben als het laatste blok van 500 (512?) mb even snel zou zijn als de eerste 3,5GB. Maar de prestaties die de kaart nu neer zet, zijn niet anders dan de prestaties uit september. Zelfs niet nu je dit weet..

Echter heeft Nvidia nooit geclaimed dat alle VRAM modules even snel is. Dat is een aanname die we met z'n allen hebben gemaakt. Het het rops verhaal, kan nog wel een staartje krijgen. Dat is zou inderdaad als misleiding kunnen worden geinterpreteerd..

Maar tenzij kunt aantonen aantonen dat de retail kaarten een andere performance hebben dan de review (ES) kaarten, denk ik dat een rechter niet zo snel het predicaat performance probleem zal accepteren. Je moet dan kunnen bewijzen dat Nvidia claimt dat alle geheugen modules dezelfde snelheid en bandbreedte hebben..

Maar dat neemt niet weg dat als ik in de VS zou wonen, ik mij niet zou aansluiten bij de rechtszaak. Want nooit geschoten is altijd mis..
De meest concrete aanleiding voor een rechtszaak zou het verkeerd gecommuniceerde aantal rops kunnen zijn. Dit is voor een rechter nog verifieerbaar.

De performance van het geheugen is juridisch moeilijker vast te pinnen. Zoals hierboven al meermalen is aangegeven: het 0,5 GB dedicated GDDR5 geheugen zal minder snel zijn dan het resterende geheugen, maar nog altijd sneller dan het DDR3 systeemgeheugen. De stelling dat die 0,5 GB nutteloos is gaat dus niet op. Ze heeft een positief effect op de performance ten opzichte van een denkbeeldige GTX 970 met 3,5 GB GDDR5 geheugen.

Een vergelijking maken met een denkbeeldige GTX 970 met volledig werkend 4GB GDDR5 geheugen kan blijkbaar blijkbaar niet, maar zou technisch niet onmogelijk moeten zijn. Hierboven heb ik een post geplaatst (teacup in 'nieuws: Gebruikers GTX 970 dienen aanklacht in tegen Nvidia wegens prestatieproblemen') naar een grafische weergave van wat nVidia doet. Bij een 970 wordt niet alleen de hele trein achter een L2 cache segment geraakt, met de bijbehorende Memory controller (MC) en 8 Memory Output Units (ROP) maar ook worden 3 van de 16 streaming multi processors uitgeschakeld. Dit veroorzaakt de vermindering van het aantal CUDA cores (128 per SM). Belangrijk is om vast te stellen dat deze twee veranderingen onafhankelijk van elkaar kunnen worden uitgevoerd en dus geen relatie met elkaar hebben.

Toch gebruikt nVidia niet de botte bijl. In dat geval had de hele trein niet meer gebruikt kunnen worden, en was dus 0,5GB GDDR5 geheugen dood hout geworden. In plaats daarvan maakt nVidia de 0,5 GB geheugen nog toegankelijk via het naburige cache segment.

Aardig van nVidia? Tja. Bij twee punten krijg ik echter een vraagteken:
  • Grappig is dat de in mijn vorige post genoemde bron genoemde bron, die (in mijn interpretatie) nVidia wat in verdediging neemt precies dat wegvallen van die MC/ROP units relativeert door te stellen dat de wegvallende ROP's niet de bottleneck zijn, maar de wegvallende SM's.
  • De ambivalentie rond het aantal ROP units. Volgens Anandtech lijkt het aantal ROP units dichter aan te hangen tegen het aantal L2 cache segments dan tegen het aantal MC units. Maar zelfs Anandtech spreekt zich hierover niet helemaal uit. Dat nVidia eerst heeft gecommuniceerd dat de 970 het voltallige aantal ROP units bevat lijkt deze onduidelijkheid te onderstrepen. Gedeeltes van zowel de L2 cache als de MC uints lijken binnen de definitie van de ROP unit te vallen, en zo de onduidelijkheid te creëren.
nVidia heeft het zichzelf moeilijk gemaakt. Waarom heeft ze de GTX 970 niet gedefinieerd met een geheel intact L2/ROP/MC systeem, en laat alleen het mindere aantal SM units het verschil met de 980 uitmaken. Bewaar de processors met gemankeerde L2/ROP/MC units voor lager geconfigureerde kaarten met minder dedicated geheugen. De bypass naar een naburige MC unit lijkt technisch wenselijk maar is aan zowel klanten als aan een rechter niet goed uit te leggen. De oplossing komt op mij technisch gedreven over, en er is onvoldoende gespiegeld over hoe dit in de markt is te zetten. De onduidelijkheden over wat wel en wat niet te communiceren vanuit nVidia duiden daar wel op.

edit: typo's

[Reactie gewijzigd door teacup op 22 februari 2015 18:26]

Ze hadden de kaart kunnen beschrijven als "3.5GB + 0.5GB" met een fancy naam voor het gelimiteerde geheugen. Voor het prijsverschil met de GTX980 mag je gerust akkoord gaan met 3.5GB, en als je dan geheugen "bij krijgt" dan lijkt het opeens een nog betere deal.
Maar dat neemt niet weg dat als ik in de VS zou wonen, ik mij niet zou aansluiten bij de rechtszaak. Want nooit geschoten is altijd mis..
Meen je dat nou? Wat mij betreft geef je hier goed weer wat er mis is met de mensheid... Je legt eerst uit waarom je het onzin vindt, maar vervolgens geef je aan dat als je de mogelijkheid had dat je vrolijk mee zou doen met Nvidia een poot uitdraaien. Hebberigheid van de bovenste plank...
Als je zeker weet dat je er mee weg komt om een vrachtwagenlading 980s te stelen, dan doe je dat dus ook?

Overigens ga ik er dus vanuit dat je in het gequote deel een 'niet' fout gemaakt hebt. Het nooit geschoten deel suggereert dat je wel mee zou doen, maar je zegt feitelijk dat je je niet zou aansluiten.
Nou oke, 1 game. Maar voor de rest zijn er denk ik geen games die de 4gb aantikken op full hd. Misschien op 4k wel, maar dan heb je toch wel meer dan 1 videokaart nodig.
Ik ben het met je eens dat het allemaal erg overdreven wordt, ik zie dit meer als een stel hebberige mensen die een excuus zien om weer eens een bedrijf uit te kunnen knijpen. Mooi voorbeeld van het zieke rechtssysteem van de VS weer.
Wat je laatste opmerking echter betreft, als je meerdere videokaarten hebt dan blijft het beschikbare videogeheugen hetzelfde, dat wordt niet opgeteld. Twee 970's in SLI zullen dus nog steeds maar 4 (of 3,5) GB vram tot hun beschikking hebben. Dat komt omdat beide kaarten alle data in hun eigen vram moeten hebben staan.
Hebberige mensen? Vreemd, ze zijn anders niet te beroerd flink wat euro's neer te leggen bij een bedrijf, dat het begrip hebberig maar al te goed kennen.
Er zit ook nog een stap tussen 1080p en 4k, namelijk 1440p.
Knal alle opties op Ultra en je geheugengebruik loopt heel hard op. En dat oudere spellen minder vram gebruiken is niet interressant.

Je koopt een GTX970 niet voor oude spellen. Ik heb mijn AMD r9 290 juist voor de nieuwe en nog uit te komen spellen gekocht.
Met de komst van de Xdoos one en Pleestation 4 kun je duidelijk een sprong in grootte van de texturen zien in pc game land. Dan is het uitermate zuur als blijkt dat juist waarom je die kaart hebt gekocht een bottleneck blijkt te zijn.

Had Nvidia dit duidelijk aangegeven bij het product dan was er niks aan de hand geweest. Alleen wil de marketingafdeling natuurlijk geen negatief nieuws brengen.
Dus is het maar onder het tapijt geveegd. Dat je dan later veel gemor krijgt vind ik niet zo vreemd. Eerder terecht.
Ik dacht dat Skyrim niet meer dan 3,2GB Vram kon gebruiken, het is immers een 32-bit spel...
Of is daar ookal een mod voor?
Ik zou het zelf niet echt durven te zeggen maar is dat niet voor systeem geheugen?
Ook video geheugen zit vast aan het 32bit geheugen limiet. Ram en vram is voor een applicatie dezelfde addres space. Zelf met gtx760 skyrim met mooiste hd textures op 1080p niet tegen mijn 2gb grens aangekomen.
waarom loopt een videokaart met 4 GB of zelfs 6 GB zoveel stabieler ik gebruik zelf ENboost en mijn 4GB wordt bijna volledig benut (3.6GB)

[Reactie gewijzigd door Johan tb op 22 februari 2015 18:11]

Ja, daar is een mod voor. :)

En omdat iedereen een ENB gebruikt en meestal tientallen mods, heb je dat ook wel écht nodig. R9 280X, HD met Somber ENB, zelfs niet eens high res textures -> 40 fps. :(

[Reactie gewijzigd door Enai op 23 februari 2015 11:14]

Bovendien wil je dat de kaart over 2 of 3 jaar ook nog lekker presteert als games mogelijk weer meer geheugen zullen gebruiken.
Dus als jij een auto koopt met 300 pk op het etiket en er blijken er maar 225 pk in te zitten ben je tevreden?
Hij presteert hetzelfde als voor je het wist, maar ik vermoed dat jij je toch gepakt voelt...

Dat is hier gaande.

En in dit geval zal de videokaart ook nog eens een kortere gebruiksduur kennen. Het zal dus in de toekomst eerder tegen de grenzen van zijn kunnen lopen.
Misschien even je autokennis opfrissen: Een auto verliest per definitie in het gebruik vermogen. 2 jaar of 10 jaar na aanschaf en gebruik zal er dus sprake zijn van vermogensafname, ondanks het feit dat de producent bij de specs het vermogen heeft gepubliceerd. Daarnaast is precies 300pk bij aanschaf nooit gegarandeerd, niet door de producent en niet in de praktijk.

Nu is het verschil dat jij aangeeft, 300/225, veel groter dan het performance verschil dat in deze grafische kaart optreedt. Je met meer denken aan 300/290. En die situatie zult je heel veel tegenkomen in de autowereld.
Het gaat nog niet eens om vermogen/fps, maar om frame drops. Dat is wat hier hoogst vervelend aan is. Om de paar seconden je beeld even stil.
Het is enigszins te vergelijken met een hybride auto.

Stel een benzinemotor levert 250 pk, de elektromotor 50pk, de auto wordt geadverteerd als hebbende 300pk, maar dat heb je dus alleen met een volle accu van de elektromotor, anders trekt de alternator het vermogen van de benzinemotor naar beneden.

Heb ik serieus nog nooit iemand over horen klagen.

Dit is gewoon typisch Amerikaans. NVIDIA heeft ontevreden klanten een refund aangeboden dus deze rechtzaak heeft geen schijn van kans.

[Reactie gewijzigd door Persei84 op 22 februari 2015 12:46]

Beetje vreemde vergelijking.

Waarom zou je immers een Auto kopen met 300 PK? Je mag maar 120 op de snelweg.

En Videokaart koop je wel voor maximale snelheid.
Maximum is in Nederland 130...en ik woon bij de Duitse grens.
Is dat het vermogen van de motor op een testbank of gemeten aan de as van de auto?
Volgens de Europese standaard, dus op de rollerbank andere info hoeven de autofabrikanten niet te melden.
Zullen ze ook wel weer trucs for hebbven zoals bij de meting van het brandstofverbruik, dynamo eraf enzo.
Het gaat er niet om of er al problemen mee zijn. Het gaat erom dat je niet kreeg wat je beloofd is. Zou nogal wat zijn als ieder bedrijf je mag belazern door te zeggen 'ja, bewijs eerst maar eens dat je die features ook echt gebruikt'.
Als je het zo bekijkt, oké. Maar op heden presteert hij nog gewoon heel goed. Misschien moet je je settings een half jaartje eerder wat naar beneden zetten, maar dat zou ik nou niet heel erg vinden. Als ik maar een goede framerate krijg.
Maar daar gaat de rechtzaak duidelijk niet over. De rechtzaak gaat er over dat NVidia niet de beloofde specs geleverd heeft.

Zou wat zijn als een dealer jou een auto levert met een zwakkere moter en iedereen zegt 'ja, maar hij rijd toch gewoon lekker? Ja, oke als je ooit op vakantie gaat kun je er een kleinere caravan aan hangen, maar ik zou dat niet zo erg vinden. Nu haal ik gewoon netjes 130km/uur'
Ik snap wel dat er ophef wordt gemaakt dat ze niet het juiste hebben geleverd. Maar gebeurt dat niet vaker?
Nou NVidia staat er juist om bekend dat ze dit soort geintjes vaker uithalen: verkeerde specs, drivers optimaliseren voor testsoftware, screenshots detecteren en dan dat ene frame met 4 keer hogere anti alias renderen. Daarom wordt er juist extra moeilijk over gedaan.

En als het goed is doen ze er elke keer moeilijk over, ook bij hele andere soorten producten. Alleen meestal is het dat het verkeerde product geleverd wordt, in plaats van dat het product zelf niet klopt. En dan doen de leverancier en de winkels dat onderling uitvechten dat dat gecompenseerd wordt. Of je komt bij de winkel en ze hebben het geadverteerde product niet meer, maar wel iets wat er op lijkt. Zolang je ervan op de hoogte gesteld wordt is dat niet erg.

Maar het ligt ook aan de markt he. In de bloemenveiling worden regelmatig net iets andere bloemen geleverd dan besteld waren. Waarom? De klant wil niet zozeer perse precies de ene soort bloem. Ze willen een bloem van die kleur die er ongeveer zo uitziet. Als ze het ene ras rode roos bestellen, maar ze krijgen het broertje daarvan is niet zo erg, kunnen ze nog steeds even mooie boeketten samenstellen.

Als NVidia een contract met jou afsloot dat ze jouw computer up to date houden dat je altijd de nieuwste spellen kunt spelen op High, doet het er ook niet toe wat ze er precies instoppen.

---
Begrijp me niet verkeerd he, ik heb zelf ook die kaart en het ding werkt prima. Ook in Skyrim met een berg HD mods. Ik krijg 'm daarnaast ook niet eens zozeer belast dat de fan zelfs maar aanslaat. En als ze de echte specs hadden gepubliceerd had ik 'm nog gekocht. Maar uit principe vind ik dat ze wel op hun vingers getikt mogen worden. Als je dat niet doet gaan die bedrijven de grens steeds verder op proberen trekken, en NVidia staat daar toch al om bekend.

[Reactie gewijzigd door StefanDingenout op 22 februari 2015 12:35]

maar zit er technisch gezien niet 4gb geheugen op de kaart? ik weet alleen niet of ze ook iets gezegd hebben over hoe snel het geheugen is.
Wel 4 GB op de kaart, maar niet allemaal met de snelheid die vermeld werd. En ook minder rops dan geadverteerd.
de aanklacht over de rops(heb geen idee wat het zijn) is hoe dan ook terecht. maar heeft nVidia ooit iets gezegd over de snelheid van het geheugen op de kaart?
ROPS, ja moet ik ook ff opzoeken hoor: http://en.wikipedia.org/wiki/Render_output_unit

Voor zover ik zie terugkomen in verschillende berichtgevingen was dat inderdaad gecommuniceerd, maar het was een 'communicatiefout van PR' volgens NVidia. Ook zou er evenveel L2 geheugen in de kaart zou zitten als bij de 980, wat ook niet waar is (maar eigenlijk onderdeel van hetzelfde issue voor zover ik begrijp).

Het staat nu zelfs nog op de site: http://www.geforce.com/ha...ce-gtx-970/specifications

Memory Interface Width 256-bit
Memory Bandwidth (GB/sec) 224

Die 256 bit is voor de laatste 0,5GB in werkelijkheid kennelijk 32-bit. Bandwidth weet ik niet.

Hoe dan ook maakt het eigenlijk niet uit. Als je 4GB adverteerd zonder onderscheid te maken wek je de indruk dat die 4GB allemaal hetzelfde is, en dus min of meer lineair doorschaald (dat is natuurlijk nooit helemaal perfect lineair, maar hoort toch in de richting te komen). De laatste 0,5 GB is echter een factor 7 trager, wat duidelijk niet onder 'niet helemaal perfect lineair' valt. Zelfs al was er nooit een specifieke geheugensnelheid geadverteerd, dan nog is het misleidend om niet aan te geven dat het laatste stuk zo belachelijk veel trager is.
Geef mij maar dat contract :+
Nee, maar ik wist niet dat ze dit vaker deden. Dan is het wel logisch dat er wat meer ophef over is.
Haha, nvidia zal zo'n contract niet rechtstreeks aanbieden.

Maar ik heb ooit wel ergens iets gehoord van zulke lease overeenkomsten. Weet niet of het ook voor gaming was, zal vast voor bedrijfcomputers geweest zijn zodat je als bedrijf geen systeembeheer hoeft te doen. Lijkt me sterk dat je goedkoper uitkomt ook ;-)
Advanced Warfare MAX settings, supersampling op 16x. Neemt bij mij 3,6 gb in beslag. Dan krijg ik ineens framedrops.

[Reactie gewijzigd door Grunfeld op 22 februari 2015 11:37]

Ja gek hè, hoe kan dat nou? :+
Door de laatste 500 mb die traag is ja. Is geen rare opmerking hoor.
pinobot doelt volgens mij op de supersampling op 16x. Niet echt verwonderlijk dat er framedrops zullen zijn, die zou je ook hebben met een GTX 980 lijkt mij. ;)
Nee door de 16x supersampling.
Battlefield...

maar je hebt wel gelijk, het is grappig.
ik had een HD6950 dat is een amd gedowngrade chip waarbij het mogelijk is om het zogenaamd te unlocken. Maar wat een gedoe was dat. Dat deed mij dan ook meteen vermoeden dat er met de 970 ook iets dergelijks aan de hand was.En kocht daarom de 980.
Maar ik verwacht niet dat de 970 unlockbaar wordt. Bii Amd veranderde al halverwege de productie de manier van onklaar maken van onderdelen door te laseren mede doordat hackers steeds succesvoller werden met het unlocken.

Ik zal wel ergens een foutje maken
...irrelevant..
Hahaha, only in America...

Tuurlijk, het valt te begrijpen dat mensen hun geld terug willen, maar wat ze waarschijnlijk niet beseffen is dat ze dan waarschijnlijk ook hun videokaart in moeten leveren... Er is geen enkele vorm van schade die ze opgelopen hebben, dus waarschijnlijk zal het wel meevallen allemaal...
Als je toch een product aanschaft die bepaalde specificaties heeft, dan moet het product daar simpelweg aan voldoen. Dat is niet alleen in Amerika zo, dat is hier in Europa ook. Een consument maakt een aankoop beslissing op basis van de aangegeven spec en prestaties, en je mag als consument verwachten dat het daar aan voldoet.
Alleen als je afgaat op het geheugen, dan voldoet de kaart aan de specificaties. nVidia heeft geen enkele benchmark gepubliceerd die niet kan geverifieerd worden en de kaart bezit ook effectief 4GB aan adreseerbaar geheugen.

Dit is totaal iets anders dan heel wat jaren terug met de Geforce 4 MX reeks die eigenlijk veredelde Geforce 2 kaarten waren.
Niet waar. Er werd geadverteerd met 4GB geheugen met een 256-bit breedte bus, nu blijkt dat dat 3,5GB op 256-bit is. De laatste 500MB is 32-bit. Het staat overigens nog steeds fout op de site van nvidia... Daarnaast is er ook gelogen over de hoeveelheid L2-cache. link
volgens mij draait die 3.5GB op een bus van 224-bit. Zie daar de verwarring, we komen er zelf amper nog uit :o
Nee, het is een 256-bit bus. Er zit alleen een 'maar' aan hoe je het geheugen aanspreekt om daadwerkelijk de volle bandbreedte te kunnen gebruiken. Staat allemaal uitgelegd bij Anandtech.
Schijnbaar niet altijd op 256bit breedte, als ik het goed lees. Een beetje 256bit, dan maar ?
Schijnbaar niet altijd op 256bit breedte, als ik het goed lees. Een beetje 256bit, dan maar ?
Ja, het zijn 8 channels van 32-bit... waarbij er 7 channels aan het 3.5 GB-segment gekoppeld zijn en 1 channel aan het 512 MB-segment.
Dat lees ik ook, dank je. Er is echter niet alleen maar een maar met het geheugen, de bus is nog steeds niet 256bit breed, maar 8x 32bit.
Dat is dan weer met een mooie concstructie aan elkaar geknoopt.
waarbij de laatste 32bit een speciaal geval is.

Wie houd wie nu voor de gek, Scalibq?
de bus is nog steeds niet 256bit breed, maar 8x 32bit.
Dat is eigenlijk altijd zo, omdat de geheugenmodules zelf niet 256-bit zijn. Het is dus een soort 'octa-channel' memorycontroller.
Vrijwel alle kaarten maken gebruik van hetzelfde type geheugen (GDDR5), dat vrijwel altijd 32-bit is: http://en.wikipedia.org/wiki/GDDR5... bredere bus betekent gewoon meer channels.
Wie houd wie nu voor de gek, Scalibq?
Ik snap je opmerking niet?

[Reactie gewijzigd door Scalibq op 23 februari 2015 12:30]

Omdat er maar 7/8 deel van die 256bit optimaal benut word :+
Omdat er maar 7/8 deel van die 256bit optimaal benut word :+
Ehh nee, het ligt wel even wat ingewikkelder dan dat. 'Optimaal benutten' is gewoon anders voor een 970 dan voor een 980.

Denk je ook dat de 980 altijd z'n 256-bit optimaal benut? Zo'n feest is het in de praktijk niet hoor.
Hoe je het ook wend of keert, er zitte haken en ogen aan die zeer zeker anders in elkaar steken dan bij de 980.

Het feest is verstoord, dat is zeker. Nvidia mag bij de rechter uit gaan leggen waarom het wel allemaal goed is. Heb er zelf mijn bedenkingen over, 05GB word gewoonweg niet optimaal benut, dat is iig 100% zeker.
Het feest is verstoord, dat is zeker. Nvidia mag bij de rechter uit gaan leggen waarom het wel allemaal goed is. Heb er zelf mijn bedenkingen over, 05GB word gewoonweg niet optimaal benut, dat is iig 100% zeker.
Ik denk dat nVidia dat vrij makkelijk kan verdedigen hoor.
Een 970 is immers geen 980. Je kunt niet verwachten dat ie even snel is. Wat is optimaal? Dat bepaalt nVidia toch nog altijd zelf? En het is toch ook in het belang van nVidia om een zo gunstig mogelijke keus te maken? Waarom zou nVidia met opzet een kaart langzamer maken dan theoretisch zou kunnen, voor die prijsklasse?
Zij hebben er dus voor gekozen om de 4 GB te handhaven, ook al moeten er bij de 970 een aantal onderdelen uitgeschakeld worden wegens defecten. Het is vrij makkelijk te verdedigen dat 4 GB beter is dan 3 GB, ook al is de performance op een klein deel van dat geheugen wat minder (maar nog steeds 4 keer zo snel als systeemgeheugen).

[Reactie gewijzigd door Scalibq op 24 februari 2015 00:21]

Het is echter niet 4GB op volle snelheid, 0.5GB word gehandicapt. Dat adverteren ze er niet bij. Bepaalde onderdelen, die de snelheid van het ram be-invloeden, en dan precies die laatste 0.5Gb, want ach, zal ook Nvidia gedacht hebben, die hebben de meeste luitjes toch niet nodig. Arrogant gedrag, dat noem ik dat.

Je hobbelt wel erg makkelijk achter het bedrog aan, zoals velen.

[Reactie gewijzigd door Madrox op 24 februari 2015 01:37]

Het is echter niet 4GB op volle snelheid, 0.5GB word gehandicapt. Dat adverteren ze er niet bij. Bepaalde onderdelen, die de snelheid van het ram be-invloeden, en dan precies die laatste 0.5Gb, want ach, zal ook Nvidia gedacht hebben, die hebben de meeste luitjes toch niet nodig. Arrogant gedrag, dat noem ik dat.
Wederom draai je het om. Vanwege het productieproces hebben ze gewoon uitval op bepaalde ROPs/L2 caches. Zo is de chip ontworpen, en dat maakt het verschil tussen de 970 en 980. Je kunt niet alleen maar 100% werkende 980 chips bouwen. Je hebt altijd uitval. Dus moet je in je ontwerp zorgen dat je dat kunt opvangen door defecte delen uit te zetten en zo toch een werkende GPU te behouden (anders zou de 980 onbetaalbaar worden en de 970 uberhaupt niet bestaan).

Het alternatief was om 1 GB helemaal uit te schakelen. In plaats daarvan hebben ze dus de laaste GB opgedeeld in twee stukken, waardoor je ipv 3 GB nu 3.5 GB op dezelfde snelheid kunt aanspreken, en de laatste 0.5 GB is ook nog aanspreekbaar, al heeft die beperkte bandbreedte.
De kaart meldt dit echter aan het OS, dus het OS ziet een kaart met 3.5 GB, en nog een extra 0.5 GB buffer. In het meest simpele geval kijkt de software alleen naar het eerste stuk videogeheugen, en dan heb je dus toch nog een 3.5 GB kaart ipv een 3 GB kaart.
Maar van die laatste 0.5 GB kan eventueel ook nog gebruik gemaakt worden. Win-win dus.

Jij kijkt er gewoon van de verkeerde kant naar. nVidia heeft met deze truc juist MEER geheugen mogelijk gemaakt dan normaal het geval zou zijn geweest. Maar jij vergelijkt hem met de 980.
De 980 is een veel duurdere kaart, en dat kun je niet vergelijken. Natuurlijk is de 980 dan beter.
Je hobbelt wel erg makkelijk achter het bedrog aan, zoals velen.
Ik zou het liever omdraaien: als we gewoon naar de reviews en benchmarks kijken, is er weinig mis met de 970. Hij haalt prima prestaties voor z'n geld, en het probleem is door reviewers zeer lastig te reproduceren in de praktijk.
De kaart is niet perfect, maar hoeveel videokaarten zijn dat wel?
Ik kan me de Radeon 9700/9800 nog wel herinneren, die hadden een off-by-one error bij alphablending. Als je veel dingen over elkaar ging blenden, zoals bv een berg pointsprites voor effecten als stof, explosies etc, dan zag je duidelijk dat het veel donkerder was dan op een goede kaart.
Waar was jij toen?

[Reactie gewijzigd door Scalibq op 24 februari 2015 09:20]

Sterker nog: de architectuur is identiek aan de GTX980. Wat bazel je nou, echt ik heb genoeg gezegt. Iemand die beweerd dat de GTX970 wezenlijk verschilt van de 980, daar kan ik niets mee.

Leg me btw even uit waarom we dit probleem nu wel bij Nvidia zien en niet bij AMD ? Kan je wel een hint geven: AMD gebruikt andere (in dit geval betere) manieren om de tweede kaart iets trager te laten presteren. Nvidia is hier duidelijk de mist in gegaan.

De 980 en de 970 hebben precies dezelfde gpu-chip (GM204 GPU) waarbij bij chips voor de 970-kaarten verschillende zaken uitgeschakeld zijn, zoals je al gezien kan hebben op verschillende sites.

Dat maakt de 970 niet ineens een totaal andere chip, maar niets minder dan een afgeknepen 980. Om goede redenen, dat is waar. Alleen een beetje knullig gedaan, in dit geval.

Iets zegt mij dat dit ontwerp van Nvidia lastiger schaalbaar is dan die van AMDs hawaii GPU. Dat, of Nvidia heeft hier gewoon de 980-gpu op een niet zo handige manier afgeknepen. Een truukje met ongewenste bijwerkingen, zal ik maar zeggen.

ps: oude koeien uit de sloot halen heeft geen zin, dat helpt niet. Buiten dat, het zal mij een worst wezen welk kleurtje mijn videokaart heeft; ben dus ongevoelig voor fanboyisme.

[Reactie gewijzigd door Madrox op 24 februari 2015 09:58]

Sterker nog: de architectuur is identiek aan de GTX980.
Ja, de architectuur wel, maar de 970 is een 'harvested' part.
Wat bazel jij dus?
Een GTX465 is ook dezelfde architectuur als een GTX470 of GTX480, om maar wat te noemen.
Maar die is ook lang niet zo snel. Toen werd ook nog gewoon geheugen uitgeschakeld...
De 480 had 1.5 GB, de 470 had 1.25 GB, en de 465 had 1 GB.
Allemaal dezelfde architectuur.

Met de 970 heeft nVidia dus iets bedacht waardoor ze toch de volle 4 GB kunnen gebruiken. Dat is dus een vooruitgang, niet een achteruitgang.
Iemand die beweerd dat de GTX970 wezenlijk verschilt van de 980, daar kan ik niets mee.
Het is nu eenmaal een feit. Doordat een aantal ROPs en een L2-cache uitgeschakeld zijn, is de 970 anders dan een 980.
nVidia heeft dus gekozen voor een 'wezenlijk' andere strategie bij het aanspreken van 4 GB. Het ontwerp van de 970/980 maakt dit mogelijk.
Leg me btw even uit waarom we dit probleem nu wel bij Nvidia zien en niet bij AMD ?
Simpel toch? AMD gebruikt een andere architectuur, en heeft een andere harvesting-strategie.
Dat maakt de 970 niet ineens een totaal andere chip
Dat beweer ik niet, maar feit is wel dat hij een andere configuratie heeft voor de geheugenkanalen.

[Reactie gewijzigd door Scalibq op 24 februari 2015 10:24]

Het geheugen word niet uitgeschakeld, er worden zaken uitgeschakeld in de gpu zelf. Je bazelt.
Met de 970 heeft nVidia dus iets bedacht waardoor ze toch de volle 4 GB kunnen gebruiken. Dat is dus een vooruitgang, niet een achteruitgang.
Iemand die beweerd dat de GTX970 wezenlijk verschilt van de 980, daar kan ik niets mee.
Het is nu eenmaal een feit. Doordat een aantal ROPs en een L2-cache uitgeschakeld zijn, is de 970 anders dan een 980.
nVidia heeft dus gekozen voor een 'wezenlijk' andere strategie bij het aanspreken van 4 GB. Het ontwerp van de 970/980 maakt dit mogelijk.
Ben ik nou zeg, of jij zo ... ?

Het is geen vooruitgang, als daarvoor nodig is, dat 05GB niet fatsoenlijk gebruikt kan worden. Het ontwerp maakt dat mogelijk, dat is 100% een feit. Feit is ook, dat je effectief maar 3.5GB efficient kan benutten (zonder stutters). Boven de 3.5GB heb je een probleem, feit.

Doordat er bepaalde dingen uitgeschakeld zijn, presteerd te kaart wezenlijk anders, dat is een feit. In de kern is het echter nog altijd precies dezelfde architectuur. Ze komen dan ook allemaal uit dezelfde gebakken wafers.

Maar goed, ik zie al dat jij niet eraan wil toegeven en hardnekkig in je eigen verhaal wil blijven geloven. So be it.
Het geheugen word niet uitgeschakeld, er worden zaken uitgeschakeld in de gpu zelf. Je bazelt.
Ik bazel niet, jij moet goed lezen.
Ik zeg dat nVidia van oudsher bij lagere modellen delen van de geheugencontroller uitschakelde, waarbij ook een deel van het geheugen uitgeschakeld werd. Ik heb daarvan voorbeelden genoemd.
Bij de 970 gebruiken ze dus een nieuwe techniek waardoor ze delen kunnen uitschakelen en TOCH 4 GB kunnen gebruiken.

Dus ik snap je reactie niet (ik zeg nergens dat geheugen uitgeschakeld wordt op de 970, in tegendeel), behalve dat je gewoon niet leest wat ik schrijf.
Het is geen vooruitgang, als daarvoor nodig is, dat 05GB niet fatsoenlijk gebruikt kan worden.
Zoals ik al uitlegde, volgens de oude methode had nVidia 1 GB (niet 512MB!) uit moeten schakelen.
Je klaagt dus dat je *EN* 512MB meer krijgt dan anders, die op de volle snelheid werkt, *EN* dat je daarbij nog 512MB krijgt, die nog steeds sneller is dan systeemgeheugen.
Beetje raar.
In feite klaag je gewoon dat de 970 niet zo snel en goed is als de 980. Maar daar is de prijs dan ook naar.
De 970 is nog steeds de op-1-na-beste GPU op de markt, met een zeer scherpe prijs/prestatieverhouding, dus iets minder overdreven reageren mag best.
Maar goed, ik zie al dat jij niet eraan wil toegeven en hardnekkig in je eigen verhaal wil blijven geloven. So be it.
Tsja, jij snapt het verhaal gewoon niet helemaal, concludeer ik uit jouw reactie.

[Reactie gewijzigd door Scalibq op 24 februari 2015 13:14]

Nog erger dus eigenlijk :P
Maar je weet dat het niet alleen om het geheugen gaat. Ik kan me voorstellen dat ze daarmee wegkomen.

Maar adverteren met meer rop's dan er in werkelijkheid gebruikt worden is wel misleiding. Meer Rop's is meer prestatie. Dus als het aantal te hoog geadverteerd is, dan zijn de prestaties in werkelijkheid dus lager dan te verwachten was.
Aargh de Geforce 4MX, die heeft mij geleerd om eerst veel benchmarks te bekijken... Ik was over gegaan van een GF 2 Pro naar een 4MX en had opeens slechtere framerates in de games van die tijd! Gelukkig wou de winkel hem wel terug nemen.
Volgende keer verkopen ze een 8GB kaart waarvan maar 1GB op de werkelijk geadverteerde snelheid werkt en de laatste 7GB maar op 100mhz loopt. :+
Wat zegje dan, jaa maar er zit 8GB geheugen in dat adreseerbaar is; Denk niet dat mensen dat pikken.

Denk dat het daarom belangrijk is dat deze gebruikers een class action starten zodat het niet nog een keer voorkomt. Nu merk je het met prestaties alleen op hoge resoluties en met name in SLI, dus de "schade" valt wel mee.
Maar wat als dit onopgemerkt was, het zou me niet eens zo erg verbazen als Nvidia dit dan nog een keer probeert maar dan in ergere mate. Nvidia staat nou niet echt bekend als het meest aardige jongetje in de klas.
voldoen de GTX 970 videokaarten niet? ik heb niemand horen klagen
je krijgt een enorme bang for your buck.
Deze mensen zeuren om het zeuren en dit is amerika dus willen ze geld zien...
volgens mij mogen ze gewoon hun kaart terug brengen... denk niet dat ze dat gaan doen.
tevens de bench mark prestaties staan overal op het internet. Het is een erg goede video kaart.
ja hij heeft minder rops ja de videokaart heeft 4 GB geheugen effectief is het 3,5 GB
Maar de prestaties leiden er echt niet onder.
De GTX970 is alles behalve bang for your buck, hij kost een dikke 100 euro meer dan een R9 290 en daar krijg je dan misschien een ~5fps voor terug. Ja hij is wat stiller idle, en ja hij gebruikt iets minder stroom maar bang for buck is hij zeker niet. Als de 290 namelijk niet meer voldoet zal de 970 ook niet meer voldoen namelijk ;)
Minder stroom = kleinere voeding +1
Minder stroom = minder warmte +1
Minder stroom = beter voor het milieu +1
Minder stroom = beter voor je bank rekening +1
minder warmte = fans die minder hard werken = stiller +1
minder warmte = geschikt voor kleinere behuizing +1
en hij werkt met mijn nvidia shield tablet +1

dit allemaal voor 100 euro meer is een koopje :)
Hoe is minder stroom beter voor je bankrekening als jij er eest 120 euro voor uit moet geven, maak jij even met mij het rekensommetje? één kwh kost ongeveer ¤ 0,23, 120 / 0,23 is 521,74 kwh. Het verschil in stroom is 80w ongeveer in crysis 3 dus dan kom je uit op 6521 uur dat is 271 dagen non stop gamen.

Laten we nu zeggen dat je gemiddeld 8 uur per dag gamed dan moet je dus 815 dagen gamen om je geld terug te verdienen. Ook de kleinere voeding maakt niet zo veel uit want zowel een R9 290 als een GTX970 wordt vaak een 450w voeding bij geplaatst, en soms een 500w in een R9 systeem maar dat gaat geen groot verschil maken.

Er zijn ook 290 kaarten die stiller zijn dan 970 kaarten onder load/idle dus ook dat gaat niet altijd op.

Een van mijn vrienden heeft een 290 in een elite 130 behuizing gehad, veel kleiner wordt het niet ben ik bang ;)

Je nvidia shield tablet moet je ook kopen dus dat zie ik niet bepaald als een argument voor 'bang for buck'. Bang for buck is puur zo veel mogelijk prestaties voor je geld en daar wint de GTX970 het gewoon niet van de R9 290.
Het verschil tussen de goedkoopste kaarten van Amd en Nvidia is 60 tientjes. dus dat wordt 136 dagen. idle trekt de 970 ook 10 watt minder
en is een stuk koeler ,asus heeft een versie waar de fan gewoon helemaal uit gaat in idle mode dan is er geen enkele amd kaart die stiller is dan een Nvidia.
nog iets wat nvida heeft een klein formaat dus het kan nog kleiner....een optie die amd dus ook niet heeft
Bang for your buck.... wat kost de 780ti dit jaar of vorig jaar? 600 euro en ze zijn nog steeds erg duur , wat kost dit kaartje? 350 euro gemiddeld?
Ja, en wij kopen allemaal de goedkoopste 8)7 Btw, 136dagen, veel plezier ermee, 24 uur per dag, zeven dagen per week. Ga je dat redden?
Minder stroom: Check
Minder warmte: Check

Fans die minder hard draaien: larie en apekool. Heb hier een Asus R290x en die custom fans maken minder lawaai dan men oude MSI 660 GTX ( ook met custom fans ), terwijl de GTX minder stroom verbruikt. Dit hangt veel af van welke fans er op de kaarten zitten en hoe hun profiel ingesteld is.

Voor 340¤ koop je een stock 970's met de blower fan en die dingen maken altijd meer lawaai dan een custom dubbel of trippel fan ( die kaarten kosten ook wel meer ).

Frame drops met 3.5GB+ geheugen gebruik: Check

Het is niet omdat je het niet ziet in de gemiddelde benchmarkt, dat het probleem niet zichtbaar voor het naakte oog. Sommige mensen zijn gevoeliger aan frame jump's dan andere.

Valse advertenties: Check

Geadverteerd als 4GB terwijl het 3.5GB + 512MB is ...

Geadverteerd als een 256Bit kaart terwijl het 224bit voor de 3.5GB is en de rest van de 512MB aan 32bit ( niet eens zoveel sneller dan je onboard geheugen )...

Verkeerde marketing materiaal verstuurd: Check

L2, ROP, etc allemaal anders. En nog altijd zie je overal op het internet de verkeerde waarde overal staan. Alsof de nvidia ingenieurs die de reviews gelezen hebben niet fouten niet opgemerkt hadden. Tot het uitkwam van de vreemde geheugen toestanden had Nvidia GEEN ENKEL retractie gedaan van hun foute verspreide informatie.

De 970 is geen slechte kaart en heeft een goede concurrentie teweeg gebracht ( dwong AMD om hun 290x te doen dalen ). Maar je ziet duidelijk dat men heel wat zaken zitten verbergen heeft.

Ik denk dat Nvidia hun gedacht was: De meeste mensen gaan het 3.5+ geheugen probleem niet niet zien omdat ze gamen op 1080p enz ... en in de toekomst als de nieuwe generatie games zwaardere resolutie of hogere texturen gaan gebruiken, dan hebben we al genoeg verkocht van de 970. En de mensen dat het probleem van de 3.5+ zien, zullen denken dat ze aan het 4GB geheugen limiet zitten en de frame drops aanzien als dat probleem. Win win ...
Die 970 fans staan dus gewoon -stil- tenzij je aan het gamen bent, en dan moet het ook nog een spel zijn dat een beetje performance vraagt.
M'n hele PC draait meestal op maar 1 12cm fan, want die trekt alle warmte inclusief CPU uit mn kleine kast en zelfs die draait maar langzaam. Geen trillingen, geen geluid.
In dat opzicht, en die van het stroomverbruik, wat er natuurlijk mee samenhangt, is het een goede keuze.

Dat ik vervolgens genaaid ben door nVidia, en nu aan de 1080p vast zit is iets anders, en dat zal ik niet vergeten..
In NL wordt daar nooit een Class Action Lawsuit voor gestart, je loopt simpelweg terug naar de winkel om daar te vermelden dat de kaart niet naar wens is en je kan 'm (binnen termijn) omruilen voor een ander...
Die termijn is hier een beetje een probleem; deze aap is niet direct uit de mouw gekropen.
Inderdaad, en Amerika zal toch ook wel een garantiestelsel hebben? Hier kan je elke GTX970 gewoon terug brengen naar de winkel en je krijgt je geld terug omdat de kaart niet functioneerd volgens specificaties opgegeven door nVidia.
Wrong, de kaart functioneerd exact zoals opgegeven door nVidia.
nieuws: GTX 970 heeft minder L2-cache en minder rops dan Nvidia meldde

De kaart functioneerd inderdaad zoals ontworpen door nvidia, maar de opgegeven specificaties aan consumenten en verkopers klopten niet. Daardoor heb je betaald voor iets wat je niet hebt gekregen. In ieder geval hier in Nederland sta je als consument volledig in je recht als jij je geld terug vraagt.

nVidia heeft zelf toegegeven dat ze een communicatie fout gemaakt hebben, wanneer jouw aankoop datum voor de publicatie van de echte specificaties is dan moet de winkel de kaart terug nemen.
De kaart functioneerd inderdaad zoals ontworpen door nvidia, maar de opgegeven specificaties aan consumenten en verkopers klopten niet.
Voor zover ik het begrepen heb, stonden die specs alleen in een review-handleiding die naar review-websites is gestuurd.
Niet naar consumenten en verkopers dus.
Wrong, de kaart functioneerd exact zoals opgegeven door nVidia.
De specificities zijn weldegelijk aangepast. Het aantal ROPs is gedaald van 64 naar 56 en de L2 cache van 2MB naar 1.75MB. Bron .

Echter deze specificities staan niet (nooit?) op de doos. Dus dat wordt lasting hard te maken dan. Tenzij het ook op NVidia.com te vinden was ofzo...
Omdat ze zo ontworpen is. De daling van het aantal ROPs en het L2 cache geheugen (tov de initiële, voorlopige specsheet) word veroorzaakt door het uitschakeln van delen van de GPU. Bijkomend gaat de aanklacht niet over de L2 cache of de ROPs, maar focust deze zich op het geheugen dat toch echt aanwezig is.

Het ontbreken van die ROPs is zelfs geen probleem daar er zelfs nu nog altijd meer ROPs zijn dan dat er data is om te verwerken op de 970.
Omdat ze zo ontworpen is. De daling van het aantal ROPs en het L2 cache geheugen (tov de initiële, voorlopige specsheet) word veroorzaakt door het uitschakeln van delen van de GPU. Bijkomend gaat de aanklacht niet over de L2 cache of de ROPs, maar focust deze zich op het geheugen dat toch echt aanwezig is.

Het ontbreken van die ROPs is zelfs geen probleem daar er zelfs nu nog altijd meer ROPs zijn dan dat er data is om te verwerken op de 970.
Nog niet wakker zo vroeg op zondag morgen?
This is a nationwide class action brought on behalf of all consumers who purchased graphics or video card devices incorporating the Nvidia GeForce GTX 970 graphics processing units (“GPU”) (hereinafter “GTX 970” or “GTX 970 devices”), which were sold based on the misleading representation that the GTX 970 operates with a full 4GB of VRAM at GDDR5 (not a less performant 3.5 GB with a less performant and decoupled .5 GB spillover), 64 ROPs (as opposed to 56 ROPs), and an L2 cache capacity of 2048KB (as opposed to 1792 KB), or omitted material facts to the contrary
De ROPs en L2 cache staat letterlijk in de aanklacht ;).

[Reactie gewijzigd door sdk1985 op 22 februari 2015 11:51]

Hoezo only in america?

Ze adverteren met 4gb. Terwijl bij verschillende tests op 3,5gb stutter en lag lag voorkomt en de pc de laatste 500 mb niet kan bereiken. Dus misleidende specificaties. Dus ook in europa reden voor retour. En tuurlijk zal je de kaart moeten inleveren. Maar je heb alsnog gratis kunnen gamen.
Jammer, nvidia heeft juist innovatief gehandeld om zo veel mogelijk performance uit de kaarten weten te krijgen en de kosten van de kaart laag te houden Zie: http://techreport.com/rev...works-exactly-as-intended .

Nu is het maar afwachten of ze dit nogmaals gaan doen.
tja er is innovatie en verkeerde informatie geven aan de eindklant, dat laatste lijkt me toch nog altijd misleiding bij een verkoop. Nu mag het zijn dat ze uit meer winstmarge oogpunt hebben gehandeld maar dat rechtvaardigt niet dat hun product niet voldoet aan hun specs en dan deels het probleem op een miscommunicatie steken is not done, zeker niet voor zo een groot bedrijf.

Dat deze rechtzaak er zou komen was maar een kwestie van afwachten. Ik ben wel benieuwd hoe de rechter hier in gaat meegaan en of zijn antwoord wat technische insteek zal hebben.
Maar waar hebben ze dan misinformatie gegeven? Dat je niet op de doos zet dat je geheugen in 2 delen 'gepartitioneerd' is betekend nog niet dat je aan het liegen bent. nVidia heeft ook geen enkel benchmark resultaat getoont dat niet kan geverifiëerd worden. Wat is dus het eigenlijk het echte probleem?
Dat ze het verkeerde aantal rop's aangeven.
Er worden er minder gebruikt dan wat in de specificaties staat.

Minder rop's = minder prestaties

Dus misleiding.
Alleen communiceren de kaartenmakers (Asus, Gigabyte, MSI etc.) nooit het aantal ROPs of de hoeveelheid L2 cache richting de klant. Het staat niet op de websites en ook niet op de doos.

Die informatie heeft op een aantal review sites (o.a. Anandtech) gestaan maar die bleek dus onjuist te zijn en berust op een misverstand aldus nVidia. En aangezien nVidia die informatie sowieso niet deelt richting klanten kan er geen sprake zijn van misleiding.
Maar ze communiceren wel de hoeveelheid EN de snelheid van het geheugen, en als dan blijkt dat die snelheid maar voor een deel van het geheugen geldt dan misleid je de klant wel.

Wat zou men ervan vinden als alleen de eerste 0,5GB op volle snelheid zou lopen? Zelfde probleem, alleen zou dat eerder opgemerkt worden in benchmarks e.d.
Wat bedoel je precies met de snelheid van het geheugen, de klokfrequentie of de geheugenbrandbreedte? Want beide zijn van invloed op de snelheid van het geheugen maar de bottleneck zit in het laatste aspect. De klokfrequentie is op de doos en op de partnersites te vinden (en is correct) maar de geheugenbrandbreedte kan ik alleen vinden op http://www.geforce.com/ha...ce-gtx-970/specifications. En de 224 GB/sec die ze daar vermelden is ook juist, namelijk 196 GB/sec voor 3.5GB + 28 GB/sec voor de laatste 512MB maakt samen 224 GB/sec.

De foutieve specificaties (aantal ROP's en L2 cache) stonden in de Reviewer's Guide en die informatie is bestemd voor de mensen die de videokaart reviewen en dus niet voor de consument. Ik ben geen jurist of iets dergelijks maar het lijkt mij dat je geen rechten kunt ontlenen aan informatie dat niet voor je bestemd is. Alle informatie die nVidia of haar partners richting de consument communiceren (website/doos) zijn feitelijk en technisch correct dus denk ik dat deze class action-rechtzaak een kansloze missie is.
Daar heb je een punt, ik zou de doos van mijn GTX970 erbij moeten pakken om te kijken wat ze precies vermelden. (websites zijn inmiddels allemaal geupdate)

Maar het blijft een vreemde zet van Nvidia, want als het 196 GB/s voor 0,5GB was en 28 voor de overgebleven 3,5TB zouden de specs ook nog kloppen. Je verwacht gewoon dat al het geheugen dezelfde frequentie en doorvoersnelheid heeft, anders zou ik het heel normaal vinden om het het los te vermelden.
Ja maar nvidia geeft reviewers die informatie om aan potentiële klanten te vertellen hoe geweldig die nieuwe kaart is. Dat valt onder marketing en nvidia heeft tijdens hun marketing campagne dus de consument verkeerd laten voorlichten door reviewers foute informatie te verschaffen. De informatie van nvidia was bedoeld om reclame mee te maken, wat mij betreft heeft deze zaak dus een grote kans van slagen. (Wel zullen alle klagers hun kaart moeten inleveren voor geld terug (als het aan mij ligt), compensatie accepteren geeft eigenlijk aan dat je dit wel accepteert van nvidia)

Daarnaast mag je geheugen bandbreedtes niet optellen, de eerste 3,5GB kan met 224GB/sec uitgelezen worden dan werkt alles perfect. Zodra jij die laatste 0,5GB gebruikt dan kan die eerste 3,5GB nog maar met 196 GB/sec uitgelezen worden en de laatste 0,5 GB met 28GB/sec. En dat is dus waarom de prestaties achteruit gaan als de laatste 0,5 GB nodig is.
En de 224 GB/sec die ze daar vermelden is ook juist, namelijk 196 GB/sec voor 3.5GB + 28 GB/sec voor de laatste 512MB maakt samen 224 GB/sec.
Nee. Ten eerste mag je dat niet bij elkaar optellen, behalve als het onafhankelijke kanelen zijn die parallel kunnen werken (dual/quad channel bv).
Ten tweede, de 224 GB/s haalt ie op de 3.5 GB, in het ideale geval.
Het probleem is eerder dat je dan NIET de 0.5GB erbij moet aanspreken (doe je dat wel, dan zakt de bandbreedte naar 196 GB/s, simpel gezegd).
Zie het Anandtech artikel dat hier al veel te vaak gelinkt is, en veel te vaak selectief gequote.

[Reactie gewijzigd door Scalibq op 22 februari 2015 21:24]

ROP's, L2 Cache, Bus Snelheid word niet aangegeven op de Doos, dus doet NVIDIA niks verkeerd kwa marketing.
Als ik een videokaart koop met 4GB dan verwacht ik op zijn minst dat de performance hetzelfde zal blijven door de gehele 4GB.

Het is net alsof je een 8GB systeem koopt maar de laatste 1024MB is zo traag als een harde schijf. Je zult het niet gauw merken maar heb je photoshop en alles open staan dan merk je pas dat het verschil uitmaakt.

Je kan beter de 512MB eruit halen dan erin laten met zulke performance.
Harde schijven en SSDs hebben anders ook hun eigen nukken. Bij een harde schijf verschillen de prestaties tussen de bitjes die op het buitenste randje van de schijf worden geschreven van die rond het middenpunt. Bij SSDs lopen de prestaties achteruit als alle schijfruimte wordt benut (weet niet of dit tegenwoordig nog steeds het geval is).
Verwacht dus niet voor alle vormen van opslag dat de prestaties voor al het geheugen even snel is :)

(Maar ik ben het wel met je eens, bij een videokaart mag je dat eigenlijk wel verwachten)
Ik had het in mijn geval ook over RAM geheugen met vergelijkbare snelheid als met dat van harde schrijven bij de laatste 12.5% ;), ter vergelijking natuurlijk.
Als ik een videokaart koop met 4GB dan verwacht ik op zijn minst dat de performance hetzelfde zal blijven door de gehele 4GB.
Dat is dus het interessante aan deze discussie...
Is het reeel om dit te verwachten? We weten dat dit voor de meeste videokaarten wel zo is, maar er zijn altijd uitzonderingen.
Er is gewoon niet eerder over nagedacht, omdat dit issue nooit echt speelde.

Ik ken wel een vergelijkbare situatie met dualchannel moederborden. Als ik in een moederbord 3x4GB steek, dan kan hij de eerste 8GB met dualchannel aanspreken, en de laatste 4GB met singlechannel.
Je kan beter de 512MB eruit halen dan erin laten met zulke performance.
Als dat zo was, dan had nVidia dat wel gedaan natuurlijk.
Het ligt veel gecompliceerder dan dat, en het is wel degelijk sneller om die extra 512MB er op deze manier op te laten zitten dan de kaart met 3.5 GB te leveren.
Dat betwijfel ik dus.

Wanneer een game nu dus voledig de 4GB gebruikt, krijg je dus stutter in je gameplay. Een eind gebruiker moet nu dus handmatig de settings downscalen om te zorgen dat het onder de 3.5GB gebruik valt om memory swapping te voorkomen. Ik denk eerder dat nVidia ervoor heeft gekozen om het als een 4GB kaart te marketten omdat het beter verkoopt. Meer niet.
Wanneer een game nu dus voledig de 4GB gebruikt, krijg je dus stutter in je gameplay.
En als je 3.5 GB had, zou ie de rest via system memory moeten doen, wat nog trager is.
Geen idee of hij met de RAM geheugen swapt, maar goed, geen enkel stutter is goed te praten natuurlijk. Heeft het effect op je gameplay, waarom zou je het erin willen hebben.
Misleiding betekent niet dat je aan het liegen bent (maar liegen betekent wel dat je aan het misleiden bent). Je legt Royale de Luxe dus woorden in de mond die hij nooit gerept heeft.
Wat is dus het eigenlijk het echte probleem?
Verkeerde marketing, heel simpel. Je adverteert een kaart onder de noemer van "4GB GDDR5". Tergelijkertijd geldt voor alle andere videokaarten op de markt dat dit betekent dat die 4 GB overal hetzelfde presteert, waar een gemiddelde consument dan ook vanuit mag gaan. Dit is min of meer beschreven in de juridische wereld door de termen goede trouw en redelijkheid en billijkheid.
Hij zal wel moeten. Nvidia deed wel wetend aan misleidende reclame. Daar valt weinig aan te twisten. Ze adverteerden 256bit geheugen terwijl het gros 224bit is en de rest 32 onder de voorwaarde dat je op dat moment geen toegang tot de rest nodig hebt. Moet je wel actief werken met het volledige geheugen is het eerste deel 208 bit en het tweede 16bit. sterker nog, er kan dan uit het eerste deel met slechts 112bit worden gelezen.
Tsja. Het is te vergelijken met de paardenvlees situatie van een tijdje terug. Supermarkten verkochten vleesproducten aangemerkt als rund / varken met delen paardenvlees. Je zou kunnen beargumenteren dat een 95 / 5 verdeling van rundvlees / paardenvlees nog prima rundvlees genoemd mag worden, maar het is op zijn minst misleidend om het zo te adverteren.

Zo ook met het geheugen: er zit inderdaad 4 GB geheugen op, maar als dat zo geadverteerd wordt mag je toch redelijkerwijs aannemen dat het geheugen overal hetzelfde presteert. Anders moet je het 3.5 GB + 0.5 GB <marketingterm> noemen.
Nee, 4GB geheugen zonder aanduiding als zijnde GDDR5 of DDR3 kan elke MB van een andere kwaliteit en prestatie zijn. Zolang het product de aangewezen hoeveelheid bytes beschikt voldoet het aan de aanduiding 4GB.

Om even met jou metafoor door te gaan, er wordt gesproken over 4 kilo vlees. Niet 4 kilo rund of paard.
Natuurlijk kan het volgens de strikte definitie. Maar er zijn zoveel gevallen waarbij je redelijkerwijs ergens vanuit kan gaan, en wanneer dat vertrouwen misbruikt wordt heet dat gewoon misleiding. Een provider die met 1 gbit/s snelheden adverteert zal ook op de vingers getikt worden wanneer deze snelheid alleen in de wijk van de klant te halen is. Of een smartphone-fabrikant die een quad-core processor op 3 GHz verkoopt, maar er niet bij vertelt dat slechts één van de cores deze snelheid haalt. Of een acceleratietijd van een auto die alleen gehaald wordt met wind mee en een neerwaardse helling van 45 graden.

Evenzo geldt dat wanneer je geheugen koopt, je er vanuit mag gaan dat dit geheugen over de gehele opslag ruimte hetzelfde presteert (vandaar de naam RAM). Kijk nou naar de doos. Daar staat duidelijk 4GB GDDR5: geen spoor te bekennen van een partitie.

Daarnaast werd bij het paardenvlees-fiasco wel degelijk rundvlees als paardenvlees verkocht. En ik denk dat je een redelijk argument kan maken voor aanmerken van 95/5 vlees, onder de noemer van het 95-deel. Maar is het onoprecht? Jazeker.

[Reactie gewijzigd door mzziol op 22 februari 2015 11:30]

Sorry maar in dit geval zit je fout.
GDDR5 zegt niets over de snelheid alleen over het type geheugen, en het is gewoon GDDR5 geheugen, daarnaast is er geen standaard klokfrequentie opgenomen in de standaard dus het staat alleen mooi op de doos / speclijst. Daarnaast wat bedoel je met
(vandaar de naam RAM)
aangezien RAM staat voor random access memory, dit heeft niets te maken met snelheid, klokfrequentie of aansturing...

Het is en blijft 4 GB en de ROPS etc. zijn alleen naar de benchmarkers en reviewer gecommuniceerd niet naar de klanten. Daarnaast, als jij je keuze hebt gemaakt aan de hand van benchmarks en reviews wat is er nu dan veranderd?, de prestaties zijn met het lekken van deze informatie niet veranderd.

[Reactie gewijzigd door Keffa18 op 22 februari 2015 11:47]

aangezien RAM staat voor random access memory, dit heeft niets te maken met snelheid, klokfrequentie of aansturing...
Maar het zegt wel iets over de constante tijd waarin leesoperaties voltooid worden. Zie Wikipedia:
Random-access memory, acroniem RAM, Engels voor geheugen met willekeurige toegang, is een computergeheugen, altijd intern, waarvan iedere geheugenplaats even snel toegankelijk is (in tegenstelling tot bijvoorbeeld een harde schijf waarbij gewacht moet worden tot de betreffende plek onder de leeskop doordraait).
Als je vindt dat de constuctie waarvoor nvidia heeft gekozen RAM is, dan moet je ook overwegen dat met vier partities het nog steeds RAM is. En met 8, 16, 32.. Net zolang totdat je praktisch gezien een harde schijf hebt die niet op iedere plek dezelfde leesprestaties kan garanderen.

Nvidia had moeten adverteren met 3.5 + 0.5 GB. Punt.
Dat impliceer je dus niet helemaal zoals bedoeld,
waarvan iedere geheugenplaats even snel toegankelijk is
, hiermee wordt bedoeld dat block A in de zelfde "partitie" net zo snel gelezen wordt als block G, niet zoals bij een hdd dat je moet wachten totdat de leeskop is verplaatst van block A naar G

Edit: Typo

[Reactie gewijzigd door Keffa18 op 22 februari 2015 16:14]

Er staat bij de gtx 970 dus wel duidelijk een 4GB GDDR5 en 256 bit aanduiding, kan niet geloven dat mensen deze praktijken blijven verdedigen
Alleen gaat het hier om 4GB van volledig hetzelfde soort geheugen, aangesproken via dezelfde geheugencontrollers over dezelfde geheugenbus.
"Hybrid memory" for superior performance!

Zolang je het in een leuke marketing term verpakt, verkoopt alles wel denk ik.
Dat is het antwoord van Nvidia wat nauwkeurig is geformuleerd om de schade te beperken.
Feit blijft gewoon dat men in de markt communicatie gelogen heeft en als je het mij vraagt dat echt niet "een foutje" van de marketing afdeling is waar niemand van wist.
De product manager van het product heeft gewoon een gecalculeerd risico genomen en nu mogen ze op de blaren zitten met met name bad press.
Ik geef die mensen weinig kans.
Ten eerste denk ik niet dat ze hard kunnen maken dat de kaart niet presteert "zoals verwacht".
nVidia heeft namelijk bij de introductie kaarten gestuurd naar alle grote review sites. De "verwachting" is dus gebaseerd op reviews van deze kaarten.
Ten tweede lijkt die fout van een verkeerd aantal ROPs me niet dermate groot dat mensen het totale aankoopbedrag terug zouden moeten krijgen. Mede doordat, zoals ik hierboven stel, de kaart weldegelijk presteert zoas in de reviews. Het aankoopbedrag terugkrijgen lijkt me meer voor wanneer er echt een defect is waardoor de kaart niet goed gebruikt kan worden. In dit geval is dat gewoon onredelijk (en laat me raden... ze willen zeker WEL het geld terug, maar NIET de kaart inleveren... want die kaart kunnen ze gewoon blijven gebruiken. Handig, gratis 970).

Het zou een ander verhaal zijn als nVidia een andere kaart had gestuurd naar reviewers, die daadwerkelijk meer ROPs had, en een andere karakteristiek qua geheugenprestaties. Dan zou nVidia doelbewust de klanten hebben misleid.
Daarvan lijkt mij hier geen sprake.

[Reactie gewijzigd door Scalibq op 22 februari 2015 11:21]

Debkaart presteert niet zoals geadverteerd, dat is een feit. Je kan er omheen draaien wat je wilt, maar de kaart kan GEEN 4GB aanspreken met de 256-bit bus, slechts 3,5GB. De kaart presteert dus niet zoals verwacht, je verwacht namelijk de volle 4GB op volle bandbreedte te kunnen benutten. Dat de kaart nogsteeds rete snel is betwist niemand, dat neemt echter niet weg dat het gewoon een feit is dat nvidia heeft gelogen over de specs en de kaart dus niet aan de verwachting voldoet.
Debkaart presteert niet zoals geadverteerd, dat is een feit.
Want? nVidia heeft zelf niet met prestatiewaarden geadverteerd. Die komen alleen bij reviewers vandaan.
Dus hoe kom je erbij dat de kaart niet presteert als geadverteerd? En dat dat een 'feit' is?
Onderbouw dat eens?
Je kan er omheen draaien wat je wilt, maar de kaart kan GEEN 4GB aanspreken met de 256-bit bus, slechts 3,5GB.
Daar draai ik niet omheen, maar dat zijn specificaties, en geen prestaties. Begrijp je het verschil?
De kaart presteert dus niet zoals verwacht, je verwacht namelijk de volle 4GB op volle bandbreedte te kunnen benutten.
Ten eerste, hoe kun je uberhaupt zo'n verwachting hebben? Een moderne GPU is een heel complex ding met allerlei technieken als caching, compressie etc, waardoor je sowieso nooit precies weet hoeveel invloed de bandbreedte van het geheugen op de totale prestaties heeft. Dat is zeer sterk afhankelijk van de exacte architectuur van de kaart, en hoe games omspringen met de resources.

Ten tweede, als het zo dramatisch was, dan was dat in de reviews wel naar voren gekomen, en de reviewers hebben niets gemerkt.
dat neemt echter niet weg dat het gewoon een feit is dat nvidia heeft gelogen over de specs
Ik vind het geen 'feit', omdat 'liegen' impliceert dat nVidia het met opzet gedaan heeft. Dat moet nog bewezen worden. nVidia beweert zelf dat de verkeerde specs per ongeluk door de marketing-afdeling zijn gebruikt.
en de kaart dus niet aan de verwachting voldoet.
Zoals ik hierboven al zeg, er bestaat geen directe link tussen specs en verwachtingen qua prestaties.
Ik vind het geen 'feit', omdat 'liegen' impliceert dat nVidia het met opzet gedaan heeft. Dat moet nog bewezen worden. nVidia beweert zelf dat de verkeerde specs per ongeluk door de marketing-afdeling zijn gebruikt.
Feit is dat zelf als waren de verkeerde specs door de marketing afdeling gebruikt:

a) De ingenieurs van de firma zullen op zijn minst wel één review gelezen hebben. Je gaat men niet zeggen dat je iets bouwt, er trots op bent en dan je dan geen reviews van je product leest? Het is zo goed als onbestaand dat ze kunnen claimen dat hun ingenieurs geen reviews gezien / gelezen hebben.

b) Feit dat ze nooit de specs recht gezegd hebben met een pers mededeling of een mail naar de reviewers te sturen ( ze hebben hun contact gegevens want de reviewers hebben de incorrect info rechtstreeks van Nvidia ).

Dit alleen al maakt Nvidia hun zaak enorm zwak. Dat ze na de boel uitkwam met hun "prestatie" cijfers om aan te tonen dat het allemaal geen probleem was. Was nogmaals een fout want ze hadden weeral de incorrecte specs niet vrijgegeven. Toen de reviewers dieper begonnen te zoeken waarom dat probleem voorkwam, TOEN pas kwam Nvidia uit met de echte L2 enz specs.

De L2 specs dachten mensen ook eerst dat het een fout was van CUDA weergave. Tot het uitkwam dat de L2 idd beperkt was.

---

Je zegt dat er geen directe links is tussen de specs en de verwachtingen. Dat is zelf irrelevant.

Stel dat persoon x een Nvidia koopt gebaseerd op de informatie op de doos. Sorry dat ik het zeg maar 99% van de wereld zijn geen techneuten zoals ons dat review sites afschuimen. Sommige mensen gaan naar de winkel of de web winkel en kopen iets dat geadverteerd word als snel en bepaalde prijs.

Op dat moment al is Nvidia in de fout. Het product word geadverteerd met bepaalde specs. Deze informatie is incorrect. Er zit geen 256bit bus op. Er is geen puur 4GB geheugen. Je kan afkomen van: "Ja maar, het is wel 4GB, de rest doet er niet toe". Tutu ... misleidende reclame is nog altijd misleidende reclame.
a) De ingenieurs van de firma zullen op zijn minst wel één review gelezen hebben. Je gaat men niet zeggen dat je iets bouwt, er trots op bent en dan je dan geen reviews van je product leest? Het is zo goed als onbestaand dat ze kunnen claimen dat hun ingenieurs geen reviews gezien / gelezen hebben.
Er wordt nergens beweerd dat nVidia er niet van op de hoogte was.
Maar wat wil je impliceren dan? Dat er wel een ingenieur naar voren is gestapt om dit te corrigeren?
Misschien is dat intern ook wel zo gegaan, dat weten we niet. Het is wel vrij aannemelijk dat werknemers van nVidia niet op eigen houtje met de media mogen communiceren over hun producten. Dus dat moet allemaal via de PR-afdeling verlopen.
b) Feit dat ze nooit de specs recht gezegd hebben met een pers mededeling of een mail naar de reviewers te sturen ( ze hebben hun contact gegevens want de reviewers hebben de incorrect info rechtstreeks van Nvidia ).
Dit klopt dus niet. nVidia is de enige die de exacte specs van de 970 kent. Als nVidia dit nooit recht gezet zou hebben, zouden we deze discussie nooit gehad kunnen hebben, want dan wisten we niet hoe het nou zit met die 3.5 GB en die 0.5 GB.
Dat is namelijk niet iets dat je van buiten kunt zien. nVidia heeft ons dus verteld hoe het zit.
Op dat moment al is Nvidia in de fout. Het product word geadverteerd met bepaalde specs. Deze informatie is incorrect. Er zit geen 256bit bus op. Er is geen puur 4GB geheugen.
nVidia verkoopt zelf geen videokaarten, en zijn dus ook niet verantwoordelijk voor wat OEMs aan specs op de doos zetten.
De vraag is dus eerder: hoe zijn OEMs omgegaan met die informatie?
- Hebben OEMs uberhaupt verkeerde specs van nVidia gekregen?
- Hebben ze deze specs ook daadwerkelijk gebruikt op de doos etc (ik heb in m'n leven een hoop videokaarten gekocht, maar dergelijke gedetaillleerde specs staan er meestal niet op)?
- Wanneer heeft nVidia dan de OEMs de juiste specs gegeven?
- Hoe lang heeft het geduurd totdat de OEMs hun informatie aangepast hebben?
In die link staan nergens de bewuste specs (ROPs, L2-cache) die in de aanklacht staan.
Jij begint wel over dat de bus 'eigenlijk niet' 256-bit is, terwijl ie dat technisch wel is. Of over dat die 4 GB eigenlijk 3.5 + 0.5GB is... wat 4GB is...
Maar dat staat niet in de aanklacht, omdat dat geen foute informatie is.
Je zou hooguit kunnen stellen dat het niet de VOLLEDIGE informatie is, omdat er nog een 'maar' aan zit.
De specificatie geeft een in dit geval wel degelijk prestatie weer, namelijk geheugenbandbreedte. De opgegeven waardes worden tijdens gebruik niet gehaald en dus voldoet de kaart niet aan de verwachtingen van de consument of aan de opgegeven specificaties. Prestaties en specificaties hebben een direct verband, even lezen.

Die verwachting heb je omdat de fabrikant die verwachting wekt door de opgegeven specificaties. De afwijking is in dit geval veel groter dan een redelijke foutmarge. De laatste 500MB worden namelijk geadresseerd door een 32-bit bus, een stuk trager dus. Het is gewoon een feit dat de kaart niet volgens specificatie is, daar is geen discussie over mogelijk.

Nvidia liegt inderdaad, de foute informatie staat namelijk nog steeds op hun website en is niet aangepast, dus dat is ook een feit ja.
de bandbreedte wordt nooit gehaald, is altijd een theoretische waarde.
Het is bij deze kaart theoretisch onmogelijk om de opgegeven waarde te halen :+
Volgens mij snap je het zelf niet helemaal.
Die kaart kan wel degelijk de bandbreedte halen op het 3.5 GB-deel, in theorie.
Nee in theorie op de 3,5GB slechts 196GB/s

nVidia heeft 196GB/s bij 28Gb/s opgeteld en dacht: "mooi getal man, laten we dat gebruiken!"

Lees dit even op anandtech zoals Madrox al aangaf.
In any situations below 3.5GB we are de-facto limited to just the larger segment, in which case there are only 7 memory channels (196GB/sec) to stripe memory operations across. NVIDIA could of course interleave operations sooner than that and use both segments more often, but due to the blocking effect we've discussed before the performance hit from using the 512MB segment can quickly become greater than any gains.
edit: quote van artikel toegevoegd

[Reactie gewijzigd door Eli3l op 22 februari 2015 20:12]

Nee in theorie op de 3,5GB slechts 196GB/s
Lees eerst zelf even:
Although the full 256-bit memory bus is present and active on GTX 970 and capable of providing 224GB/sec of combined memory bandwidth between the DRAM modules and the memory controllers, it’s a bit of a misnomer to say the card has that much bandwidth between the memory controllers and everything else, at least in the same sense that the GTX 980 does.
...
This in turn is why the 224GB/sec memory bandwidth number for the GTX 970 is technically correct
Er staat letterlijk in de tekst dat ie WEL 224 GB/s haalt.

[Reactie gewijzigd door Scalibq op 22 februari 2015 19:56]

[...]


Lees eerst zelf even:

[...]


Er staat letterlijk in de tekst dat ie WEL 224 GB/s haalt.
Ik weet dat Engels af en toe lastig kan zijn daarom hier het woord misnomer uit de tekst uitgelegd. Daarnaast betekent technically correct in dit geval dat het geheugen idd op een 256-bit bus is aangesloten, echter op zo een manier dat het geheugen nooit die volle 256-bit kan gebruiken zoals andere kaarten dat wel kunnen. Zoals je kan lezen in het artikel van Anandtech kan het 3,5GB gedeelte niet eens tegelijk uitgelezen worden met het 500MB gedeelte. Lees eerst even heel het artikel, tot die tijd: :Y)
De specificatie geeft een in dit geval wel degelijk prestatie weer, namelijk geheugenbandbreedte.
Ten eerste heeft nVidia voor zover ik weet niet de daadwerkelijke bandbreedte genoemd (als in het aantal GB/s oid), maar slechts de breedte van de bus.
Dat is niet hetzelfde.
Ten tweede, zoals ik al eerder zei, geheugenbandbreedte is ook niet zomaar te vertalen naar prestaties, omdat het van veel andere factoren afhankelijk is.
Prestaties en specificaties hebben een direct verband, even lezen.
Je moet zelf beter lezen. Er zijn vele verschillende soorten specificaties/requirements.
nVidia heeft *technische* specificaties vrijgegeven, terwijl performance *functionele* specificaties zijn.
Korton, zelf even beter lezen. Dit slaat echt nergens op.
Die verwachting heb je omdat de fabrikant die verwachting wekt door de opgegeven specificaties.
Zoals ik al zei: daar kun je geen zinnige uitspraken over doen, om redenen die ik al genoemd had. Je kunt wel anders beweren, maar dat maakt het nog niet waar.
Je weet simpelweg niet hoe een 970 precies gepresteerd zou hebben als ie wel de volle 4 GB met de volledige bus/cache kon aanspreken. Sowieso kan zo'n kaart in de praktijk niet bestaan, dus is het ook niet relevant.
De afwijking is in dit geval veel groter dan een redelijke foutmarge. De laatste 500MB worden namelijk geadresseerd door een 32-bit bus, een stuk trager dus.
Je draait het om.
Het is namelijk zo dat de kaart in de praktijk veel beter presteert dan je zou verwachten bij die laatste 512MB, vanwege efficient management door de driver/GPU.
Hierdoor is het verschil in de praktijk nauwelijks meetbaar. Alleen synthetische tests laten de worst-case zien. Dit komt in de praktijk niet voor.
Nvidia liegt inderdaad, de foute informatie staat namelijk nog steeds op hun website en is niet aangepast, dus dat is ook een feit ja.
Linkje bij een dergelijke beschuldiging zou wel fijn zijn.
linkje

Er staan nog steeds onwaarheden in. Je komt echt met drog redenen. Er is al bewezen dat als een spel meer dan 3.5GB wilt gebruiken dat je dan weldegelijk problemen zoals o.a. framedrops kan krijgen. Als je een kaart koopt met de specs zoals in mijn linkje dan verwacht je die ook. Hoe je het went of keert, je hebt in deze gewoon ongelijk en weigert de feiten te zien.

Maar ik zal je even helpen:

224 bit + 32 bit i.p.v. 256-bit
3,5GB + 500MB i.p.v. 4GB
196GB/s of 28GB/s i.p.v. 224GB/s

Zie ook de post van Madrox hier onder.

Dus de feiten laten zien dat nVidia misleidende specificaties heeft opgegeven en er nu zelfs nog over blijft liegen op hun eigen site.

Nogmaals het blijft een rete snelle kaart, maar dat neemt niet weg dat nVidia gewoon liegt over de specificaties en daar mogen ze voor gestraft worden.
Als je een kaart koopt met de specs zoals in mijn linkje dan verwacht je die ook. Hoe je het went of keert, je hebt in deze gewoon ongelijk en weigert de feiten te zien.
Nee, we hebben een meningsverschil over of je bepaalde verwachtingen aan bepaalde specs kunt ontlenen of niet.
Ik heb daarvoor argumenten aangedragen, jij niet.
224 bit + 32 bit i.p.v. 256-bit
Nee, dat is fout.
De eerste 3.5 GB zit wel degelijk aan een 256-bit bus, zie ook hier: http://www.anandtech.com/...ploring-memory-allocation
3,5GB + 500MB i.p.v. 4GB
Dit is nogal onzinnig. 3.5 GB + 512MB == 4 GB.
De hoeveelheid geheugen klopt dus gewoon.
196GB/s of 28GB/s i.p.v. 224GB/s
Ook dit is niet waar. Hij kan wel degelijk 224 GB/s halen in het meest gunstige geval.
Dat staat ook hier: http://www.anandtech.com/...oring-memory-allocation/2
Although the full 256-bit memory bus is present and active on GTX 970 and capable of providing 224GB/sec of combined memory bandwidth between the DRAM modules and the memory controllers, it’s a bit of a misnomer to say the card has that much bandwidth between the memory controllers and everything else, at least in the same sense that the GTX 980 does.
Het probleem ligt hem in de subtiliteiten die ik eerder ook al aangaf... Voor iedere kaart zijn er specifieke scenarios waarbinnen deze al dan niet bepaalde maximum-prestaties kan leveren. Deze scenarios zijn nu eenmaal anders dan bij de 980, omdat de kaart anders geconfigureerd is.

Jij beweert hier dat de kaart NOOIT bepaalde specs haalt, en dat is pertinent onwaar. Er is wel degelijk een 256-bit bus aan boord, er zit wel degelijk 4 GB op, en in het meest gunstige geval kun je wel degelijk 224 GB/s halen.
Of dat gunstige geval ook een goede weerspiegeling van de praktijk is, daarover kun je discussieren, maar jij slaat weer door de andere kant op, en verspreidt nu zelf onwaarheden.

[Reactie gewijzigd door Scalibq op 22 februari 2015 19:53]

Je hebt duidelijk niet het hele verhaal gelezen. Het doet er niet toe of de performance op dit moment met de huidige spellen ernstig minder is of niet, het gaat erom dat nVidia nogsteeds foute informatie neerzet.

Uit het zelfde artikel op Anandtech (want lezen is blijkbaar teveel moeite):
This in turn is why the 224GB/sec memory bandwidth number for the GTX 970 is technically correct and yet still not entirely useful as we move past the memory controllers, as it is not possible to actually get that much bandwidth at once when doing a pure read or a pure write. In the case of pure reads for example, GTX 970 can read the 3.5GB segment at 196GB/sec (7GHz * 7 ports * 32-bits), or it can read the 512MB segment at 28GB/sec, but it cannot read from both at once; it is a true XOR situation. The same is also true for writes, as only one segment can be written to at a time.
Succes met je bord, I'm out!
Waarom vergeet iedereen dat reviewers bepaalde informatie krijgen om RECLAME te maken voor de producten die zij reviewen.

Je mag er als consument dus vanuit gaan dat de informatie die de reviewers van de fabrikant ontvangen om te publiceren in de media correct is.

Volgens de specificaties zoals verteld aan de reviewers zit er geen verschil in de aansturing van de eerste 3,5GB en de laatste 0,5GB RAM terwijl in praktijk de laatste 0,5GB gewoon gemankeerd geheugen is. Helaas is dit in de reviews niet gelijk naar voren gekomen, maar aan de hand van de door nvidia gegeven specificaties was dat niet op te maken en mocht je er als consument vanuit gaan dat de volledige 4GB met 224GB/sec te benaderen is. Dat is niet het geval.
Waarom vergeet iedereen dat reviewers bepaalde informatie krijgen om RECLAME te maken voor de producten die zij reviewen.
Dat vergeet niemand. Vreemde opmerking...
Je mag er als consument dus vanuit gaan dat de informatie die de reviewers van de fabrikant ontvangen om te publiceren in de media correct is.
Dat is nu dus de vraag... Die review-handleiding is dus niet bedoeld voor publicatie. Sterker nog, volgens mij mogen ze die expliciet NIET publiceren, omdat daarin de aanwijzingen van de fabrikant staan over hoe ze de kaart het best kunnen testen. Men wil niet dat de concurrent dit in handen krijgt, want dan weten ze dus de sterke, maar ook zwakke plekken.

Als er een fout staat in iets dat niet bedoeld is voor publicatie, en die fout wordt gepubliceerd, wie is daar dan verantwoordelijk voor?
Volgens de specificaties zoals verteld aan de reviewers zit er geen verschil in de aansturing van de eerste 3,5GB en de laatste 0,5GB RAM terwijl in praktijk de laatste 0,5GB gewoon gemankeerd geheugen is.
nVidia heeft niet gezegd dat er GEEN verschil in zit.
Ze hebben alleen in de specificaties niet uitgelegd hoe het geheugen werkt. Waarbij je je kunt afvragen of dergelijke in-depth informatie over de architectuur wel nodig is voor een review. Een review beoordeelt de kaart zoals hij in de praktijk werkt.
Helaas is dit in de reviews niet gelijk naar voren gekomen, maar aan de hand van de door nvidia gegeven specificaties was dat niet op te maken
Als de reviewers niet van een dergelijke beperking wisten, konden ze ook niet specifiek hun testen aanpassen om de beperking te omzeilen.
Je zou dus kunnen stellen dat het voor de reviewers beter is dat ze het niet wisten, want op deze manier hebben ze de kaarten 'blind' getest alsof het reguliere 4GB-kaarten waren.
Het feit dat reviewers niets vreemds hebben gemerkt, is in het voordeel van nVidia in deze kwestie.
en mocht je er als consument vanuit gaan dat de volledige 4GB met 224GB/sec te benaderen is.
Wederom, dat is dus maar de vraag.
Uhh, de kaart kan wel 4GB aanspreken, maar 0.5 GB is blijkbaar trager. En de kaart presteert gewoon zoals de reviews aangeven.. Wanneer mag je sowieso advertenties voor 100% vertrouwen...

[Reactie gewijzigd door SuperDre op 22 februari 2015 17:00]

Wanneer mag je sowieso advertenties voor 100% vertrouwen...
Dit zou uiteraard altijd 100% moeten zijn.
Als je iets niet 100% waar kan maken, moet je 't moreel gezien niet in je reclame uiten. Zo simpel is het.
Helaas echter mogen bedrijven allerlei onwaarheden roepen, zonder dat ze daar gestraft voor zullen worden. Dankzij de overheersende (en foute, en misdadige) gedachte dat vrije markwerking belangrijker is dan andere zaken.
En zelfs de 256bit brede bus staat ter dicussie:
This in turn is why the 224GB/sec memory bandwidth number for the GTX 970 is technically correct and yet still not entirely useful as we move past the memory controllers, as it is not possible to actually get that much bandwidth at once when doing a pure read or a pure write. In the case of pure reads for example, GTX 970 can read the 3.5GB segment at 196GB/sec (7GHz * 7 ports * 32-bits), or it can read the 512MB segment at 28GB/sec, but it cannot read from both at once; it is a true XOR situation. The same is also true for writes, as only one segment can be written to at a time.
Bron: anandtech

Daarom blijf ik zeggen; het is een 224bits 3.5GB + een 32bits 0.5GB videokaart.

[Reactie gewijzigd door Madrox op 22 februari 2015 18:32]

Daarom blijf ik zeggen; het is een 224bits 3.5GB + een 32bits 0.5GB videokaart.
Lees ook wat eronder staat over interleaving:
Despite all of this, achieving peak memory bandwidth performance on the GTX 970 is still possible, but it requires much more effort since simple striping will not do the trick. The easiest and most effective solution in this regard is to interleave reads and writes over the segments, such that one segment is writing while another segment is reading. Interleaving in this fashion allows both segments to work at once – avoiding the blocking effect of the shared read and write buses – and makes it more likely that both segments are doing useful work rather than waiting for their turn on an operation.
Het ligt dus iets ingewikkelder dan 224-bit + 32-bit.
Het is een complexe mix, die tot 256-bit kan gaan.
...die tot 256-bit kan gaan.
Zoiets als een Fiat Panda die opeens 180 kan als je hem in de vrij zet, bergafwaarts... Is 't dan ook terecht in de advertentie te zetten dat ie 180 kan?
Niet echt... Zo heel moeilijk moet het niet zijn om lezen en schrijven te interleaven... Een videokaart is altijd wel bezig met het lezen van texels en het schrijven van pixels.
Benieuwd wat hier uit gaat komen... Maar dit is typisch Amerika weer, vraag me af, mocht Nvidia een "terug roep actie" beginnen hoeveel mensen daadwerkelijk hun 970 terug brengen, tuurlijk is niet alles netjes gecommuniceerd vanuit Nvidia, maar denk dat het wel allemaal meevalt.. En wat zal er met de prijzen gebeuren van de 970, want ik wacht nog even rustig af, van zal me niets verbazen als die straks gaan zakken en dan weet ik wel wat ik ga kopen :Y)
Het is ook typisch Nederlands om af te geven op de Amerikaanse rechtsgang.
Ook hier kun je terug naar de winkel. Het product voldoet namelijk niet aan de opgegeven specificaties. Je krijgt minder voor je geld.

Je koopt toch ook geen halfvolle fles cola...
Wil je zeggen dat de Amerikaanse rechtsgang normaal is dan..? Er iets niets zo ziekelijk als Amerika daarin... Het gaat er om dat Amerikanen altijd het uiterste van het uiterste willen hebben... vindt je het gek dat de hele economie daar zo verneukt is... land is eigenlijk al failliet, maar dat is allemaal offtopic :) Hier in nederland zijn we allemaal veel nuchterder hierin, tuurlijk zijn er een aantal mensen die hun kaart terug brengt, maar ook genoeg mensen die er wel tevreden me zijn en dat moet iedereen natuurlijk voor zichzelf bepalen :)
Ieder land heeft het rechtssysteem dat ze wensen. Daar is niets ziekelijk aan.

Wij doen het anders. En ik.ben wel een voorstander van ons rechtssysteem.
Ieder land heeft het rechtssysteem dat ze wensen. Daar is niets ziekelijk aan.
Wil je nu beweren dat er geen landen zijn die een ziekelijk rechtssysteem hebben?
Zoals in Iran, waar je wordt opgeknoopt als ze erachter komen dat je homo bent?
Of in Saoedi-Arabië: https://nl.wikipedia.org/wiki/Saoedi-Arabië#Wetgeving
Ik had het in dit geval alleen over het Amerikaanse rechtssysteem, maar dat komt niet duidelijk over.

En zelfs IS heeft een rechtssysteem. En ja, dat sloort systemen zijn deels of totaal ziekelijk.

[Reactie gewijzigd door jqv op 23 februari 2015 07:14]

Het gaat er natuurlijk niet om dat ze van die kaart af willen, ze willen gewoon een deel terug krijgen betaald of een leuk spel uit mogen zoeken of zo. NVidia op de vingers getikt, iedereen lekker toch z'n kaart houden.
Tuurlijk zou een "compensatie" vanuit Nvidia netjes zijn, maar zoals hier boven ook al gemeld, Amerikanen willen altijd het uiterste van het uiterste... en dat maakt het zo triest..
Ja, maar zo werkt het spelletje.

Je zet in op de gehele kaart terugbetaald krijgen. Iedereen weet dat dat belachelijk is, maar doet alsof het een serieuze eis is, en uiteindelijk kom je op compensatie uit. 'T is zielig dat het zo werkt ja, maar goed zo is het nu eenmaal, en zeker in de USA.

Kijk, ik heb ook zo'n kaart en het ding werkt super goed, als ze de echte specs hadden gepubliceerd had ik 'm ook gekocht. Toch voel ik me wel een beetje genaaid. Niet zo erg dat ik er nou zelf iets aan zou doen, maar als er uit de rechtzaak komt dat ze compenseren vind ik dat toch niet meer dan redelijk. Hadden ze maar niet moeten liegen.

[Reactie gewijzigd door StefanDingenout op 22 februari 2015 12:32]

Of je hier blij van moet worden is punt twee.
Hier heeft niemand baat bij behalve de advocaten,straks kan iedere 970 bezitter 10 dollar claimen en daat houdt het dan mee op.
Er kan nou eenmaal niks meer aan verandert worden,Nvidia heeft zijn excuses aangeboden,voor de rest kunnen ze niks,behalve de specs op de doos aanpassen.
Een rechtzaak is naar mijn idee een verspilling van geld en tijd.
Zoals ik al zei,die enige die hier geld aan gaan verdienen zijn de advocaten.
10 euro * miljoen mensen = 10 miljoen, je zegt ze kunnen niks en ze hebben al excuses aangeboden? als de 960 en 980 deze problemen niet heeft, waarom krijgt deze '970' per ongeluk zonder dat zij het merken maar 3.5 GB?

Je kan wel een excuses aanbieden, maar dit maakt niks goed, en helemaal niet als zoiets bewust is gedaan, omdat ik niet denk dat ze zulke groten fouten 'onbewust' maken.
De GTX 970 beschikt wel degelijk over 4GB, alleen de laatste 0,5GB presteert minder goed.
En NVidia krijgt een pijnlijke tik op z'n vingers zodat ze de volgende keer misschien wat minder makkelijk liegen, en de klanten krijgen een leuk bedragje terug...
Ik denk dat ik dan ook nog wel wat leuke rechtzaakjes kan bedenken...
Ik heb hier nog wel een ATi Radeon X1800XT en X1900XTX liggen. Ik wacht nog steeds op m'n hardware physics-acceleratie:
http://techreport.com/new...s-on-physics-gpgpu-ground
http://www.dailytech.com/article.aspx?newsid=1414
Doe mij maar het aankoopbedrag voor die twee kaarten terug :)

[Reactie gewijzigd door Scalibq op 22 februari 2015 12:58]

Haha, ja is inderdaad nooit in gebruik genomen.

Maar voor die physix acceleratie zou gewoon de normale GPU hardware gebruikt worden, dus die kaart levert in principe qua hardware wel wat er beloofd was. Er is alleen niemand geweest die er ook de software voor ontwikkeld heeft. Althans, voor zover ik me herinner.
Misschien niet de juiste plek om dit te vragen maar welk effect heeft de zwakkere 0.5 gb wanneer je 2 970's in SLI hebt en over een paar jaar games krijgt waar 4gb (of meer) recommended is?

Ik zal namelijk binnen een paar weken 2 9-serie kaarten kopen en voor dit naar buiten kwam zou dat de 970 worden maar nu twijfel ik daar toch over vooral omdat die 2 kaarten uiteindelijk in SLI zullen gaan en het mij niet helemaal duidelijk is hoever die zwakke 0.5gb effect zal hebben zodra je boven de 3.5gb gaat zal dit in SLI pas bij 7gb optreden of ook vanaf 3.5?
Sli is en blijft altijd de zelfde vram. Dus gewoon 3.5gb.
Sli verdubelt je geheugen niet, gewoon 3.5gb goed bruikbaar.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True