Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'Nvidia gaat GTX 1060-versie voorzien van GP104-gpu'

Door , 76 reacties, submitter: Daeley

Nvidia zou van plan zijn om gebrekkige GP104-gpu's die eigenlijk voor de GTX 1070 en 1080 bestemd waren, te gebruiken voor een GTX 1060-versie. Deze zou niet sneller zijn dan de huidige GTX 1060's, maar mogelijk wel meer verbruiken.

De huidige GTX 1060 is opgebouwd rond de GP106-gpu, een chip op basis van de Pascal-architectuur, die op het 16nm-procedé gebakken wordt. De gpu beschikt over 1280 streamprocessors. De GTX 1080 en GTX 1070 beschikken over een krachtiger gpu, de GP104, met respectievelijk 2560 en 1920 cuda-cores.

Volgens Videocardz gaat Nvidia een variant van deze gpu, de GP104-140, inzetten voor de GTX 1060 3GB. Deze kaart is al op de markt onder deze naam, maar dan met een GP106 met 1152 streamprocessors. Over hoeveel werkende cores de GP104 van de komende GTX 1060 3GB gaat beschikken is niet bekend.

Wel verwacht Videocardz dat de kaart niet sneller zal zijn dan de huidige GTX 1060 3GB, maar wel meer zal verbruiken. Om verwarring te voorkomen, zou de kaart ook niet wereldwijd uitgebracht worden, maar bijvoorbeeld tot China beperkt blijven. Het is overigens standaard praktijk dat chipfabrikanten cpu's of gpu's met gebreken als minder krachtige modellen leveren, waarbij bepaalde delen uitgeschakeld zijn.

Door Olaf van Miltenburg

Nieuwsco÷rdinator

01-12-2016 • 20:06

76 Linkedin Google+

Submitter: Daeley

Reacties (76)

Wijzig sortering
De gtx1070 / gtx1080 hebben 8gb toch? Correct me if I'm wrong maar daar maak je niet zomaar even een 3gb kaart van? De geheugencontroller en de bus en zo is dan toch gemaakt voor een bepaalde hoeveelheid chips waardoor je eerder 2gb / 4gb / 8gb zal krijgen dan opeens 3gb / 6gb?

Het is natuurlijk wel zo dat dit hele feest juist het gtx970 'gedoe' heeft opgeleverd. Ze zetten een paar clusters uit, maar die clusters bevatte op de gtx970 / gtx980 ook geheugen pipelines, waardoor ze niet 4gb er op konden zetten maar het laatste bankje miste (waardoor het 3.5gb werd, en ze truukjes moesten gaan uithalen voor de laatste 0.5 gb en die te gaan multiplexen).

Zou dus best kunnen zijn dat ze precies zoveel clusters uitzetten van een gp104 zodat het van 4gb / 8gb naar 3gb / 6gb gaat en dan hebben ze spec-voor-spec een gtx1060-3gb (als het aantal cores en de clockspeed kloppen natuurlijk) die alleen meer zal verbruiken.

edit:
De uniekheid in de gtx970 configuration heeft hier inderdaad (waarschijnlijk) niet veel mee te maken. Gtx970 was uniek in dat het memory controllers uit zette, maar wel de rekenclusters hield. Je kreeg dus 'halve clusters', waarvan bepaalde dingen het wel deden (cuda cores en zo) maar bepaalde delen niet (geheugen controllers). Dit was nieuw in Maxwell dat dit kon. Voorheen moesten ze een heel cluster uitzetten als er ook maar iets niet in deed (waardoor je gelijk EN minder cuda cores, EN minder rops, EN minder geheugen controllers kreeg, en dus ook een andere bus indeling).
Uitleg nog eens op http://www.anandtech.com/...oring-memory-allocation/2

Zolang ze maar hele clusters uitzetten op 'deels mislukte chips' krijg je dit gedoe niet en kunnen ze inderdaad de bus + memory chips aanpassen om op een bepaalde hoeveelheid geheugen uit te komen. Met de gtx970 was het blijkbaar zonde om bergen aan rekenpower uit te schakelen wat het deed, als alleen een stukje geheugen-controller het niet deed dus kreeg je de rare half-om-half indeling.
(En vergaten ze te vermelden dat hier door ook de hoeveelheid ROPS omlaag ging, wat het hele 'specs' schandaal werd. De geheugenadressering bleek in de praktijk niks uit te halen).

[Reactie gewijzigd door dipje2 op 1 december 2016 22:54]

Heel simpel om een 3GB of 6GB GTX 1060 te krijgen met een GP104 GPU met een 256 bit geheugenbus, gewoon 64 bit van de geheugenbus uitschakelen en je hebt een 192 bit geheugenbus. En met een 192 bit geheugenbus zit je vast aan 3 of 6GB werkgeheugen tenzij je geheugenchips van verschillende groottes neemt maar dat werkt niet ideaal. Omdat dan de geheugenchips niet allemaal even snel uitleesbaar en beschrijfbaar zijn.

Komt veel vaker voor dat een deel van de geheugenbus wordt uitgeschakeld. Zo is het pas sinds enkele maanden bevestigd dat de Tonga GPU in de R9 285, R9 380 en R9 380X eigenlijk een 384 bit geheugenbus is waar 128 bit van is uitgeschakeld. De vermoedens waren er al van het begin af aan maar het is sinds kort pas bevestigd.

Bij de GTX 1060 waren er trouwens ook al direct geruchten over een GP104 versie welke naast de orginele GP106 versie zou bestaan. Heeft ook hier even geduurd maar ook deze lijkt nu te komen.
De bus is bij nv gelinkt aan de hoeveelheid geheugen. Minder geheugen is gewoon minder breed, zie het als RAID (striping) Dit komt deels door de controller die zij hiervoor gebruiken: crossbar-memorycontroller. Hierdoor zijn ze in staat de bus in zijn geheel te gebruiken of op te splitsen in meerdere kanalen*.

ze hoeven slechts minder geheugen te plaatsen, en ook het pcb wordt eenvoudiger gemaakt.
Als de pin lay-out van de GPU nagenoeg hetzelfde is qua interfaces, dan is het eigenlijk een kwesten van de diverse op orde brengen, bios maken met kloksnelheid en ingeschakeld shaderclusters en gaan...

De gtx970 is een iets ander verhaal dan je schetst, maar erg versimpeld zou je inderdaad kunnen stellen dat de geheugenpijplijn langer werd voor de laatste 0,5GB.
Dit wassen overigens te wijten aan een adresserings-probleem, waarbij ik zelf vermoed dat de laatste MB's niet afgedekt waren door on-die caches waardoor de GPU echt in het DDR5 moest gaan zoeken. Op CPU's heeft een cache-miss behoorlijkeer gevolgen voor de command pipeline, en op een GPU zal dat niet veel anders zijn.

Maarja niet vreemd dat ze liever kapotte gpu's zo inzetten, ze schijnen er nogal wat te hebben en de GP104 terugsnijden naar gtx1060 zou best beter yields op kunnen leveren als daarnaast de GP104 los te fabriceren


De
Ik verwacht dat dit middels de Firmware geregeld zal worden. aangezien de limitatie zoals je zelf al aangeeft niet op de hardware zal zitten. Vroeger deed intel dit ook; zij verkochten pentium 2 processoren met stukkende cache geheugen als Celeron processoren. deze waren vervolgens flink over te klokken zonder extra koeling oid. ik verwacht hier zo'n zelfde soort constructie.
Zoals dipje zegt, is de geheugen interface verbonden aan de SMM clusters en zal er dus een GTX970 achtige oplossing met dezelfde issues ontstaan.
De 970 had 3,5GB volledige bandbreedte geheugen en 0,5GB op een deels uitgeschakelde memory controller. Dit gaf doorgaans geen probleem tot dat de 3,5GB grens overschreden werd en de laatste 0,5GB een performance hit kreeg door de afgeknepen memory controller.

Deze hardware beperking is dus helaas niet te fixen in firmware anders had NVidia dit wel met de 970 gedaan :)
Pascal is een doorontwikkeling van Maxwell, de basis opbouw van de gpu is daarom dus gelijk gebleven, De SMM clusters zijn iets aangepast en onderdelen efficienter gemaakt, maar de memcontrollers en ander basis bouwblokken hebben dezelfde opbouw :) Vandaar ook mijn vermoeden dat het hoogst waarschijnlijk een herhaling van de 970 gaat worden als ze deze kaarten in 3 en 6GB uit gaan geven op basis van de GP104 GPU ipv GP106.

We gaan het zien, vooralsnog zullen we de kaarten hier hoogst waarschijnlijk niet gaan zien ^^
De 1060 heeft een 192 bit geheugen bus, de 1070 256 bit. Precies 25% minder dus dat zal ook zo door werken in de geheugen grootte 4GB->3GB
De breedte van de geheugenbus wordt bepaald door het aantal gebruikte geheugen modules, welke een bepaalde bus-breedte hebben.

Als voorbeeld: 3 modules van 64b bus-breedte leveren een gezamenlijke breedte van 192b.

De hoeveelheid geheugen wordt door de modules en het type bepaald. De hoeveelheid geheugen per chip maken hiervoor weinig uit. De cellen in het geheugen kunnen (bijna) onafhankelijk geadresseerd worden, waardoor er dus onafhankelijk van de bus-breedte geheugen geadresseerd kan worden. Als je kijkt naar de timings van (g)ddr5, de Ras/Cas waardes bepalen de wachttijd voor de benadering van een rij, en vervolgens een kolom in een chip.

De maximale hoeveelheid geheugen wordt vervolgens bepaald door de adresserings-bandbreedte en de hoeveelheid geheugenchips die gebruikt worden omdat deze bv 512MB per package/chip bieden. Als je een package gebruikt met 1024MB capaciteit heb je met dezelfde busbreedte dus precies 3GB geheugen. Probleem is echter dat geheugen met een hogere capaciteit vaker een hogere wachttijd heeft, maar het ontwerp van de kaart is veel goedkoper (er hoeven minder sporen van gpu naar geheugen getrokken te worden.)
Slim, dan hoeven er minder chips onnodig weggegooid te worden. Wel jammer dat er dan wat meer stroomverbruik bij komt, maar dat zal hooguit 30W meer worden aangezien de 1070 een TDP heeft van 150W en de 1060 van 120W. Procentueel is dat natuurlijk best wel wat meer, maar in de praktijk denk ik niet dat je daar nou een PSU met meer capaciteit voor hoeft te kopen.

[Reactie gewijzigd door jvnknvlgl op 1 december 2016 20:10]

Dat is toch al snel 25 euro als je deze kaart 3 jaar 4 uur per dag gebruikt.
Voor een kaart die niets goedkoper gaat zijn toch behoorlijk onacceptabel dacht ik.
4 uur per dag op vol vermogen, ja. Maar voor 'normaal' computergebruik (niet gamen) haal je dat natuurlijk nooit, dus die 25 euro red je niet. En dan nog, we hebben het hier over 8,33 euro per jaar dat je meer zou betalen. Dat vindt ik toch aardig binnen de perken.
Iemand die deze kaarten koopt word natuurlijk wel verwacht dat ie redelijk gamed...
Anders kan je net zo goed een apu kopen voor nog niet de helft.
Dat is immers de doelgroep van deze kaarten.
Dat niet iedereen dat doet en daar tijd voor heft is een ander punt.

En we hebben het niet over 8,33 we hebben het over geld dat in feite je kaart MEER kost doordat ie een gerecyclede gpu gebruikt.
Kortom een ander bespaard geld en wij mogen er voor betalen.

Je weet wel zoiets als afval voor de gemeente schijden in glas papier plastic groen en rest wat zij vervolgens verkopen als grondstoffen en compost wat wij dan weer mogen kopen en vervolgens gooien ze ook nog eens ieder jaar de afvalstoffen heffing omhoog.

We worden gewoon weer misbruikt door de industrie en jij vind dat blijkbaar acceptabel ik niet.

Als deze kaart sneller zou zijn zou het geen probleem zijn (er is marge zat tussen de 1060 die er nu is en de 1070 dus ze zouden hem 15% sneller kunnen maken voor 40 euro meer en het de 1060TI kunnen noemen en er is niets aan de hand. maar even snel nee onacceptabel.

[Reactie gewijzigd door computerjunky op 1 december 2016 20:43]

De 1070 verbruikt maar 30 watt meer dus dat valt mee gezien de prestatie die je er voor terug krijgt.
In tegenstelling tot de nieuwe 1060 die even snel gaat zijn maar meer verbruikt.
De 1070 heeft standaard een TDP van 30W hoger dan de 1060. voor de GP104 versie van de 1060 hebben ze een aantal streamprocessors van de GP104 uitgeschakeld en er is ook minder VRAM. Beide zal een groot deel van die 30W zal goedmaken. Wanneer ze zeggen dat er wordt verwacht dat het iets meer stroom verbruikt gaat dit echt om max 5W.

[Reactie gewijzigd door unilythe op 1 december 2016 20:44]

Ga jij echt elke dag 4 uur gamen? Nee.
Gaat die GPU constant op zijn boostclock zitten (en dus rond max TDP)? Nee.
En de energie die je verstookt, komt vrij in de vorm van warmte die in de ruimte komt. Is dan weer wat aardgas bespaard.
Fijn dat jij geld teveel hem maar daar gaat het helemaal niet om. Het gaat om het feit dat ze geld verdienen aan producten die anders afgeschreven zouden worden en dat wij als consument daar ook nog eens meer voor moeten betalen. Dat is scheef en niet goed te praten.
Waarom is dat scheef? Die chips weggooien en verspilling veroorzaken: DAT is pas scheef. Als ze die 'deels defecte' chips niet in de handel zouden houden, zouden ze een deel van hun winst verliezen, en bijgevolg zouden ze dan hun winstmarge optrekken voor de chips die wel in orde zijn, wat daar dan weer prijsstijgingen impliceert. En als het idee je niet aanstaat: neem een 'volledige chip" in een lager segment en zet wat settings lager, investeer wat extra in de volledige chip (en verander minder frequent van GPU), of ga shoppen bij de concurrent!
En niet goed te praten? Ondanks de memorygate van de GTX970 blijkt net die kaart toch een van de populairste geweest te zijn!
Dit is voor mij geen probleem zolang het maar wel aangegeven word.
Misschien een goed idee 1060 Ti ? Met iets meer dan 1280 cuda cores?

[Reactie gewijzigd door alexboon op 1 december 2016 20:14]

Door het weglaten van de GTX 960 Ti is de GTX 970 de meest succesvolle kaart ooit geworden. Die kaart heeft op steam het grootste markt aandeel van alle losse videokaarten. Ongekend voor een kaart uit die prijsklasse!

Vanuit dat oogpunt doet Nvidia er (financieel) verstandig aan ook deze keer geen GTX 1060 Ti uit te brengen. In ieder geval niet zolang AMD niet tussen de GTX 1060 en de GTX 1070 zit.

[Reactie gewijzigd door sdk1985 op 1 december 2016 20:24]

Volgens mij heb je ook een extra kabel nodig voor prik naar je video kaart als je boven de 150 Watt uitkomt. Dus dan zal het duidelijk zijn welke 1060 kaart welke chip heeft, het aantal aansluitingen verteld het.
De 1070 heeft een tdp van 150watt als je die langzamer laat draaien en vores uit gaat zetten zal het verbruik alleen maar dalen lijkt me ;) over de 150watt zal je dus waarschijnlijk niet gaan.
Zijn die kaarten dual bios ? En evt te flashen naar de 1070 oid ? Neem aan dat niet alle chips "kapot" zijn.
Ja wel ze zijn waarschijnlijk echt stuk en mochten ze dat niet zijn dan zijn ze als nog hardwarematig uitgeschakeld waardoor je sowieso niks softwarematig kan inschakelen. Dit is de laatste 10 jaar al zo bij nVidia.

Alleen bij AMD is het anders die doet zowel hardwarematig uitschakelen als softwarematig uitschakelen via het BIOS. In dat laatste geval kun je dus proberen met een aangepast BIOS om de uitgeschakelde stream processors weer in te schakelen.

Dit zal echter alleen goed werken als de chip niet fysiek defect is. Is die wel fysiek defect dan kan het voorkomen dat de PC niet start of niet stabiel is. Bij mijn R9 290 is het dus wel mogelijk, die werkt prima met een BIOS met alle 2816 stream processors unlocked, daarbij waren softwarematig de stream processor uitgeschakeld. Maar zoals gezegd nVidia doet alleen maar hardwarematige locks, dus daarbij kun je het vergeten.
Alleen in China? Zeker bedoeld om ze daar eens goed terug te pakken voor al die imitaties :)
Paar jaar geleden hebben Chinese fabrikanten van de Point of View kaarten nepkaarten gemaakt zonder dat zelfs Point of View er vanaf wist.
Weet niet of hij het daar over heeft.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*