Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 76 reacties
Submitter: Daeley

Nvidia zou van plan zijn om gebrekkige GP104-gpu's die eigenlijk voor de GTX 1070 en 1080 bestemd waren, te gebruiken voor een GTX 1060-versie. Deze zou niet sneller zijn dan de huidige GTX 1060's, maar mogelijk wel meer verbruiken.

De huidige GTX 1060 is opgebouwd rond de GP106-gpu, een chip op basis van de Pascal-architectuur, die op het 16nm-procedé gebakken wordt. De gpu beschikt over 1280 streamprocessors. De GTX 1080 en GTX 1070 beschikken over een krachtiger gpu, de GP104, met respectievelijk 2560 en 1920 cuda-cores.

Volgens Videocardz gaat Nvidia een variant van deze gpu, de GP104-140, inzetten voor de GTX 1060 3GB. Deze kaart is al op de markt onder deze naam, maar dan met een GP106 met 1152 streamprocessors. Over hoeveel werkende cores de GP104 van de komende GTX 1060 3GB gaat beschikken is niet bekend.

Wel verwacht Videocardz dat de kaart niet sneller zal zijn dan de huidige GTX 1060 3GB, maar wel meer zal verbruiken. Om verwarring te voorkomen, zou de kaart ook niet wereldwijd uitgebracht worden, maar bijvoorbeeld tot China beperkt blijven. Het is overigens standaard praktijk dat chipfabrikanten cpu's of gpu's met gebreken als minder krachtige modellen leveren, waarbij bepaalde delen uitgeschakeld zijn.

Nvidia GTX 1060

Moderatie-faq Wijzig weergave

Reacties (76)

De gtx1070 / gtx1080 hebben 8gb toch? Correct me if I'm wrong maar daar maak je niet zomaar even een 3gb kaart van? De geheugencontroller en de bus en zo is dan toch gemaakt voor een bepaalde hoeveelheid chips waardoor je eerder 2gb / 4gb / 8gb zal krijgen dan opeens 3gb / 6gb?

Het is natuurlijk wel zo dat dit hele feest juist het gtx970 'gedoe' heeft opgeleverd. Ze zetten een paar clusters uit, maar die clusters bevatte op de gtx970 / gtx980 ook geheugen pipelines, waardoor ze niet 4gb er op konden zetten maar het laatste bankje miste (waardoor het 3.5gb werd, en ze truukjes moesten gaan uithalen voor de laatste 0.5 gb en die te gaan multiplexen).

Zou dus best kunnen zijn dat ze precies zoveel clusters uitzetten van een gp104 zodat het van 4gb / 8gb naar 3gb / 6gb gaat en dan hebben ze spec-voor-spec een gtx1060-3gb (als het aantal cores en de clockspeed kloppen natuurlijk) die alleen meer zal verbruiken.

edit:
De uniekheid in de gtx970 configuration heeft hier inderdaad (waarschijnlijk) niet veel mee te maken. Gtx970 was uniek in dat het memory controllers uit zette, maar wel de rekenclusters hield. Je kreeg dus 'halve clusters', waarvan bepaalde dingen het wel deden (cuda cores en zo) maar bepaalde delen niet (geheugen controllers). Dit was nieuw in Maxwell dat dit kon. Voorheen moesten ze een heel cluster uitzetten als er ook maar iets niet in deed (waardoor je gelijk EN minder cuda cores, EN minder rops, EN minder geheugen controllers kreeg, en dus ook een andere bus indeling).
Uitleg nog eens op http://www.anandtech.com/...oring-memory-allocation/2

Zolang ze maar hele clusters uitzetten op 'deels mislukte chips' krijg je dit gedoe niet en kunnen ze inderdaad de bus + memory chips aanpassen om op een bepaalde hoeveelheid geheugen uit te komen. Met de gtx970 was het blijkbaar zonde om bergen aan rekenpower uit te schakelen wat het deed, als alleen een stukje geheugen-controller het niet deed dus kreeg je de rare half-om-half indeling.
(En vergaten ze te vermelden dat hier door ook de hoeveelheid ROPS omlaag ging, wat het hele 'specs' schandaal werd. De geheugenadressering bleek in de praktijk niks uit te halen).

[Reactie gewijzigd door dipje2 op 1 december 2016 22:54]

Heel simpel om een 3GB of 6GB GTX 1060 te krijgen met een GP104 GPU met een 256 bit geheugenbus, gewoon 64 bit van de geheugenbus uitschakelen en je hebt een 192 bit geheugenbus. En met een 192 bit geheugenbus zit je vast aan 3 of 6GB werkgeheugen tenzij je geheugenchips van verschillende groottes neemt maar dat werkt niet ideaal. Omdat dan de geheugenchips niet allemaal even snel uitleesbaar en beschrijfbaar zijn.

Komt veel vaker voor dat een deel van de geheugenbus wordt uitgeschakeld. Zo is het pas sinds enkele maanden bevestigd dat de Tonga GPU in de R9 285, R9 380 en R9 380X eigenlijk een 384 bit geheugenbus is waar 128 bit van is uitgeschakeld. De vermoedens waren er al van het begin af aan maar het is sinds kort pas bevestigd.

Bij de GTX 1060 waren er trouwens ook al direct geruchten over een GP104 versie welke naast de orginele GP106 versie zou bestaan. Heeft ook hier even geduurd maar ook deze lijkt nu te komen.
of ze maken er een 1060TI achtig iets van die een hogere memory bus heeft (zou denk ik niet echt veel uitmaken in realtime tho) ik vertrouw wel in Nvidia dat ze met iets leuks komen
De bus is bij nv gelinkt aan de hoeveelheid geheugen. Minder geheugen is gewoon minder breed, zie het als RAID (striping) Dit komt deels door de controller die zij hiervoor gebruiken: crossbar-memorycontroller. Hierdoor zijn ze in staat de bus in zijn geheel te gebruiken of op te splitsen in meerdere kanalen*.

ze hoeven slechts minder geheugen te plaatsen, en ook het pcb wordt eenvoudiger gemaakt.
Als de pin lay-out van de GPU nagenoeg hetzelfde is qua interfaces, dan is het eigenlijk een kwesten van de diverse op orde brengen, bios maken met kloksnelheid en ingeschakeld shaderclusters en gaan...

De gtx970 is een iets ander verhaal dan je schetst, maar erg versimpeld zou je inderdaad kunnen stellen dat de geheugenpijplijn langer werd voor de laatste 0,5GB.
Dit wassen overigens te wijten aan een adresserings-probleem, waarbij ik zelf vermoed dat de laatste MB's niet afgedekt waren door on-die caches waardoor de GPU echt in het DDR5 moest gaan zoeken. Op CPU's heeft een cache-miss behoorlijkeer gevolgen voor de command pipeline, en op een GPU zal dat niet veel anders zijn.

Maarja niet vreemd dat ze liever kapotte gpu's zo inzetten, ze schijnen er nogal wat te hebben en de GP104 terugsnijden naar gtx1060 zou best beter yields op kunnen leveren als daarnaast de GP104 los te fabriceren


De
Ik verwacht dat dit middels de Firmware geregeld zal worden. aangezien de limitatie zoals je zelf al aangeeft niet op de hardware zal zitten. Vroeger deed intel dit ook; zij verkochten pentium 2 processoren met stukkende cache geheugen als Celeron processoren. deze waren vervolgens flink over te klokken zonder extra koeling oid. ik verwacht hier zo'n zelfde soort constructie.
Zoals dipje zegt, is de geheugen interface verbonden aan de SMM clusters en zal er dus een GTX970 achtige oplossing met dezelfde issues ontstaan.
De 970 had 3,5GB volledige bandbreedte geheugen en 0,5GB op een deels uitgeschakelde memory controller. Dit gaf doorgaans geen probleem tot dat de 3,5GB grens overschreden werd en de laatste 0,5GB een performance hit kreeg door de afgeknepen memory controller.

Deze hardware beperking is dus helaas niet te fixen in firmware anders had NVidia dit wel met de 970 gedaan :)
Wat me dan weer opvalt in jou verhaal is dat je 2 verschillende kaarten met elkaar vergelijkt en dan roept: "Deze hardware beperking is dus helaas niet te fixen in firmware anders had NVidia dit wel met de 970 gedaan"

Ik merk daarbij op dat de complete architectuur van de nieuwe GP104-gpu's anders is en het zou zomaar kunnen dat ze daar deze keer al in voorzien hebben.

Wellicht verstandig om dus even te wachten alvorens je roept: In het verleden behaalde resultaten bieden garanties voor de toekomst. ;)
Pascal is een doorontwikkeling van Maxwell, de basis opbouw van de gpu is daarom dus gelijk gebleven, De SMM clusters zijn iets aangepast en onderdelen efficienter gemaakt, maar de memcontrollers en ander basis bouwblokken hebben dezelfde opbouw :) Vandaar ook mijn vermoeden dat het hoogst waarschijnlijk een herhaling van de 970 gaat worden als ze deze kaarten in 3 en 6GB uit gaan geven op basis van de GP104 GPU ipv GP106.

We gaan het zien, vooralsnog zullen we de kaarten hier hoogst waarschijnlijk niet gaan zien ^^
Je zal vast gelijk hebben dus ook vast een linkje waar ik dit alles kan teruglezen. graag! :D
De 1060 heeft een 192 bit geheugen bus, de 1070 256 bit. Precies 25% minder dus dat zal ook zo door werken in de geheugen grootte 4GB->3GB
De breedte van de geheugenbus wordt bepaald door het aantal gebruikte geheugen modules, welke een bepaalde bus-breedte hebben.

Als voorbeeld: 3 modules van 64b bus-breedte leveren een gezamenlijke breedte van 192b.

De hoeveelheid geheugen wordt door de modules en het type bepaald. De hoeveelheid geheugen per chip maken hiervoor weinig uit. De cellen in het geheugen kunnen (bijna) onafhankelijk geadresseerd worden, waardoor er dus onafhankelijk van de bus-breedte geheugen geadresseerd kan worden. Als je kijkt naar de timings van (g)ddr5, de Ras/Cas waardes bepalen de wachttijd voor de benadering van een rij, en vervolgens een kolom in een chip.

De maximale hoeveelheid geheugen wordt vervolgens bepaald door de adresserings-bandbreedte en de hoeveelheid geheugenchips die gebruikt worden omdat deze bv 512MB per package/chip bieden. Als je een package gebruikt met 1024MB capaciteit heb je met dezelfde busbreedte dus precies 3GB geheugen. Probleem is echter dat geheugen met een hogere capaciteit vaker een hogere wachttijd heeft, maar het ontwerp van de kaart is veel goedkoper (er hoeven minder sporen van gpu naar geheugen getrokken te worden.)
Het hangt natuurlijk ook van de geheugen controller in de GPU af. En aangezien de 1060 kaarten 192 bit hebben zal een kwart van de 256bit geheugen controller worden uitgeschakeld.
Stel dat de geheugen controller normaal 4 chips met 64bit bus breedte verbind, en die chips kunnen 1 of 2 GB groot zijn. Dan gaat er nu één chip af en komt NVIDIA mooi op 3 GB of 6 maar dat zijn ze niet van plan zeggen ze.
Misschien zit er ook wel 4gb vram op maar hebben ze 1gb "uitgeschakeld?" :P.
Slim, dan hoeven er minder chips onnodig weggegooid te worden. Wel jammer dat er dan wat meer stroomverbruik bij komt, maar dat zal hooguit 30W meer worden aangezien de 1070 een TDP heeft van 150W en de 1060 van 120W. Procentueel is dat natuurlijk best wel wat meer, maar in de praktijk denk ik niet dat je daar nou een PSU met meer capaciteit voor hoeft te kopen.

[Reactie gewijzigd door jvnknvlgl op 1 december 2016 20:10]

Dat is toch al snel 25 euro als je deze kaart 3 jaar 4 uur per dag gebruikt.
Voor een kaart die niets goedkoper gaat zijn toch behoorlijk onacceptabel dacht ik.
4 uur per dag op vol vermogen, ja. Maar voor 'normaal' computergebruik (niet gamen) haal je dat natuurlijk nooit, dus die 25 euro red je niet. En dan nog, we hebben het hier over 8,33 euro per jaar dat je meer zou betalen. Dat vindt ik toch aardig binnen de perken.
Iemand die deze kaarten koopt word natuurlijk wel verwacht dat ie redelijk gamed...
Anders kan je net zo goed een apu kopen voor nog niet de helft.
Dat is immers de doelgroep van deze kaarten.
Dat niet iedereen dat doet en daar tijd voor heft is een ander punt.

En we hebben het niet over 8,33 we hebben het over geld dat in feite je kaart MEER kost doordat ie een gerecyclede gpu gebruikt.
Kortom een ander bespaard geld en wij mogen er voor betalen.

Je weet wel zoiets als afval voor de gemeente schijden in glas papier plastic groen en rest wat zij vervolgens verkopen als grondstoffen en compost wat wij dan weer mogen kopen en vervolgens gooien ze ook nog eens ieder jaar de afvalstoffen heffing omhoog.

We worden gewoon weer misbruikt door de industrie en jij vind dat blijkbaar acceptabel ik niet.

Als deze kaart sneller zou zijn zou het geen probleem zijn (er is marge zat tussen de 1060 die er nu is en de 1070 dus ze zouden hem 15% sneller kunnen maken voor 40 euro meer en het de 1060TI kunnen noemen en er is niets aan de hand. maar even snel nee onacceptabel.

[Reactie gewijzigd door computerjunky op 1 december 2016 20:43]

Uiteraard. Maar de 1070 is ook vele malen sneller. En zal daarom ook nog eens meer verbruiken. Wat het verschil nog minder maakt.
De 1070 verbruikt maar 30 watt meer dus dat valt mee gezien de prestatie die je er voor terug krijgt.
In tegenstelling tot de nieuwe 1060 die even snel gaat zijn maar meer verbruikt.
Uiteraard. Maar de nieuwe 1060 gaat niet 30w meer verbruiken. Een i5 6400 verbruikt ook minder dan een 15 6600. Of een i5 6600k met een OC. Tov een zonder OC.
Ik heb een GTX 1080. Ik game misschien gemiddeld 1 uur per dag.

De meeste gamers van tegenwoordig hebben helemaal geen tijd om uren per dag te gamen.
Drogreden: overhaaste generalisatie
Omdat jij niet meer dan 1 uur per dag gamet, betekent dat niet dat "de meeste gamers van tegenwoordig" ook minder dan 1 uit per dag gamen.
Niet expliciet, maar omdat jouw statement direct volgt na jouw anekdote wordt dat wel geïmpliceerd. Bovendien lever je verder geen bronnen voor je statement.
en wederom nergens een vorm van bewijs of bron. Dat je zelf ouder word betekend niet dat de groep gamers dat ook word, ik speel inderdaad veel minder dan vroeger, omdat ik inderdaad ook minder tijd "over" heb, maar hobby's verschuiven ook naar andere zaken (nee geen vrouwlijk schoon). Maar dan moet je niet direct generaliseren en zo op de man gaan spelen
Waarom verwacht je dat iedereen in een reactie bronnen moet geven? Hoeveel mensen op deze pagina zie je dat doen? Denk je echt dat mensen tijd hebben om voor alles wat ze zeggen in een reactie hun bron te vinden? Onrealistische gedachten dit.

Als noeller gewoon had gezegd: "Ik ben het niet mee eens dat de gemiddelde gamer minder tijd besteed aan gamen dan vroeger" hadden we een normaal gesprek kunnen voeren. Ik had dan zelfs waarschijnlijk graag mijn bron gezocht. Maar hij begon mij meteen van van alles te beschuldigen. Kijk nog even goed terug in dit gesprek. Ik ben de enige hier die niet op de man heeft gespeeld. Ik snap niet waarom er hier zo overdreven defensief wordt gereageerd op wat ik zei.

Maar goed, ik geef je bij deze een bron:
http://www.pcgamesn.com/p...-split-and-average-age-38

het onderzoek waar ze naar linken in dat artikel: https://www.npd.com/wps/p...currently-plays-pc-games/

De relevante quotes van dat onderzoek:

"Thirty-seven percent of the U.S. population age 9 and older currently plays PC games for an average of 6.4 hours per week"

"PC gamers are just as likely to be men as they are women, with 51 percent and 49 percent, respectively. They tend to be older, with an average age of 38 years, and affluent, with an average household income of $69k. Gender differences become apparent by type of gamer: Heavy Core and Light Core are comprised mainly of men while Casual PC gamers are overwhelmingly female"

Ik hoop jullie bij deze genoeg te hebben geïnformeerd?

[Reactie gewijzigd door unilythe op 2 december 2016 20:00]

De 1070 heeft standaard een TDP van 30W hoger dan de 1060. voor de GP104 versie van de 1060 hebben ze een aantal streamprocessors van de GP104 uitgeschakeld en er is ook minder VRAM. Beide zal een groot deel van die 30W zal goedmaken. Wanneer ze zeggen dat er wordt verwacht dat het iets meer stroom verbruikt gaat dit echt om max 5W.

[Reactie gewijzigd door unilythe op 1 december 2016 20:44]

Ga jij echt elke dag 4 uur gamen? Nee.
Gaat die GPU constant op zijn boostclock zitten (en dus rond max TDP)? Nee.
En de energie die je verstookt, komt vrij in de vorm van warmte die in de ruimte komt. Is dan weer wat aardgas bespaard.
Extra elektriciteit verbruikt voor mijn airco 😘
Oftewel 2.28 cent per dag.... Nounou... Ik voel m al hoor in mn portemonnee...

Trouwens, als je 3 jaar lang elke dag 4 uur gamed, mag je best wel even langs de dokter. Ik kan best veel gamen en ook lange game dagen maken. Maar daar staan toch ook erg veel dagen tegenover dat die pc totaal NIET aan gezet wordt

[Reactie gewijzigd door chimnino op 1 december 2016 22:21]

Fijn dat jij geld teveel hem maar daar gaat het helemaal niet om. Het gaat om het feit dat ze geld verdienen aan producten die anders afgeschreven zouden worden en dat wij als consument daar ook nog eens meer voor moeten betalen. Dat is scheef en niet goed te praten.
Waarom is dat scheef? Die chips weggooien en verspilling veroorzaken: DAT is pas scheef. Als ze die 'deels defecte' chips niet in de handel zouden houden, zouden ze een deel van hun winst verliezen, en bijgevolg zouden ze dan hun winstmarge optrekken voor de chips die wel in orde zijn, wat daar dan weer prijsstijgingen impliceert. En als het idee je niet aanstaat: neem een 'volledige chip" in een lager segment en zet wat settings lager, investeer wat extra in de volledige chip (en verander minder frequent van GPU), of ga shoppen bij de concurrent!
En niet goed te praten? Ondanks de memorygate van de GTX970 blijkt net die kaart toch een van de populairste geweest te zijn!
Het is net zo scheef als dat zogenaamde lelijke groente en fruit wat ineens helemaal hip is maar geen snars goedkoper is als het perfect uitziende wat vaak een hogere opbrengst heeft na verwijderen van oneetbare delen.
Dat werd normaal goedkoper verkocht voor die kant en klare meuk die je in de winkel koopt of weer door de grond gegooid als bemesting.

Nu vragen ze de hoofdprijs en hebben wij er minder aan.

Dan kies je toch ook gewoon de betere optie of heb je zoveel geld teveel dat je minder product voor meer ook een goed alternatief vind.?

En ja dat mensen met de 970 genoegen namen laat wel zoen hoeveel mensen slikken. Het was gewoon bedrog wat mij betreft en ik had m zo terug gebracht.
3GB is gewoon niet meer acceptabel in 2015-2016 Ik ga dan ook altijd voor een high end kaart omdat die gewoon beter presteren en langer mee gaan en ondanks de hogere kosten toch goedkoper uit vallen als later nog een keer een nieuwe kaart moeten kopen.

Zo heeft mijn kaart uit begin 2008 het tot eind 2011 volgehouden en is de kaart die ik in 2011 gekocht heb nog steeds perfect op gebrekkig 3 gb geheugen na wat aardig wat texture streaming problemen oplevert.
Je betaalt niet meer. Je koopt een lager segment kaart. En in hoeverre dat verbruik tot uitting komt moet zich nog bewijzen. Doe 1x met de hand afwassen ipv de vaatwasser of haal je oplader uit t wandcontact en je bent weer gelijk getrokken. Dat gezever om meer verbruik zeg... T kan nooit meer dan 30 watt zijn (zoals aangegeven in een reactie hier, verschil tussen huidige 1060 en 1070) En met een ander opbouw van t PCB en gedeeltes van de chip uitgeschakelt zal t misschien zelfs om enkele watten gaan. Als je daarvan uit je stekker moet gaan, is er iets niet goed hoor. Je weet dat je als pc gamer een hoog verbruikende opstelling hebt staan. T gaat tegenwoordig al stukken zuiniger, maar dan kan je ook verwachten dat er soms lichte sprongetjes terug gemaakt worden. Deal with it. Of gooi jij liever chips gewoon weg?

[Reactie gewijzigd door chimnino op 2 december 2016 10:48]

Je wil het gewoon niet snappen.
het kan de consument extra geld kosten omdat de fabrikant een compromis maakt over de klant zijn rug.
als ik mijn leefgedrag aan zou kunnen passen moet ik dus gaan compenseren om hun verkeerde voor de klant nadelige beslissing te compenseren.
Wat is er gebeurd met klant is koning.
Het lijkt aardig veranderd in f de klant zolang we maar meer winst maken.

Zoals ik al zij klok hem sneller en noem het de TI en er is geen probleem en die chips hebben zeker do potentie om sneller te zijn.

Jij noemt het gezever maar ja jij heb blijkbaar geld zat dat geld lang niet voor iedereen.
Ik bespaar elke euro waar ik dat kan om dit soort speeltjes te kunnen kopen en dan krijg je dit soort gedoe waardoor je nogeljk benadeeld word.
En euros zijn euros bespaar 50 keer 5 euro en dan loopt het aardig op.

Zee horen gewoon een gelijkwaardig product te leveren of de klant op een andere manier te compenseren per prijs of prestatie.
Dat is wat een net bedrijf zou doen in ieder geval.
Maar we gaan het zien.
Je weet nog geen ene fuck over het verbruik en je zit nu de boel al af te branden. Je kan een 1060 en 1070 niet 1 op 1 vergelijken omdat de layout van het PCB met alle dingen er op niet hetzelfde is. Ergo: het verbruik is ook niet te vergelijken.

Naast dat vind ik het persoonlijk veel belangrijker en interessanter dat er zuinig wordt omgesprongen met alle resources die nodig zijn voor het maken van die chips, dan dat er een windmolen wat harder moet draaien. Die resources voor chips vinden na gebruik en verkoop nooit meer hun weg terug naar de fabrikant voor hergebruik. Dus ga daar dan alsjeblieft zuinig mee om. Net als oude telefoons die ook zeldzame aardmetalen bevatten en in kastjes of op de vuilnisbelt verdwijnen.
Jij zoekt zeker ook je boodschappen uit op de verpakking, als het gerecycled papier is hoef je 't niet want daar verdient iemand aan. En dan extra betalen voor recycling via de belasting.
Ik leef in een gemeente waar alles al gerecycled word dus ik betaal er al voor dus de verpakking zal me een zorg wezen ik koop wat goed en goedkoop is.
De verpakking betaal ik namelijk voor om hem ook nog eens verplicht te moeten recyclen.
Draai 1 lampje uit, trek de stekker van je TV 's nachts eruit of zet je CV een half graadje lager en je verdient die enorme extra kostenpost met gemak terug - waarschijnlijk zelfs met rente ;)
Waarom zou ik me aan moeten passen omdat een bedrijf de consument wil benadelen voor winstmaximalisatie? Ze zouden hem simpelweg goedkoper of sneller moeten maken of een stuk sneller zodat we geconpenseerd worden voor het hogere stroomverbruik.
Het alternatief is dat er meer afval plaatsvindt in de wereld, waar we op andere manieren ook duur voor gaan betalen. Als Nvidia voor wat extra 1060's de productielijnen weer opnieuw moet starten, veroorzaakt dat meer broeikasgassen dan wanneer ze er de 1070 chips voor kunnen gebruiken. En de hoeveelheid stroom die het extra gebruikt is marginaal genoeg om niet serieus te zijn.

Overigens zal net zoals de enthusiaste gamer 4 uur per dag voor 3 jaar zijn kaart gebruikt, deze ook zijn grafische kaart of processor graag willen overklokken, wat het verbruik ook weer niet ten goede komt.

Als je je keuze grafische kaart maakt gebaseerd op hoeveel hij gebruikt, dan moet je sowieso al niet voor een 1060 gaan. Integrated graphics gebruikt minder.

Ik kan me overigens voorstellen dat deze 1070-1060's gemarkeerd worden op de doos.
ik ga voor prestatie per watt en dan is deze nieuwe kaart gewoon belabberd.
Ik ga dan ook voor de 1070 die 30 wat meer als de huidige 1070 gebruikt wat 25 % meer is maar meer als 25% prestatiewinst geeft.
Prestatie per watt dus de beste optie.
Als je voor Prestatie per Watt kijkt, is een GTX 1050 ti veel interressanter.
Alleen i die niet snel genoeg en dus geen optie als je max wil gamen op een 144HZ paneel.

Met die logica kan je de traagste apu van intel het beste nemen.
Dat is pas zuinig. Je zal alleen genoegen moeten nemen met 15 fps op 720p
Ze verkopen een product, het TDP zal gewoon worden vermeld.

Problemen mee? Koop het dan gewoon niet.

Makkelijk he?
Dit is voor mij geen probleem zolang het maar wel aangegeven word.
Misschien een goed idee 1060 Ti ? Met iets meer dan 1280 cuda cores?

[Reactie gewijzigd door alexboon op 1 december 2016 20:14]

Door het weglaten van de GTX 960 Ti is de GTX 970 de meest succesvolle kaart ooit geworden. Die kaart heeft op steam het grootste markt aandeel van alle losse videokaarten. Ongekend voor een kaart uit die prijsklasse!

Vanuit dat oogpunt doet Nvidia er (financieel) verstandig aan ook deze keer geen GTX 1060 Ti uit te brengen. In ieder geval niet zolang AMD niet tussen de GTX 1060 en de GTX 1070 zit.

[Reactie gewijzigd door sdk1985 op 1 december 2016 20:24]

Maar nog een 3e variant van de 1060 uitbrengen is wel een goed idee dan?
Vanuit nVidia-standpunt wel ja: minder afgeschreven chips.
ja dat versta ik, maar ze moeten eens een nieuwe naam bedenken voor hun kaarten. want op deze manier is het echt onduidelijk aan het worden.
De GTX 970 is super populair geworden vanwege het prijspunt dat hij innam. Met ¤350~ precies tussen de ¤250 GTX 960 en de ¤450 GTX 980 in, en met ongeveer maar net niet helemaal de performance van de standaard GTX 980. Lichte overklok, en hij was even snel.

¤350,- was nét dat bedrag dat mensen wilden ophoesten, terwijl ¤450 net teveel was. Dat merken we nu ook met de 1070. Het hielp natuurlijk dat zowel de GTX 960 als de GTX 980 een beetje teleurstellend presteerden in vergelijking tot de 950, 970 en 980 ti.

De 1060ti kan de ¤350 kaart voor de pascal generatie worden, en met de GP104 chip kan hij tot de 1070 zijn wat de RX 470 tot de RX 480 is.
Dat was nu juist het punt. De normale midrange kaart is traditioneel 250-275 euro en daar kun je dan goed mee uit de voeten. De GTX 960 was wat goedkoper, terwijl je er een stuk minder mee kon. Met andere woorden door de tegenvallende performance van de 960 en het ontbreken van een tussenmodel moest je haast wel 100 euro meer uitgeven voor de GTX 970.

Verder heb je wel een punt, de GTX 1070 is mogelijk wat te duur. Voorlopig gaat het goed met de marktaandelen:
GTX 1070 1.59% (-0.05%)
GTX 1060 1.53% (+0.50%)

Echter de GTX 1060 groeit veel sneller, dus die zal de 1070 wel inhalen volgende maand. De vraag is dan alleen of een tussenkaart meer mensen laat upgraden van een GTX 1060 dan dat het er voor zorgt dat er minder 1070's worden verkocht.

[Reactie gewijzigd door sdk1985 op 2 december 2016 12:33]

De 970 was beschikbaar vanaf het begin van de generatie, en liep de hele generatie door goed. Op dit moment komt de 1060ti "te laat" om het gros marktaandeel te krijgen. "Too Little, Too Late."

De sweet spot momenteel is de 1060. Tenzij de 1060ti de 1070 helemaal vernedert, zie ik dat niet meer veranderen.
Volgens mij heb je ook een extra kabel nodig voor prik naar je video kaart als je boven de 150 Watt uitkomt. Dus dan zal het duidelijk zijn welke 1060 kaart welke chip heeft, het aantal aansluitingen verteld het.
De 1070 heeft een tdp van 150watt als je die langzamer laat draaien en vores uit gaat zetten zal het verbruik alleen maar dalen lijkt me ;) over de 150watt zal je dus waarschijnlijk niet gaan.
Zijn die kaarten dual bios ? En evt te flashen naar de 1070 oid ? Neem aan dat niet alle chips "kapot" zijn.
Ja wel ze zijn waarschijnlijk echt stuk en mochten ze dat niet zijn dan zijn ze als nog hardwarematig uitgeschakeld waardoor je sowieso niks softwarematig kan inschakelen. Dit is de laatste 10 jaar al zo bij nVidia.

Alleen bij AMD is het anders die doet zowel hardwarematig uitschakelen als softwarematig uitschakelen via het BIOS. In dat laatste geval kun je dus proberen met een aangepast BIOS om de uitgeschakelde stream processors weer in te schakelen.

Dit zal echter alleen goed werken als de chip niet fysiek defect is. Is die wel fysiek defect dan kan het voorkomen dat de PC niet start of niet stabiel is. Bij mijn R9 290 is het dus wel mogelijk, die werkt prima met een BIOS met alle 2816 stream processors unlocked, daarbij waren softwarematig de stream processor uitgeschakeld. Maar zoals gezegd nVidia doet alleen maar hardwarematige locks, dus daarbij kun je het vergeten.
Geen idee of er dual bios op zit, maar je zal er weinig aan hebben. Tegenwoordig worden uitgeschakelde componenten laser cutted. Je zult ze dan niet meer kunnen gebruiken. "Vroegah" had je nog wel eens geluk en kon je idd componenten weer activeren doormiddel van een bios flash.
Lijkt me sterk dat een chip die als gtx 1070 verkocht kan worden in een 1060 terecht komt. Leverd mmers minder op dus waarom zouden ze.
Pin me er niet op vast maar ik kan me voorstellen dat de fout tolerantie van Nvidia wat lager ligt dan een tweaker. Nvidia moet een degelijk product leveren. Een tweaker zoekt de risicos in dat geval bewust op.
Gebeurt juist heel veel.
Tijdens het geforce 4200/4400/4600 tijdperk was het goedkoper voor fabrikanten om een sloot aan 4600 chips in te kopen en die te downgraden dan dat ze alle drie de chips los kochten.
Weet nog wel dat mijn MSI 4200 gewoon op 4600 snelheid kon laten draaien puur omdat het dezelfde chips was en hij ervoor gemaakt was, alleen het geheugen haalde niet dezelfde specs maar was verwaarloosbaar.
Alleen in China? Zeker bedoeld om ze daar eens goed terug te pakken voor al die imitaties :)
Imitatie-nVidiachips?
Kan je daar wat meer over vertellen? Zijn er nep-videokaarten in omloop?
Paar jaar geleden hebben Chinese fabrikanten van de Point of View kaarten nepkaarten gemaakt zonder dat zelfs Point of View er vanaf wist.
Weet niet of hij het daar over heeft.
Krijg je dan niet het probleem dat je met drivers en games problemen krijgt? een 1060 driver is nu geoptimaliseerd voor een GP106 chip, dan zit er straks voor een GP106 1060 ook extra inhoud om een GP104 te sturen.

En met games? die detecteren een GTX1060 GP106 maar krijgen met een GP104 chip te maken? is dat niet vragen om crashes?
Een game heeft genoeg abstractielagen tussen zichzelf en de hardware zitten om daar geen last van te hebben hoor.

Mss dat de driver iets groter wordt maar het zal echt allemaal wel prima werken, mogelijk alleen met marginaal meer stroomverbruik.
Even off-topic: Weet er iemand wat op dit moment de snelste videokaart is die maximaal 75W verbruikt, zonder een PCI-E 6/8 pin aansluiting ? De bedoeling is om dit in een Shuttle barebone in te bouwen en ik weinig ruimte heb, vanwege de de positie van die PCI-E 6 pin aansluiting, tenzij die in de lengte van de kaart zit, maar tegenwoordig zitten die allemaal zijdelings en dan kan de bracket met de harde schijf/optische station niet terug in de kast geplaatst worden..
Dan zou ik het forum proberen. Ik dacht uit mn hoofd een gtx 1050ti.
Denk een 750ti/950/rx460 geen tijd om te zoeken nu
De 950 gebruikt wel externe voedings kabels maar de snelste is de 1050 ti (sommige vereisen er we
Een maar dat mot je uitzoeken


Om te kunnen reageren moet je ingelogd zijn



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True