Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties
Submitter: AMD and INTEL

Zotac kondigt de komst van twee GeForce GTX 1060-videokaarten aan. De Mini-uitvoering is 17,4cm lang en is uitgerust met een enkele fan. Ook komt er een AMP Edition met twee fans, die een lengte heeft van 21cm. Op een uitgelekte foto is te zien dat er ook een 3GB-variant van de Mini komt.

Zotac heeft de komst van de twee GTX 1060-videokaarten bekendgemaakt, maar noemt nog geen uitgebreide specificaties en toont ook geen foto's. VideoCardz heeft echter meer informatie gepubliceerd waaronder foto's van beide kaarten.

De Zotac GTX 1060 Mini en AMP Edition krijgen net als het referentieontwerp een 6pins-aansluiting. De kloksnelheden wijken bij de Mini-uitvoering niet af van Nvidia's ontwerp volgens VideoCardz. De AMP Edition is wel iets sneller geklokt; de baseclock zou op 1557MHz liggen met een boost naar 1771MHz. Dat is respectievelijk 51 en 63MHz boven de standaardwaarden.

Hoewel Nvidia alleen een 6GB-uitvoering van de GTX 1060 heeft geïntroduceerd, is op de foto's ook een 3GB-variant te zien van de Zotac Mini. Bij de introductie zei Nvidia dat er mogelijk later modellen met minder geheugen zouden volgen. De foto lijkt er op te wijzen dat er nu al fabrikanten zijn die ervoor kiezen om een 3GB-model te maken.

Zotac zegt de kaarten te leveren met zijn nieuwe Firestorm-software. Adviesprijzen zijn nog niet bekendgemaakt, maar Nvidia bevestigde vorige week dat de europrijzen van custom GTX 1060-kaarten bij 279 euro zullen beginnen. Vanaf 22 juli mogen fabrikanten hun GTX 1060-kaarten verkopen.

Zotac GTX 1060-gpu'sZotac GTX 1060-gpu'sZotac GTX 1060-gpu's

Moderatie-faq Wijzig weergave

Reacties (63)

Waarom mr 3GB? VRAM (GDDR5) kost niets meer. Gooi er 4GB in. Daar heb je veel aan in games zoals GTA V. Daar kom ik zelf regelmatig boven de 4GB uit.
De 192-bits geheugenbus zorgt dat we meervouden van 3 krijgen.
Omdat de kaart ontworpen is met genoeg chippies voor 6 GB. Om er dan 3 GB van te maken stop je er chippies in met de helft van de capaciteit. Er 4 GB van maken kan niet makkelijk zonder je bandbreedte om zeep te helpen (minder chips van dezelfde capaciteit als de 6 GB variant, minder chips betekent minder bandbreedte) of het design van de kaart flink aan te passen (meer chips van kleinere capaciteit).
Andere merken komen vast met een 4GB versie.
gaat niet met een 192-bit geheugenbus, daar heb je een 256-bits bus voor nodig
En?
Met een 128 of 256 bit bus krijg je meervouden van 128/256 bit
Met een 192 bit bus krijg je...meervouden daarvan (en normaal gezien veelvouden van tweede machten, anders heb je verspilling van addresseringsbits)

3GiB = 3072 MiB = 24.576 Mib.
24.576 Mib / 192 b = 128 Mi = 2^7 Mi
6GiB komt dan overeen met 2^8 Mi

Mi -> staat voor Mebi ->bij de omzetting naar een eenheidsbit zijn dit ook allemaal machten van 2 dus in totaal weer een macht van 2. Als je het narekent:1 Mi = 2^10 Ki = 2^10 * 2^10=2^20

Een goede vraag zou zijn waarom kiezen ze voor een 192 bit bus...geen idee op basis van wat ze dit kiezen (is er zo veel prijsverschil tussen 256bit en 192bit, of is dit gewoon om de kaart kunstmatig minder goed te maken t.o.v. hoger gepositioneerde modellen?)

[Reactie gewijzigd door Clemens123 op 11 juli 2016 10:41]

Goh, in principe zijn er een aantal redenen. Is het een kunstmatigheid? Ja en neen. Het is vooral kunstmatig in het opzicht dat de fabrikant een extra prijs/performance-tier kan aanbieden aan de klant.
  • Eerst en vooral de meest voor de hand liggende: Nu kunnen chips met defecte onderdelen (memory controllers, cores, enz.) gewoon 'gerecycleerd' worden.
  • Door de nauwere bus zijn er minder traces nodig op het bord waardoor de PCB makkelijker te ontwerpen is.
  • Aangezien dat mid-range GPU's over minder rekenkracht beschikken hebben ze ook minder geheugenbandbreedte nodig. Of anders gezegd: Het is niet altijd een voordeel om meer bandbreedte te hebben als je de extra data toch niet snel genoeg kunt verwerken.
  • Minder geactiveerde geheugencontrollers maken de GPU zuiniger. De GTX 1060 beschikt over zes 32-bit memory controllers.
Reden EDIT: Kleine verduidelijking.

[Reactie gewijzigd door Lorefice op 11 juli 2016 13:40]

Ik denk dat de ontwikkel kosten wat hoger zullen zijn, domweg niet van Nvdia mag, en tdp wat hoger uit komt?
Ja dat klopt maar 128-bit is in het zelfde straatje als 256-bit. 128*2 is immers 256 hierdoor kan er 4GB op. Maar met een geheugen bus van 192 gaat dat dus niet.
Het gaat wel als twee van de zes 32 bit memory controllers worden uitgeschakeld. Dat hebben ze al eens bij de GTX 660 Ti gedaan (2GB@192bit). Dit was een cut back van de GTX 670 (256bit). Maar natuurlijk is dit eerder een uitzondering.
Maar daarmee verlies je dus ook bandbreedte, dat is het hele punt. Die 192 bit is dan niet echt 192 bit meer, maar 128 bit.
Zoals Finraziel al zegt, 3 GB is makkelijker voor de fabrikant.

Als je kijkt naar deze afbeelding zie je 6 VRAM chips. Dit betekent dat er per VRAM chip 1 GB is voor de 6 GB versie. Voor de 3 GB versie gebruiken ze dus zes 0,5 GB chips.

Als je 4 GB wil krijgen moet je dus chips gebruiken met ~ 666 MB, die er wss niet zijn. (Ze zouden daarentegen wel een kaart uit kunnen brengen met 4,5 GB, maar ik weet ook niet of er uberhaupt chips zijn met 750 MB VRAM.) Anders moeten ze heel hun architectuur veranderen (en dat gaan ze natuurlijk niet doen vanwege de kosten).
Komt waarschijnlijk door de beschikbare capaciteiten en aantallen chips die op dit pcb passen. Met die combinatie kom je op drietallen uit.
Het GTX1060 referentie ontwerp is gewoon zo'n kleine pcb, de referentiekoeler is echter flink wat groter.

De reden dat ze minder geheugen erop plaatsten is om in alle marketing de "vanaf" prijs te kunnen noemen, maar de 6gb-versie iets duurder te maken die dankzij de betere berschikbaarheid en extra geheugen door de meesten als beste optie gezien zullen worden.
Dat is de marketing reden, ik had het over de technische reden.
Als je GPU meer geheugen heeft zal een game ook meer gebruiken. Daarnaast is 3 GB meer dan zat voor 1080p.
Als je op Ultra graphics wil spelen, is 4GB soms al te weinig (mirror's Edge: Catalyst gebruikt meer dan 4gb). Ik kan mij voorstellen dat er nog wel games zullen uitkomen die van meer gebruik maken, dus goeie 'future-proofing' is het ook niet.
Nvidea gebruikt wel nieuwe geheugen compressie in Pascal toch?
Rainbow Six Siege gebruikt al meer als 4gig op ultra @ 1080p, terwijl de game nog niet eens zo heel erg zwaar is en voorderest goed zou moeten draaien op deze kaart.
Hoe is Zotac qua merk i.v.m. bijvoorbeeld MSI? Ben aan het kijken voor een 1060/70 en kwam deze tegen, ken het merk alleen niet. Zie ook weinig tot geen reviews online voor deze kaarten (1070).

Zijn de fans qua stilte en cooling vergelijkbaar met de MSI GeForce GTX 1070 GAMING X 8G?

Thx!
Off-topic:ter info, i.v.m. = in verband met, niet in verhouding met.. scheelt denk ik verwarring in het vervolg...

Zotac is vooral in Amerika groter, sinds 2006 zijn ze actief bezig met het uitgeven en ontwikkelen van grafische kaarten en mini pc's (ruim 10 jaar dus). Ze doen hun eigen R&D, Zotac heeft een visie om ze stil mogelijke PC's te maken dus qua stilte zit je hier wel goed.. ook is Zotac net als MSI een volwaardig merk maar dan zonder een dedicated "gaming tak" zoals MSI dat wel heeft gekozen..

Als je echt even wil mieren-neuken is MSI beter, de RMA resultaten van bijvoorbeeld 2014 zijn
MSI 2,25%
ZOTAC 3,09%


Het verschil is echter op papier en in het echt te verwaarlozen, het gemiddelde ligt overigens op 3,5% dus je zou met Zotac ook gewoon goed zitten.
Thx infernal!

Prijs van de Zotac ligt wel een stukje lager (op dit moment).

Gr Bart
Ik vraag me eigenlijk af waarom bij voorbeeld crossfire of SLi niet op de volgende manier werkt:

2x processor, 2x 3GB geheugen op kaart.
Dus 6GB in dit geval met 2 processoren.. waarom moet geheugen gemirrord worden en kan het niet zo zijn de alles gewoon 'globaal' beschikbaa ris voor het systeem?

[Reactie gewijzigd door infernal_nl op 11 juli 2016 10:34]

Helaas als dat zo makkelijk zou zijn. De reden waarom er geheugen op de kaart zelf zit is niet luxe maar omdat het nodig is. Geheugen op de kaart zelf is een stuk sneller en heeft een stuk snellere geheugen bus naar de GPU dan in vergelijk met het systeem geheugen.

Ja een deel van het systeem geheugen wordt gereserveerd voor grafisch gebruik. Hoe meer geheugen je hebt hoe meer systeem geheugen het kan gebruiken voor grafisch gebruik. Maar.. feit is de PCI Express bus, het systeem geheugen het is allemaal langzamer dan het geheugen op de kaarten zelf.

En is het niet lullig als je The Witcher 3 aan het spelen bent en de ene kaart heeft niet de textures for Roach maar de andere wel. En nu is roach onzichtbaar op deel van het scherm WHOOPS. Want ja dat deel van het scherm wordt gerenderd door die ene kaart zonder roach ;)

Dat is het probleem!

Dat is altijd al het probleem geweest met meerdere GPU's. Hoe ervoor te zorgen dat ze allemaal toegang hebben tot dezelfde data SNEL GENOEG dat het werkt.

Er zijn multi GPU kaarten, ja kaarten met meerdere GPU's die elke GPU zijn eigen geheugen hebben gegeven omdat ze anders te langzaam zijn bij de data.

Check de derde foto! elke GPU heeft zijn eigen geheugen pool. En hij heeft een interne SLI setup.

Dit betekent dat hij zowel de voor als de nadelen van een SLI setup heeft. Tot 80% meer performance over 1 kaart maar ook 2x het stroom verbruik en ... 80% is alleen haalbaar is het beste geval. Sommige games hebben geen support voor SLI! Of erger hebben fouten die het maken dat je liever SLI uitschakelt in die games.

TL,DR;

De geheugen bussen van het system zijn te langzaam om een videokaart zo aan te sturen. Daarom heeft elke videokaart, behalve een IGP, zijn eigen geheugen.

Voor elke GPU moet er dus zijn eigen Cache zijn. Zijn eigen geheugen! En deze moet voor beide GPU's alle gegevens bezitten die nodig zijn voor het renderen van de scene.

[Reactie gewijzigd door swampy op 11 juli 2016 15:22]

Bij de buren hebben ze een leuke sli review gedaan, waren games bij die 100% schaling lieten zien :)
Toegegeven, drivers worden beter en ja soms is het mogelijk 100% extra te halen. Maar vaak genoeg zijn SLI profielen verre van optimaal.

En als de game niet veel gespeeld wordt vergeet het maar dat nvidia er een profieletje voor maakt.

Dan zou met DX12 beter moeten. Dan is het hebben van twee kaarten een betere mogelijkheid. Nu nog ben je sterk afhankelijk van de game en de drivers.

[Reactie gewijzigd door swampy op 12 juli 2016 00:37]

Omdat de GPU van de ene kaart niet zomaar het geheugen van een andere kaart kan gebruiken. De weg van GPU naar geheugen staat vast in de printplaat, en niet zonder reden (korte afstand, hoge doorvoersnelheid). Er is geen 'snelweg' (so to speak) naar het geheugen van een fysiek andere videokaart, en dit ga je ook niet oplossen met een n of ander kabeltje.

[Reactie gewijzigd door SilverZeven op 11 juli 2016 11:37]

Omdat bijde kaarten (vrijwel) alle resources in het geheugen moeten hebben (of je moet een opvolger van SLI maken waarbij je met 100+ Gbyte/sec tussen de 2 blokken geheugen kan communiceren met iedere kaart.

simpele uitleg:
Het werkt simpel gezegd door het beeld op te splitsen in 2 delen, of de beelden om en om te renderen. Met om en om renderen lijkt het me voor zich spreken dat de data op beide GPU's aanwezig moet zijn, en met gesplitst renderen gaat het zelfde op, omdat je anders bij iedere beweging weer opnieuw moet gaan bepalen welke data er in het VRAM van een kaart aanwezig moet zijn.

Op het moment dat je data in het geheugen van kaart 1 wil benaderen met kaart 2 krijg je om diverse redenen al zo'n vertraging dat je het in je render tijden gaat merken. Alle heisa die Nvidia met de GTX970 kreeg door een blokje trager benaderbaar geheugen is daar niets bij vrees ik..
Die 1000 serie ziet er wel machtig interessant uit om nu toch eens te gaan upgraden. Ik vind de high end modellen vaak maar zonde van het geld en blijf doorgaans voor het 50-60 model gaan.

Ik ben heel benieuwd of er een 50 model komt en hoe die er dan specs wise uit gaat zien, bij mn 650Ti in mn desktop pc begin ik steeds meer te merken dat het VRAM (1GB) een probleem begint te worden, maar om nou bijna 300 euro neer te gaan leggen voor zo'n kaart is ook wat fanatiek in mijn ogen aangezien die 650Ti voor mij op zich nog aardig mee kan.
230 voor een amd rx480 lijkt mij dan veel interessanter in jouw geval.
De xx60 schuift deze generatie inderdaad op naar boven...voorgaande kaarten zaten in de 200-250 range (afhankelijk van merk / uitvoering). Nu zitten we toch wat hoger.

Maar goed, eerst de benchmarks van de RX480 vs GTX 1060 maar eens zien...de prijzen kunnen nog wat veranderen op basis van hoe de real-live vergelijken eruit zien.
Inderdaad, dat is het segment waarin ik zoek. Maar mede omdat de 1000 serie tot dusver zeer mooie kaarten lijkt te hebben ben ik dus heel benieuwd naar wat de 50 klasse gaat doen. Hij gaat er ongetwijfeld komen, en dus zal ik (zolang de kaart geen *poef* zegt) nog maar even blijven wachten tot ik van ieder kamp weet wat er te halen valt. zodat ik dan kan bepalen wat de beste prijs/prestatie verhouding heeft voor me.

Maar de aankondiging van de 1050 kan me dus niet snel genoeg komen, met de 700 en 900 kaarten overwoog ik het upgraden nog niet eens, maar deze generatie levert aan bijde kanten tot dusver kaarten op met een dusdanige prestatie boost dat mn handen een beetje beginnen te jeuken. ;)

maar met de 900 serie kwam de 50 iirc ook relatief laat, dus ik vrees dat het nog wel een tijdje kan duren.
Ik hoop op een mooie (kleine) GTX1050 of GTX1060 editie zonder 6 pin. Zeg maar de nieuwe interessante opvolger van de 750Ti. 150 euro zou ik er dan wel voor over hebben. Vind het wel jammer dat de 900 serie hier weinig tot niets in heeft geboden, maar de stap was wellicht te klein omdat het beide Maxwells zijn.
ze kunnen met de 1050 zo veel kanten op, en idd een 1050 variant zonder 6 pins stekker zou zeker een plek in de markt kunnen veroveren, of beter nog, eentje die met en zonder zou kunnen draaien waarbij je met 6pins stekker wat betere prestaties kan halen en wat meer OC potentieel hebt. binnen de grenzen van een PCI-E slot blijven moet haast wel lukken als je dan misschien nog wat lager clockt.
Asus heeft een GTXT 950 op de markt gebracht zonder 6 pin, dus deze kan volstaan met de prik uit het PCIe slot.
Heb deze kaart voor m'n zwager besteld en ingebouwd. (hij was zo stom om een Lenovo h50-50 te kopen) En ik moet zeggen dat de prestaties ver boven m'n verwachting zijn! Prima kaartje voor een prima prijs. :)
Klopt zo'n witte inderdaad. Maar goed, ik bedoelde uiteraard meer vanuit Nvidia. Dan krijg je vanzelfsprekend meer keuze in kaarten van diverse fabrikanten. Die Asus kaart is namelijk nog best lang in vergelijking met een kleine reference 750Ti bijvoorbeeld.

[Reactie gewijzigd door marcel87 op 11 juli 2016 23:06]

De 1050 zal 3 generaties beter zijn dan je 650ti. Natuurlijk weten we niets over snelheden of geheugen maar als we de 750 en 950 mogen geloven dan moet er een mooie prestatie winst te vinden zijn.

Ik ga er van uit dat als je wacht op de 470 of de 1050 series dat je makkelijk DUBBELE performance krijgt van wat je nu hebt.

Een RX 480 is natuurlijk ook een optie als je wat meer geld vrij wil maken. Die is al op de markt en al bewezen te presteren. Dat is zeker iets waard.

De 1060? Waarschijnlijk sneller dan de 980 maar dat zal je ook merken aan de prijs :(
Met die prijs zal de RX480 niet veel goedkoper worden helaas.
Aan de ene lant jammer voor de consument. Aan de andere kant beter vo
or AMD amd is al bankroet ;(
Hopen dat de AIB's alsnog goedkoper zullen zijn (Zoals bij de 1070 etc. gebeurde)
Eind deze maand zullen we het weten.

Overigens is (volgens de leaks) de 1060 ongeveer gelijk aan een 980. Als dit klopt en de prijs ook daadwerkelijk 280 wordt, zal de RX480 8GB wel moeten zakken.
De afgelopen maanden hebben echter geleerd dat die launch prijzen te optimistisch zijn, dus waarschijnlijk komt de 1060 niet onder de 300 op de markt...
Ik heb nog geen enkele normale prijs gezien voor een 1070. De founders zou duurder moeten zijn dan de partner boards. Helaas is dit nauwelijks tot niet het geval.
Ik heb net een GTX 970 gekocht voor 288, dus ik hoop dat de GTX 1060 niet te snel voor minder dan 320 te koop gaat zijn. ;)

De tijd zal zeggen of ik een goede of slechte koop gedaan heb...
Je hebt een slechte koop gedaan.
Kijk maar is naar de RX480 van AMD
Advies prijs 219 euro even snel in DX11 en veel sneller in DX12 games
Als 279 de prijs voor de 3 gb kaart is en de amd kaart zo rond de 250 ligt voor de 8 gigh (die zijn ook nog lang niet uit allemaal). Dan denk ik ook niet dat amd nog hoeft te zakken.

Met amd heb je ongeveer gtx970 performance, misschien iets meer. Ik denk niet dat je met de 1060 3 gb kaart 980 performance krijgt, dat zal met de 6 gigh kaart misschien zo zijn, die zal vast meer dan 300 euro gaan kosten, zo kan het prijsverschil zomaar tussen de 50-100 euro gaan uitvallen, ik weer niet of ik dat over ga hebben voor een prestatieverschil van 5-7%
Zeer interessant voor een leuke HTPC gezien we hier eigenlijk alleen de keus hadden voor de oude low profile 750(TI) of anders de erg prijzige R9 Nano :)
Of bijvoorbeeld de Asus GTX970-DCMOC-4GD5? Heeft ook een mini PCB. :)
Ik kan nergens vinden dat deze kaart echt low-prolfile is zoals de 750TI:

pricewatch: Gigabyte GeForce GTX 750Ti (GV-N75TOC-2GL) LP
Als ik de foto's bekijk is deze versie ook niet low profile maar met 17,4 cm wel geschikt(er) voor HTPC behuizingen in vergelijking met een full size kaart.

Nadeel van low profile kaarten is dat er vaak een kleine fan op zit welke erg snel een pokke herrie maakt, niet iets wat je graag in de woonkamer hebt staan.

Deze versie lijkt een enkele normale 80 of 90 mm koeler te hebben dus een dikke plus in mijn ogen :)

edit: typo.

[Reactie gewijzigd door KnoWL3Dge op 11 juli 2016 11:18]

Thanks voor je reactie!, Dan gaat hij helaas niet passen in mijn HTPC.
Ik snap het nut niet van dergelijke kaarten in een HTPC. Voor Home Theater doeleinden investeer ik liever 200 in een betere CPU/IGP combi. 4K afspelen op 30Hz kan al met een i5. Leg er 150 bij en je hebt een dikke i7 die het op 60Hz of meer doet en daarnaast houd je budget over voor een beter moederbord.
Klopt helemaal, echter zijn er mensen die geen extra computer in de woonkamer willen en dus ook een lekker potje op hun HTPC willen kunnen gamen.

Of gewoon mensen die niet houden van grote logge kasten en liever een klein mobiel ITX kastje gebruiken.
Ja maar juist met een klein ITX kastje zou ik een IGP pakken. Als ik zie hoe warm het soms word met bepaalde kasten (dus die houten dingen waar een TV op staat) dan is een dGPU echt een no-go.
Op een IGP zal je niet echt kunnen games , wat oudere games ..
Echt wel. Je kan je aardig vergissen op de rekenkracht in de laatste generatie IGP's. De skylake iris pro is sterker dna menig dedicated GPU.
Leuk al die marketing termen, maar ik dacht dat de 1080 net ietsjes boven de minimale eisen voor optimaal VR gebruik presteerde, dus hoe willen ze de 1060 marketeren als een VR platform als die 20-30% minder presteert ?
De rx480 presteerde net wat daarboven, dus een gtx 1080 redt VR wel gemakkelijk ;) .
Aangezien de gtx 1060 ongeveer net zo als de gtx 980 zal presteren en de aangerade eis een gtx 970 is, moet een gtx 1060 dat wel kunnen doen (toch maar eerst even de benchmarks afwachten).
uhh, de 1080 presteert meer dan nodig is voor de huidige VR brillen, zeker wanneer de games zijn aangepast zodat ze gebruik maken van de nieuwe VR functionaliteiten die in deze pascal GPU's zit.. Alleen maken de huidige games hier nog geen gebruik van, daarvoor moet dus eerst nog een update komen (unrealengine/unity is dat bv vanaf de nu beschikbare developers versie).

[Reactie gewijzigd door SuperDre op 11 juli 2016 10:58]

Wacht wel op een 6GB variant
Met een niet standaard koeler ;)

En misschien wel een ge-upgrade stroom aansluiting. Een 8pins of zo. Ja het is een kaart gemaakt om zuinig te zijn maar er is iets te zeggen over verbeterde stabiliteit.
Die modellekes van zotac zien er altijd wel sjiek uit. Ik vind die rechtse met 2 fans net een lambourgini.
Hah, het zal leuk zijn om mensen hun 3GB-versie te zien flashen naar een 6GB-versie, net zoals de eerste paar 4GB 480's

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True