Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties
Submitter: -The_Mask-

Er zijn meer foto's van de Nvidia GeForce GTX 1060 online verschenen. Te zien is dat het pcb van de kaart een stuk kleiner is dan de koeler die erop is gemonteerd. Verder valt op dat er geen connector is voor het aansluiten van een sli-brug.

Eerdere geruchten spraken al over het ontbreken van sli-ondersteuning voor de Nvidia GeForce GTX 1060. De foto's die door de Poolse website PurePC werden gepubliceerd, lijken dat te bevestigen. De foto's zijn inmiddels van de website verwijderd, maar onder andere TechPowerUp zette ze na publicatie online. Hoewel de GTX 1060 een kortere koeler heeft dan de GTX 1070 en 1080, is op de foto's te zien dat het pcb van de videokaart nog een stuk korter is.

Nvidia GeForce GTX 1060Nvidia GeForce GTX 1060Nvidia GeForce GTX 1060Nvidia GeForce GTX 1060

Het is niet duidelijk of de kaart op de foto's is uitgerust met 3GB of 6GB vram. Volgens geruchten maakt Nvidia twee versies en het is niet zeker of sli-ondersteuning op beide versies ontbreekt. Bij de GTX 1070 en 1080 heeft Nvidia de sli-ondersteuning ingeperkt. Het is enkel nog mogelijk om twee kaarten te combineren. Opstellingen van drie of vier kaarten zijn nog wel mogelijk, maar in de drivers is geen ondersteuning aanwezig die verbetering oplevert bij games.

Officieel heeft Nvidia nog niets losgelaten over de komst van de GTX 1060. Eerder lekte al een foto uit en VideoCardz publiceerde vorige week slides die van Nvidia zelf afkomstig lijken te zijn. Daarop prijst de fabrikant de gpu aan als een model dat GTX 980-prestaties biedt. Ook is de kaart volgens eigen cijfers van Nvidia vijftien procent sneller dan de AMD Radeon RX 480. Volgens geruchten kondigt Nvidia de GTX 1060 op 7 juli officieel aan en is de videokaart een week later beschikbaar.

Videokaart RX 480 GTX 980 GTX 1060 GTX 1070 GTX 1080
Gpu Polaris 10 GM204 GP106 GP104-200 GP104-400
Procedé 14nm finfet 28nm 16nm finfet 16nm finfet 16nm finfet
Cores 2304 2048 1280 1920 2560
Baseclock 1120MHz 1126MHz ? 1506MHz 1607MHz
Boostclock 1266MHz 1216MHz 1700MHz 1683MHz 1733MHz
Vram 4/8GB gddr5 4GB gddr5 6GB gddr5 8GB gddr5 8GB gddr5x
Geheugenbus 256bit 256bit 192bit 256bit 256bit
Bandbreedte 224/256GB/s 224GB/s 192GB/s 256GB/s 320GB/s
Tdp 150W 165W 120W 150W 180W
Stroom-
aansluiting
1x 6pins 2x 6pins 1x 6pins 1x 8pins 1x 8pins
Prijs €219/269 ~€400 ? ~€500 vanaf ~€700

Vermoedelijke specificaties van Nvidia GeForce GTX 1060

Moderatie-faq Wijzig weergave

Reacties (77)

Ligt het aan mij of komt de 6-pins voeding niet uit op het PCB? Zijn er andere kaarten die het zo regelen?
Nee dat is niet normaal en waarschijnlijk ook een flink nadeel als je de koeler wil vervangen door bijvoorbeeld een waterkoeler of andere koeler. Maar ook fabrikanten zullen dit PCB maar lastig vinden om custom versies van te maken en zijn eigenlijk verplicht een eigen PCB te ontwerpen.

Terwijl custom versies van de GTX 1070 en GTX 1080 soms gewoon een reference PCB gebruikten. Dus ook al mag dit misschien iets beter staan dan een kabel die halverwege uit de kaart komt noem ik het niet echt een verbetering.

Onderstaande tekst vind je ook op TechPowerUp.
NVIDIA listened to feedback about shorter PCBs pushing power connectors towards the middle of the cards; and innovated a unique design, in which the card's sole 6-pin PCIe power connector is located where you want it (towards the end), and internal high-current wires are soldered to the PCB. Neato? Think again. What if you want to change the cooler, or maybe use a water-block? Prepare to deal with six insulated wires sticking out of somewhere in the PCB, and running into that PCIe power receptacle.
https://www.techpowerup.c...ence-pcb-difficult-to-mod

[Reactie gewijzigd door -The_Mask- op 4 juli 2016 17:22]

Ik denk niet dat ze de 6 draden naar de pcb laten lopen, eerder +12V en gnd over 2 draden en die dan hebben gesoldeerd, zo lijkt het toch aan die 2 dikke blobs.
Ja dat denk ik ook, aangezien je dat gewoon ziet aan de onderkant van het PCB. Maar dat maakt het niks beter of handiger voor iemand die de koeler wel vervangen of door fabrikanten welke een custom koeler wil plaatsen.
Vaak heb je dan intern op de PCB alsnog een andere 6 pin connector zitten waarbij de externe gewoon opnieuw bedraad naartoe gaat. Dit is ook het referentie ontwerp, fabrikanten zijn vrij om hun eigen versie te ontwerpen zoals zij dat wensen.
Op het PCB zie je links boven ook nog de soldeer punten waar waarschijnlijk de 6pin connector heen gaat. (4 punten zou genoeg moeten zijn aangezien de 6pin bijna alleen als key is)
maar ik werk niet bij Nvidia dus kan er ook 100% naast zitten

:edit: of het is een fan header 8)7

[Reactie gewijzigd door rolandlub op 4 juli 2016 18:30]

de 4 is een fan header, die 2 grote blobs zijn + en - wrs.
Dat denk ik inderdaad ook ;)
waarom zetten ze die niet op de achterkant! 8)7
Zo onesthetisch in je build met window!
Vergeleken met de 480 : geheugenbus 256bit vs 192bit en bandbreedte 226/256 GB/s vs 192 GB/s, maakt dit iets uit of moet men zich niet al te veel inlezen in nummers over geheugenbus en bandbreedte ?
maakt zeker wel uit vooral op hogere resoluties.

Echter is het niet het enige.
Clock snelheden aantal shader cores en de efficiency van de architectuur zijn net zo zoniet belangrijker.

Nvidia lijkt het voordeel te hebben met zowel de frequenties als de efficiency.

Maar de AMD rx480 heeft bijna 2 keer het aantal cores.

Welke uiteindelijk de snellere van de 2 is en op welke resolutie is afwachten.
En wanneer er games uit gaan komen voor dx12 met async compute wat nvidia beperkt heeft.
Inderdaad is het ook nog is game gebonden.

Nvidia heeft gameworks en meestal beter tessalation
Amd heeft goedkoper async oplossing ipv Gsync en meestal betere performance in dx12 opties.

Nu zeggen wie de overhand zal hebben is echt onmogelijk. Vooral omdat we nog te weinig weten over de 1060.

Ja hij zal hoger clocken dan de rx480 maar met hoeveel.

In hoeverre is die gelimiteerde framebuffer een probleem denk aan de gtx 970 uitstekende kaart maar het geheugen liet hem toch af en toe in de steek.
Nvidia heeft gameworks en meestal beter tessalation
AMD is veel sneller tot zo'n 8x tessellation en bij 11x ligt het omslag punt (bij de vorige generatie tenminste, deze zou beter moeten zijn maar nog geen tests gezien). pas bij 32 of hoger loop nvidia echt uit (of zakt AMD ver weg) maar eigenlijk zou niemand dat ooit moeten gebruiken (een paar extra echte polygons is dan een veel betere, efficiëntere optie, ook op nvidia hardware).

gelukkig biedt AMD een slider in de in drivers om de tessellation te limiteren, op bijvoorbeeld 8x of 16x, dus de gameworks sabotages met onnodige 64x tessellation waar 16x zou volstaan (witcher3 hairworks bijvoorbeeld) kan je zo gemakkelijk omzeilen zonder dat het een negatief effect heeft op de prestaties of de visuals.

[Reactie gewijzigd door Countess op 5 juli 2016 00:16]

Ja hij zal hoger clocken dan de rx480 maar met hoeveel.
De custom 480's gaan ook veel hoger klokken dan de reference. De Sapphire Nitro zou bijv. op 1370 mhz komen met een 8-pins stroomaansluiting. AIB's melden kloksnelheden van 1460-1600 MHz te halen met de 480 met goede luchtkoeling en afh. vd kwaliteit vd gpu-chip. Op de 1060 zal er wel niet zoveel rek op de gpu zitten aangezien hij al zo'n hoge klokfrequentie heeft.
laten we eerst kijken hoe de verhoudingen op stock liggen.

Er zijn al genoeg mensen die slides van zowel Nvidia als AMD beschouwen.

Voorlopig overclocked de Rx480 niet zo best. Loopt aardig heet en trekt meer stroom als verwacht.

Dat maakt allemaal niet zoveel uit als die op stock al sneller is als de nvidia 1060. Dat is echter nog speculatie omdat we te weinig over die groene kaart weten.
Amd heeft goedkoper async oplossing ipv Gsync
Je bedoelde waarschijnlijk FreeSync. G-sync en FreeSync zijn refresh rate oplossingen voor monitors. Async gaat over asynchronous computing, iets waar AMD kaarten idd beter in zijn door dx12.
ja klopt, mijn fout
Ik denk het laatste, wel vraag ik me af of deze kaart ondanks dat nog wel kan concurreren met AMD's selectie. Nvidia heeft toch doorgaans wel behoorlijk de prijs tegen.
Los van welke kaarten je het liefst koopt als je gewoon voor hetzelfde geld veel meer videokaart krijgt bij de concurrentie wordt het een redelijk no-brainer.
Benchmarks zullen dat moeten gaan aantonen.

[Reactie gewijzigd door Alpha Bootis op 4 juli 2016 18:26]

Er zit nog compressie op de data die er doorheen gaat. Dus hoeft het aantal bits niet zo hoog. Dat zag je ook bij de AMD's 285 vs de 280.

NV's implementatie van compressie is IIRC iets beter als die van AMD dus kunnen ze met minder af.
Voor het uiteindelijke antwoord moet je wachten op de review.
Vermoed dat de kaart rond de 269-299 gaat kosten en mogelijk iets sneller wordt dan de RX480.

Ontopic: persoonlijk vind ik het betreurenswaardig dat de kaart geen SLI zou ondersteunen. Daarmee geeft Nvidia naar mijn mening een duidelijk signaal af: De mainstream gamer waar wij dit product voor op de markt zetten moet toch echt een gtx1070 kopen en niet later een 1060 erbij zetten voor mogelijk betere prestaties dan de 1070.

Ik krijg toch echt de indruk dat nVidia de game-community steeds dieper in de portemonnee wil laten tasten voor hun producten en bewust de mainstream in prijs omhoog krikt.
Ik vraag me echt af hoeveel mensen daadwerkelijk gebruik maken van SLI...

Ikzelf en ook mijn vrienden vervangen die kaart eerder met een nieuwe gen dan dat we er nog een bij zetten. SLI heb ik ooit eens gedaan met de 460, maar vind het geen succes. Te vaak slechte scaling. It simply aint worth it en ik kan er ook niet wakker van liggen als het er niet op zit.

Maar dat is uiteraard persoonlijk :P
Had ik met mijn 660Ti. Sommige games was gewoon drama en achteraf zonde van het geld.
Aangezien amd nu eindelijk een goeie mid range heeft word het tijd om meer amd gpu te gaan kopen zodat we in de toekomst niet van die absurd dure nvidia te hoeven aanschaffen.
Nvidia prijzen zijn gewoon niet normaal.
Moet wel bijzeggen dat ik de 8gb nu ook al te duur vind. Ik ga wel voor de 4gb of wachten op de 470 mits we die kunnen unlocken zal het geweldig zijn.
Sapphire heeft ook al duo bios op hun 480. Zet het door naar de 470 zal ik zeggen.
8gb 470 voo 180-200 euries en unlocken naar een volwaardige 8gb 480 zal geweldig zijn.
Misschien word het wel een oem product,zoals ze kunnen gaan gebruiken in de Compaq en medion computers.En misschien nog meer bekende merken.
En die 1070 kan je die wel als sli draaien?
Lijkt me helemaal geen probleem, vond het bij de vorige gen ( GTX 960 / 950 ) ook al best onnodig om een SLI aansluiting te hebben aangezien je voor de prijs van 2 GTX 960's beter een solo 970 kon nemen kwa prestaties.

Maar... als deze kaart nou zo'n 200 - 250 euro gaat kosten zou het dit keer misschien wel interessant kunnen zijn om 2 x 1060 te nemen ipv 1 GTX 1070 aangezien de 1060 moet presteren als een 980 en 2 980's duidelijk een stuk sneller zijn dan 1 GTX 1070

Ik heb het vermoeden dat dit best eens waar zou kunnen zijn en nvidia daarom de SLI connector weg haalt zodat mensen niet '' dit trucje '' uithalen maar als ze iets beters willen de 1070 gewoon kopen.
Multigpu opstellingen zijn nooit aan te raden tenzij als upgrade path. Ondersteuning in games is vaak gebrekkig en de winst van een 2de gpu zeer afhankelijk van het spel en de driver. Bovendien verdubbelt het energieverbruik en halveert theoretisch de beschikbare hoeveelheid RAM
Eigenlijk blijft de hoeveelheid vram hetzelfde, maar het verdubbeld ook niet.

De sites van nvidia leggen het uit, SLI rendering werkt door om en om beelden te renderen op aparte gpu's. Dat betekent dat elke gpu zijn eigen geheugen nodig heeft, aangezien een sli-bridge niet snel genoeg is om zulke data te delen.
uhm bij amd wordt het tegenwoordig gewoon verdubbelt hoor, mits je game het ondersteund tenminste
Bron?
GTA V geeft in een Crossfire dubbel geheugen weer maar die houd je voor de gek want dat is ook gewoon dubbel gebruik.
Dat is zijn een hoop mitsen en maren, zeker als die optimalisatie apart voor Nvidia en AMD kaarten gedaan moet worden. Zeker nu nog niet het geval.
Mogelijk dat dit voor SLI nog telt, maar als ik de benchmarks van de 480 zie in crossfire, valt het iig bij AMD reuze mee. Helemaal sinds crossfire via het pci slot gaat ipv bridge. Schijnbaar heeft dat een enorm positieve impact gehad.
Het aantrekkelijke van crossfire/sli als upgrade path is een hoop extra performance voor een klein prijsje zonder in één klap een groot bedrag kwijt te zijn. Een 480 erbij nemen, gaat je meer performance leveren als een nieuwe single-gpu kopen die aanzienlijk duurder is.
Wel opletten dat je favoriete games de juiste ondersteuning bieden. Maar nogmaals, AMD heeft het vrij aardig geregeld tegenwoordig.
En het energie verbruik verdubbelt uiteraard niet als je tweede kaart niet gebruik word, omdat ondersteuning brak is.

Ik zie mezelf niet snel aan een multi-gpu opstelling beginnen, maar zorg er wel voor dat moederbord en voeding dit aankunnen. Alle opties open houden vind ik wel belangrijk bij mijn systeempje.

[Reactie gewijzigd door echtwaarisdatzo op 4 juli 2016 18:30]

Nou weet ik het niet helemaal zeker hoor.
Maar wat ik over DirectX 12 meende te hebben gelezen is dat dat daarmee verleden tijd moet zijn. En je dus weldegelijk je video ram verdubbeld.
En in plaats van wat nu +/- 30% performance winst geeft wanneer er een tweede kaart wordt toegevoegd, ook dat enorm verbeterd moet zijn wanneer DirectX 12 volledig ondersteund gaat worden, in games.
En het meer richting de 80% procent performance winst moet gaan.
Al is het afwachten natuurlijk :)

[Reactie gewijzigd door SSDtje op 4 juli 2016 19:05]

Het verdubbelen van het geheugen is niet 100% accuraat, afhankelijk van hoe het gebruikt wordt zullen ze nog steeds sommige assets in het geheugen van beide kaarten hebben.

Het leuke is dat deze multi-gpu features van DirectX12 hun introductie zagen met Vista, dus die verleden tijd had al verleden tijd moeten zijn :p
Oké duidelijk, thx voor de extra info.
Nieuwe informatie is immers altijd welkom :)
Meer info en meer reden AMD te halen, Nvidia heeft die multigpu features tijdens Vista dwarsgezeten, waardoor we 8(!!!) jaar achterlopen. CF en SLI zou al jaren verleden tijd moeten zijn.

-Vroegah, toen ik Mirror's Edge speelde inclusief GPU PhysX op een Radeon EAH3450 op prachtige pixels dmv een secundaire lowend Nvidia. Die kaart kon het spel in zijn eentje niet aan.
Je kan wel weer Physx toewijzen aan de tweede kaart. Maar ik ga liever ook voor 1 kaart om de reden die jij aan geeft.
Raar die koeler zo. Hoop dat ze dit hebben gedaan zodat het koelblok in principe oversized is voor de tdp en de kaart dus lekker koel en/of stil kan draaien.
Ziet er inderdaad raar uit ja, de RX 480 heeft het ook zo https://ic.tweakimg.net/c...Fpic%2FAMDRX480%2F310.jpg

(vind Nvidia's bedekte er iets beter utizien dan de AMD, maar een full length backplate is natuurlijk het mooist)
Niks nieuws, de 670 had dit ook en AMD doet het momenteel met de 480.
Het lijkt me dat ze de referentiekaarten allen dezelfde look willen meegeven.
Dan zie ik de gtx1060 het toch afleggen tegenover de rx 480. Ongetwijfeld zal de snelheid aardig in de buurt liggen van de 480 of erboven mogelijk. Maar in deze prijsklasse is crossfire/sli toch al snel iets waar de consument zijn beslissing van af laat hangen.

Benchmarks van de 480 in crossfire (inc die van tweakers) laten zien dat de crossfire support sterk verbeterd is. De scaling was altijd al uitmuntend echter bleef de support en vooral de minimale framerate nogal achterwege. Leuk dat je gemiddeld 80-100% meer frames trekt, maar als je minimale framerate hetzelfde is als die van een enkele kaart, dan mis ik het nut. Dit lijkt grotendeels verleden tijd. Natuurlijk zal niet elke game lekker werken met crossfire, maar vaak zijn dat ook games die niet zoveel vragen.

Nvidia had met SLI had de support een stuk vaker op orde, maar de scaling bleef achterwege. Nvidia lijkt hier nu totaal geen aandacht meer aan te besteden. Wat ik niet zo goed begrijp, als je VR zo promote. Dan zou je toch een kaart voor links en een kaart voor rechts kunnen gebruiken, weet niet of het zo simpel werkt hoor.

Nu blijft één enkele krachtigere GPU natuurlijk superieur aan crossfire/sli. Echter vraagt Nvidia ook de hoofdprijs voor dit stukje techniek. Wil hiermee geen discussie starten over prijs-prestatie verhoudingen. Wil je de technisch superieure kaart in je PC, dan betaal je daar uiteraard voor.

[Reactie gewijzigd door echtwaarisdatzo op 4 juli 2016 17:12]

De kaart is 15% sneller dan de 480, maar waarschijnlijk > 30% duurder :)

Ik weet nog niet zo goed wat ik nou van de 1060 moet denken.... ook dat SLI niet ondersteund wordt vind ik een soort van actie om de 1070 beter te laten verkopen.

Edit: Ik snap de min kudos niet helemaal. Kan iemand mij feedback geven?

[Reactie gewijzigd door Devroet op 4 juli 2016 17:08]

Ik heb geen kudo's gegeven hoor, maar omdat de reactie vrij weinig waarde toevoegd.

De reactie snap ik vanuit het bang for buck oogpunt, AMD levert altijd al redelijke prestaties voor een lagere prijs dan nvidia. Volgens mij is AMD altijd wel meer bang for buck dan NVIDIA geweest.

Verder zijn de NVIDIA kaarten over het algemeen wel
*Stiller
*Koeler
*Energiezuiniger

Dan zijn tegenhangers.. En vooral de energiezuinigheid kan op lange (1-2jaar) termijn de kosten eigenlijk weer gelijk trekken.

De reden om geen SLI te ondersteunen kan ik me enigsinds in vinden. SLI werkt gewoon nog absoluut niet lekker voor games en het vreet ook nog eens bizar veel stroom. Kan je beter gewoon het geld investeren om de high range te kopen. Ipv 2x 1060 zal het altijd beter zijn om gewoon 1x 1080 te kopen. Dus eigenlijk heb je wel gewoon gelijk dat het een actie is om de 1070/1080 beter te laten verkopen. Maar of het erg is, ik weet het niet.

Verder ben ik wel enorm benieuwd naar de performance en het prijskaartje van de 1060. Misschien ga ik er heen upgraden. Het 1x 6pin aansluitinkje geeft me wel een zorg, met de 120w TDP moet dat geen probleem zijn.. maar als de kaart flink gaat pieken kunnen we straks dezelfde issues als AMD verwachten.
En vooral de energiezuinigheid kan op lange (1-2jaar) termijn de kosten eigenlijk weer gelijk trekken.
Nou, dan moet je anders wel behoorlijk fanatiek gamen als je het hebt over RX 480 vs. GTX 1060. Zelfs als je de RX 480 in de stress gooit heb je het over een gemiddelde TDP van 165 W (met de slecht getunede reference), en zelfs als de GTX 1060 altijd het hoofd koel houdt en nooit meer dan 120 W verbruikt (as if) moet je behoorlijk wat uurtjes gamen voor die 45 W aantikt. Bij 30 uur/week op volle belasting en ¤0.23/kWh kan Nvidia de kaart dan zegge en schrijven ¤32 duurder maken dan de RX 480. Ik denk persoonlijk dat het meer gaat worden.

Je kunt op energiekosten quitte spelen (gewoon meer gamen of langer met de kaart doen), maar reken jezelf niet te snel rijk. (Een stillere, koelere kaart hebben is natuurlijk van zichzelf al een voordeel, daar niet van.)
Ik heb liever 2x gtx 1060 dan 1 gtx 1080. Vind sli wel erg lekker. En dat het stroom vreet i don't care :) . Waarschijnlijk zal men wel zo iets hebben van als we ze niet sli maken dan ga je voor de beste optie. Waardoor je het verkoop van de betere stimuleert. Ik hoop zo dat de GTX 1060 6GB toch Sli heeft.

[Reactie gewijzigd door Moglie38 op 4 juli 2016 22:42]

En waarom behalve yolo?
Zal waarschijnlijk hetzelfde zijn als de 960 tegenover de 980

Minder performance voor meer geld en verdubbeld energieverbruik..


*Edit*

Hier ook al benchmarks van 1070 SLI vs 1x 1070 / 1x 1080.

Ik heb echt nooit begrepen waarvoor mensen gebruik maken van SLI. Vroeger was het (zover ik me herinner) om meer beeldschermen aan te sturen, dat is tegenwoordig niet meer van toepassing. VRAM blijft gewoon evenveel als één kaart en ook voor andere doeleinden is SLI/Crossfire gewoon helemaal niet interessant.

[Reactie gewijzigd door Valandin op 4 juli 2016 22:54]

Mijn GTX 960 in sli zijn sneller dan een GTX 980 en het scheelt me nog geld ook. :) dus wat je zegt klopt niet haha
GTX960 was ¤300,- in aanschaf, GTX980 was ¤600,- in aanschaf.
Prijzen zijn ook gelijkmatig gedaald, dus de GTX980 is altijd +-2 keer zo duur geweest als een GTX960.

GTX980 heeft een TDP van 178W
GTX960 heeft een TDP van 120W (240w SLI, dus al 30% meer stroom)
Tijdens pieken zal het verschil nog veel hoger oplopen..

Dus een SLI GTX960 is gewoonweg duurder dan een single GTX980..

Performance zal in sommige games inderdaad bijna even hoog worden als een GTX980, misschien soms even hoog maar niet veel sneller. In héél veel andere games ook weer een stuk minder.

Ik zeg niet dat je geen SLI moet draaien. By all means, doe je ding. Ik vind het er zelf enorm stoer uitzien met twee dikke kaarten in de kast met logo verlichting en al. Maar de performance ontbreekt nog.
Sorry moet je toch corrigeren. Mijn aanschaf van me GTX960 waren 212,- per stuk dus komt op 424 euro. Das in mijn ogen altijd nog een verschil van 176 euro dat vind ik nogal wat. En dat ik veel meer stroom verbruik vind ik niet boeiend. Wat ik belangrijk vind is dat je met twee goedkopere kaarten een dure kan verslaan kwa prijs en snelheid.
dan moet je ook kijken naar de prijs van de 980 op dat moment. Dat is zo niet te zeggen.
Wellicht was de 2x960 iets goedkoper en in sommige games is het iets sneller. Maar in veel games ook niet. Dat plus de extra warmte , herrie en energieverbruik. No thanks.

On-topic: ik denk inderdaad dat Nvidia dit echt als een low-midrange kaartje ziet en daarom de SLI aansluiting niet nodig vindt. Wellicht hebben ze die paar dollar nodig om een competitieve prijs neer te zetten tov AMD.
Zou die 15% sneller alleen niet zo letterlijk nemen...

1280 cores bij 1700MHz ~ 4,3TFlops
980 heeft 2048 cores bij 1216MHz ~5TFlops.

maw de 1060 gaat gevoelig trager zijn dan de 980.

de 970 ter vergelijking heeft een 4TFlops.
Reken er dus maar op dat de 1060 met die specs veeel dichter bij een 970 liggen dan bij de 980. Dus het zal spannend worden of die uberhaubt sneller gaat zijn (incl dx12 en niet gameworks games), laat staan 15% sneller
1. TFlops zijn niet alles.
2. We praten nu ook over een hele nieuwe generatie aan gpu's. Het kan dus zijn dat de instructies per clock tick omhoog is gegaan.
we hebben al een 1080 en 1070 gehad. Performance is zelf iets naar beneden voor de 10xx serie versus de 9xx.

De enige manier dat de 1060 (met huidige specs) 15% sneller gaat zijn dan de 480 is als die boost tot 2GHz ipv 1.8
Waarschijnlijk omdat je zegt dat hij als 15% snellers is terwijl er nog geen benchmarks zijn.
Nvidia heeft ze zelf laten uitlekken :P
Nou, dan is die - helemaal niet verdiend dus. Heb Devroet nog maar een extra +1 als bevestiging gegeven :*)
Ik denk doordat hij 'waarschijnlijk 30% duurder' zegt, terwijl daar nog niets over bekend is en dat dus alleen maar gissen is.
Laat ons maar gewoon afwachten tot de kaart er is en de reviews verschenen zijn voor je conclusies trekt.
[sarcasme modus]
Ik heb inderdaad gezien bij onafhankelijke tests dat de NVidia kaart 15% sneller is dan een RX 480.[/sarcasme modus]

Oh wacht, de door NVidia geregiseerde onafhankelijke tests zijn er nog niet.
wist niet dat de kaart zo klein was en dat de rest gewoon een koeler is.

700 euro voor een 1080, belachelijk. denk dat ik toch weet een ATI kaart gat kiezen om mijn Radeon 6950 te upgraden.

had een gtx960 gekocht maar ingeruild omdat ik dacht dat nVidia een beetje verstandelijk met de prijzen zou omgaan zodat ik tenminste een redelijk uitleg had waarom mijn videokaart 1.5x meer kost dan de rest van mijn pc.

even afwachten wat dit kost en wat de prestaties zijn. anders RX XXX binnenkort.
ATI bestaat al jaren niet meer, je zult toch echt op zoek naar een AMD moeten gaan ;)
700 euro voor een 1080, belachelijk. denk dat ik toch weet een ATI kaart gat kiezen om mijn Radeon 6950 te upgraden.
Dat is de prijs van het gebrek aan concurrentie. Laat AMD iets vergelijkbaars op de markt brengen en de prijzen zullen dalen.
Uitbuiten? Iedere gamer die serieus een Titan kocht voor de volle prijs, is gewoon heel hard de weg kwijt. Tja... Dat was ook kort na de release van die kaart al heel erg duidelijk.

[Reactie gewijzigd door Vayra op 5 juli 2016 09:08]

Nee, pure marketing. Waarom brengt Apple bijvoorbeeld gouden versies van bepaalde producten uit? Om aan te tonen dat de beste versies verschrikkelijk duur zijn en dat je voor een veel lagere prijs een vergelijkbaar product kunt kopen dat functioneel amper moet onderdoen.
Gaan ze nu net als amd multi gpu via moederbord ondersteunen? Dat zou een mooie set zijn.

Daarnaast kan dit wel is een mooie concurrent zijn voor rx 480. Mits ook de specs die ze opgeven naar waarheid zijn en de kaart het niveau van de 980 kan benaderen of zelf er overheen gaat.

[Reactie gewijzigd door th3sander op 4 juli 2016 17:11]

Dit kan al met DirectX12 waardoor je bijv. The Talos Principle kan spelen met 2x een GTX1060 ;)
Nog leuker, volgens wat ik van dx12 heb gehoord kun je dat spel dan spelen op een gtx1060+een rx480.
Lijkt erop dat de PCB's exact dezelfde dimensie's hebben, dat word leuk :o :D

RX480
http://cdn.wccftech.com/w...MD-Radeon-RX-480-Back.jpg

GTX1060
https://ic.tweakimg.net/ext/i/2001148873.jpeg

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True