Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 219 reacties
Submitter: mwthomas

Nvidia heeft de GeForce GTX 1060 aangekondigd. De videokaart beschikt over een Pascal-gpu met 1280 cudacores en een 192bit brede geheugenbus. De midrange-videokaart, die geen sli ondersteunt, presteert volgens Nvidia gelijk aan de GTX 980.

Nvidia baseert de GTX 1060 op een kleinere versie van de Pascal-gpu. De gpu, die als GP106 door het leven gaat, heeft 1280 cudacores. Dat is precies de helft van het aantal cores op de GTX 1080. De maximale boostsnelheid is met 1,7GHz gelijk aan die van de GTX 1070. Volgens Nvidia kan de gpu-snelheid van de GTX 1060 'gemakkelijk' overgeklokt worden naar 2GHz.

Er is 6GB gddr5-geheugen aanwezig, met een snelheid van 2000MHz, wat resulteert in een datadoorvoersnelheid van 8Gbit/s. De totale geheugenbandbreedte bedraagt 192GB/s vanwege het gebruik van een 192bit brede bus. Voor de aankondiging gingen er geruchten dat Nvidia ook met een 3GB-model zou komen, maar de fabrikant heeft enkel een GTX 1060 met 6GB ram aangekondigd. Wel zegt Nvidia te overwegen om op een later tijdstip andere varianten van de kaart uit te brengen. Een GTX 1060 3GB lijkt dus een mogelijkheid voor de toekomst.

Nvidia stelt dat de GTX 1060 vergelijkbare prestaties levert als de GTX 980. De nieuwe videokaart is met een tdp van 120 watt echter zuiniger. De Founders Edition van Nvidia beschikt over een enkele zespinsvoedingsstekker. Het is niet mogelijk om een sli-opstelling van twee GTX 1060-kaarten te maken; de daarvoor benodigde connector voor een sli-brug ontbreekt.

Nvidia GTX 1060Nvidia GTX 1060Nvidia GTX 1060Nvidia GTX 1060Nvidia GTX 1060Nvidia GTX 1060

Er zijn nog geen reviews van de GTX 1060 gepubliceerd, maar in de afgelopen dagen lekten er al benchmarks uit. 3DMark-resultaten tonen aan dat Nvidia's midrange-model in de synthetische benchmark tien procent sneller is dan de RX 480 van AMD. Hoe de twee videokaarten zich in games ten opzichte van elkaar verhouden, zal moeten blijken uit tests.

Vanaf 19 juli is de GeForce GTX 1060 wereldwijd te koop. Nvidia brengt net als bij de GTX 1080 en 1070 een 'Founders Edition' met referentieontwerp uit, voor een adviesprijs van 299 dollar. In tegenstelling tot bij de duurdere videokaarten brengt alleen Nvidia zelf zo'n FE uit en zal deze uitvoering alleen rechtstreeks via de fabrikant te koop zijn. In de Benelux verkoopt Nvidia zelf geen videokaarten.

Andere fabrikanten maken hun eigen ontwerp en die varianten zijn bij de release op 19 juli direct te koop, voor prijzen vanaf 249 dollar, aldus Nvidia. Onder andere Asus, Evga, Gainward, Galax, Gigabyte, Inno3D, MSI, Palit, PNY en Zotac komen met eigen uitvoeringen.

Euroadviesprijzen zijn nog niet bekendgemaakt. Omgerekend inclusief btw komen de dollarprijzen neer op 272 en 327 euro. Mogelijk is de daadwerkelijke europrijs hoger, dat is op dit moment ook het geval bij de GTX 1080 en 1070.

Update 16.55: Nvidia heeft de euroadviesprijs van de GTX 1060 bekendgemaakt. Volgens de videokaartmaker zullen prijzen beginnen bij 279 euro. Vermoedelijk gaat dat om de eenvoudigste modellen met een blower-koeler. Nvidia verkoopt zijn eigen Founders Editon voor 319 euro, deze wordt echter niet in de Benelux geleverd.

Videokaart RX 480 GTX 980 GTX 1060 GTX 1070 GTX 1080
Gpu Polaris 10 GM204 GP106 GP104-200 GP104-400
Procedé 14nm finfet 28nm 16nm finfet 16nm finfet 16nm finfet
Cores 2304 2048 1280 1920 2560
Baseclock 1120MHz 1126MHz 1506MHz 1506MHz 1607MHz
Boostclock 1266MHz 1216MHz 1708MHz 1683MHz 1733MHz
Vram 4/8GB gddr5 4GB gddr5 6GB gddr5 8GB gddr5 8GB gddr5x
Geheugenbus 256bit 256bit 192bit 256bit 256bit
Bandbreedte 224/256GB/s 224GB/s 192GB/s 256GB/s 320GB/s
Tdp 150W 165W 120W 150W 180W
Stroom-
aansluiting
1x 6pins 2x 6-pins 1x 6-pins 1x 8-pins 1x 8-pins
Prijs € 219/269 ~ € 400 vanaf € 279 ~ € 500 vanaf ~ € 700
Moderatie-faq Wijzig weergave

Reacties (219)

Er zijn meerdere geruchten uit verschillende bronnen dat we op 19 juli niet "de echte" GTX 1060 gaan zien gebaseerd op de GP106 GPU, maar een GP104 GPU waar de helft van de cudacores zijn uitgeschakeld en waar 3/4 van de geheugencontroller uit staat.

Dus dan krijgen we in plaats van een volledige GP106 meer een halve GP104. Dus zeg maar een combinatie van een halve GTX 1080 qua cudacores en drie kwart GTX 1070 wat betreft geheugencontroller en totaal geheugen.

Dit omdat nVidia de GTX 1060 enkele maanden naar voren is gehaald om een concurrent van de RX 480 te hebben. Wel logisch de Polaris 10 en 11 GPU's zitten in het prijssegment waar veel omzet en winst te behalen valt. Als AMD dan vele maanden eerder is zal nVidia veel omzet en marktaandeel verliezen. Vandaar dat nVidia waarschijnlijk deze noodgreep heeft gedaan.

Semi-accurate is overigens negatiever en denkt dat nVidia de GP106 naar reviewers zendt en de GP104 gaat verkopen. Dus speciale reviewsamples die volledig anders zijn naar reviewers verzenden en vervolgens iets heel anders verkopen. Maar over enkele weken zullen we wel zien wat er echt gaat gebeuren.

http://semiaccurate.com/2...-gp104-based-gt1060-real/
https://nl.hardware.info/...-aan-adviesprijs-van-$249

[Reactie gewijzigd door -The_Mask- op 7 juli 2016 16:38]

Het verhaal in je eerste link lijkt zoals ik het lees overeen te komen met jouw opmerking. Echter lijkt het erop dat Nvidia de GP104 1060's verder weinig tot niet gaat leveren maar alleen op papier 'lanceert'. Voordat de eerste 'echte' 1060 modellen bij mensen in de computer zitten zal de GP106 gebruikt zijn.
Zo begrijp ik uit het stuk.
It is a great PR stunt but only a PR stunt. Don’t expect this part to ever hit the shelves in anything more than a PR approved quantity if that.

Why? First of all the current GP104 die based cards are in short supply because of this. Officially Nvidia is blaming demand rather then production issues but either way there are nowhere near enough GP104 dies for the GTX1070/1080 parts the moment. If Nvidia really launches the GP104 based ‘GP106’ in July as some are claiming, how is a higher volume part competing for the same silicon going to help the situation?

Don’t expect this GT1060 to ever be a real part, just a press spoiler
Er is nu veel vraag naar de 1070/1080, dezelfde basis gebruiken voor de 1060 lijkt niet logisch volgens semiaccurate.

[Reactie gewijzigd door Viper® op 7 juli 2016 15:46]

"...dezelfde basis gebruiken voor de 1060 lijkt niet logisch volgens semiaccurate."

Niet helemaal zo, want een GP104 waarvan meer dan 1/4e van de SM's niet werkt kan niet dienen als een 1070, maar misschien wel als een 1060, afhankelijk van hoe veel er stuk zijn. Of er genoeg chips in deze regio vallen om in behoorlijke oplage te verkopen als 1060 is dan maar de vraag. Als het klopt dat de gebrekkige leverbaarheid van de 1070/80 komt door yieldrates, kan het zo maar zijn dat er zat half-werkende GP104 chips beschikbaar zijn om 1060s van te maken... maar zodra de yields verbeteren, verminderd dat. Goeie kans dat ze tegen die tijd wel GP106 klaar hebben.
Wat wordt de GP106 dan? Een GTX 1050? Of vervangt deze op termijn de op de GP104 gebaseerde GTX 1060, zonder de naam te wijzigen?

[Reactie gewijzigd door Mitt3nz op 7 juli 2016 15:37]

Als het waar blijkt te zijn dan verwacht dat ik dat ze hem later vervangen door een GP106. GP104 zal na enkele maanden wel beter geproduceerd kunnen worden. Dus minder chips met defecten en dan zal de GP106 ondertussen ook wel volledig in massproductie zijn.

Als de GTX 1060 echt naar voren is gehaald kan het goed mogelijk zijn dat de GP106 nog niet in massproductie is waardoor ze er gewoon niet genoeg van hebben. Nu is de GP104 van de GTX 1070 en 1080 ook niet goed leverbaar waarschijnlijk door slechte yields.

Maar als de yieldrate laag ligt kan het goed zijn dat er veel defecte chips zijn welke niet als GTX 1070 en GTX 1080 verkocht kunnen worden doordat er bijvoorbeeld op meerdere plaatsen defecten in de cudacores zit en/of ook nog in de geheugencontroller. Dan kan je zo'n chip weggooien of natuurlijk verkopen als GTX 1060. Verkopen is natuurlijk een veel betere optie dan weggooien.

Als dan de yieldrate van de GP104 over enkele maanden wel goed is en de GP106 op schema ligt kun je dan mooi overschakelen van de GP104 waarbij nog maar weinig chips hebt met veel defecten naar een volledige GP106. Is immers ook zonde om nog goede GP104 chips als GTX 1060 te verkopen, dit kost weer geld.

[Reactie gewijzigd door -The_Mask- op 7 juli 2016 16:48]

Ik geloof prima dat het een paper launch is met beperkt aanbod,
alleen moeten ze dan wel verdomd zeker zijn dat de 106 goed presteert.

Kan me namelijk voorstellen dat deze kaart is afgestemd op betere prestaties dan de AMD en dat zal wel haalbaar zijn met een halve 104, maar een gpu met andere structuur waar al issues mee zijn is tricky.

Met een beetje pech wordt 1060 op basis van de 106 opnieuw uitgesteld omdat die het niveau van de huidige 1060 bij lange na niet haalt.

Klinkt misschien complex, maar als je het twee maal leest is het redelijk te bedrijpen, denk ik :)
De nieuwe Nvidia GPU's zijn erg modulair. Zelfs al zouden ze het doen, zou er dan erg veel verschil zijn tussen een beperkte GP104 en een full GP106, genomen dat de specificaties hetzelfde blijven?

Wat ik me eerder afvraag: kan dit eigenlijk wel? Want de GP104 is gewoon een stuk groter dan de GP106. Is de packaging dan ook niet anders?

1. Een logische verklaring lijkt me dat ze een te grote package gebruiken waarin zowel een GP104 en een GP106 kunnen. En dat ze gewoon kwalitatief mindere GP104's ook gebruiken om zo weinig mogelijk verlies te hebben.

2. OF dat ze initieel enkel "geknipte" GP104's gebruiken omdat ze niet goed wisten hoe goed RX480 ging zijn, en ze de vrijheid wilden om nog te spelen met ROP's en dergelijke. (Om dan naderhand, na een redesign/respin van de echte GP106, die laatste te gaan leveren. Wat niet zo evident is. Dan zou de kans groter zijn dat ze de echte GP106 bewaren voor GTX1050 en lager. In dat allerlaatste geval hebben ze wel een serieus productieprobleem.)

3. OF dat ze geknipte GP104's gebruiken omdat GP106 gewoon nog niet in productie kan gaan wegens gebrek aan productiecapaciteit. Ook dan hebben ze een serieus allocatieprobleem. Want wat doe je met chips die je zowel kan verkopen als high-end en als mid-end?

1 en 3 lijken het meest plausibel. In het geval van 3... gaan er nog lang tekorten zijn... vooral van GTX1060. Misschien is het dat wat SemiAccurate insinueert?

[Reactie gewijzigd door Jack77 op 7 juli 2016 21:13]

Is het effect op het stroomverbruik niet negatief als je een halve chip gaat uitschakelen? Kan me zo voorstellen dat het niet optimaal is.
waarom zou dat negatief zijn? Minder actieve delen minder hitte. Zie het als een ouderwets schakelpaneel met heel veel gloeilampjes waarvan je er een aantal losdraait.
Minder efficiënt is wat sdk bedoelt. Dat denk ik ook.
Jouw verhaal lijkt ook een stuk logischer met het gegeven feit dat SLI niet meer word ondersteund. Je wilt immers niet dat de klant achteraf een GP106 koopt om rekenkracht te bundelen met een gecastreerde GP104 chip , in de veronderstelling dat het identieke GTX "1060's" zijn met alle gevolgen van dien.
Wordt nog interessant om te zien welke dan de betere koop is.

Een full GP106, of een gekapte GP104.
Als de gekapte GP104 m.b.v. een biosflash is te unlocken naar het aantal cudacores van een GTX1080, dan lijkt me dat de betere koop. ;)
Kan met een 1070 toch ook niet? En dat zijn ook "gekapte" GP104s

Sinds het unlock feest van de geforce 6800 en radeon x800 serie worden die dingen altijd gewoon gelaserd, niet meer gelocked in software.
Och, het is wel weer unlock feest bij AMD. Van 4gb gratis naar 8gb op de RX480.
Dat blijkt enkel zo bij de eerste versies. AMD heeft aangekondigd dat dit enkel bij de "testversies" zou zijn.
Klopt!

Maar dat is ook niet in de GPU zelf te laseren (althans, je zou de mem controller kunnen gimpen zodat ie mag 4gb kan adresseren?), en ik kan me niet voorstellen dat RAM boeren hun 8Gb ICs naar 4Gb terug laseren
Ik vermoed dat je gelijk hebt aangaande de 1060.

Het unlockfeest heeft bij AMD echter veel langer geduurd dan de x800 serie uit 2004-2005. Heb zelf namelijk in 2011 nog een HD6950 geflashed naar HD6970.

[Reactie gewijzigd door Jorruchie op 7 juli 2016 17:39]

Ik ben later nog van 290 naar 290x "overgestapt" zonder extra kosten _/-\o_
AMD denkt met U mee! :Y)
Denk dat we er vanuit mogen gaan dat dit slechte cores zijn (beschadigd en niet genoeg cores voor een 1070/80) of dat nvidia er wat cores heeft gecut met een laser waardoor activeren voor fouten zorgt.

Maar deze zal misschien wel beter overclocken.
OC is al niet echt makkelijk met 1070/1080 dus een crippled 104 chip is vragen om problemen.
De OCs die ik langs zie komen zijn echt wel goed.
En daarnaast zou een gecastreerde 1070/80 beter kunnen clocken dan de uiteindelijk echte 1060.
Want je hebt de kans dat ze niet alleen de GPu van de 1070/80 gaan gebruiken maar de hele kaart (maar dan met minder geheugen etc), dus meer power.
Wat heet niet makkelijk? Volgens mij halen alle custom modellen eenvoudig de 2000 Mhz. Kijk het ervaringen topic er maar op na.
Waarom zou je moeten overclocken als het ding uit zichzelf al een eind boven de boost clock (1733MHz) gaat?

Als je dan de boost clock nog wat hoger instelt, gaat de 1080 vlotjes naar 2 GHz en meer mits voldoende koeling. Met pieken van >2125MHz.
Ook al zou dat mogelijk zijn kan dat heel risky zijn.
Wat ik begrepen heb is de GTX 1060 een halve GTX 1080 kwa cuda cores, en dan wil jij die andere helft even weer aanzetten...

Ik ben er wel zeker van dat er dan echt iets mis is met die andere helft cuda cores en ze daarom uitgeschakeld zijn.
En sowieso werken die trucjes niet meer de laatste tijd bij nvidia, de laatste keer was volgens mij bij een GTX 465 die je dan kon '' unlocken '' naar een GTX 470.

We zullen het zien...
Na de GTX 4-serie zijn de cores bij Nvidia hardwarematig (laser) uitgeschakeld.
Ik ben er wel zeker van dat er dan echt iets mis is met die andere helft cuda cores en ze daarom uitgeschakeld zijn.
Niet per definitie alle shaders.

In de goede oude Geforce 6 dagen kon ik mijn 6800le van 8 pixel pipelines en 4 vertex pipes naar 12/6 unlocken, het laatste quad pixel pipes bevatte inderdaad een defect, en gaf allemaal blauwe pixels door het scherm.

Als de yields maar goed genoeg zijn zullen ze op een gegeven moment ook gewoon goede shaders uitschakelen, je kan er donder op zeggen dat ze de yields voor GM204 zeker op het eind goed genoeg hadden dat (bijna) elke 970 ook een 980 had kunnen zijn
Maar als er nu al zo'n enorme vraag is naar de 1070/1080, is het toch vaag dat ze nu zelfs de 1060 op dezelfde basis gaan maken? Of het zullen fails zijn vanuit de 1070/1080 en daar de 'kapote' stukjes wegsnijden om zo tot die gekapte cuda en controller te komen?
Wat niet geschikt is als 1080 wordt 1070 en wat die kwalificatie niet haalt wordt 1060. Later als de yields goed zijn bij het "bakken" van de wafers voor de chips zullen de echte chips gebruikt worden.

AMD doet het zelfde met de RX480 4/8 GB alleen daar gaat het niet on defecte chips.

Overigens is de vraag of de reviewers een echte 1060 krijgen of een cherry picked 1080 om weer eens de boel te misleiden.
Een post bij de buren geeft aan dat het juist wel om de 106 gaat:

http://videocardz.com/619...060-pcb-pictured-up-close
Zou nog mooi zijn als je die software matig kunt unlocken naar full :+ maar ik vermoed dat ze gelaserd zijn en dus hardware matig zijn uitgeschakeld.
Als dat waar zou zijn, dan ben ik wel benieuwd of ze later dan toch een GP106 gaan verkopen als GTX1060. Want dan zijn er dus twee verschillende kaarten in omloop met dezelfde naam. Performance kan nooit precies gelijk zijn, dus dan krijg je weer dat mensen gaan huilen dat ze de verkeerde versie gekregen hebben. Lijkt me gezeik waar de webshops niet op zitten te wachten.

Als NVidia slim is, brengen ze de GP106 onder een andere naam uitm bijv. 1065 of 1060 SE o.i.d.
Performance kan wel gelijk zijn; 1280 cudacores zijn 1280 cudacores of het nu de helft is van een 1080 of niet. Hooguit dat het overklokken wat beter/slechter zal gaan. Maar een nét iets andere naam zou wel beter zijn.
Wanneer ik een stuk op Semiaccurate lees over Nvidia kijk ik eerst of het van Charlie is, en yup het is van hem.
Charlie kan bijna alleen maar negatief zijn over Nvidia, zelfs positief nieuws weet hij een negatieve draai te geven.
nvm

[Reactie gewijzigd door Fredi op 8 juli 2016 03:34]

Ik zie toch echt een GP106 GPU op de foto's staan hoor:

http://videocardz.com/619...060-pcb-pictured-up-close

Wat mij betreft maakt dit meteen een einde aan het gerucht dat het een halve GP104 zou worden. De foto's liegen niet.
Quote van de buren: "MSI meldt dat het 220 videokaarten zal hebben voor de Nederlandse markt op de launchdag, waarbij het gaat om de custom Gaming-variant. ASUS heeft nog geen informatie over de beschikbaarheid."

MSI zal 220 videokaarten hebben op launch day... Wederom een flinke paperlaunch dus.

Edit: Interessante toevoeging over de Founders Edition cooler voor de 1060 GTX: "Het referentiemodel lijkt niet of nauwelijks verkocht te gaan worden; Nvidia geeft zelf ook aan dat de Founders Edition van de GTX 1060 exclusief via de eigen webshop verkocht gaat worden".

[Reactie gewijzigd door stin00 op 7 juli 2016 15:16]

Dat is niet zo gek, aangezien de GPUs uit dezelfde fabriek komen als de duurdere kaarten en ze de productie daarvan al niet aankunnen. De wafer capaciteit moet omhoog om aan de vraag te kunnen voldoen (of de yield uit een wafer als er veel uitval is nu).

Overigens wel een taaie voor AMD als de custom variant echt maar 3 euro duurder is dan de nu goedkoopste 8GB RX480! Ik ben benieuwd naar benchmarks en dan voornamelijk DX12 benchmarks.
van de rx480 was de adviesprijs ook 250 USD als ik mij niet vergis
*199 dollar voor de 4GB, 229 dollar voor de 8GB

In euro's en met btw is dat:
199 dollar=180 euro
180*1.21=218

229 dollar=207 euro
207*1.21=250 euro

[Reactie gewijzigd door Centelte op 7 juli 2016 20:27]

Klopt en blijkbaar is de 1060 voor diezelfde prijs dus sneller, we zullen zien. Ik heb zelf al besloten om op de release van Vega te wachten en dan de high-end kaart met de beste prijs/prestatie verhouding te kopen.
Klopt niet, de adviesprijs van de RX480 8GB was 229 dollar, wat omgerekend inclusief BTW ongeveer de 269 is die een RX480 8GB nu ook kost in de winkels.

De 1060 zal dus iets duurder worden (mits ze de bevoorrading op orde hebben, zoals Stin00 hierboven aanstipt), maar waarschijnlijk ook wat sneller zijn.

Zelf wacht ik ook op Vega voordat ik een keuze maak tussen een Nvidia of AMD-kaart.
De 4gb variant is vrijwel even snel, kost USD 199. De NVIDIA moet dus wel 25% sneller zijn om dezelfde prijs/prestaties te bieden en als NVIDIA in hun meest optimistische tests maar tot 15% komt (waarschijnlijk meer 5% als je over een redelijk evenwichtige set games kijkt) dan gaat dit 'em niet worden. En dan hebben we het nog niet over verkrijgbaarheid...

De 2gb extra kan handig zijn maar dan kun je de nog steeds 10% goedkopere RX480 8gb kopen, die dus waarschijnlijk 5-10% langzamer is en zelfs 8gb heeft...

Kortom als je voor prijs/prestaties gaat is de RX480 de betere. Uiteraard is het NVIDIA ecosysteem sterk en best wat waard voor veel mensen dus ze zullen best verkopen. Maar AMD lijkt me in een sterke positie, zeker daar ze daadwerkelijk leverbaar zijn. De 1060 is zeker het wachten niet waard...

[Reactie gewijzigd door Superstoned op 7 juli 2016 15:40]

De eerste praktijktesten van de 480 zijn niet zo heel denderend (frame time spikes) maar dat wordt misschien opgelost met ene beter driver.

En de prijs prestatie/verhouding is vooral interessant voor mensen die echt een strak budget hebben.

We hebben de eerste gaming benchmarks nog niet gezien, maar de 1060 lijkt me voor veel mensen een logische keuze.
Misschien in het high end segment dat het anders is maar als je een budget hebt van rond de 230-250 en iemand zegt "stop er 30-40 meer in en je krijgt 5% betere prestaties maar je verliest 2gb ram" wie doet dat nu?

Over een half jaar zijn ze allebei wellicht op MSRP en dan is het misschien dat veel kaarten van de een of ander stock zo hoog overklokken zijn dat er een winnaar is maar het lijkt er nu op dat de prestaties dichter bij elkaar liggen dan de prijs. Frames per Euro is niet alles maar ik zou in dit segment wel daar sterk op vertrouwen als het gaat om het maken van een keuze.

Trouwens NVIDIA is het duidelijk met mij eens want deze aankondiging is natuurlijk heel typisch paniek gedrag... ze hadden niet verwacht dat de RX480 zo sterk zou zijn anders hadden ze OF dit op dezelfde dag aangekondigd OF hun plannen niet aangepast. Nu is dit opeens gepushed, ik zou dit zelf ook doen als marketeer maar het is wel een duidelijke paniek move.
Het is zeker een slimme zet van AMD om zich meteen op het midden segment te richten met hun nieuwe architectuur, en het ook zo dat NVIDIA dat waarschijnlijk niet had verwacht.

Toch weet ik niet of de impact van deze move heel erg groot gaat worden. Het is niet zo dat er hele volksstammen nu ineens (op dit moment) een mid-price kaart gaan kopen.

Voor mensen met een GTX 770 of een GTX 960 is een overstap naar een AMD 480 niet erg interessant tenzij ze nu die ene game met beter instellingen willen spelen. De GTX 950 is iets nieuwer, en ik kan me niet voorstellen dat eigenaren van een 950 nu al gaan upgraden.

Ik denk dan ook dat de 480 vooral interessant is voor mensen die nu met een APU gamen, een low-performance AMD kaart hebben of een GTX 750(Ti) in combinatie met een goede voeding.

De 8GB versie van de 480 vind ik in Europa te duur. De 4GB versie is in de US perfect geprijsd. Dat laatste geeft overigens ook aan dat ik het verschil tussen 6GB en 8GB verwaarloosbaar vind (in dit segment).

En tot 50 euro meer voor een 5% snellere kaart die zuiniger is en waarschijnlijk betere drivers heeft zal voor veel mensen acceptabel zijn. Er ook veel mensen die OC kaarten kopen of kaarten met een specifieke koeling.
Kortom als je voor prijs/prestaties gaat is de RX480 de betere. Uiteraard is het NVIDIA ecosysteem sterk en best wat waard voor veel mensen dus ze zullen best verkopen. Maar AMD lijkt me in een sterke positie, zeker daar ze daadwerkelijk leverbaar zijn. De 1060 is zeker het wachten niet waard...
Misschien net een blowtje teveel op? ;)
Voorlopig is dit nog speculatie totdat de 1060 daadwerkelijk in de winkel ligt. De 1060 kan het wachten waard zijn, al is het alleen al vanwege een eventuele prijsdaling.

Ik wilde aanvankelijk begin augustus een RX 480 kopen voor een gaming-gast-PC (vriendjes van mijn zoon die op bezoek komen), dus voor mij komt dit prima uit. Uiteraard wel de 8GB en een met wat betere koeling (en voedingsstekker), geen reference model.
Nou ja het kan. Maar denk je dat nvidia Benchmarks heeft met 25% betere prestaties maar toch zegt 'tot 15%' omdat het meestal daaromheen ligt? Dat zou wel nieuw zijn... alle fabrikanten incl amd geven altijd de meest positieve resultaten en het lijkt me naïef te denken dat dit nu opeens anders is. Natuurlijk is het niet onmogelijk maar de kans dat je over een representatieve set games die 15% haalt ipv dat dat percentage het max is voor een of twee NVIDIA preferred games op specifieke resolutie en instellingen is kleiner dan de fotos van pluto die we tot twee jaar terug hadden...

(edit: typo)

[Reactie gewijzigd door Superstoned op 8 juli 2016 10:18]

AMD heeft in de midrange vrijwel altijd the biggest bang for the buck, heb veel plezier gehad van de R7 270. Voorlopig is de RX480 alweer iets in prijs gestegen, dus wacht ik sowieso nog even af.

Ik denk dat de 1060 ongeveer gelijke prestaties zal hebben als de 480, beetje afhankelijk van game en resolutie. Wordt even kijken welke game engines het op welke kaart het best gaan doen en uiteraard de prijs is ook een belangrijke factor.

Maar voor de toekomstige UWQHD van mijn zoon zal het toch een high end kaart moeten worden. Misschien een 1080 of de 1080 Ti, dat hangt een beetje af wat AMD straks te bieden heeft.
We hebben ooit een 4870 vs GTX 260 gezien waarbij de laatste omlaag moest, maar wel duurder bleef. Ondertussen is het eco systeem vele malen sterker dan toen. Denk aan Shadowplay, GeforceExperience, CUDA, Gameworks en nu weer wat nieuwe dingen in de vorm van Ansel en de multi viewpoint rendering.

Nvidia kan ongeveer 20-30 dollar meer vragen voor dezelfde snelheid dankzij het bovenstaande. Momenteel lijkt Nvidia niet heel erg bezig met gaming vooruit helpen maar vooral bezig met winstmaximalisatie (zie de relatief beperkte performance jump in de GTX 1080). Dus wat dat betreft zou ik eerst corrigeren voor die 20-30 dollar voor je beredeneert hoeveel procent sneller ze "moeten zijn". De 25% is wellicht wat te optimistisch.

[Reactie gewijzigd door sdk1985 op 7 juli 2016 22:14]

Heb je helemaal gelijk in. Ik ben Linux user en ben daarom ook geneigd eerder voor NVIDIA te gaan.. Het is zeker zo dat NVIDIA meer kan vragen voor dezelfde prestaties, veel mensen zullen betalen. Beetje Intel vs AMD, ook, AMD is er gewoon nooit in geslaagd een sterk merk neer te zetten.
tja, maar de 1060 is ook wel een stuk zuiniger, en meestal zijn de NVidia kaarten ook een stuk stiller.. dus IMHO gaat de stelling dat de rx480 een betere prijs/prestatie verhouding heeft niet op..
Maar we moeten sowieso eerst maar eens de benchmarks afwachten.
nvidia is niet wezelijk stiller, de 2xx serie was gewoon luidruchting. dat is over met polaris.

[Reactie gewijzigd door Countess op 8 juli 2016 09:29]

wie zegt dat NVidia niet sneller is, getoonde benchmarks geven aan van wel (maargoed even de echte testreviews afwachten)..
autocorrect. dat had moeten zijn stiller.
nee, de prijzen van de 480 staan hier als echte EURO prijs in de winkel in nederland op dit moment, terwijl bij de 1060 de DOLLAR advies prijs staat zonder BTW.

omgerekend zou het dus 272 euro voor het 3GB model worden en 326 euro voor het 6Gb model

en om nu nog 272 EURO neer leggen voor een kaar met maar 3 GB geheugen lijkt met me toch aardig gekkenhuis eigenlijk. en dat is met de aanname dat ze het launch bedrag gaan halen.
Je verhaal klopt niet.
Die 272 euro zou de 6gb versie zijn. Voorlopig komt er geen 3gb versie.
De 327 euro geldt voor de reference kaart.
Precies, weer een paperlaunch. Deze strategie nVidia knappen mensen op een gegeven moment op af. Als AMD genoeg aanbod heeft vangt nVidia bot. Ik hoop echt dat AMD gaat winnen op het mid-range segment. Als nVidia weer gaat domineren ziet het er treurig uit voor de consument en zullen de prijzen alleen maar meer stijgen van nVidia. Ik ben geen geen fanboy van beide, ik wil gewoon een goede prijs/kwaliteit en geen gekke marketing trucs zoals Blunder editions, a.k.a Founders Editions.
Zo ver ik mij kan herinneren was de Radeon X800 XT Platinum de eerste paper launch bij videokaarten, dat was rond 2004. Het is in ieder geval iets van alle tijden en alle merken. Vreselijk irritant is het wel als je er op hebt gerekend dat je deze zomer kunt upgraden voor een leuk bedrag. Ik had zelf echt op 10 Juni gerekend... Voorlopig heb ik nu nog helemaal niets.

[Reactie gewijzigd door sdk1985 op 7 juli 2016 17:13]

Het scheelt wel dat het in ieder geval om custom kaarten gaat, en niet om Founders Edition-modellen die nog 50 dollar boven de MSRP moeten gaan kosten ook :P
Ik ben benieuwd hoe duur de 1060's gaan worden als ze daadwerkelijk in de winkel liggen.
Behalve voor de pers, geen website zullen ze overslaan met recensieexemplaren. Echt een knap staaltje feestje van je concurrent even verstoren...
Paperlaunch misschien, maar waarom ook niet? De AMD RX480s zijn op het moment ook nog amper beschikbaar voor de advies prijs. Daarnaast heb er ik daar ook nog geen custom varianten gevonden. Door een "paperlaunch" te doen denken mensen wel twee keer na om de RX480 te halen voor dezelfde prijs als dat deze 1060 op de markt komt.
Persoonlijk vind ik het juist fijn, ik kan echt wel een maandje wachten
De adviesprijs van de RX480 8GB was $229, wat omgerekend en inclusief 21% BTW nagenoeg de ¤269 is die een RX480 8GB nu kost.
nagenoeg de ¤269 is die een RX480 8GB nu kost.
Alleen is hij in Nederland nergens voor die prijs vanuit voorraad leverbaar.... paperlaunch }>
pricewatch: Sapphire Radeon RX 480 8GD5
Staan gewoon winkels tussen die morgen kunnen leveren en dat is maar 1 van de verschillende varianten op die kaart.
nagenoeg de ¤269 is die een RX480 8GB nu kost.
Alleen is hij in Nederland nergens voor die prijs vanuit voorraad leverbaar.... paperlaunch }>
De goedkoopste in de pricewatch is 280,95, met twee dagen levertijd, de goedkoopste op voorraad is 288...

[Reactie gewijzigd door Zer0 op 7 juli 2016 17:16]

Gewoon leverbaar hoor. Niks geen lever issues hier in nl voor de rx 480.
Leverbaar voor die prijs staat er.
Leverbaar is hij. Alleen dan wel voor 288 euro.
in duitsland is hij al voor 259 te krijgen anders.
Custom RX480's komen midden juli.
MSI zal 220 videokaarten hebben op launch day... Wederom een flinke paperlaunch dus.
Wat verwacht je dan voor ons kleine kikkerlandje?
Als je dat in verhouding naar de wereldbevolking trekt hebben we het over 7.000.000.000/16.947.904*220=90.867 videokaarten.
Zelfs als MSI 1 kaart per minuut produceert zou het betekenen dat ze al twee maanden 24/7 in productie moeten zijn.
Één kaart per minuut? Ik weet niet precies hoe die productie loopt maar dat klinkt mij als heel erg weinig eigenlijk. Bovendien kun je dat niet zo naar de wereldbevolking trekken want voor het grootste deel van die bevolking is zo'n kaart helemaal niet te betalen. Wij zitten in het rijke deel van de wereld he...
Feit blijft dat wij een klein land zijn, en dus maar een klein deel van de productie toegewezen krijgen. Daarnaast is MSI maar 1 van de fabrikanten die de GPU afneemt van nVidia, het is dus niet raar dat die er geen duizenden voor ons kleine landje beschikbaar hebben.
Feit blijft dat 220 erg weinig is, ook voor NL. Er worden grofweg 50 miljoen videokaarten verkocht wereldwijd, dus met 1 kaart per minuut haal je het niet ;)
Verkoopt msi er 50 miljoen per jaar dan?
Lijkt me wat veel...

Er zijn natuurlijk nog veel meer fabrikanten. Dus als er straks direct 2000 kaarten leverbaar zijn per direct dan vind ik dat geen papierenlaunch.
Waar heb je t allemaal over? Ik noem MSI niet en je noemt een (fictief!) getal een orde van grootte groter dan waar t over gaat.
Je reageert op 220 kaarten die msi beschikbaar zou hebben voor nederland. Dus ja je hebt het over msi.
Als msi er al 220 heeft voor nederland en je zou dat op alle fabrikanten toepassen zit je rond de 2000. Al zijn het er 1500. Nog geen papieren launch.
Ok ik had het over MSI, fijn dat jij dat wél weet.
Inderdaad.
Je reageert op 1 minuut per kaart. Dat dat te weinig is.
Terwijl in die reactie staat MSI maakt 1 kaart per minuut (wat een voorbeeld is)
Dat jij dan komt met 50 miljoen kaarten per jaar... tja...
Misschien eerst eens kijken waar je op reageert dan.

PS 1 kaart per minuut is 744.600 kaarten per jaar. Alleen voor dit type en alleen voor MSI. Lijkt me meer dan voldoende ;)
Exact, je hebt gelijk. Jij kan wel over een wereldwijd aantal praten van alle fabrikanten, maar ik niet. Het spijt me.

[Reactie gewijzigd door Aikon op 8 juli 2016 08:48]

haha gaat nergens over deze discussie. Maar het ging over MSI. Jij kwam met 50 miljoen kaarten wereldwijd ineens ;)
Lets agree to this agree.

[Reactie gewijzigd door Arjant2 op 8 juli 2016 08:52]

Ja, MSI heeft misschien 220 voor de nederlandse markt, maar er zijn nog een zwik andere fabrikanten.. en zo denderend is de RX480 ook niet leverbaar hier in Nederland..
Boeit me niet. Ik ga toch voor een RX480. Beter in DirectX12 games en goedkoper.
Hmmm dus, alles op een rijtje
  • Minstens 25% hogere MSRP dan de RX 480;
  • Geen ondersteuning voor multi-GPU wat beter geregeld is in DX12; zit wel op de RX 480;
  • Nog steeds de mweh DX12 implementatie;
  • Minder geheugen dan de RX 480;
  • Een beetje minder energieverbruik.
Eigenlijk geen geweldige koop, en toch weer hele volksstammen die het ding gaan aanschaffen ¯\_(ツ)_/¯.
Multi-GPU kan beter geregeld worden in DX12.
Dat kost weer extra werk en tijd. Niet veel publishers zullen daar geld aangeven. Percentage die SLI/CFx gebruikt, is gewoon erg klein.

[Reactie gewijzigd door SmokingCrop op 7 juli 2016 15:20]

Dat lijkt nu te veranderen. Microsoft komt met een abstract layer voor DX12 waarmee ze naar eigen zeggen eenvoudig een applicatie multi-gpu kunnen maken. En Dx12 multi-gpu werkt zonder sli/cfx bruggen.
De nieuwe Engines hebben (of gaan dit krijgen) al support voor de multiGPU features van DX12. Dus implementeren is niet eens zo heel lastig, post processing kan bv netjes geoffload worden naar de iGPU. Je hoeft niet per see SLI/CF achtige setups of render manieren te gebruiken.

En het percentage wat 2 GPU's in zijn systeem heeft zitten is vrij hoog dankzij de intergrated GPU's die sinds Vista op desktops zijn verschenen en de laptops in de markt vrijwel allemaal wel hebben. Daar valt toch een vrij groot deel van de casual gamers in.

https://blogs.msdn.micros...d-making-it-work-for-you/

[Reactie gewijzigd door batjes op 7 juli 2016 18:01]

De nieuwe/huidige unreal engine is (momenteel) niet van plan om multi gpu te ondersteunen (forum post)
We used Epic Games’ DX12 Unreal Engine 4 to split the rendering workload across an integrated Intel GPU and a discrete NVIDIA GPU to showcase how it is possible to use two disparate GPUs simultaneously to maximize performance.
Maar de Unreal Engine kan het al.
Ik ben vooral op zoek naar een goede VR-capable kaart voor een low-power mini-ITX build, en dan ziet het plaatje er toch heel anders uit:
  • SLI support maakt geen donder uit, daar is toch geen ruimte voor.
  • De 120W TDP in combinatie met een Skylake i3 betekent dat een 300W PSU al toereikend kan zijn.
  • Minder geheugen is jammer, maar 6 GB is nog altijd ruim voldoende.
  • De betere performance (980 niveau vs. 970 niveau) is het extra geld wel waard.
De RX480 was mijn eerste keuze voor deze build, maar in de praktijk blijkt hij minder te performen dan gehoopt, en meer stroom te zuipen dan verwacht. De GTX 1060 lijkt dan ineens een stuk aantrekkelijker. Natuurlijk wacht ik nog wel eerst de benchmarks af voordat ik iets ga aanschaffen.

[Reactie gewijzigd door Devil N op 7 juli 2016 15:32]

Eens. Ik zat ook op de RX 480 te wachten, maar de referentiekaarten vallen mij vies tegen. Wellicht dat de custom kaarten soelaas bieden, maar die lijken dan weer fors duurder te worden. De 1060 ziet er dan weer aantrekkelijk uit.
Ik zou voor de zekerheid toch even uitkijken daarmee als je een HTC Hive hebt gekocht.
Ja je bedoelt met een RX480, want die schijnt dus niet lekker te werken met de vive (maar zal wel opgelost worden middels de driver)..
Nee de nvidia kaarten bedoel ik
http://www.tomshardware.c...t-incompatible,32204.html

Het rare is dan wel weer die kaarten zijn al meer dan een maand uit en word stil gehouden.

[Reactie gewijzigd door satanas666 op 8 juli 2016 00:41]

Je kan ook naar een 290x met custom koeler kijken. Het meeste draait de kaart probleemloos, sommige games geven fps drops.
2e hands koop je deze voor 200-240(fabrieks-oc) ¤.
Dit is een kaart voor 1080p, 6GB of 8GB VRAM maakt dan niet veel uit. Ook lijkt deze een stuk zuiniger te worden, en beter te presteren. Afgaande op de specs zou het ook nog eens een goede overclocker kunnen zijn. Dus ja, niet zo gek als hij dan een meer dan geduchte concurrent voor de RX 480 wordt.

SLI/XFire interesseert mij (en met mij vele anderen) overigens geen bal, lijkt in de praktijk alleen maar meer problemen te geven dan dat het prestatiewinst geeft. Koop liever een 1070 dan 2 x een 480 of 1060.

DX12 performance daarentegen is wel iets of even in de gaten te houden. BF1 en Deus EX:MD staan immers voor de deur. Maar goed, die bieden natuurlijk ook gewoon een DX11 path aan.

[Reactie gewijzigd door Mitt3nz op 7 juli 2016 15:33]

Wel meer geheugen dan de 4GB RX 480 versie .. Enhet geheugen is niet alles dat telt
Maar wel minder dan de 8GB RX480...
Geen ondersteuning voor SLI, omdat er geen bridge aansluiting is. DX12 werkt op een andere manier dus dat wil niet zeggen dat het niet mogelijk is met software.
  • Vanwaar de 25% hogere MSRP? Vergeleken met een RX480 4GB? Want in vergelijking met de 8GB (reference) RX480 scheelt het 10 dollar. Toch wat custom modellen betreft.
  • Multi-GPU onder DX12 is f*cking moeilijk om goed te implementeren. Zo moeilijk dat MS zelfs een soort middleware gaat aanbieden om het gemakkelijker te maken.
  • Door enkele architectuurveranderingen en de hoge kloksnelheid is DX12 al een stuk minder 'mweh' dan bij Maxwell. (Bovendien boosten de Pascal GPU's nog aardig boven de geadverteerde boost-kloksnelheid.)
  • De 6GB van een 980Ti is nu ineens niet voldoende voor een 1080p -1440i kaartje?
  • 20-25% minder energieverbruik lijkt me ook niet gering. Los van de voedingsvereisten betekent het ook minder warmte en daardoor minder herrie.
ALS, en da's de vraag, ALS Nvidia genoeg kan leveren, kan AMD het warm onder de voeten krijgen. Met maar 1 speerpunt aan een oorlog beginnen kan gevaarlijk zijn. (
Door enkele architectuurveranderingen en de hoge kloksnelheid is DX12 al een stuk minder 'mweh' dan bij Maxwell.
benchmark? want dat heb ik nog nergens gezien. de enige benchmark waar dx12 echt beter was als 11 bij pascal was een benchmark waar dx11 gebottlenecked was (een overclocked 1080 scored gelijk aan de stock 1070, en maar net boven een 980ti)

de enige echte verbetering die ik heb gezien is dat pascal geen performance meer verliest als async word aan gezet.
Komt omdat veel mensen ~300 euro uit willen geven aan een videokaart. De gtx 1070 is dan te duur, en de rx480 dan weer te goedkoop. Ik ga geen gtx 1060 halen maar snap wel dat mensen het overwegen.
Lijkt me een prima koop. Een snelle en relatief goedkope kaart. De kaart zal prima met DX12 games werken, maar waarschijnlijk niet het optimale uit die games halen, lijkt in de komende 18 maanden geen probleem te zijn.

De AMD 480 is een goede concurrent, maar heeft op dit moment nog een paar problemen (hoog verbruik op de PCI bus en stuttering) die hopelijk met een driver update worden verholpen.

NVIDIA heeft de drivers vaak sneller/beter voor elkaar.

Als prijs echt een issue is, is de AMD 480 erg aantrekkelijk als de prijzen in Europa iets om laag gaan.

Voor iets meer geld vind ik een zuinigere (minder hitte en minder lawaai) en iets snellere kaart een prima keuze.

De 1070 is voor sommige mensen net te duur, dus de 1060 is een logische keus voor het midden segment.
Op de website van NVIDIA zie ik dat de Boost Clock 1708MHz is en niet 1706MHz, zoals in jullie grafiek.
http://www.geforce.com/hardware/10series/geforce-gtx-1060
Edit: De base clock is wel 1506Mhz, aldus de NVIDIA website.

[Reactie gewijzigd door Dyon_R op 7 juli 2016 15:04]

Thanks. Ik pas het aan. Die pagina hadden we niet beschikbaar op moment van schrijven :)
Ik ben benieuwd hoe deze kaart het gaat doen op 1440p...grote kans dat deze toch op redelijk korte termijn m'n 960 op gaat volgen. Het merk (voorheen altijd MSI vanwege de koeler) wordt dit keer wel een overweging...MSI is nog steeds erg goed als we kijken naar de 1070 / 1080, maar Asus Strix heeft de FanConnect die erg interessant is...en dan is er nog Gainward met de Phoenix, toch wel de mooiste van deze generatie wat mij betreft.

Maar goed, eerst de benchmarks en beschikbaarheid maar eens zien.
Laat ze nou eerst maar eens zorgen dat er 1080's te koop zijn. Zit al weken op voorraad van partnercards te wachten...
Helaas heeft deze ook geen DVI-I uitgang (VGA) meer. Ik ben nog op zoek naar een actieve DP/HDMI -> VGA converter die om kan gaan met een >300 MHz pixelclock, hopelijk komt die er ooit.
Ik denk dat je met een VGA scherm tot een hele kleine minderheid behoort.
Klopt, en niet alleen een CRT scherm maar ook CRT projector. Een 980 Ti is nu de laatste krachtigste kaart met een VGA-uitgang.

Wellicht dat HDFury met een (dure) oplossing komt en de nieuwe OLED techniek ziet er veelbelovend uit.
Zijn die VGA devices ook niet van een dusdanig lage resolutie dat de vorige generatie al voldoende is?
Het professionele spul van toen ging veel hoger, pas de laatste jaren overtreft de platte generatie zulke hoge resoluties en verversingsfrequenties. Bijvoorbeeld de Sony FW900 en vele andere CRT broadcast monitor of projectors.
Daar heb je verder toch geen snelle GPU voor nodig? Neem niet aan dat je dat antieke spul gebruikt om mee te gamen, of wel?
Hoezo niet? Tegen de verversingssnelheid en kleuren spectrum kan geen LCD tegen op.
Zo'n FW900 doet het voor gaming erg goed, met name in wat donkere games.Dadelijk met OLED is dat probleem ook opgelost. Een OLED op 120 Hz, wat hoger dan 1080p, nauwelijks/geen inputlag en ik ga zeker over naar iets nieuws.
2ehands 980Ti zou het nog wel even vol moeten houden.
Inderdaad, die gaat er zeker komen. Ik ben zelf ook aan het kijken om zelf met een oplossing voor DP/HDMI naar VGA (met hoge pixelclocks) te komen. Een goedkope DAC voor video is er al tot 330 MHz, enkel een (goedkope) transceiver voor HDMI/DP zit ik nog mee. In de vorm van een FPGA of IC. Hoewel het om een minderheid gaat weet ik dat er best een aantal is dat zit te wachten op zoiets.
Er is de laatste jaren ook wel wat vordering gemaakt met low latency/overhead capture. Misschien kan je er een ouwe kaart naastzetten, dan streamen.
Voor zover ik weet hebben die er geen die ook maar in de buurt komt van een 300 MHz pixelclock.
Wat voor scherm drijf jij nog aan met VGA? VGA geeft in mijn ervaring slechte resultaten eens de resoluties wat hoger komen te liggen...
Sony FW900 als monitor en een van mijn CRT projectoren als andere op VGA. Een IPS scherm heb ik ook trouwens, gewoon DP/HDMI, maar qua zwartwaarden is de FW900 mijn favoriet in met name donkere spellen. En het in stand houden van CRT spul is verder een hobby :)
Heh, succes! Indrukwekkende resolutie voor een CRT & VGA scherm. Ik heb al problemen met mijn 1680x1050 LCD hier :(
ik heb zelf een passieve dp -> vga adapter die perfect werkt. waarom eigenlijk die specifieke pixelclock?
Hoge resoluties en verversingsfrequenties, met 1920x1200 @ 85Hz zit je op zo'n 280 MHz.
aah op die manier, ik gebruikte inderdaad simpele 1280x1024 kantoor schermpjes
Je moet sowieso even opletten hiermee, want er was laatst een bericht (forum ?) dat nvidia hiermee problemen had (zwart scherm, geen signaal dacht ik).
De eerste 1060 kaarten zullen wel weer die founders editie herriebakken zooi zijn.
De gene die hem willen, kunnen beter wachten op de aftermarket kaarten.
Herrie is ook maar een mening... Zo vind ik de 1080FE helemaal geen herrie maken en vergeleken met de 290x zijn ze zelfs stil te noemen.
Moet je dat eens vergelijken met bv. een Palit Gamerock gtx 1080. Dan maken ze in vergelijking weldegelijk veel herrie.
Ja, dat kan... maar dan zou ik het nog altijd geen herrie noemen. ;) Herrie is lekker negatief, terwijl het allemaal echt niet zo erg is.
Dat is erg persoonlijk, ik heb destijds zo'n type kaart teruggestuurd wegens teveel lawaai.
Ik zit in een stille omgeving met open-ended headphones en zet m'n games etc nooit erg luid. Ik wil m'n pc helemaal niet horen dan. Dat lukt prima met de stilste kaart, maar zeker niet met zo'n blower model (of hij gaat helemaal terugklokken met custom fan profiel).

M'n overclocked Palit GTX 1070 Gamerock draait onder load aan 875 RPM en is na lang gamen nog steeds maar 75°C. Rest van m'n PC is ook op stilte gericht (450RPM case fans, passieve voeding, cpu fans 350 à 625 RPM).

(productreview: Palit GeForce GTX 1070 GameRock review door SmokingCrop)

[Reactie gewijzigd door SmokingCrop op 7 juli 2016 15:32]

Daar ben ik het helemaal mee eens hoor, maar dat is ook precies wat ik bedoel. Wat voor hem herrie is kan voor mij stil zijn. Daarom vind ik het nogal simpel om de stempel "herriebakken zooi" er op te drukken. Ik hoor mijn 1080 FE eigenlijk nooit (zelfs niet op 70%). De kast staat dan ook onder mijn bureau en ik zit vrijwel altijd met mijn headset op.

(mooie review btw :) )
Ik vind de 1080FE ook vrij stil.
er is nog niks bekend over de geluidsproductie?
De stock kaarten zijn meestal niet echt stil te noemen.
Vinden jullie het niet een beetje oneerlijk om de prijzen van de 480 en de ander kaarten in euro's te zetten en die van de 1060 in dollars?
In de tekst staat uitgebreide toelichting over de prijzen. Dat past niet echt een in de tabel. Ik hoopte dat er vanmiddag nog wel euroadviesprijzen zouden verschijnen, maar helaas.

Met oog op de recente releases van de GTX 1070, 1080 en RX 480 is er eigenlijk weinig concreets te zeggen over de europrijs van de GTX 1060. Het zal ook weer erg van de beschikbaarheid afhangen de eerste weken/maanden.
Zoals er staat, er zijn geen prijzen bekend, behalve de US versies. Gaan gokken wat dit in Euro's wordt, kwam bij de 480 ook niet helemaal goed uit de bus.
Is het dan niet handig om alles in dollars te zetten?
Niet echt, de rest is immers wel in euro's bekend, dan zou je het omdraaien om 'verkeerde' conversie dollar neer te zetten omdat er 1 van de 5 nog geen euro prijs heeft (zal komende dagen wel komen).
Hoe verhoudt deze zich tot de rx480?
Ik doe namelijk ook video-editing naast het gamen, AMD schijnt niet ideaal te zijn voor Adobe.
Hij zat volgens de laatste test ~10% beter dan de 480, maar kan best zijn dat in taakspecifieke zaken hij een stuk sneller kan zijn (al weet ik niet echt het grote technische verschil tussen de 2 kaarten - zoals bij CPU's de singlecore prestaties van Intel altijd veel hoger zijn dan AMD).
Komt er dus gewoon op neer dat we het moeten afwachten ;)
-OPGELOST-

[Reactie gewijzigd door Manny Calavera op 7 juli 2016 15:43]

Aan de andere kant: hoe moet SingeryX dat weten, als niemand benchmarks heeft gezien, behalve 3DMark?
Ik word een beetje pissig van al die mensen die direct er vanuit gaan dat ik bijvoorbeeld iets niet gelezen heb. Er is al meer informatie beschikbaar over deze kaart, ik heb helaas niet de know-how om te weten of Nvidia of AMD beter omgaat met programma's als Adobe. Sommige programma's krijgen drivers die ervoor zorgen dat de cores van de GPU beter geoptimaliseerd is, mijn vraag was dan ook, weet iemand daar al iets meer over ten opzichte van de RX480, waarvan ik had vernomen dat die niet geweldig was. Die 10% sneller zegt werkelijk niks, en al helemaal niet over Adobe, vandaar mijn vraag.
Nou.. ik denk niet dat er al meer bekend is buiten de speccs om.
Heel veel dingen waren al wel eerder bekend dan vandaag.
Maar ik heb even gekeken maar kan nog nergens echte benches vinden.
De enige zijn leaks van 3d mark etc.
Laten we hopen dat er snel echte reviews komen en dat ze dan ook andere dingen als Adobe een keer erbij pakken.

off-topic: ik bedoelde ook niet zozeer naar jouw, maar ik wordt altijd een beetje moe van de mensen die een artikel totaal niet lezen en dan vragen gaan stellen die (half) in de tekst staan.
Ok dan was dit een misverstand, geen nare gevoelens hiero :)
Die -1 heb ik overigens niet gedaan :)
Voor Adobe wordt voor hardware rendering Nvidia met CUDA of OpenCL en ATI alleen met OpenCL ondersteund. Nvidia Cuda wordt al langer ondersteund, OpenCL alleen in Adobe CC. Voorheen konden meer functionaliteiten met CUDA aangestuurd worden. Hoe de huidige stand van zaken is (in zij algemeen, vergelijking GTX1060/RX480 daarbuiten gelaten) qua hardware rendering mogelijkheden en snelheidsverschil in tussen Nvidia / ATI weet ik niet exact.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True