Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 294 reacties

Er zijn slides verschenen over de GeForce GTX 1060, de nog niet aangekondigde midrange-gpu van Nvidia. Volgens de uitgelekte informatie krijgt de gpu 1280 cudacores, 6GB gddr5-geheugen en een tdp van 120 watt. Nvidia claimt dat de kaart 15 procent sneller is dan de AMD RX 480.

De slides zijn door VideoCardz gepubliceerd en tonen in grote lijnen de specificaties van de GTX 1060. Ook is te zien dat Nvidia de videokaart aanprijst met het motto 'GTX 980-prestaties voor alle gamers' en dat de kaart in juli moet verschijnen. Volgens geruchten presenteert Nvidia de videokaart op 7 juli en zou de gpu een week later in de winkels liggen. Eerder deze week verscheen er al een foto van de GTX 1060, die wat uiterlijk betreft overeenkomt met de grafische kaart in de slides.

Nvidia GeForce GTX 1060Nvidia GeForce GTX 1060Nvidia GeForce GTX 1060

Volgens de afbeelding is de gpu van de GTX 1060, vermoedelijk de GP106, voorzien van 1280 cudacores. De GTX 1070 en 1080 hebben er respectievelijk 1920 en 2560. Het geheugen is 6GB gddr5 op 8Gbit/s. Hoewel het niet in de slides staat, meldt VideoCardz dat de geheugenbus 192bit breed is. Daarmee zou de geheugenbandbreedte uitkomen op 192GB/s.

Verder claimt Nvidia dat de GTX 1060 zo'n 15 procent sneller is dan de AMD RX 480. Bij vr-toepassingen zou dat 25 procent zijn, maar het is niet duidelijk waar het groene kamp dat op baseert. De kaart zou bovendien 45 procent efficiënter zijn. De tdp is volgens de slides 120 watt.

Nvidia zal met de GTX 1060 de concurrentie met de AMD RX 480 aan willen gaan. Die videokaart presteert vergelijkbaar met de GTX 970 van de vorige generatie, maar heeft een lagere prijs. De 4GB-uitvoering van de AMD-kaart kost zo'n 219 euro en de 8GB-versie is verkrijgbaar vanaf 269 euro. Vermoedelijk zal Nvidia de GTX 1060 wat prijs betreft daar iets boven positioneren. De vertaling van een bericht van Benchlife lijkt te suggereren de kaart geen sli ondersteunt.

Videokaart RX 480 GTX 980 GTX 1060 GTX 1070 GTX 1080
Gpu Polaris 10 GM204 GP106 GP104-200 GP104-400
Procedé 14nm finfet 28nm 16nm finfet 16nm finfet 16nm finfet
Cores 2304 2048 1280 1920 2560
Baseclock 1120MHz 1126MHz ? 1506MHz 1607MHz
Boostclock 1266MHz 1216MHz 1700MHz 1683MHz 1733MHz
Vram 4/8GB gddr5 4GB gddr5 6GB gddr5 8GB gddr5 8GB gddr5x
Geheugenbus 256bit 256bit 192bit 256bit 256bit
Bandbreedte 224/256GB/s 224GB/s 192GB/s 256GB/s 320GB/s
Tdp 150W 165W 120W 150W 180W
Stroom-
aansluiting
1x 6pins 2x 6pins 1x 6pins 1x 8pins 1x 8pins
Prijs €219/269 ~€400 ? ~€500 vanaf ~€700

Nvidia GeForce GTX 1060 Reddit

Moderatie-faq Wijzig weergave

Reacties (294)

Die grafieken die ze erbij zetten zijn altijd zo vertekend. Je begint op 0.8 en gaat door tot 1.5. Dan lijkt het alsof hij twee keer sneller is, tot je kijkt naar wat er nou echt staat. Gelukkig dat het in het artikel wel duidelijk staat.

Als nvidia de 1060 een beetje snel eruit gooit en concurrerend prijst, kan AMD wel een probleem hebben. Misschien dat het dan niet meer zo aantrekkelijk is om de 480 te halen
Dat heeft AMD dan.
Volgens mij is:
-de chip van AMD duurder om te produceren (shaders, geheugenbus, procede).
-minder krachtig
-minder zuinig
-duurdere koeler voor OEM's (want meer hitte om af te voeren betekend meer metaal bij eenzelfde performance, dus duurder om te produceren)

Met een beetje pech houdt Nvidia haar marktaandeel vast en weet het een hogere winstmarge per verkocht product te realiseren dan AMD.
(is minder budget voor R&D bij AMD waardoor ze elke iteratie verder gaan achterlopen)

[Reactie gewijzigd door eL_Jay op 1 juli 2016 15:02]

Waaruit haal je dat de chip van AMD duurder is om te produceren? Ik denk juist dat de chip van Nvidia véél duurder is om te produceren, omdat ze de GP104 zelfs een maand na de introductie nog steeds niet goed op voorraad weten te krijgen. Met als gevolg, absurd hoge prijzen. Ik zou niet weten waarom dat er met de GP106 anders zal worden.

Bovendien kan je er gif op innemen dat de GTX 1060 veel duurder gaat worden dan de RX480. Momenteel kost een 1070 minimaal 500 euro (geen enkele fabrikant haalt de 379 dollar pricetag voorlopig en door de schaarste + euro zijn ze véél duurder dan voorgespiegeld) en een 1080 minimaal 700 euro. Dan kan Nvidia niet de 1060 op 250 euro zetten, dat is een véél te groot prijsverschil in de prijsklasse waarin de meeste GPU's worden verkocht.
De 1060 kost dus sowieso 300-350, fors hoger dan de RX480 4GB die je al voor 219 kan bestellen. Voor slechts 15% meer performance + extra kosten door G-Sync. Ik wist het wel.

Minder zuinig, iedereen heeft van de vorige generatie toch nog een 500w voeding liggen en tenzij je 50 uur per week gamed maakt het op je energierekening geen reet uit. En duurdere koelers voor OEM's? Geen idee waar je dat vandaan haalt :P
Het is in ieder geval een feit dat NVidia forse yield-problemen heeft met de GP104, anders zou de voorraad niet zo gruwelijk slecht zijn. :)

Als jouw speculatie over de prijs klopt (ik verwacht ook dat die relatief aanzienlijk meer hoger ligt dan de extra performance) dan ben ik het met je eens. De 480 volstaat voor 1080p-gaming met DX11 en is beter voor DX12, een gemakkelijke keuze voor mij tussen die twee kaarten.
Wil je 1440p, dan moet je wachten totdat de 1070 fatsoenlijk leverbaar is (en een G-Sync monitor bezitten of kopen) of totdat Vega uitkomt.

[Reactie gewijzigd door CHBF op 1 juli 2016 15:12]

Zou me niet verbazen dat die yield niet zo slecht is. Beetje Apple toestanden van "beperkte" stock. De prijzen zijn ridicule van de 1070/1080.

Heb al een tijdje in het snuitje dat men de prijzen van de grafische kaarten aan het omhoog aan het duwen zijn. Vroeger was een 500¤ de top kaart.

Nu is dat al 700¤ range voor de normale top kaart. En dan komt er nog een TI versie uit. En dan een Titan versie.

Je merkt dat er niet genoeg concurrentie meer is op de markt.
Je vergist je, als er te weinig concurrentie zou zijn dan zou je zien dat de prijzen stijgen voor dezelfde prestaties. Ja, de high-end kaarten zijn duurder dan de vorige generatie, maar ze preseteren ook navenant meer. Maar bij constante performance zie je dat de 1060 goedkoper wordt dan de 980 destijds.

Ik denk dat het eraan ligt dat de economische crisis over is. Ten tijde van de 980 had NVidia ook een kaart van 700 euro kunnen maken, met een hogere performance, maar die zou niet genoeg verkocht zijn om rendabel voor NVidia te zijn. En nu zien we wel dat de 1080 populair is, zelfs voor 700 euro zijn er meer klanten dan kaarten.
Het probleem is dat je vergelijking niet opgaat.

Normaal ging de prijs van de oude producten naar beneden ( grondig ) vlak voor de nieuwe uitkwamen.

In geval van de 1070/1080 ( en de voorgaande ), is dat patroon niet gebeurt. De prijzen zijn licht gezakt maar niet zo veel. De 1070/1080 daartegen komen binnen op een dik hogere prijs.

Een deel van de uitleg was dat Nvidia wou dat de voorraad in de EU van hun "oude" stock eerst uitverkocht wouden geraken.

Moest er wel degelijk concurrentie zijn ( 1070 vs RX?, 1080 vs RX? ), dan zou er een degelijke prijs drop sneller aankomen.

Dat de 1080/1070 niet in voorraad is, kan aan meerdere factoren liggen:

* Te weinig productie ( met opzet; voor de prijzen hoog te houden )
* Te weinig productie ( niet met opzet, wegen te populair )
* Problemen met de productie ( zal me niet verbazen )

Vergeet niet, toen de 1070/1080 uit kwam, was er al lang geen spraken van een concurrerende release van AMD uit.
Mensen schijnen ook te vergeten dat AMD zoiets heeft geïntroduceerd als de APU. En Intel is gevolgd met betere geïntegreerde graphics. Steeds krachtiger geïntegreerde graphics maken het basissegment grafische kaarten overbodig. Terwijl daar wel wat aan te verdienen viel gezien het grote volume.

Dus terwijl Nvidia telkens meer winst wil draaien om de aandeelhouders gunstig te stemmen, ziet het een belangrijke bron aan inkomsten verdwijnen. Dus proberen ze hogerop meer te verdienen. En ze kunnen daar meer proberen vragen, juist omdat er geen concurrentie is van AMD in dat segment.

Als de nieuwe GTX1060, in combinatie met het GameWorks eco-systeem van Nvidia, nu mensen ervan weerhoudt om een RX480 te kopen, zal AMD met een stevig probleem zitten tot Vega aantreedt. En dan nog valt te zien of AMD qua prestaties mee kan. En geen al te grote chip moet gebruiken om de competitie aan te gaan met GTX1070 en 1080. (GP102 al ook groot zijn, dus dat Vega groot is is daar minder van tel.)
Je vergist je, als er te weinig concurrentie zou zijn dan zou je zien dat de prijzen stijgen voor dezelfde prestaties. Ja, de high-end kaarten zijn duurder dan de vorige generatie, maar ze preseteren ook navenant meer. Maar bij constante performance zie je dat de 1060 goedkoper wordt dan de 980 destijds.

Ik denk dat het eraan ligt dat de economische crisis over is. Ten tijde van de 980 had NVidia ook een kaart van 700 euro kunnen maken, met een hogere performance, maar die zou niet genoeg verkocht zijn om rendabel voor NVidia te zijn. En nu zien we wel dat de 1080 populair is, zelfs voor 700 euro zijn er meer klanten dan kaarten.
Volgens jou redenatie zou de GTX 1080 dus ¤636400 mogen kosten.

Immers de Geforce 4400 Ti was vroeger 350 euro. Op videobenchmarks is het verschil 7 vs 12748. Dan laat ik voor het gemak de inflatie even zitten...

Wellicht snap je nu hoe onzinnig het is om te redeneren dat een snellere kaart ook duurder mag zijn. Het is juist omgekeerd, er is een budget en binnen dat budget wordt een zo snel mogelijke kaart geleverd.

Er is echter een nieuw segment toegevoegd genaamd "enthusiast". De eerste in dit rijtje was de Titan. Omdat de consument zo "stom" is om deze kaarten aan te schaffen is het nu normaal om een kaart van 700+ euro aan te raden.
Daarbij wordt wel even vergeten dat er met een nieuw segment tegenwoordig ook wel een nieuw performance niveau wordt gevraagd vanuit de markt. 4K en VR zijn nogal een 'sprong omhoog' wat dat betreft. Niet al te lang geleden was de standaard 'ultra gaming' spec 1080p voor alles en iedereen, en opeens werden monitoren met 1440p betaalbaar en heel kort daarop was 4K ineens 'happening'. En kort dáárop komt VR kijken waar 90 fps de gewenste framerate is, in plaats van 60, ook op een hogere effectieve resolutie dan 1080p. Tegelijkertijd waren er nieuwe consoles na 7-8 jaar stilstand op de PS3 en X360, wat er ook voor zorgt dat op gelijke resolutie games zwaarder worden. Kortom drie grote invloeden waar je eigenlijk niet omheen kunt.

Dus of het zo raar is... ik weet het niet. De grote vraag is meer of je die hogere resolutie voor gaming wel moet willen, want doe je dat niet, dan is het bijzonder snel goedkoop aan het worden en veel games zijn in mijn optiek veel prettiger spelen op 100+FPS dan op een veelvoud aan pixels. Gaming is bewegend beeld, waarbij motion resolution van veel groter belang is, dus snelle pixel response, lage input lag en dito monitor leveren veel meer op dan pixel aantal.

Vroeger was die groep consumenten die high-res gaming wilde namelijk bezig met multi-monitor en een opstelling van 2 of meer GPU's. Multi-monitor is per definitie minder aantrekkelijk dan een enkele UW of 4K monitor, dus de groep consumenten die high-res gamed zal ongetwijfeld zijn gegroeid - de drempel is lager.

Mbt de 1060... als die op 1280 shaders meer gaat leveren wat de RX 480 op bijna het dubbele aantal doet, dan gaat AMD hier een hele zware kluif aan krijgen.

[Reactie gewijzigd door Vayra op 2 juli 2016 12:15]

Ik ben ooit begonnen op een 640x480 monitor en Age of Empires wilde dan niet goed draaien, die wilde 800x600 en dan kreeg je rare strepen. Nadat 800x600 de standaard was kwamen we jaren lang op 1024x768 en vervolgens op 1280x1024. Pas een jaar of 5 later brak 1680x1050. Pas na decennia lang kwamen we op de huidige 1920x1080 als mainstream.

Wat dat betreft is 4K niets nieuws. Zie ook de procentuele sprongen:
800x600: 480000=100%
1024x768: 786432=164%
1280x1024: 1310720=167%
1680x1050: 1764000=135%
1920x1080: 2073600=118%
2560x1440: 3686400=178%
3820x2160: 8251200=224%

Verder kwam de titan al in het full hd tijdperk uit.

Maar goed ik vindt het, net als jij?, veel te vroeg voor gaming op 4K. Ik heb elke generatie uberhaupt pas 1-2 jaar na de mainstream gevolgd. Immers op die manier kon ik GTA 4 bij launch op 70+ FPS draaien in plaats van minder dan 40-50 fps. Ik verkies spelplezier boven die extra pixels.

Zelf heb ik nu een 2560x1080 monitor, dus 21:9. Dat is echt heerlijk inde meeste game. Kost je slechts 33%.

[Reactie gewijzigd door sdk1985 op 2 juli 2016 13:11]

Mbt de 1060... als die op 1280 shaders meer gaat leveren wat de RX 480 op bijna het dubbele aantal doet, dan gaat AMD hier een hele zware kluif aan krijgen.
Lijkt me sterk dat dat gaat lukken, en zeker niet voor de zelfde prijs, zou mooi zijn uiteraard.
Het lijkt mij juist heel sterk dat het niet lukt - de RX480 zit ongeveer tussen de 970 en 980 in, gezien het normale verloop zal de 1060 minimaal het 970 niveau gaan halen... De prijs is inderdaad een ander verhaal.

[Reactie gewijzigd door Vayra op 3 juli 2016 18:17]

Ergens vind ik het dan ook wel raar dat Nvidia geen GTX 1060 maakt van de mislukte 1080's en 1070's. Ja, op lange termijn is dat misschien wat onhandig, maar ze zouden volgens mij op die manier AMD nu behoorlijk kunnen dwarszitten :P
Sterker nog, er zijn geruchten geweest dat dat ook ging gebeuren, althans voor een toekomstige '1060 Ti'... https://nl.hardware.info/...tx-1060-ti-met-6-gb-gddr5
Dat kan dus ook nog steeds.
Nee, want een 1060Ti zal altijd boven de 1060 worden gepositioneerd. Als een 1060 al veel duurder is dan een 480, zal een 1060Ti nog duurder zijn, waardoor ze geen verkopen van AMD kunnen afpakken.
Juist ja. Ik snap je nu pas.
Ik bedoelde meer dat er nog een 1060Ti kan komen, die tussen 1060 en 1070 geplaatst wordt. Qua prijs is zo'n oplossing voor nvidia denk ik ook wel heel nuttig. Qua prestaties: Mwah.
Kan ook zijn dat ze zitten op te sparen en straks aan een OEM verkopen. Zou niet de eerste keer zijn.
Aangezien micron de gddr5x productie nog maar zeer kort had draaien ligt het probleem waarschijnlijk ook bij de levering van het geheugen.
De 1070 is ook slecht leverbaar, die heeft gewoon GDDR5.
Volgens mij (weer eens) met name in Nederland. Overigens, als Nederlander kan ik je adviseren deze bij Alternate.de te bestellen. Ik had 'm binnen twee dagen in huis voor betere prijzen dan in Nederland in de winkel!
Als je op Reddit kijkt komen de klachten over de slechte levering van zowel de 1070 en 1080 overal ter wereld terug. Zo zijn er ook verhalen van mensen die maar upgraden naar een 1080 omdat die toevallig eventjes op voorraad was en de 1070 niet.

Het ziet er naar uit dat dit weinig te maken heeft met alleen de Nederlandse voorraden.
Invoer rechten?
Invoerrechten heb je van binnen de EU niet mee te maken. Verzendkosten waren ¤ 9,90
Kan natuurlijk best zijn dat de yields voor 1080 waardige chips slecht zijn maar dat de wat mindere best voor 1070's of 1060's gebruikt kunnen worden.
Ja, een volledige chip met enorm hoge clocks en ook nog zuinig, slechte yields! 8)7

Ik denk eerder dat nvidia niet de enige klant is voor 16nm finfet.
Waarom zeg je dat G-sync nodig is voor de 1070 en 1440p? Met Nvidia fastsync is 60Hz perfect doenbaar, wat nog niet half zo veel kost als een 144Hz G-sync monitor.
De Pascal serie kaarten is momenteel véééél zuiniger dan Polaris van AMD.
https://www.techpowerup.com/reviews/AMD/RX_480/25.html
Als je deze grafieken bekijkt zie je dat AMD momenteel ongeveer gelijkloopt aan de zuinigheid van Maxwell, en dat terwijl dat nog met de 28nm procéde is gedaan.

Daarnaast zal het inderdaad goedkoper zijn voor Nvidia, de RX480 chip is wss groter qua oppervlak dan de gp106 waar de 1060 op gebaseerd zal zijn.
Tuurlijk vraagt Nvidia nu meer voor hun videokaarten, maar introducties aan de ene kant gaan bijna altijd gepaard met prijsdaling van de andere kant. Zo gaat dat spelletje al jaren.

Dus hoe dan ook zit Nvidia momenteel beter, want je kan dan wel niet zo heel veel om de zuinigheid geven, maar dat betekent ook dat het duurder is om een veel snellere kaart te maken voor AMD
De 480 gebruikt nog GDDR5 ipv hbm wat je terug zal vinden in de high end kaarten van AMD, misschien heeft dit ook impact op het stroomgebruik?
Ze kunnen het prima op 249 dollar zetten (maar er zal heus wel 30 dollar op gaan voor inflatie). Alleen de kans dat het in de praktijk voorlopig net zo gaat als met de x70 en x80 is natuurlijk vrij groot. Maar goed over een half jaar zijn we dat allemaal vergeten. Het is nu gewoon een typische paper launch.

Wellicht was Nvidia bang dat AMD snel met Polaris kwam en hebben ze te vroeg gelaunched. Die voorraden waarin de 480X leverbaar is kun je namelijk niet stil houden. Nvidia zal wel op de hoogte geweest zijn.

Verder is het yields "gezeur" al zo oud als de weg naar Rome. Kijk gewoon aan het eind van het kwartaal eens naar de financiële cijfers. Er is tot heden geen jaar geweest waarin AMD het beter deed dan Nvidia qua marge. Dat ondanks alle doemvoorspelling mbt yield aan de kant van NVidia. Bovendien heeft AMD met de gpu tak überhaupt nog nooit een goed jaar behaald qua marge, met uitzondering van de jaren waarbij de semi-custom verkopen waren opgenomen. Dat is een beetje flauw van AMD natuurlijk ;).

Ik heb van te voren gezegd dat AMD twee kanten op kon; een kaart rond kostprijs aanbieden om zo marktaandeel terug te winnen of meegaan in de prijsverhoging met Nvidia en weer een beetje winst proberen te maken. Het lijkt er sterk op dat ze voor optie 1 zijn gegaan. De cijfers zullen moeten bevestigen of dit klopt. Het lijkt mij onwaarschijnlijk dat ze zowel veel goedkoper kunnen leveren EN de marge flink kunnen verbeteren. Dat gaat alleen als je geen concurrentie hebt of kan toveren. Die concurrentie is er en of ze kunnen toveren??? Aan het eind van volgend kwartaal weten we het.

[Reactie gewijzigd door sdk1985 op 1 juli 2016 18:48]

Grappig, ik game inderdaad zo'n 50 uur per week en ik heb een 450W PSU die al enkele Jaren meegaat omdat ik al enkele Jaren Nvidia kaarten heb.

We zullen zien wat de prijzen zijn, bij gelijke of ongeveer gelijke prijs kies ik voor Nvidia, als het verschil groot is dan 50-60 euro word het AMD.
ik heb een 450W PSU die al enkele Jaren meegaat omdat ik al enkele Jaren Nvidia kaarten heb
Ik weet niet waar je dit oorzaak-gevolg verband vandaan haalt. Veruit het grootste deel van de PSUs gaan 'enkele jaren' mee, vaak krijg je zelfs 12 of 24 maanden garantie op deze onderdelen.

Het klinkt alsof je onder de indruk bent dat een Nvidia kaart beter is voor de levensduur van je systeem. Als je daar bronnen voor hebt zou ik die graag willen zien.
Fabrieksgarantie is misschien 12 maanden, maar voor we winkelgarantie geldt de " normale levensduur van het product". En voor een PC is dat tegenwoordig 4 jaar. (In Nederland dan, als je elders in de EU koopt heb je altijd nog een minimum van 24 maanden)
Dan lees je het niet goed, het gaat mij om het feit dat ik mijn PSU niet heb hoeven vervangen voor een nieuwe GPU en dat gaat al een paar generaties van GPU's zo voor mij.

Sowieso ben je verkeerd bezig als je bezuinigd op je PSU, in mijn opinie, ik heb al geruime tijd dezelfde omdat ik meer op kwaliteit als op prijs koop.
Mijn conclusie is niet gebaseerd op "Nvidia kaarten zorgen ervoor dat mijn PSU minder slijt" maar op "Nvidia kaarten verbruiken minder stroom en zorgen dat ik dus niet hoeft te upgraden".
Probeer eens de EVGA hun top voedingen ( G2 / P2 ). Garantie: 10 jaar... Kosten ook wel van 100 tot 250¤ ( 1000W+ ). Kwaliteit is natuurlijk uitstekend.
12 maanden zou schandalig laag zijn. Jij doet net alsof het een enorme eer is dat ze überhaupt garantie geven op de voedingen...
Volgens mij begrijp je mijn bericht niet helemaal..
Grappig, ik game inderdaad zo'n 50 uur per week en ik heb een 450W PSU die al enkele Jaren meegaat omdat ik al enkele Jaren Nvidia kaarten heb.
Die PSU was net zo lang meegegaan op AMD kaarten hoor :P
Als je inderdaad zoveel speelt, kan je het energieverbruik meerekenen. Stel dat je 20 watt per uur meer verbruikt, 50 uren per week, 52 weken per jaar, dan kost je dat 52 kilowatt per jaar extra. 1 kWh kost zo'n 18 eurocent, dus dan spreken we over ¤9,36 per jaar 'besparing'. Ik denk niet dat iemand daar wakker van ligt, en nogmaals we spreken dan over 50 uur consistent gamen per week :P

Het is hoe dan ook de prijs die AMD of Nvidia gaat maken of breken. Desalniettemin is mijn enige advies: wacht nog een paar maanden tot zowel AMD als Nvidia in alle prijsklassen een goed leverbare kaart aanbieden. Dat komt ons als consumenten alleen maar ten goede :)
Wacht tot je een job hebt. Dan spaar je nog veel meer uren op je gaming :)
Of een kind. Of beiden.

Bij mij ging tijdens studie gamen naar 50 uur per week. Met vriendin erbij naar 40 uur per week. Met mijn baan na studie naar 20 uur hooguit en met samenwonen naar 10.

Je raadt waarschijnlijk al dat nu er een baby rondkruipt het gamen niet belangrijk meer is. Als ik af en toe ern uurtje kan, ben ik blij. Vind het niet erg, ik 'game' nu door met mijn baby te spelen :-)
Met een beetje geluk kan je over een jaar of 15 met je kind gamen. Ik speel soms een potje overwatch met de jongens. Als ik mee mag doen haha. Ik heb ook nog een gamende dochter. Maar die speelt geen overwatch.

[Reactie gewijzigd door Tripledad65 op 1 juli 2016 16:23]

Ik heb nog een ouderwetse NES aangesloten staan, dat wordt zijn eerste game ervaring over een paar jaar. :-)
Probleem is dat die baby game, een nogal dure oplossing is voor beetje elektriciteit uit te sparen ;)

Heb hetzelfde hier ook genoeg gezien. Zodra je vrouw aan je been hebt, dan vliegen de gaming uren naar beneden ( of er word enorm gezaagd ).

De ideale vrouw is ook een gaming vrouw. Maar die zijn zo zeldzaam :D
Klinkt bekend :)
Ik ben klaar met werken, het omgekeerde dus, ik ben met pension :D
Lol, dat ligt niet je videokaarten hoor..je psu zal t worst wezen welk merk jij erin stopt, en goeie voeding kan meerdere builds overleven.
Echt? Volgens mij is begrijpend lezen lastig voor je.
Tjah, zelfs met een R9 290 kan je nog af met een 450w PSU, het wordt wat krap je moet niet nog een hele sloot aan andere zooi er bij in gooien (lees 10 HDDs, LEDs etc) maar het kan wel dus zoveel zegt je statement helemaal niet ;) behalve dan dat je niet echt veel inzicht hebt in hoeveel een PC in het algemeen verbruikt tegenwoordig.

[Reactie gewijzigd door DarkBlaze op 3 juli 2016 10:22]

ben het grotendeel met jouw kant van t verhaal eens maar is de GP106 niet kleiner dan de gp104 dus heb je natuurlijk hogere yields / minder extra kosten dan met de GP104?

verder heeft amd meer mogelijkheden om zelf te produceren waar nvidia dit moet uitbesteden, dat geeft ook hogere kosten voor nvidia. Volgens mij is dat ook de voornaamste reden dat nvidia niet meer zoveel interesse heeft in console GPU's leveren.
We weten het helaas niet. Het Nvidia markt aandeel is gigantisch in vergleijking met die van AMD dus het kan gewoon net zo goed zijn dat er fors meer vraag is. Simpelweg we weten het niet.
Ik denk ook dat ie richting 300-350 gaat worden. Als nvidia het onder de 300 introduceerd zal heel mooi zijn en heel slecht voor amd. Nvidia kennende zal het zowiezo 300+ worden.
@Richh, laten we eerst maar eens wachten in welke getalen en tegen welke prijs de RX480 leverbaar is, voordat we de beste prijs/prestatie conclusies gaan trekken. Want het zal niet de eerste keer zijn dat webshops de kaarten niet kunnen leveren voor de adviesprijs, wat jij ook weet getuige je verhaal over de prijzen van de GTX1070.

Sowieso heeft AMD nog het e.e.a. uit te leggen aangaande het stroomverbruik van de RX480 en daarnaast moeten we af gaan wachten wat de gevolgen in de praktijk zijn van het out of specs verbruik van die kaart via het PCI-E x16 slot. Persoonlijk brand ik mijn handen (nog)niet aan de RX480 en raad ik deze kaart voorlopig ook niet aan bij familie, vrienden en kennissen, terwijl ik al ruim tien jaar een trouwe ATI/AMD gebruiker ben; ik heb sinds de Geforce 4 geen Nvidea kaart in mijn PC's gehad.
Azerty heeft de eerste lading Sapphire RX480's al voor 219 uitgeleverd hoor :P check het CJ AMD topic maar.
Het stroomverbruik word dinsdag gefixt en stelt sowieso niet zoveel voor.
Nee elk bedrijf maakt verschillende versies van de 1070. de goedkopere worden nog niet in Europa verkocht. Kijk bijv naar Evga die vaak wat duurder is, 419 dollar. Binnen een aantal maanden zou de 1070 onder de 400 gekocht kunnen worden.
Dat klopt; ik zeg ook niet voor niks dat de voorgespiegelde pricetag 'voorlopig' niet gehaald wordt.
Dat betekent echter op hetzelfde moment dat de 1060 'voorlopig' ook nog iets duurder zal worden om het een beetje in evenwicht te houden. Desalniettemin denk ik dat een $299 pricetag, oftewel ~¤329, inderdaad best aannemelijk is. Even uitgerekend is dat 30% duurder voor 15% meer prestaties.
Daarnaast is mijn ervaring met AMD dat de drivers vaak crashen, en dat je met een nieuwe driver vaak niet weet of het iets stuk maakt.
Dat klopte, maar sinds AMD de GPU-tak heeft afgesplitst naar RTG is daar wel serieus wat in veranderd. Ik draai nu nota bene Crossfire, en ondanks dat een CF-profiel soms een weekje na de launch pas beschikbaar komt, heb ik qua stabiliteit niks te klagen. Aan de andere kant:
https://nl.hardware.info/...st-problemen-van-36447-op
https://nl.hardware.info/...idia-geforce-driver-36472

Niks negatiefs tegen Nvidia hoor, daar begint het nu misschien wat op te lijken, maar dat is niet de bedoeling. Ik post dit alleen maar om de 'onderbuikgevoelens' die over het algemeen behoorlijk 'anti-AMD' lijken een beetje tegen te spreken (omdat het niet klopt) :)
Nou een vriend van mij had een gtx970 gehaald en die had toen last van wat crashes en het 3,5gb probleem en toen maar een 390 gehaald.

Wat ik hier mee wil zeggen is dat 1 ervaring nergens goed voor is. Ik heb zelf zowel AMD als nVidia kaarten in gebruik en beide hebben zo hun problemen maar dat is echt om het even.

[Reactie gewijzigd door DarkBlaze op 1 juli 2016 20:51]

Kinderachtig? Elke keer bij een artikel waar 2 kampen zijn (AMD/nVidia, Apple/Android, etc), staat de halve thread vol met reacties als "merk X is zo slecht, want de vriend van de moeder van de ex-vriend van mijn vriendin heeft daar zoveel problemen mee gehad".

Ik vind dat soort "ervaringen" geen toegevoegde waarde hebben.
En geen toegevoegde waarde is volgen jou een -1? Tsss. Geef dan gewoon een 0. Het blijft on-topic.
Tsss, hieronder geef ik aan dat ik zelf niet -1 heb gegeven maar dat ik wel begrijp dat anderen dat doen.
Ik zeg nergens dat je een -1 gegeven hebt, begrip voor mensen die dat doen is hetzelfde. Ik heb er geen begrip voor. Het bericht is on-topic, geen toegevoegde waarde is dan een 0 denk ik zo.
Als je had kunnen lezen dan had je gezien dat ik AMD niet slecht noem, ik zeg alleen dat mijn ervaringen niet geweldig waren, ook van mensen om me heen. En ja om iemands ervaring geen "toegevoegde waarde" te vinden, dat is jouw mening. maar dan verdient het nog niet een downvote.
Dus ja kinderachtig, want we downvoten als iets in een comment staat wat echt ongepast is. En nu is het "ohh ik ben het niet eens met jouw comment, mehhh"
Als je had kunnen lezen dan had je gezien dat ik AMD niet slecht noem...
Ik kan prima lezen, en beweer nergens dat jij AMD slecht vindt.
...ik zeg alleen dat mijn ervaringen niet geweldig waren, ook van mensen om me heen.
Je zegt niks over je eigen ervaringen, alleen over die van "een vriend" van je. Dat is dus de ervaring van een vriend, niet die van jouw.
En ja om iemands ervaring geen "toegevoegde waarde" te vinden, dat is jouw mening. maar dan verdient het nog niet een downvote.
Ik zeg nergens dat een downvote verdient, ik heb dat zelf niet gedaan, maar ik snap wel dat mensen het doen.
En nu is het "ohh ik ben het niet eens met jouw comment, mehhh"
Er is niks in jou comment om het mee eens te zijn, het is een ervaring, geen mening.

[Reactie gewijzigd door Erkel op 1 juli 2016 16:59]

Ik vraag me ook af waarom jouw posts negatieve scores krijgen. Het zijn geen flames, je verkoopt geen onzin,... Ach, trek het he niet aan, het is wel vaker zo.

Zoals je aanhaalt scheelt het natuurlijk per systeem hoe je videokaart "reageert". Ik had een r290 in mijn systeem, had problemen, steek hem in het systeem van de zoon en daar loopt hij als een zonnetje.

Dan zou je denken, er scheelt wat met mijn systeem, nee hoor, de gtx960 doet het erg lekker.
Ja precies, bedankt.
Inderdaad mijn eigen ervaringen en die van mensen om me heen zijn niet positief, maar dat zegt inderdaad niks over alle kaarten en alle systemen.
En inderdaad kinderachtig. Zeg je iets positiefs krijg je nog een -1. Iemand heeft het op je gemunt lijkt het. +3 van mij ;)
Nee het pakken van een voorbeeld om te zeggen dat een product slecht is is kinderachtig, als er nu op duizenden fora duizenden mensen klaagden over de drivers van AMD dan was het logisch geweest om te zeggen dat AMD iets aan hun drivers moet doen, als alleen je vriend problemen heeft kan het natuurlijk aan een hoop andere dingen liggen dan de drivers.
Ik heb je niet gewdownvote.
ik heb het ook niet over alle AMD kaarten.
Maar over de drivers die (bijna) alle AMD kaarten gebruiken.
Als jij een keer een familielid verliest aan aids betekent niet dat aids een groot probleem vormt.

Als een keer je stofzuiger kapot gaat na een jaar zegt dit eigenlijk nog steeds niks over de kwaliteit van dat product.

Als een vriend van jouw problemen had met een AMD kaart zegt dit nog niks over de drivers van AMD noch over de kwaliteit van de producten van AMD.
Misschien staan forums er niet vol van omdat, mensen zoals jij het downvoten omdat ze een mening/ervaring niet aankunnen.
Als iemand klaagt dat hij problemen heeft met een product is er geen probleem, als iemand zegt dat een product slecht is omdat hij/zij daar een probleem mee heeft gehad dan is er wel degelijk een probleem met je post.
Nope heb nooit iets gezegd over of het wel of niet slecht is, ik deel puur alleen een ervaring,

Meestal zijn het fanboys die geen onderscheid kunnen maken met dit soort dingen. (let op, ik zeg niet dat je een fanboy bent, ik suggereer het alleen)

jep helemaal gelijk, ik kan niet weten of je wel of niet downvote, sorry.

[Reactie gewijzigd door Thalion987 op 1 juli 2016 17:41]

Iemand zegt iets positiefs over AMD en je begint meteen te posten hoe slecht jouw ervaringen met AMD wel niet waren. Wat compleet irrelevant is natuurlijk.
Alleen mijn post gaat om de RX 480 waarbij het watt verbruik beschadiging kan toebrengen aan je moederbord. Jouw leuke Google link laat alleen zien dat je kunt Googlen en wat driver issues kan vinden. Games zullen altijd driver issues hebben of je nVidia of AMD gebruikt.
Ik zou zelf even nadenken voordat je extreem vervelende sarcastische posts begint te maken die niks toevoegen.
Mijn post bestaat uit feiten en die van jou niet.
Mijn Google link daarintegen laat zien dat Nvidia recent veel probleem met drivers hebben gehad. Jouw post was daarintegen gewoon compleet nutteloos en voegde niks toe.
Zoals ik eerder zei, mijn post laat zien dat de RX480 (permanente)schade kan toebrengen aan een moederbord.

http://lmgtfy.com/?q=Ik+k...issues%22+typen+op+Google

Goed gedaan!
En zoals ik al zei is dat vrij irrelevant. Aangezien dit alleen een probleem vormt op extreem goedkope/oude moederborden. En dit probleem zal waarschijnlijk alleen voorkomen bij de 480 met de stock cooler. Denk trouwens dat het met een driver update wel opgelost kan worden.

Fijn voor je dat een bedrijf steunt dat bewust tegen haar klanten liegt, hun drivers niet op orde krijgen zelfs nadat ze hun concurrenten hard afpersen, gebruikt maakt van vieze trucjes om performance te verlagen op kaarten van de concurrentie, hun prijzen extreem verhoogt zodra ze een monopolie hebben, en maar blijft streven naar een monopolie voor steeds meer winst.

Mooi gebruik van sarcasme trouwens.
Ik heb nooit gezegd welke partij ik steun, ik kies voor de fabrikant die de beste prijs/kwaliteit levert. Momenteel kies ik voor Nvidia, maar in het verleden koos ik voor AMD.

Eigelijk blijkt dat Nvidia de chip niet snel genoeg kan produceren waardoor er meer vraag naar is dan ze kunnen aanbieden. Hierdoor kiezen de fabrikanten ervoor om de duurste kaarten te leveren. Ik vind het ook een vieze strategie. Het is wel jammer dat Nvidia hun probleem aan de kant van de consument schuift. Er is momenteel meer vraag dan aanbod waardoor de prijzen hoog blijven. Zie de nieuwste high end smartphones zoals Apple en Samsung, die zijn in het begin ook rond de 800 euro. Zodra er niet veel mensen zijn die een belachelijk prijskaartje voor de 1070 of 1080 willen betalen zal uiteraard ook de prijs dalen.

[Reactie gewijzigd door seph32 op 1 juli 2016 21:51]

woord de amd chip niet gebakken door samsung?
Nee door GlobalFoundries, en die werken dan samen met Samsung voor het 14nm proces. GF is zover ik weet deels van AMD of ze geven soms een zak geld.
GF was ooit AMD, maar tegenwoordig hebben ze een oliesjeik die ze bezit. En volgens mij was hun grootste klant nog steeds AMD..
Correct. AMD had GF verkocht uit financiële nood en huurt nu de faciliteit.
GlobalFoundries bakt ze, die werkt inderdaad wel eens samen met Samsung.
14nm finfet van AMD tegenover 16nm van Nvidia betekent toch meer chips uit 1 wafer. Dus eigenlijk zouden AMD's chips goedkoper moeten zijn. Of ben ik nu in de war?

[Reactie gewijzigd door Azziax op 1 juli 2016 14:55]

Hangt nog wel van de transistor count af. Procedé alleen zegt niets.
Nee, er zijn anno 2016 zoveel variabelen aan een productieproces dat je niet meer kunt stellen dat 14nm beter is dan 16nm, daarvoor is het onderscheid te klein. Tevens betekent een bepaald aantal nanometers al lang niet meer dat alles exact die grootte heeft.

Beide processen zijn de laatste stand der techniek en de praktijk zal moeten uitwijzen welke beter is.
AMD gebruikt ook kleinere dies, waardoor de gemiddelde yield van een wafer hoger ligt. Dat maakt het alleen maar goedkoper. (Dat is ook waarom ze de RX480 aan kunnen bieden voor zo'n lage prijs).
Beide zijn dezelfde grote. Heb de foto niet meer maar iemand had eens een foto gepost van de verschillende processen en waar de 18 tot 14nm allemaal dezelfde grote hadden wegens de verschillend in de opbouw.

Natuurlijk hadden die verschillen in opbouw ook gevolgen. De Samsung hun 18nm of wat het was, was even groot als de 14nm, maar had minder last van stroom lekken. En zo van die toestanden.

In praktijk zijn de nieuwe generatie aan elkaar gewaagd.
De feature size verschilt nouwelijks tussen die twee procede. Transisor count blijft het belangrijkste voor de die size. De gp104 (1070 en 1080) is groter dan de Pascal10 (rx480) welke groter is dan de gp106 (1060).

Maar dat wil niet zeggen dat de 1060 een lagere winkelprijs krijgt. AMD opent met de zeer scherpe prijs van de rx480 enorm de aanval op het midden segment. Zo scherp zie ik nvidia nog niet op prijs gaan zitten. Daarnaast is het nog afwachten hoe snel deze kaart in fatsoenlijke volumes leverbaar is.

[Reactie gewijzigd door martijn_tje op 1 juli 2016 18:53]

-de chip van AMD duurder om te produceren (shaders, geheugenbus, procede).
Nvidia is afhankelijk van TSMC, maar andersom niet. TSMC is naar alle waarschijnlijkheid volle bak aan het draaien voor haar belangrijkste klant Apple. Andere partijen, zoals Huawei, Xilinx en NVidia mogen tegen elkaar opbieden voor resterende capaciteit. Nvidia kan niet naar een ander dus is 100% afhankelijk.

Voor GloFo is AMD misschien wel de belangrijkste klant, AMD hoeft niet te vechten om capaciteit. GloFo's 14nm proces is hetzelfde als dat van Samsung (onder licentie genomen door GloFo), dus AMD heeft indien noodzakelijk een backup, en nog veel meer capaciteit beschikbaar.

NVidia heeft dus totaal geen onderhandelingspositie, AMD juist een goede. GloFo's 14nm proces is dus misschien duurder dan TSMC's 3e gen 16nm proces maar dat boeit voor de eindgebruiker dus niet, het gaat erom hoeveel AMD en Nvidia moeten _betalen_ aan de foundry en niet wat het de foundry kost, en belangrijk is hoeveel de foundry kan maken. Dat Pascal beter is dan Polaris is leuk, maar als er van de Pascal 100x zo weinig beschikbaar zijn zullen veel potentiële klanten afdruipen.
De daadwerkelijk waardes staan toch gewoon duidelijk op de X as? Bijna elk bedrijf doet wel aan dit soort statistiek, als er nu niks op de X as zou staan (of heel klein) zou het een ander verhaal worden.
Natuurlijk staan de waardes erbij (anders zou het gewoon niks zeggen). Het punt is meer dat ze het laten lijken alsof de 1060 2x sneller is. Als je snel naar die grafiek zou kijken zou je denken dat de 480 heel veel slechter is en ik denk dat sommige mensen dat ook doen. Dat ik ook de hele rede dat je je grafieken zo slecht maakt. Nvidia wil dat je denkt dat ze heel veel beter zijn, zonder dat ze juridisch misinformatie creëren.
Statistisch gezien klopt hij, ethisch gezien niet.

Hij zou gewoon bij '0' moeten beginnen.
Ik weet wel dat je Nvidia hier voor geen punten op zijn toets zou krijgen!
NVidia zit wel met het G-Sync-probleem. G-Sync zal duurder blijven dan FreeSync dankzij die FPGA-module die je ervoor nodig hebt. Zolang NVidia FreeSync niet ondersteunt houdt dit in dat mensen die geen G-Sync-monitor hebben minstens 100-200 euro extra moeten betalen voor een nieuwe monitor.
Bovendien is het bekend dat de 480 voor goed geïmplementeerde DX12 spellen beter presteert dan de 980. Ook iets om rekening mee te houden als de 480 grotendeels volstaat voor 1080p-gaming met de bestaande spellen, de 1060 eveneens niet geschikt is voor 1440p maar de 480 wel beter presteert bij nieuw uit te komen spellen die DX12 ondersteunen en hier goed gebruik van maken.
Free en GSync zijn nog niche, bovendien denk ik eerder dat een meer open standaard van gsync voldoende zou zijn, zodat er gewoon monitoren komen die met beide protocollen onderweg kunnen.

Wat betreft 1440p gaming...afwachten

Wat betreft DX12 prestaties...afwachten, het ist niet omdat de 980 iets mindere prestaties heeft tov van de RX480 i.c.m. DX12 dat dit voor de 10xx serie en meer in het bijzonder de 1060 ook zo is.

Ik vermoed dat NVidia gekozen heeft om de kaart iets duurder te positionieren, maar dan ook iets sterker te maken, om hun premium marketing gevoel te behouden...De 1060 zie ik ook als DE opvolger van de 970, gewoonweg omdat het in hetzelfde prijssegment komt. Ik vermoed dat lader NVidia nog met een heel zuinige 1050(Ti) om enerzijds direct met de RX470/480 te concurreren en tegelijkertijd de chip ook voor laptops willen gebruiken (Het Ti achtervoegsel haal ik enkel uit geruchten die circuleerden, ik zie geen reden waarom ze bij een eventuele 1050 het Ti achtervoegsel zouden gebruiken, tenzij ze net als AMD twee varianten uitbrengen (RX470 en RX480)).
Waarom is een G sync monitor verplicht bij nVidia? En controleert de software dan of je er wel een hebt?

En wat als je nu een Gsync monitor hebt? Dan moet je nu 200¤ betalen voor een Freesync monitor?
Een FPGA is een dure Field-Programmable chip. Die gebruik je voor kleine volumes, in massaproductie gebruik je een Application Specific IC (ASIC). Dat is een standaard trade-off. Maar uit het feit dat FPGA's gebruikt worden kunnen we dus al afleiden dat het geen heel erg groot probleem is qua volumes. De economische noodzaak voor een ASIC is blijkbaar afwezig.
Inderdaad.

De grafiektitel: Much faster than RX480
Realiteit: 15%

Yup, "much faster".
Bovendien is een RX480 sneller dan een GTX980 in DX12, dus hoeveel het echt gaat zijn is moeilijk te zeggen ;)
Dat is inderdaad much faster voor een kaart in hetzelfde segment.
Dat weet je toch pas als de prijs bekend wordt.
Als de GTX1060 straks ¤300+ kost zit hij imo niet in hetzelfde segment.

Misschien in hetzelfde "mid-range" segment maar niet in hetzelfde prijs segment.
Aan 300¤ wel zou ik denken. Een kaart die 15% sneller is en een lager TDP heeft mag best wat duurder zijn.
De uiteindelijke prijs is geen toeval. We weten dat NVidia en AMD concurrenten zijn, en NVidia wil hun 1060 inzetten in de strijd tegen de 480. Dan kun je er van uitgaan dat NVIdia de prijs daar op afstemt.

Ik zie het dus ook niet gebeuren dat de 1060 boven de 300 euro uit zal komen, zeker niet nadat de introductie-hype over is gewaaid.
Met als voorwaarde dat de prijs hetzelfde is. Als die prijs 15% hoger is verwacht je ook dat die ook sneller is. Anders kan Ferrari ook zeggen dat zijn auto's "much faster" zijn dan een fiat 500. De bewering zal wel kloppen maar de prijs die je ervoor betaald is ook verschillend.

Dus zolang die gtx 1060 duurder is dan de RX 480 is die laatste toch een betere optie.
En die 15% is dan nog een uitspraak van NV zelf. Dus waarschijnlijk alleen onder specifieke omstandigheden.
Dat valt met Pascal tot nu toe wel een beetje tegen.
Dat lijkt me zeer twijfelachtig.

Boost 3.0 klokt idd iets over, maar niet zover als met een manual OC. Waarom zouden anders alle reviews dat testen? Als het toch "niks uitmaakt".
dat kan je dan van AMD ook zeggen, sterker nog, bij AMD doet de boost er 13% bij. en bij nvidia maar 7% (1080) of 11% (1070)

[Reactie gewijzigd door Countess op 1 juli 2016 21:25]

AMD Boost ook de PCI-E Lane Wattage, NVIDIA niet.
niet? de GTX960 bijvoorbeeld had ook pieken van 220 watt over de pci-e lane.

verder, who cares? Geen moederbord fabrikant die zich er druk over maakt.
JA beetje jammer van tweakers.net dat ze hun grafiek promoten. 8)7
De verbeterde grafieken van Reddit: https://m.imgur.com/sLR44gQ?r
Daar zat ik ook al naar te kijken kk Neem aan dat nvidia niet zo laag gaat als AMD maar dat het toch wel in de buurt gaat zitten
als dit echt zo is is het game over rx480
Dat hangt natuurlijk er van de prijs af. Volgens geruchten $299 voor de 6GB-versie. Maar bedenk dan dat de GTX 1070 een adviesprijs kreeg vanaf $379 en dat die hier zo'n ~¤500 kost. Dan moet je waarschijnlijk ook niet gek opkijken van +¤350 voor een GTX 1060. De tijd zal het leren :)
Ik verwacht eerder 249 dollar, gebaseerd op de positionering van de GTX980 tov GTX960.
GTX 960 was namelijk een halve 980 en de GTX 1060 is een halve GTX 1080. GTX 960 was 36% vd prijs van de GTX 980, gtx 1080 is 699 x 0.36 = 251 dollar.
Het gerucht is $249 voor een 3GB-versie en $299 voor 6GB. Met de GTX 1000-kaarten is echter gebleken dat de dollaradviesprijzen tot nu toe weinig zeggen hier waar we met euro's betalen... $379 voor een GTX 1070 is hier nu minimaal ¤479. Zelfs als het $249 is, zou dat hier ¤349 kunnen zijn.

Laten we een weekje afwachten en we weten het waarschijnlijk zeker :)
Verder zou ik er niet vanuit gaan dat deze kaarten al snel beschikbaar komen. De 1070 en 1080 hebben nog steeds grote voorraad tekorten (wat bijdraagt aan de hoge prijzen). Nvidia haalt het meeste winst uit deze high-end kaarten. Ik verwacht niet dat ze dat willen opofferen om zo sneller de 1060 op de markt te brengen.

De consumenten die erop willen wachten doen dat toch wel, ook als ze een maandje later releasen.
Dat lijkt me een zeer goed onderbouwde voorspelling. Dat zou mooi zijn! 250 $/¤ voor prestaties die tot zeer kort geleden golden als high-end. Prachtig :D
Ik denk dat alle geruchten die tot dusver over het internet gaan, oftewel wat Xtuv/Julian hierboven zegt, een stuk logischer en betrouwbaarder zijn ;)
Voor nederland komt er dan nog wel btw bij, dan zou je op 270 euro adviesprijs uitkomen. Maarja de RX480, GTX 1070 en GTX 1080 zijn momenteel absoluut niet voor adviesprijzen te verkrijgen.

Alleen de RX 480 4GB versie zit met 219 euro dicht in de buurt van de adviesprijs.

Inderdaad afwachten wat het gaat worden. Moet wel zeggen dat ik 3GB wel weinig vind voor een GTX 1060 (lees GTX 980 vervanger), bij 1440p benchmarks zal dat al invloed hebben op de prestaties. 3GB versie vind ik meer wat voor een GTX 1050(Ti), dezelfde chip maar dan 1024 cores ingeschakeld vd 1280.

Maarja tijd zal uitwijzen wat het wordt :)
Je laat je vangen aan de dollar prijs. 200$ voor de 4GB, 240$ voor de 8GB. Maar je vergeet dat ze voor europa altijd doen:

1$ = 1¤ + rond de 20% tax.

200$ ...= ... 220¤
240$... = ... 288¤

Technisch zit de 8GB versie onder de suggestie prijs. Want heb ze al gezien aan 269¤ prijs.
Ze kunnen die BTW hier ook niet vermelden, maar betalen moet je hem toch. Dat is niet een of andere vuile streek ofzo...

199$ is nu ¤180. Daar 21% BTW bij en je zit op die 219¤. Er gaat geen enkele extra euro naar AMD of wie dan ook!
Inderdaad. Maar dat is 9 van de 10 keer een commerciële strategische beslissing, ze kunnen daarna makkelijk een 'boost/turbo/itsamazing' versie uitbrengen met 4GB, 6GB enz. tegen een 'leuke' meerprijs.

Verder wat Laloeka zegt: De prijsverschillen tussen de US en NL zijn vaak groter bij [schaarse] high-end kaarten dan bij midrangers. Maar goed, alles blijft speculatie tot ze daadwerkelijk [een aantal maanden] in de winkel liggen :)
Ja de prijs is best wel hoog maar dat komt door het productie proces van nvidea. er zijn weinig chips gemaakt dus moeten fabrikanten kiezen welke kaarten zij gaan maken. De fabrikanten (MSI, EVGA, etc) hebben gekozen om de duurdere varianten te maken van de 1070. De goedkopere versies van de 1070 bestaan wel maar worden momenteel niet verkocht in Europa.

Dat is puur een kwestie van vraag en aanbod. de fabrikanten verkopen nu liever de duurdere versie van de 1070. Wanneer deze vraag afneemt zullen ze ook goedkopere versies gaan maken. en die zijn op dit moment wel degelijk richting de advies prijs. (419 dollar EVGA)

Daarom zal de 1060 uiteindelijk wel 250/280 euro gaan kosten. De vraag is alleen: hoelang gaat dat duren?
Dat ligt geheel aan de verkoopprijs. Als de 1060 meer dan 300 euro gaat kosten dan behoud de rx480 zijn bestaansrecht.
RX480 houd denk ik in DX12 nog steeds wel ze bestaansrecht, aangezien hij in die titels vaak al sneller is als de GTX980

en hangt natuurlijk volledig van de prijs af
Precies dit, ik denk dat mensen vergeten dat Maxwell/Pascal kaarten voornamelijk DX11 kaarten zijn en het (relatief) minder zullen doen op echte DX12 games. Voor dit jaar dus nog prima, maar voor volgend jaar zal je het wel gaan merken. Ook de reden waarom de 1070/1080 zo hoog geclocked zijn, gezien tafels nu zijn omgedraaid (waar AMD/Hawai meer raw power nodig had om Nvidia/kepler/Maxwell te evenaren/overtreffen in DX11 zal Nvidia nu meer raw power nodig hebben om de architectuur van AMD te evenaren/overtreffen in DX12).

De 1060 zal een prima keuze zijn voor komend jaar, en ik geloof op DX11 dat het niet anders kan dan beter presteren t.o.v. de RX480. Op DX12 zal het waarschijnlijk verliezen. En dan heb ik het over ref vs ref (waarvan we weten dat bij de RX480 deze aardig underpowered is, zie dit - edit: dit geeft de potentie van de RX480 aan, en de mogelijke ruimte voor OC op de kaart + verbetering van drivers). Aftermarket RX480 OC versies zullen de gap tussen de kaarten en een ref 1060 op DX11 kleiner maken ;) (en dan zal de discussie 'zuiniger vs DX12/future proof' worden).

edit: vergeet niet dat de consoles alsnog AMD hardware hebben en dat games dus richting DX12/Vulkan gaan komende jaren. Houd je zelf aub niet voor gek om te denken dat DX11 nog lang te leven heeft....

[Reactie gewijzigd door Sankara op 1 juli 2016 18:38]

Om toch (zo laat) even te reageren, want ook weer 'ja en nee'. Nvidia heeft op dit moment de beste (raw power) hardware maar je ziet bij DX12 geoptimaliseerde games dat de Fury X bijv. de 1070 (en de 980ti daarbij) voorbij gaat.. Alleen de 1080 blijft (ver) boven alleen staan. En dit is dus vergeleken met de vorige generatie inderdaad. Dat verschil komt niet omdat Hitman 'een AMD game' is, want AMD heeft geen 'concurrent gimpende' praktijken (als Gameworks). Wat wel is natuurlijk async compute en dat mist Nvidia. Pascal kaarten zijn op hardware niveau dus geen volwaardige DX12 kaarten - hoewel ze alle features ondersteunen - omdat ze async op software niveau berekenen. Op hardware niveau heeft AMD nu (eindelijk) een mogelijke voorsprong omdat DX12 games binnenkort DX11 zal vervangen (daar zorgt Microsoft wel voor en anders is er Vulkan, wat gebaseerd is op Mantle).

Enige wat ik kan zeggen is dat Nvidia met de 1080Ti en de kaarten van 2017/2018 een revolutie moet brengen (lees: toevoegen van async compute) anders zullen ze het niet opboxen tegen de kaarten van AMD. Iets zegt mij natuurlijk ook weer dat Nvidia precies op de juiste tijdstip, wanneer DX12 op stoom begint te komen, een kaart gaat uitbrengen met precies die functie en heel wat horsepower om de kroon te behouden...Hoe het nu lijkt echter zal de 490 naar alle waarschijn meer 'toekomstproof' zijn dan de 1070 (en wellicht 1080), puur door async compute.
nVidia kennende gaat de kaart zeker 300 euro laten kosten. De gehele line-up van nVidia is gewoon met 100 euro verhoogd, door het wegvallen van concurrentie. RX480 is voor 219 euro een leuke kaart. Maar GTX 980 performance is toch een andere klasse. Ik had gehoopt dat de RX480 in de buurt kwam bij de GTX 980, helaas voor mij, de gamer en iedereen is dit niet het geval. We zullen voor mainstream performances relatief meer moeten betalen.
Dat ligt ook weer heel erg aan welke games je speelt. De RX480 kan zich meestal meten met de 970 en soms met uitschieters naar de 980 (dit laatste is vooral bij DX12 games waarvan er alleen maar meer uitkomen)

Als Nvidia de 1060 voor meer dan ¤300 lanceert waarbij de custom dus nog minimaal ¤50 duurder word, dan zal dat niet echt een concurrent worden voor de RX480.

Ik hoop zelf dat Nvidia de 1060 neerzet rond de 275 dollar en dat de custom kaarten hier niet meer dan ¤350 worden.
Zo heel ver zit de RX 480 niet af van de GTX 980, de after-market modellen mocht die wel wat wat meer overklok rek hebben met een betere koeler en stroomverziening zouden daar nog wel eens dicht bij in de buurt kunnen zitten.

[Reactie gewijzigd door Xthemes.us op 1 juli 2016 23:19]

Raar, ik hoor dus juist weer op verschillende sites dat de RX480 meer naar de 980 gaat. volgens de benchmark op videocardbenchmark is de 1080 25% beter dan de 980, dus hoezo komt hij dichterbij de 1080? heb je misschien een bron over de prestaties?

http://www.videocardbenchmark.net/high_end_gpus.html
Woops brainfart, ik bedoelde uiteraard de GTX 980, de 1080 doet zowat het dubbele. Heb het aangepast.

En de bron daarvan is van de HardOCP Chef Editor
"AIB partners are reporting to me this morning that with extremely good custom air coolers the 480 GPUs are seeing from 1480MHz to 1600MHz clocks, but tell me it is a "lottery draw" on GPUs. "
Een kaart op 1400Mhz+ zal ricthing de GTX 980 en verder gaan.
Inderdaad erg interresant. zeker als je erbij denkt dat AMD veel beter zal draaien op directx 12. Ik kan niet wachten op de benchmarks. Wordt het dus met nieuwe games wel of niet beter dan de 980 in dx12. Zou hij dan ook beter kunnen worden dan de 1060?
Wat dacht van je CF ondersteuning voor de 480, als de 1060 geen SLI ondersteuning krijgt zou dat een grote flop kunnen worden.
Een grote flop?
Hoeveel % van gamers denk je zijn geïnteresseerd in CF of SLI? Zonder enig onderzoek eet ik mijn hoed op als dat meer dan 5% is.
Geen idee, als de kaarten goedkoop genoeg zijn of worden en de ondersteuning in games op orde is kan de groep geïnteresseerde groeien. Op dit moment zal het aandeel niet heel groot zijn maar de potentie is er. Dan vind ik het weglaten van SLI ondersteuning een flop omdat ongeacht of de mensen echt een tweede kaart gaan kopen de optie simpel weg niet aanwezig is. Stel dat een AMD en Nvidia kaart gelijk geprijsd en gelijk presteren en de ene kan wel CF en de andere geen SLI aan. Dan kan dat heel bepalend worden, vooral in het verkoopverhaal van een verkoper/reviewer.

[Reactie gewijzigd door RHF op 1 juli 2016 21:12]

Een grote flop betekent dat er veel te weinig verkocht wordt om de ontwikkelingskosten eruit te halen. Ik denk dat jij in plaats van flop bedoelt "dit vind ik persoonlijk jammer".

De invloed van SLI of CF op deze verkoopcijfers is zo minimaal dat het gewoon niet de oorzaak kan zijn van het al dan niet floppen van een van deze kaarten.

Verder is het verhaal "de potentie is er" en "de ondersteuning in games op orde" al véle jaren aan de orde, en de conclusie blijft dat het niet goed genoeg werkt om interessant te zijn voor de massa.
Precies dit. Iets van 3 PCs terug kocht ik nog een moederbord met het oog op eventuele SLI, nu is dat geen enkele factor meer. Ik heb uiteindelijk nooit SLI gedraaid en gezien de schaling en problemen ermee zie ik dat ook niet meer gebeuren. Het idee van nu een mid-range kopen en over 2-3 jaar als het nodig is er een tweede naast zetten is leuk, maar in de praktijk...not happening.

Geen SLI op dit soort kaarten is wat mij betreft een goede zet; geen extra kosten ervoor in de hardware, geen extra kosten voor support ervoor in de drivers. Liever een paar euro goedkoper zonder SLI support dan met.
Ik heb zelfs twee keer onder dat motto een SLI moederbord en 750W voeding aangeschaft; Tijdens Core 2 Duo (nforce 680) en tijdens Sandy Bridge (P67). De eerste was 2007 en tot heden was het nooit interessant om daadwerkelijk SLI te gaan draaien.

Ik moet echter wel zeggen dat ze dit jaar flink hebben gesleuteld aan SLI. De framtimes van de GTX 1080 in SLI zijn echt indrukwekkend stabiel. Met DirectX12 zou multi gpu ook weer iets beter moeten gaan. Wie weet gaat het ooit nog echt wat worden...

[Reactie gewijzigd door sdk1985 op 1 juli 2016 18:42]

Daar twijfel ik meer en meer aan.

We zien zelden dat er games uitkomen die de huidige generatie kaarten op hun knieën dwingen ruim voordat er een volgende generatie aankomt. Dat is ook wel logisch; je kunt die game wel maken als studio, maar niemand heeft er iets aan (want niet speelbaar op z'n mooist). De developers weten ook wat er te koop is en wat er komt, dus de investering in overkill graphics wordt gewoon niet gedaan. Er zijn wat uitzonderingen, maar da's feitelijk meer PR dan iets anders. Voor de winstgevendheid van een game is het gewoon niet slim.

Dat betekent ook dat als je nu een kaart koopt die alles aankan, de kans zeer klein is dat een jaar later een tweede exemplaar ernaast echt veel op gaat leveren...zeker niet als je een jaartje later dan weer een nieuwe generatie en dus nieuwe games met hogere eisen gaat krijgen (de cycle van de grotere performance stappen is al geruime tijd zo'n 2 jaar). Grote kans dat je 2 kaarten dan weer net aan de lage kant van het spectrum gaan vallen. Als je dan vervolgens bedenkt dat de prijzen binnen de levensduur van een genaratie nauwelijks dalen (uitgezonderd de bult in de prijs net na introductie als er nog geen beschikbaarheid is), schiet het gewoon niet op.

Blijft het scenario over dat 2x een bepaalde kaart beter presteert dan 1x een hoger geplaatste van 2x de prijs. Dat is wel af en toe voorgekomen, maar daar zie je commercie snel het gat dichten; die kaart met de supergoede price / performance wordt gewoon wat duurder en als het echt meezit wordt de hoger geplaatste kaart wat goedkoper (wat ook de tussenliggende kaarten wat in prijs drukt)...maar dat is tegenwoordig echt zeldzaam.

Kom je dus eigenlijk uit op de vraag: Hoeveel wil je per generatie / per 2 jaar besteden aan je kaart? Zorg ervoor dat je dat bedrag beschikbaar hebt op het moment dat een nieuwe generatie beschikbaar komt, wacht de eerste prijs-bubbel even af en koop die kaart gewoon. Je hebt dan de beste performance voor je geld over de langst mogelijke periode.
Helaas zijn er genoeg van die games. Zet Ark Survival evolved maar eens op epic. Dan haalt een GTX 980 ti en een Titan X nog geen 30 fps scoren op 1920x1080. Daarnaast game ik zelf het liefste op 120+ FPS dus wat dat betreft valt er nog veel te winnen in gpu power.

De mogelijkheid tot SLI is met name interessant als de gpu vooruitgang traag is. Zo was de GTX 960 nauwelijks sneller dan de GTX 760 en de GTX 660 Ti. In dat geval kon je voor 90 euro een tweede GTX 660 Ti, GTX 670 of GTX 760 aanschaffen via onze eigen V&A. Zou SLI perfect werken dan heb je een grote performance boost voor 90 euro. Het alternatief is een GTX 970 en die was 350 euro.
Neem van mij aan. CF & SLI klinken leuk maar geven te veel problemen. Spreek uit ervaring.

Games dat het niet ondersteunen of slecht ondersteunen.
Micro stotter dat je niet hebt bij één kaart.
CF dat enkel draait bij full screen!
Borderless of window mode en CF werkt niet.
Unreal 4 engine dat geen ondersteuning geeft voor SLI.
De hitte dat van je ene kaart, in je andere kaart gaat. Waardoor de ventilator meer moet werken ( leuk als je zo een kaart koopt voor de stilte ).
Extra idle gebruik wegens de 2de kaart.
Je zal nooit 100% FPS verdubbelen ( vaak is het 80% extra met 2de kaart ).
... Zal maar stoppen zeker ;)

De prijs dat je betaald is vaak de problemen niet waard. Soms is gewoon effen een paar maand geduld hebben de betere oplossing. Dan koop je goedkoper en ben je even goed af.
Wat dacht je van brakke Console Ports die geen CrossFire ondersteunen, dan zit je voor een meer prijs mooi op 2013 performance.
SLI ondersteuning is eigenlijk alleen relevant voor de high-end kaarten. Waarom zou NVIdia moeite doen om SLI te ondersteunen op een 1060? Zodat jij 2x1060 koopt voor minder geld dan 1x1080? Ja, het scheelt jou geld, maar waarom zou NVidia tijd moeten investeren om vervolgens minder omzet te draaien?

Nee, de SLI business case voor NVIdia is de gamer met teveel geld die 2x 1080 aanschaft.
SLI ondersteuning is eigenlijk alleen relevant voor de high-end kaarten. Waarom zou NVIdia moeite doen om SLI te ondersteunen op een 1060? Zodat jij 2x1060 koopt voor minder geld dan 1x1080? Ja, het scheelt jou geld, maar waarom zou NVidia tijd moeten investeren om vervolgens minder omzet te draaien?

Nee, de SLI business case voor NVIdia is de gamer met teveel geld die 2x 1080 aanschaft.
Simpel omdat de GeForce GTX 960 ook gewoon SLI support heeft, en 2x GeForce GTX 960 was toen een stuk goedkoper dan een GeForce GTX 980, en er waren meer mensen die 2x GeForce GTX 960 kochten, wat +/- ¤400,- kosten, dan een GeForce GTX 980 +/- ¤550,- a ¤600,- dus ben je ¤1100 a ¤1200 kwijt voor alleen twee grafische kaarten, en er zijn niet veel mensen die daar het geld voor over hebben, of hebben.

[Reactie gewijzigd door AmigaWolf op 1 juli 2016 19:26]

Wat dacht van je CF ondersteuning voor de 480, als de 1060 geen SLI ondersteuning krijgt zou dat een grote flop kunnen worden.
De GeForce GTX 960 heeft ook SLI ondersteuning, dus ik zou niet weten waarom de GeForce GTX 1060 dat niet zou krijgen, en de meeste mensen kopen niet twee grafische kaarten, ook al kosten ze maar ¤200,-

[Reactie gewijzigd door AmigaWolf op 1 juli 2016 19:12]

die kans is zeer groot, anders wordt het prijsverschil met de 1070 wel heel erg groot
Waarom? de GeForce GTX 960 had je toen ook maar voor +/- ¤200,-

En de GeForce GTX 970 koste toen ¤350,-

Dus je heb je kans dat hij tussen ¤200,- en ¤300,- gaat kosten.

Edit foutjes

[Reactie gewijzigd door AmigaWolf op 2 juli 2016 03:37]

Hangt er vanaf hoe veel de kaart gaat kosten, denk ik zo.
Dat hangt ook van de prijs af he.
Niet iedereen geeft zoveel geld uit aan een GPU.
We zullen eerst de echte benchmarks en de retail prijzen maar afwachten.
Dat gaat natuurlijk nog een beetje van de prijs af hangen. Maar als deze kaart iets beter presteert met een prijs van < ¤300,- dan ben ik inderdaad bang dat het gedaan is met de rx480.

Het enige lichtpuntje voor AMD is dan misschien nog dat de kaart een goede scaling heeft in CrossFire, waardoor hij daardoor aantrekkelijk is. Maar mensen met een budget van 540 euro voor videokaarten, kunnen in mijn ogen beter 1 losse kaart kopen.
Beetje snel niet om dit te roepen?
Bij release was de 960 ook rond 200 tot 260 euro. En aangezien dit een Nvidia slide is, moet je hem ook nog met een korreltje zout nemen. We weten nog niet eens de prijs is hiervoor.
De 970 was ¤380 bij release zoeits? De 980 rond de ¤500. Die prijzen liggen nu weer een stuk hoger.. we gaan het zien idd. Ik duim voor AMD, want freesync.
Zonder de prijs te weten vind ik dat een vrij gewaagde uitspraak, als dit ding ergens tussen de 300-350 euro komt, terwijl de 4gb versie van de rx480 220 kost... kan ik me voorstellen dat nog best veel mensen de 480 aantrekkelijker vinden.

Hoe dan ook, 15% meer prestatie met een 30W lager TDP is erg netjes.
Dat hangt dus (zoals reeds gezegd is) vooral af van de prijs t.o.v. de RX480.

Het is ook maar helemaal de vraag waar de "prestatie" op gebaseerd is. We weten uit het verleden namelijk dat nVidia nogal creatief deed met benchmarks namelijk.

En over "creatief" gesproken: let vooral even op het psychologische spelletje wat er gespeeld wordt met de presentatie van de "cijfers" in de grafiek.
De prestatie van de RX480 is "genormaliseerd" op 1 en het bereik ligt (bij de prestatie) tussen de 0,8 en de (grofweg) 1,15 waarbij de basis op 0,8 ligt.

Zo wordt grafisch de indruk gewekt dat de GTX1060 twee keer zo snel is als de RX480. In werkelijkheid is dat dus maar 1,15 keer zo snel. (oftewel die 15% sneller).

Hetzelfde grapje haalde de "media/beurs" ook uit bij het laten zien van de koers van de Pound Sterling na het Brexitgebeuren. Het ziet er dramatisch uit maar als je het grafiekje goed leest dan valt het allemaal reuze mee. Of tegen uiteraard afhankelijk van het perspectief en het onderwerp. :)

Manipulatie en propaganda ... you gotta love it ;)
Want? Als ik genoeg heb aan een RX480 waarom zou ik dan meer geld neerleggen voor een snellere kaart?
Als ze hetzelfde of ongeveer hetzelfde kosten dan kies ik toch echt voor de zuinigere and snellere kaart.
Maar welke kaart gaat volgens jou dan hetzelfde kosten met gelijke prestaties? De 1060 in ieder geval niet. En de 1050 zal qua prijs wel rond de RX480 zitten maar weer niet qua prestaties.
Ik heb geen idee aangezien we geen prijzen weten momenteel.
Er staat in het artikel dat de kaart zeer waarschijnlijk duurder gaat worden. Dan gaat toch op wat ik zeg.
En waarom is dat dan een domme opmerking? Als kaarten en prijs uit elkaar liggen is de snelste niet altijd de beste keuze voor de gebruiker. Anders had iedereen wel een gtx1080...
Het gaat erom dat het vrij logisch is, dat als je genoege hebt aan een kaart van 200 euro, dat je geen van 300 gaat kopen.
Het is zeker logisch, maar de persoon waar ik op reageerde lijkt daar niks van aan te trekken, immers doet die net alsof de rx 480 geen bestaans rechtmeer heeft door de gtx 1060, dat is dus waar ik op reageer :)

Verder discussie hier over is hoop ik niet meer nodig...
Daar ziet het wel naar uit ja - maar we zullen het zien volgende week donderdag ;)
Hoezo? Prijs is super belangrijk. Als ATI de RX480 rond de 200¤ verkoopt zitten ze prima.

Hell, voor zo weinig geld koop ik er wel 1 en steek ik hem in mijn HTpctje.
Ze zullen de prijs nog wat laten zakken om zo het gat met de 1060 groter te maken en op die manier de winst marge volledig om zeep helpen. Dat doet amd elke keer.

Ik denk dat nvidia met de release vooral aan het wachten is tot de 1070 en 1080 beter te krijgen zijn en tot de voorraad 970/980 bij de partners zo goed als op is.
Ligt aan de prijs imho.... Als deze kaart 379 gaat kosten, dan zijn er denk ik nog genoeg mensen die afkunnen met een RX480
Natuurlijk gaat de GeForce GTX 1060 niet ¤379 kosten, want je hebt de GeForce GTX 980 al voor ¤370,-

Ik denk dat hij de zelfde prijs krijgt als toen de GeForce GTX 960, die je toen kocht voor +/- ¤200,-

En ja dan gaat AMD een probleem krijgen.

[Reactie gewijzigd door AmigaWolf op 1 juli 2016 18:58]

Geloof er niks van dat nVidia die voor 200 euro gaat verkopen

kijk naar de prijzen van de 1070 en 1080 en je snapt wel dat dit bijna zeker weten niet gaat gebeuren, en als hij echt 200 euro zou gaan kosten had nVidia er wel mee te koop gelopen, sneller en goedkoper dan de RX480

de prijs van de GTX 980 hoef je niet mee te vergelijken want dat is geen kaart die ze blijven maken en verkopen
De Geforce GTX 960 2GB kosten tussen ¤200,- en ¤250,- toen ze uit kwamen, en de 4GB versie was ongeveer ¤30,- a 50,- duurder, de Geforce GTX 970 koste tussen ¤350,- en ¤450 toen ze uit kwamen, de Geforce GTX 980 kosten tussen ¤550,- en ¤650,- toen ze uit kwamen.

De Geforce GTX 1070 kost nu tussen ¤450,- en ¤550,- en veel Geforce GTX 1080 kosten nu al tussen de ¤650,- en ¤750,-

Dan zou me niks verbazen dat de Geforce GTX 1060 tussen ¤250,- en 350,- gaat kosten, en dan woord hij net zo duur of wat duurder dan de Radeon RX480 8GB, en dan maakt de Geforce GTX 1060 de beste keuze, ook omdat hij hoogstwaarschijnlijk sneller zal wezen.

[Reactie gewijzigd door AmigaWolf op 2 juli 2016 03:35]

tussen 250 en 350 kan ik nog wel inkomen, maar hiervoor riep je nog dat hij rond de 200 euro zou gaan kosten, en daar reageerde ik op dat ik dat niet geloofde

Of hij ook echt de betere keus gaat zijn is nog afwachten, vooral omdat de RX480 in DX12 ook voorbij de GTX 980 gaat
We zullen zien, er zijn nog weinig DX12 spellen uit, 99% is DX11 of lager.

Maar aangezien er nu problemen zijn met de Radeon RX 480 reference cards zal de benchmarks weer wat lager woorden, want de probleem nu is dat de Radeon RX 480 reference cards met gemak 166w gebruiken, en dat er al vergilende MB problemen mee krijgen, omdat er meer dan 75w via de PCI-Express port gaat.

En dan is de enige oplossing voor die kaarten hem lager clocken zo dat ze minder stroom nodig hebben.

https://tweakers.net/nieuws/113127/amd-reageert-op-problemen-met-hoog-energieverbruik-rx-480.htmll

http://www.guru3d.com/news-story/amd-gives-statement-on-the-pci-express-overcurrent-problems.htmll

[Reactie gewijzigd door AmigaWolf op 3 juli 2016 15:15]

We zullen zien, er zijn nog weinig DX12 spellen uit, 99% is DX11 of lager.
Nieuwe games zullen steeds meer DX12 gaan gebruiken, dus dat is imo zeker interessant en handig om in het achterhoofd te houden
Een inmiddels al ontwikkelde softwareupdate moet de problemen verhelpen
Er is al een update die dat verhelpt, maar nergens staat ook dat ze de kaart lager clocken of dat dit de enige oplossing is

overig is het allemaal een nogal overdreven gemaakt probleem als je een beetje verder leest op de Fora

[Reactie gewijzigd door Sinester op 3 juli 2016 16:21]

Het is toch zijn mening? imho betekent in my humble opinion, een uitdrukking die wij in het Nederlands ook kennen. Alleen NMBM zegt de meeste mensen niet veel.
imho is "in my honest opinion". Ik zie het probleem dus niet zo...
In zijn opinie is de prijs bepalende factor of de rx480 wel of niet game over zal gaan.

Dat is toch echt een opinie ;)
Ik houd het graag dicht bij huis en lees 'imo' als 'in mijn ogen' wat gelijk staat als die 'in my opinion'.. maar het boeid verder geen k*t waar het precies voor staat, als we met zijn allen maar weten waar het voor staat :).
de 'h' kan staan voor 'honest' of 'humble'
Snap eigenlijk niet dat NV er 6 GB op gooit i.p.v. 4GB en dan de prijs rond de ¤250 bijvoorbeeld.
Volgens mij kunnen ze dan best wat besparen als ze minder geheugen erop gooien.

Ik lees hier mensen zeggen als die voor ¤300 te koop is is het prima.. maar ik vind ¤300 eigenlijk best veel geld voor deze performance.
Een 960 was toch ook "slechts" ¤230 bij introductie? En volgens mij moet je de 1060 in dezelfde verhouding zien qua perfomance t.o.v. de 1070/1080 als destijds de 960 t.o.v. de 970/980.
geheugen is in veelvouden van de bus
128bit => 2 of 4GB
192bit => 3 of 6GB
256bit => 4 of 8GB
...
Ach is ook zo idd. Dan zou ik er 3 op gooien.
En ja dat kan vollopen etc, maar ik denk dat dat voor deze kaart niet zo'n probleem is, net zo als dat je een 2 en 4 gb 960 had. Waarbij er geen verschil was.
Ja op hele hoge resoluties, maar ik denk dat deze kaart daar niet geschikt voor is.
4 gb is tegenwoordig al te weinig met 1080p. Niet altijd maar naar resolutie kijken. Hogere textures zie je steeds vaker in games dat vaak 4 tot 6 gb nodig heeft. Daarom is de 480 4gb eigenlijk helemaal niet zo goed.
4GB gaat niet wegens de bus configuratie. PCB van de kaart is veel goedkoper met een kleinere bus. Geheugen er op gooien is, denk ik, goedkoper dan een grotere bus en staat ook nog eens beter voor de marketing. Yeah 6GB is meer dan 4GB! Dat ze 192GB/s doen ten opzichte van 224GB/s lezen de mensen toch niet... De kaart zal het denk ik moeilijk krijgen op hogere resolutie en geen SLI (waarschijnlijk).

[Reactie gewijzigd door xman1985 op 1 juli 2016 15:50]

Ben benieuwd naar de prijs! (ja nog steeds ;) ) Waarom ondersteund deze kaart geen SLI? Omdat ze anders qua prijs de 1070 gaan kannibaliseren?
Ik denk het. Dan kunnen ze het prijskaartje van de 1070 & 1080 mooi hoog houden zonder dat een goedkope 1060 dat ondermijnt
Die grafieken zijn een perfect voorbeeld van marketing...

Nvidia blijft nog steeds véél te veel geld vragen voor hun kaarten.

Edit:

Leuk die -1 van een Nvidia fanboy, maar iedereen die basislesjes wiskunde heeft gehad weet dat de prestatiegrafiek ronduit bagger is.

[Reactie gewijzigd door kelwin123 op 1 juli 2016 14:21]

Grafiek is misschien wel vertekend, maar niet per se misleidend als je er gewoon goed naar kijkt.

Iedereen heeft het hier over de prijs, maar waar ik meer naar nieuwsgierig bent is de beschikbaarheid (!) en overklokprestaties. Wel leuk en aardig als hij stock 980 snelheid heeft, maar als er weinig headroom is om over te klokken valt dat ook wel tegen (zoals geval bij de RX480, al zal dat met AIBs misschien wel beter zijn door hogere power supply).

Long story short, zou nou niet per se zeggen dat de RX480 ten dode is opgeschreven zolang we geen antwoorden hebben op bovenstaande vragen.
Net zoals altijd wekt de marketing een te hoge verwachting op, kijk naar meest recente geval van de 480. Ja, het is voor nu rond de EUR 250 is het de beste keuze. Maakt het de verwachtingen zoals marketing ons wil doen geloven waar? Ik denk van niet. Kaart presteert ruwweg gelijk met een 2 jaar oude GTX970 waarbij de prijsvergelijkingen gebaseerd zijn op release datum prijzen.
15% sneller dan de RX480 met 4GB of 8GB? Is het ook maar 15% duurder?
Dat is altijd de vraag hoe ze de grafiekjes geknutseld hebben bij dat soort presentaties. Waarschijnlijk vergelijken ze de 1060 (6GB) met de 480(4GB), en dan is omstandigheden die de 1060 positief weergeven. Wat natuurlijk logisch is als je een presentatie geeft, je wilt je klant overtuigen.
Dus zoals altijd: Eerst een mooie review/ vergelijkingstest afwachten :+
Juist ja, want kijk maar naar de grafieken die AMD presenteerde bij de introductie van de RX480, daar weten we nu ook van dat dat niet klopte..
Misschien heb ik op dit moment te lang vakantie en zijn mijn hersens niet meer scherp, maar hoe kan het dat VR performance hoger ligt dan de normale performance?

[Reactie gewijzigd door wesleydw op 1 juli 2016 17:14]

Ik denk dat ze bedoelen bij de performance van VR zelf dus niet ten opzichte van normale performance, maar ten opzichte van VR performance.. en dat kan door vernieuwde technieken waardoor makkelijker/sneller een afwijkend beeld gerendered kan worden..
Dat komt door Nvidia groene magie.
Allemaal leuk en aardig dat hij 15% sneller is dan de RX 480. Maar als de RX 480 stukken goedkoper is, dan weet je al welke de leiding gaat nemen natuurlijk ;). Als Nvidia de prijs hooguit 20 euro duurder maakt dan de RX 480, 'winnen' ze denk ik wel.
RX 480 overclocked zeer slecht, word erg heet en verbruikt veel. NVIDIA heeft deze problemen niet.

Wat dat betreft staat AMD nog in de kinderschoenen.
Die minpunten snijden allemaal hout voor de referencekaart, maar we moeten de eerste aftermarkets nog zien (waar in ieder geval de overklokbaarheid en temperatuur aangepakt kunnen worden, verbruik zal niet noemenswaardig veranderen natuurlijk, maar dat doet er voor de meeste mensen ook een stuk minder toe tenzij het echt een duurdere PSU vereist).

Sowieso kunnen we nu nog geen zinnig woord zeggen either way. De RX 480 heeft alleen de weinig indrukwekkende referencemodellen, de GTX 1060 bestaat alleen op papier (en de GTX 1070/1080 zouden wat hun prijs betreft net zo goed alleen op papier kunnen bestaan).

Geef het nog even tot er voldoende verschillende modellen aan beide kanten zijn en de prijzen aan de Nvidia-kant ook weer kloppen, dan weten we pas echt weer meer. Nvidia heeft de efficiëntere architectuur, maar het draait uiteindelijk om prijs/prestatie, en zoals AMD heeft laten zien hoef je daarvoor niet persé de meest efficiënte te zijn.
Prachtig die grafiek, kan Fox News nog wat van leren :)
Als ze nou eens zorgen dat die onder de ¤300,- blijft dat is dit een hele interessante kaart.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True