Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 92 reacties
Submitter: Scuur

De vermeende specificaties van de Nvidia GeForce GTX 1050 zijn verschenen. Uit een GPU-Z-screenshot blijkt dat de kaart 768 cudacores krijgt in combinatie met een geheugeninterface van 128 bits breed. De versie van het screenshot bevat 4GB gddr5.

Met 768 cudacores zou de GTX 1050 512 cores minder hebben dan de GTX 1060 6GB en over een identiek aantal cudacores ten opzichte van de GTX 950 beschikken. De kloksnelheid zou op 1316MHz liggen, met een boostsnelheid van 1380MHz, blijkt uit het screenshot dat Benchlife publiceert.

Videocardz tekent aan dat de tmu-hoeveelheid uit het screenshot niet lijkt te kloppen, die zou 48 moeten bedragen. Verder gaat het bij de specificaties om een kaart met 4GB gddr5-geheugen. Volgens een eerder bericht van de Zweedse site Sweclockers komt Nvidia in oktober met twee versies van de GTX 1050, een met 4GB en een goedkopere versie met 2GB gddr5.

De GTX 1050 wordt de opvolger van de GTX 950. De tdp van de komende kaart is nog niet bekend, maar waarschijnlijk zal deze via pci-e gevoed kunnen worden en is geen additionele voedingsconnector nodig. Dat houdt in dat de tdp maximaal 75W zou kunnen zijn. Recent bracht Nvidia 75W-versies van de GTX 950 uit waarvoor hetzelfde geldt.

GTX 1050 GPU-Z Benchlife

Nvidia GeForce GTX 1050 specificaties
  GTX 1060 6GB GTX 1060 3GB GTX 1050 (gerucht) GTX 950
Gpu GP106-400 GP106-300 GP107-400 GM206-250/251
Cudacores 1280 1152 768 768
Tmu's 80 72 48 48
Rop's 48 48 32 32
Kloksnelheid 1506 MHz 1506 MHz 1316 MHz 1024 MHz
Boost-kloksn. 1709 MHz 1709 MHz 1380 MHz 1188 MHz
Geheugenkloksn. 2002 MHz 2002 MHz 1752 MHz 1653 MHz
Eff. geh. kloksn. 8008 MHz 8008 MHz 7008 MHz 6612 MHz
Geheugen 6GB gddr5 3GB gddr5 4GB gddr5 2GB gddr5
Geheugenbus 192 bit 192 bit 128 bit 128 bit
Tdp 120W 120W ? 90W/75W
Introductie juli 2016 augustus 2016 oktober 2016 augustus 2015
Moderatie-faq Wijzig weergave

Reacties (92)

Ik zit nog te twijfelen om mijn RX460 terug te brengen en te wachten op de gtx1050.. Zou de 1050 veel beter zijn?
Veel beter nee, wel iets sneller waarschijnlijk en iets zuiniger, maar waarschijnlijk ook iets duurder.

Als je het aantal flops van de GTX 1050 gaat berekenen kom je op 2,1Tflops uit, de GTX 960 heeft iets meer met 2,4Tflops. Echter zie je dat Pascal vaak verder boost dan de opgegeven boostclock waardoor het verschil waarschijnlijk kleiner is. (Pascal en Maxwell hebben een vergelijkbare architectuur dus je kunt flops in dit geval omzetten naar prestaties) Dus ga er vanuit dat de GTX 1050 dicht bij de GTX 960 komt met een verbruik onder de 75W.

De RX 460 zit meer rond de GTX 950 wat betreft DX11 games, dus in vergelijking met een GTX 960 of GTX 1050 zal dat iets van 15/20% verschillen in het voordeel van de laatste twee. In DX12 en Vulkan, moderne games dus, is het verschil een stuk kleiner wat betreft de RX 460 en GTX 1050 en GTX 960. AMD is gemiddeld gezien namelijk beter hierin door de meer moderne architectuur. In DX 12 en Vulkan zal het verschil waarschijnlijk eerder nog maar zo'n 5% zijn in het voordeel van de GTX 1050, dat merk je niet meer, en waarschijnlijk vergelijkbaar als je naar een GTX 960 kijkt.

Maar de verwachting is echter wel dat nVidia de kaart duurder in de markt zal zetten als AMD en waarschijnlijk ook de iets mindere prijs/prestatie heeft, dat is al jaren zo en ook bij de huidige generatie.
Wel een betere performance/watt, dat is ook al jaren zo.
Er staat dat de performance/watt beter is, maar "al jaren zo" is wat overdreven. Ligt er aan wat je onder jaren verstaat, dit is pas de tweede generatie waarbij nVidia de betere performance/watt heeft met Pascal en daarvoor met Maxwell had nVidia dat ook. Kepler was het vergelijkbaar en veel generaties daarvoor was het steeds AMD met de betere performance/watt.

Niet dat het verschil overigens heel groot is met bijvoorbeeld een kaart als de RX 480 en GTX 1060. Een standaard GTX 1060 neemt zo'n 120W en een standaard RX 480 zo'n 160W. Denk niet dat veel mensen wakker liggen van die 40W verschil. Dat is niet echt een verschil dat je terug ziet op de energie rekening, tenzij je 24/7 aan het gamen bent, maar dat houd je toch maar iets van 2 dagen vol.

[Reactie gewijzigd door -The_Mask- op 5 september 2016 17:27]

Die 40 watt is wel 25% meer. Dat is gigantisch. Niet vergeten die low/mid end kaarten niet in de snelste pc's met de beste airflow komen en dikwijls nog een brakke PSU hebben. Je vindt prijs/prestatie wel belangrijk maar performance/watt niet? Het minimale prijsverschil zal zich vlotjes terugbetalen door het mindere verbruik.
Nou echt gigantisch idd, je ziet het binnen een dag al terug op de energie rekening!!!11 Not...

Daarnaast als de PC moeite zou hebben met die 40W meer dan heeft die ook moeite met die 40W minder. Maar mocht je dan echt zo'n bijzondere behuizing hebben die de warmte van een GTX 1060 wel aan kan, maar die van een RX 480 niet dan kan je idd de GTX 1060 nemen. Maar dat zal misschien 1% van de mensen zijn?

Wat betreft de voeding, als je een brakke voeding hebt. Dan ben je sowieso dom bezig om die te behouden aangezien een gare voeding elk onderdeel van de PC kan slopen. Dus als je dan de voeding moet vervangen met de RX 480, lijkt mij dat alleen maar een plus. Een gare voeding gebruiken is immers nooit slim. Daarnaast kan een RX 480 natuurlijk al op een goede 300W voeding draaien, dus veel vermogen heb je sowieso niet nodig.
De kostenbesparing is niet heel erg relevant. De besparing op hitte en geluid eventueel wel. Vooral voor mensen die een Mini-ITX kast gebruiken. Het gaat er dan niet alleen om of de kast en de koeling de hitte aankunnen, maar ook hoe stil het systeem is.

Vooral relevant als je ook een processor gebruikt die zuinig is en een voeding hebt die efficiënt en stil is.

Een relatief kleine en stille PC is ideaal voor mensen met een gezin die af en toe in de woonkamer willen gamen of in de slaapkamer (vooropgesteld dat je die met een partner deelt).

Ik heb bijvoorbeeld een extra PC in de slaapkamer gezet die vrijwel geen lawaai maakt en heel weinig warmte produceert (fijn in de zomer) maar nog steeds geschikt is voor het spelen van games.
Ik vind het best knap dat je kost wat kost wil vasthouden dat stroomverbruik en warmteontwikeling er niet toe doen, dat in tijden waar alle tech fabrikanten zo zuinig mogelijk produkten op de markt te brengen. Het is gewoon wel belangrijk en het zal alleen maar belangrijker worden. Ik begin te denken dat dit enkel voor AMD fans een waarheid is die ze liever niet horen omdat het hen (nu) niet goed uitkomt.

[Reactie gewijzigd door aval0ne op 7 september 2016 12:35]

Ik vind het best knap dat je koste wat het kost nVidia wil verdedigen en daarbij ook gewoon de feiten verdraait. Ik heb bijvoorbeeld nooit beweerd dat stroomverbruik en warmteontwikkeling er niet tot zou doen.
Om een beetje beeld te geven:
Bij een verschil in verbruik van 40 Watt en dagelijks 4 uur gebruik van een pc voor gamen(onrealistisch).
40/1000 kW * 4 uur * 365 dagen = 58,4kWh op jaarbasis
Bij een prijs van 20 cent per kWh gaat dit je per jaar zo'n ¤12,- opleveren.

Gezien je niet altijd zult gamen, en games niet het volle vermogen van je kaart zullen benutten, zal je in de praktijk lager uitkomen. Over de levensduur(3 jaar?) van de kaarten zou de AMD misschien 30 euro extra hebben verbruikt.

Doe hiermee wat je wilt.
Plus het feit dat je je huis in de winter minder hoeft te verwarmen ;-)

Ik verbaas me ook steeds vaker over de prioriteit die de kleine besparingen krijgen.

Zet gewoon de kachel 1 graad lager, douche niet iedere dag, pak de fiets om te winkelen. DAT heeft zin.
Tom's Hardware
Om hier wat specifieker op in te gaan.

45/46w verschil in full gaming mode, 6/7w verschil in idle. Stel dat je PC 24/7 aan staat, met die 4u per dag full use (lijkt me stug, maar goed). Dan praat je over een extra verbruik van 300w per dag. Significant, toch wel.

Quanta costa: rond de 7 à 8ct per dag = ergens tussen de 25¤ en 30¤ per jaar. (elektriciteit krijg ik hier niet voor 20ct; eerder 24 à 25ct)

Anders gesteld; een GTX 1060 verdient zichzelf dus inderdaad terug, MITS je 'm veel én intensief gebruikt. (24u p/d 6w verschil is approx 13¤ per jaar)

Dus, ook al ben ik absoluut pro-AMD, op basis van de cijfers van Tom's Hardware is GTX 1060 geen slechte keuze.
Kleine tip, stap even over van energieleverancier. De prijzen zijn een jaar of 2 terug onder de 20cent per kWh gedoken. De goedkoopste hangen nu tussen de 17 en 18 cent.
Je weet wel, overschot wind-/zonne-energie uit Duitsland enzo.

Daarnaast, wie heeft zijn PC 24/7 aan staan? Je noemt 4 uur per dag gamen al stug, laat staan 24/7 gebruik van een PC... Voor server doeleinden zijn efficiëntere oplossingen te vinden, zoals die frambozentaart.
Probeer wel even realistischere toepassingen aan te houden, zoals die 4 uur zien als incl. idle/browsen en het gamen als slechtste geval te lezen.

Buiten dat ben ik het wel met je eens. De kaarten liggen niet ver uit elkaar en om de prijs hoef je geen van beide te laten.
hahaha :+
Da's mooi.
Maar ik woon in BE/FR, waar de "afschrijvingen" op de kerncentrales nog zwaar meewegen...
AMD doet 0W idle door wat ze Zerocore noemen, als het beeldscherm in standby gaat, gaat de videokaart ook uit. Aangezien je niet 24/7 achter de PC zit moet dus ook een groot deel 0W zijn.
Dat zou mooi wezen; dat blijkt echter niet uit die stats van Tom.
Maar goed, ik geloof je graag, natuurlijk :)
Ik betwijfel sterk dat je het prijsverschil terug zult verdienen door minder energieverbruik binnen een aanzienlijke tijd.

Het omzetten naar een percentage klinkt veel, maar zegt weinig. Als een kaart 20 watt verbruikt, en de ander 40 watt, is dat 100% meer, klinkt heel veel, maar toch zijn het beiden erg lage aantallen.
Het verschil tussen 20 en 40 Watt kan het verschil tussen een actief of passief gekoeld systeem zijn. Of bijvoorbeeld een actief gekoelde kaart, maar geen case fan. Met energieverbruik is het zo dat het je of niet heel erg veel uitmaakt, of dat je het erg belangrijk vindt.

En zuinige kaarten zijn leuk voor mensen met een laag budget die voor peanuts een second-hand kantoor PC kopen en ombouwen tot een game PC voor bijvoorbeeld MOBA's of oudere games.
Ik ben geen fanboy van één van bijden.
Gezien Nvidia mee wilt concurreren op de 460 verwacht ik dat net als de rx480-gtx1060 de 1050 net iets sneller zal zijn.
Beter wachten tot januari waar de nieuwe kaarten van AMD worden gereleased.
Begin volgend jaar heeft AMD de high-end Vega videokaarten op de planning staan. Dit zijn dus high-end videokaarten met HBM2 videogeheugen. Totaal andere prestaties en prijscategorie dat worden concurrenten voor de GTX 1070, 1080 en Titan.
Dat is recent vermeld als H1, ipv Q1. Dus dat is ergens tussen Januari en Juni.
Here’s the thing about product launch timing. When a company only gives a vague date like “H1” or “H2,” it almost always means the product will launch towards the rear of the relevant window. AMD repeatedly stated it would launch Polaris in H1 2016 and it debuted the card in late June — just before H1 turns into H2. Companies typically flip to half-years as opposed to quarterly targets when they don’t want to admit a new product is farther away than investors or consumers might like. “H1” sounds like “Q1” and offers hope for an earlier debut, while “Q2” forces the company to admit that a product won’t debut until at least April of the following year.

I want to stress that these naming conventions are typical, not absolute. Maybe AMD is being conservative. Maybe they’re planning to debut the card earlier than expected and tweak Nvidia’s nose. But historically, when AMD says “H1,” they mean “May / June timeframe.” Other companies use the phrase similarly.

If Vega has really been pushed back to May or June, it’s a serious blow to AMD’s graphics strategy. A six-month delay between Nvidia and AMD’s refresh cycles was acceptable, a year-long delay is not. Vega was supposed to be AMD’s chance to catch up to Nvidia by delivering a top-end GPU refresh that could match Pascal in terms of overall performance and power efficiency. By the time Vega actually sees the light of day, Nvidia will be well at work on their own follow-up.
Als de laatste suggestie uitkomt dan is dat onderhand het einde van AMD Radeon in het high-end segment. Vergelijkbaar met AMD in het cpu segment. Tegen die tijd is het gros van de markt al voorzien. Zie het dalende aandeel van AMD op Steam, 4% eraf tov maart 2015. Polaris heeft de daling niet gestopt.

Wat dat betreft zou Q1 gunstiger zijn voor iedereen. Maar wellicht is dat dus gewoon wishfull thinking en komt mijn doemvoorspelling die ik de "R&D hamer" heb genoemd gewoon nu al uit.
Ik zou het heel jammer vinden als de R&D hamer ook echt Radeon binnen komt zetten. Dat je dus een GTX 1080 Ti en een Titan ZX kunt kopen en AMD Radeon dat segment helemaal niets te beiden heeft. De eerste keer volgen ze wellicht 10 maanden later en de volgende generatie laten ze het dan helemaal los. Ik voorkom graag dat doemscenario en vandaar dat ik aanstuur op afstoten van RTG naar een andere partij die het wel helemaal ziet zitten en gewoon lekker gaat investeren
In dat geval komt Vega pas na maart uit of kan Vega simpelweg niet tegen Nvidia high-end opboksen.

Als consument hoop ik natuurlijk dat dit niet gaat gebeuren. Echter als je kritisch kijkt naar de dalende R&D budgetten van AMD over de laatste 10 jaar dan kun je de werknemers daar weinig kwalijk nemen dat ze Nvidia niet kunnen bij houden in time-to-markt. Nvidia heeft namelijk met 346 miljoen een 42% hoger R&D budget dan heel AMD...

[Reactie gewijzigd door sdk1985 op 5 september 2016 15:58]

Die statistieken op steam zijn erg interessant:
http://store.steampowered.com/hwsurvey/videocard/

Ik zie dat het met name (hele) oude reeksen van AMD zijn die nog wat gebruikers hebben. De 200-reeks was een beetje een flop. De 300 reeks een nog veel grotere flop. En de Fury en de 400-reeks staan er helaas niet tussen omdat het marktaandeel (nog) te klein is.

Bij Nvidia zie ik het tegenovergestelde. De 900-reeks is echt zeer goed vertegenwoordigd in de stats. De GTX 970 in z'n eentje heeft meer gebruikers dan al deze groepen van AMD bij elkaar:
- R9 200 reeks
- 300 reeks
- Fury reeks
- 400 reeks
Dat is dus één enkele kaart van Nvidia die in z'n eentje al zo'n beetje alles van AMD van de afgelopen 3 jaar wegblaast qua gebruikersaantallen.
Ook de allernieuwste GPU's van Nvidia zijn al mooi vertegenwoordigd in de stats. De GTX 1070 met 0.98% doet het al érg goed en zal de komende maanden flink doorpakken. Ook de GTX 1080 en 1060 staan er al netjes tussen (Hallo Rx 480, where art thou??).

Kortom, wie van de steam gebruikers neemt de nieuwe AMD-reeksen echt serieus?
Let er ook op dat het bij AMD tegenwoordig reeksen zijn en geen individuele modellen.

Nvidia heeft het heel slim gespeeld door de GTX 960 Ti weg te laten. Daardoor was het kiezen voor de matige GTX 960 (gelijkwaardig aan de GTX 760 welke weer gelijkwaardig aan de GTX 660 Ti was) OF 150 euro meer neerleggen voor de GTX 970 terwijl de performance per euro er dan zeker niet op achteruit ging.

Zoals te zien hebben velen voor de GTX 970 gekozen. Nvidia heeft het dan ook voor elkaar gekregen om de 300-350 euro kaart het nieuwe "normaal" te maken.

Wat dat betreft was dit een gouden kans voor AMD om de RX 480 ook rond prijspeil aan te kondigen. De consumenten hadden die prijs geaccepteerd.
Precies en de grap is dat Nvidia het met Pascal opnieuw probeert. Alle prijspunten zijn een nummertje opgeschoven.
Dus nu een half jaar wachten op de nieuwe kaarten van AMD. En in januari kan je dan ook zeggen, even wachten tot juli want dan komen de nieuwe NVidia kaarten :P. Zo blijf je bezig.
Ik denk dat NVidia ondertussen zijn ganse line-up heeft gepresenteerd, de Titans Ti uitgezonderd. Van AMD weten we dat de high-segment kaarten nog moeten komen. Het volgend rondje speculeren en wachten zal dan voor binnen een jaar of 2 zijn.
Eigenlijk moet je je afvragen wat je wensen en eisen zijn voor een nieuwe kaart en aan de hand daarvan kijken of er momenteel iets in de markt is dat voldoet. Normaliter zou die kaart er nu moeten zijn (of voor de amd-fans er moeten aankomen). Als dat niet het geval is, stel je waarschijnlijk eisen waaraan de markt momenteel niet aan kan voldoen. :P

Edit : oeps, me even vergist van kaart 8)7

[Reactie gewijzigd door Arator op 5 september 2016 09:09]

Waarom wachten op een high end AMD kaart als je een low end kaart als de 1050 overweegt?
Persoonlijk zit ik momenteel te wachten op de high-end kaarten van Amd om dan te vergelijken. Ik geef net aan dat alles nu zowat op de markt is of op het punt is om te verschijnen. Als je niet direct een nieuwe gpu nodig hebt, kan je misschien even wachten totdat de zotte prijzen eruit zijn, maar anders lijkt mij het eerste kwartaal 2017 een koopmoment voor high-end kaarten, en nu voor de budget- en midrange kaarten.
De Titans zijn juist al uitgekomen.
de Ti versie's nog niet.
En ik vraag me af of die deze generatie zullen komen.

on: ik denk dat dit best een goede kaart zal zijn voor de mensen die af en toe een spel spelen en niet op de hoogste kwaliteit.
voor om en nabij ¤150 is deze kaart prima.
Dat, en dan ook nog de komende high end AMD's vergelijken met deze 1050?? Die zijn maar een keer of 3 sneller.
Wachten heeft nooit zin, er komt altijd weer wat snellers en beters uit.
Een maandje wachten kan ik nog begrijpen. Een half jaar niet meer.
Volgens een eerder bericht van de Zweedse site Sweclockers komt Nvidia in oktober met twee versies van de GTX 1050, een met 4GB en een goedkopere versie met 2GB gddr5.
Die goedkope versie zou wel eens leuk kunnen zijn voor mensen die een eigen HTPC willen bouwen (HDMI 2.0, HEVC/H.265, UHD, om maar met wat afkortingen te gooien). Daarbij is de 'poespas' voor het intensievere rekenwerk niet nodig.

[Reactie gewijzigd door The Zep Man op 5 september 2016 08:00]

Verwacht dat hij daarvoor te prijzig zal zijn, zijn genoeg goedkopere/zuinigere alternatieven voor 4k media spelers.

Deze kaart is denk ik puur voor de lichtere, nog steeds populaire, games. Denk aan CS:GO, dota/lol, minecraft, etc.

[Reactie gewijzigd door waktak op 5 september 2016 08:05]

Sorry,

maar ik moet hier toch even op ingrijpen. De spellen die je noemt zijn in hoge kwaliteit te spelen op kaarten zoals de GTX 750 de veel oudere voorouder van deze kaart. Sterker nog, op Full HD vallen zelfs spellen zoals Subnautica goed te spelen op de GTX750. De GTX1050 kan goed gebruikt worden voor Doom 4 op Full HD, wellicht niet met alle effecten vol open maar dan nog zal Doom 4 vloeiend draaien met deze kaart.

Ik geloof dat de huidige generatie 1050 en 1060 kaarten worden onderschat in hun vermogen. je hoeft alleen maar te kijken naar wat kaarten zoals de GTX750 nu nog steeds kunnen. Dit is zeker geen HTPC kaart maar veel meer dan dat.

Ik heb mij lang zitten in te houden hierover maar de kracht van de huidige nieuwe generatie 'low end' kaarten wordt grof onderschat en iedere keer dat ik zulke onderschatting lees raakt het een gevoelige snaar.

Op full HD zal de 1050 gewoon het meeste van de nieuwe spellen in redelijke kwaliteit goed kunnen draaien. Wil je VR of 4k met 60+FPS dan zul je een GTX 1070 of 1080 nodig hebben idd.
Dat de 1060 wordt onderschat ben ik bolledig met je eens. Maar ik denk dat de 1050 tussen wal en schip valt betreft prestaties/prijs.

Wat ik hiermee bedoel is: de 1060 is perfect om de nieuwste games op 1080p maxed te spelen (wat denk ik de grootste doelgroep is op dit moment).

De 1050 daarentegen is zeker een prima kaart, maar ik denk te duur/ hoge prestaties voor de casual gamer die niet alles op maxed hoeft te spelen. Denk dat deze doelgroep ook tevreden zou zijn met een rx460 voor ¤120,-.
Deze kaart heeft ook HEVC en HDR support door polaris, en zal best goede prestaties hebben onder dx12.

[Reactie gewijzigd door waktak op 5 september 2016 10:36]

De 1060 is juist de kaart die ik zou ontwijken. Dan is het veel beter om door te sparen voor de 1070, of juist geld te besparen en te wachten op een 1050 of 1050ti. De Nvidia x60 is eigenlijk altijd een beetje de 'net niet' kaart. Max settings op Full HD kun je gewoon vergeten, en 60 fps steady al helemaal. Dat kan de 970 niet, en de 980 ook niet, met name voor de nieuwere games zit dat er gewoon niet in.

De 1050 zal een betere prijs/perf verhouding kennen. De 1060 is nu al in verhouding op de nieuwere API"s gewoon een slechte keuze zowel qua prijs/perf als ten opzichte van de RX480.
onderstaande reviews spreken dit allemaal tegen. Neem als voorbeeld maar even the witcher 3, komt allemaal boven de 60fps gemiddeld als nvidea hairworks uit staat, op 1080p met maxed settings.

reviews: Nvidia GeForce GTX 1060 review: op scherp in het midrange-segment
http://www.guru3d.com/art..._g1_gaming_review,22.html
http://www.tomshardware.c...x-1060-pascal,4679-5.html
En in The Division, een game die een dik jaar nieuwer is, tik je 35 fps aan, verder zie je ook dat heel veel van deze benchmarks een vreemd verloop hebben waarbij zelfs een 980ti 'tankt' op de framerate terwijl die in elke 'echte game' de 1070 evenaart of zelfs voorbij loopt met een beetje OC. HWI benchmarks neem ik sowieso niet serieus, en tomshardware is ook niet zo heel betrouwbaar te noemen. Hilbert laat alleen gemiddelde FPS zien.

Kortom, ja er zijn games die het prima redden, maar de realiteit is dat je over een half jaar spijt gaat hebben van een 1060 aankoop omdat je dan al links en rechts moet gaan inleveren.

[Reactie gewijzigd door Vayra op 5 september 2016 11:22]

Tweakers' review geeft hetzelfde resultaat, of vertrouw je dat ook niet?

Natuurlijk zul je in moeten leveren, maar je hoeft op moment van schrijven ¤170 minder in te leveren voor een 1060 dan voor een 1070. Dat is toch wel een groot verschil, ondanks dat de 1070 een beter bang for buck verhouding heeft. Mijn punt is dat ik denk dat de 1060 / rx480 de meeste interesse heeft onder gamers vanwege de prijs / prestaties bij 1080p. Ze hebben in ieder geval mijn interesse.
Op het prijspunt van de 1060 zou ik dan ook altijd voor de RX480 gaan.
Moet gaan inleveren op onnodige settings zoals HBAO waar je toch niks van merkt of shadows van Ultra naar High.
1440P Medium/High setting in een spel ziet er veel beter uit dan 1080P UItra

[Reactie gewijzigd door Koning Willy op 5 september 2016 11:55]

https://www.techpowerup.c...060_Gaming_X_3_GB/11.html

38.2 Gemiddelde FPS op een nieuwere game op 1080p

Maar, heel future proof hoor! Zelfs op high ga je hier de 60 niet halen.

Nogmaals. 1060, ontwijken. De 960 was ook niet interessant, de 760 was de uitzondering op de regel (maar ook dan was je beter af met een 670 van de gen ervoor). Dit is altijd het geval. De 750ti was de budget midrange koning. De 550ti idem dito. De 660ti was ook interessant. De x60 is altijd duur voor wat ie levert, is het niet vandaag het geval, dan wel over een maand of 3-5 - zie Deus Ex.

[Reactie gewijzigd door Vayra op 7 september 2016 13:40]

Kanttekening: gemiddeld 60 FPS is niet hetzelfde als altijd 60 FPS.

Ik ben het wel met je eens dat de GTX 1060 een prima kaart is voor 1080. Ook de 3GB variant is top.
Wat een onzin, met de 970 kan je alles op max spelen in fullhd (ik heb hem zelf en je kan er de benchmarks op na lezen) . Noem me een game welke niet op max settings op fullhd of onder de 30fps komt. Tombraider(de laatste), shadow of mordor, bf4, hitman, of the witcher 3 komen niet onder de 60fps gem. . De 1050 zal gelijk presteren alsnde 970 de 1060 is op zijn minst 20% sneller. Maar ik ben reuze benieuwd naar welke games jij niet steady op 60fps kan spelen met de 1060gtx op max settings. (haal ik wel alle benchmarks erbij)
De 970 alles op max FHD? Dan is je definitie van max wel heel erg ruim...

Ik zou nog maar s kritisch kijken naar je settings en min fps in dat geval, want dat is echt niet juist. Ook eigen ervaring, met een snellere GPU (780ti)
De GTX 780 Ti is soms langzamer dan de GTX 970. Ik heb zelf een GTX 780 Ti en ik ben het wel met je eens dat maximale setting voor 1080 bij 60 FPS niet altijd haalbaar zijn, maar in de praktijk is de grafische kwaliteit prima.
De 780 is langzamer, de 780ti is meestal net iets sneller dan de 970 en net iets langzamer dan de 980.

Onderaan de streep en met een brede benchmark suite is het stuivertje wisselen - maw gelijkwaardig. Ik ervaar zelf dat de 780ti nu in het vaarwater komt van steeds iets agressiever aan je settings prutsen om er steady 60 fps mee te halen. Dat is met de 970 in ergere mate het geval. En er zijn games die serieus moeten inleveren, ook écht zichtbaar in je IQ in-game (ik ben het met je eens dat niet alles altijd op ultra 'moet' omdat er ultra bij staat, en kritisch tweaken is mij niet vreemd). En dan zijn er nieuwe games die bij lange na de 60 fps niet halen op dit prijspunt, waarvan Deus Ex een van de eerste voorbeelden is. Het blijft 1080p, maar ook daar gaan de vereisten omhoog.

Kortom, het is een illusie te denken dat je nu 'een 1080p ultra' kaart koopt, want die kaart bestaat niet. Ook toen de 970 uitkwam, bestond die kaart niet als de '1080p ultra' kaart. Kijk maar naar Crysis 3.

https://www.techpowerup.c...I/RX_480_Gaming_X/12.html

Zelfs de 980 komt niet op 50 fps *gemiddeld* en heeft dips tot aan 30 fps. Laten we de zaken niet mooier voorstellen dan ze zijn.

[Reactie gewijzigd door Vayra op 7 september 2016 16:00]

Ik speel alles op ultra en 60fps haal ik makkelijk, de games die ik hier boven noem doen dat ook, het bewijs staat gewoon online. Jouw verhaal gaat over de 1060 en dat die dat niet kan (terwijl die ook aantoonbaar dat wel kan, nogmaals lees de benchmarks), nu kan jij betwijfelen of de 970 dit kan maar de 1060 kan dit zeker wel. Ik vroeg om tegen bewijs, maar nog steeds niet gekregen. En ik hoef niet kritisch te kijken de objectieve benchmarks zeggen genoeg.
Op FHD heb je genoeg aan een 970 of 1060, ga je naar 2k of 4k (of VR) niet nee.
(mijn definitie is niet ruim die heb ik al gegeven alles op ultra en FHD min 60 FPS, lees de benchmarks).

[Reactie gewijzigd door D0gtag op 5 september 2016 18:50]

GTA5 alles op ultra en 60fps op FHD haal je nooit. Heb zelf 970 en zit rond 35fps.
Ik heb zelf gta5, gekocht en maar een paar keer gespeeld compleet OT maar ik vond hem niet zo leuk als gedacht. Maar ik speel hem wel rond de 60FPS hier op YT een andere met gtx970 die ook rond de 60fps zit op ultra. Ik heb een xeon 1230v3 16GB met asus 970gtx strix.
Zie reactie(s) hierboven. Ik hecht weinig waarde aan 'average fps', dat is leuk voor relatieve performance en gemiddelden, maar niet voor je spelervaring.
Goed argument, niks op in te brengen.
Toegegeven, ik ben zelf voor de GTX 1070 gegaan maar zo negatief over de 1060 is nergens voor nodig. In het grootste deel van de techpowerup wordt gewoon dik 60 fps gehaald

De GTX 1060 is goedkoper dan de GTX 970 was (¤275 euro voor de EVGA GTX 1060, waar de GTX 970 recent nog op ¤350 zat) terwijl hij significant sneller en zuiniger is. Laat nu juist die GTX 970 de laatste 2 jaar standaard worden aangeraden en ook de kaart met het grootste marktaandeel zijn (op steam).

De reden dat ik zelf voor de GTX 1070 ben gegaan is twee delig. Ten eerste was op dat moment de GTX 1060 alleen leverbaar voor ¤330, terwijl de 1070 net was gedaald naar ¤459. Ten tweede ga ik liever richting de 100-120 FPS ga dan richting de 60-80 fps.

Maar vandaag de dag is het prijsverschil 66% (275 vs 459) terwijl het prestatie verschil is beperkt tot 34% (overgeclocked 134 vs 101 FPS). Dus zo gek is die GTX 1060 helemaal niet! De bang for buck is veel hoger.

Mocht AMD Vega de markt op zijn kop zetten dan kun je van het geld dat je bespaard hebt (194 euro), samen met wat de kaart nog waard is (200 euro) altijd nog een prima upgrade aanschaffen.

[Reactie gewijzigd door sdk1985 op 5 september 2016 15:32]

A. De 1070 is nog steeds te duur voor wat ie levert.
B. Je kan een nieuwe 980ti kopen voor 40-50 euro MINDER dan een 1070 (en dan heb je meer GPU, met OC sowieso sneller, vrijwel elke 980ti klokt tot 1350-1400)
C. De 1070 heeft nog geen directe concurrent
D. De 970 gaat momenteel voor 250 over de toonbank.
E. Voor een x60 is het reguliere prijspunt 200-215 euro, en niet 275

Kortom allemaal tekenen dat de huidige prijsniveau's compleet van de leg zijn. En dat verhoudingsgewijs prijs/perf nog niet is geland waar die moet zijn (de 1070 is en blijft te hoog geprijsd zelfs op 450 euro). Bovendien zie je dat de 1060 in alle nieuwe API's aardig onderuit gaat en dat juist GCN bijzonder goed uit de verf komt. Tussen de 1060 en de RX480 is wat mij betreft de RX480 'de nobrainer' en niet de 1060. Wil je hoger inzetten, dan is de 980ti nog helemaal zo gek niet als die lager is geprijsd.

Is de 1060 een slechte kaart? Ik denk dat we over een jaar het met elkaar eens gaan zijn dat het zeker niet de beste keus was, net zoals de 960 heel snel onderuit is gegaan door zijn smalle bus. Nu is het nog wat lastig te zien, maar de eerste tekenen zijn er al dat de 1060 hard door de mand gaat vallen, op dezelfde manier dat Pascal op hogere resoluties door de mand valt (en de 1080 slechte enkele procenten boven een Fury X uitkomt). Clocks zijn niet alles.

[Reactie gewijzigd door Vayra op 7 september 2016 16:13]

Dat de prijzen nu hoog zijn klopt, we komen uit een situatie dat er veel meer vraag dan aanbod was. Op het moment dat die GTX 1060 ¤330 was waren er enkele op voorraad. De MSI GTX 1060 staat bij cdromland nog steeds op 0. Van de EVGA is er een dalende voorraad van 27. Van de GTX 1070 zijn er bij dezelfde shop ondertussen 179. Het gaat dus nog even duren voor we normale prijzen hebben. Een deel van de verhoging is overigens permanent; de BTW is van 19 naar 21% gestegen in 2012 en de euro is veel minder waard.

Echter dat heeft weinig met de kwaliteit van een kaart te maken. Het hele resolutie verhaal is echt een non-issue. Prettig gamen is meer dan 100 fps draaien. Met de huidige generatie games in combinatie met de GTX 1070 gaat dat net. In Battlefield one zie ik al regelmatig 90 fps voorbij komen in 2560x1080. Dus die hogere resolutie die wil ik als gamer helemaal niet. Dan hebben we het over een GTX 1070 en geen GTX 1060. Midrange gamen op 2560x1440 blijft de komende jaren onzinnig. 4K gamen blijft voor iedereen onzinnig. De ervaring leert dat we herfst 2017 weer nieuwe games gaan zien die weer een stuk zwaarder worden.

Als ik nu een RX 480 zou willen kopen dan wil ik in ieder geval geen reference model. Zie:
Quoting from the AMD reviewer's guide, "a lot of work has gone into reducing noise levels for the Radeon™ RX 480." Sorry, but no, gaming noise levels are bad. The reference card is noisier than every single card released in recent times, and it runs at well above 80°C too. We confirmed the temperature and noise levels with other reviewers, so it's not only our sample.
Daarnaast heb ik een multi-monitor setup en zit er opnieuw een bug in de AMD kaarten waarbij het verbruik 40W is, waar de 1070 7W doet. Dat komt hier op circa 150 Kwh uit.

Als we dat even voor lieft nemen dan kun je wel een custom kaart kopen:pricewatch: MSI Radeon RX 480 Gaming X 8G voor ¤329 euro.

De GTX 1060 van EVGA is dan echt een veel betere deal (10 euro goedkoper bij dezelfde shop). Ding is bovendien circa 10% sneller. Daarnaast heeft Nvidia nog wat andere troeven (persoonlijk gebruik ik regelmatig shadowplay en ook de nieuwe co-op streaming functie is best grappig).

Als je nu een kaart zoekt dan doe je echt geen miskoop aan een custom 1060. Nogmaals; hij is significant sneller dan de GTX 970 (17%), die tot voorkort als "de kaart" werd gezien. Als je dan ook nog effectief 75 euro minder kwijt bent dan voor deze zomer dan zie ik weinig reden tot klagen. Het hoeft niet heel gek te lopen of de GTX 1070 zakt dan alweer de (shooter) ondergrens van 90 FPS door op fullhd / 2560x1080.

Daarmee zullen de prijzen heus nog wel zakken, maar als je nu wil upgraden dan heb je daar weinig aan. Verder leert de ervaring dat wachten op potentiele toekomstige voordelen eigenlijk nooit loont. Tegen de tijd dat het mogelijk een voordeel is loop je alweer achter de feiten aan en kun je beter de eerder beschreven upgrade doen.

[Reactie gewijzigd door sdk1985 op 7 september 2016 17:43]

dat komt omdat sommigen een spel tegenwoordig pas speelbaar vinden als ze 144fps halen (ik heb nog nooit zo'n belachelijke hype gezien in IT-land)
Het is geen hype. Het is een feit. Als je eenmaal weet hoe 144fps speelt op een scherm die ook hoger dan 60fps kan weergeven dan wil je niet meer terug.

1 van de redenen dat ik persoonlijk op een zo hoog mogelijk framerate wil spelen is dat als je fps dan inkakt je nog steeds vloeiend kan doorspelen. van 144 naar 100 of van 60 naar 25 is nogal een verschil.

Het is ook net als met autorijden. De een is tevreden in zijn eend en de andere rijd in een 500pk auto. Als je eenmaal zoveel power gewend bent onder je reet is een eend gewoon niet meer je van het zeg maar..
ik ben ook nog niet verlost van de min 60fps op max settings ziekte xD maar heb genoeg aan full hd gelukkig haha
Battlefield en andere shooters zijn voor mij gewoon onspeelbaar geworden op 60FPS en dat op de "snelste scherm ter wereld" met G-SYNC erbij.
Zelfs third person shooters zoals GTA 5 en The Division hebben profijt van +60FPS

[Reactie gewijzigd door Koning Willy op 5 september 2016 11:52]

dat komt omdat sommigen een spel tegenwoordig pas speelbaar vinden als ze 144fps halen (ik heb nog nooit zo'n belachelijke hype gezien in IT-land)
Dat is niks nieuws hoor. In 1996 wilde je Quake al op 125 fps spelen omdat je dan voordeel kon halen uit de engine. Alleen toen pc gaming minder niche werd en games als Call of Duty Modern Warfare 2 met casual peer-to-peer edities kwamen is die kennis een beetje verloren gegaan.

Pak eens een oude shooter, bijvoorbeeld Black Ops, en beperk de framerate op 30, 60 en 120 fps. Start vervolgens die map op met de AI. Je zult merken dat je met 30 fps horizontaal bewegende vijanden veel lastiger kunt 'tracen'. Met 60 fps gaat het redelijk normaal en met 120 fps gaat het zo soepel dat je het gevoelsmatig kan gaan doen.
4k met 60+ FPS heb je aan een 1070 of 1080 vaak alsnog niet genoeg hoor :) Zal je toch nog dieper in de buidel moeten tasten voor SLI.
Sommige sites noemen een prijs van 149 USD. Dat is wat prijzig, inderdaad. Wat is dan de ultieme budgetkaart voor HTPC's?
De on-board kaart van je Intel CPU.
HEVC 10 bit zal echter pas vanaf Kaby Lake mogelijk zijn...
Sommige NUCs en ik dacht ook een AsRock Board met geintegreerde SoC kunnen het misschien al, maar dit is eerder de uitzondering.
De RX460 is waarschijnlijk momenteel de goedkoopste losse kaart die dit kan...In het groene kamp de GTX 950.

[Reactie gewijzigd door Clemens123 op 5 september 2016 08:40]

Heb net de KFA2 GeForce GTX 950 2GB OC LP gekocht, die een Low Profile Geforce GTX 950 is en geen 6 pin connector heeft en maar 75w gebruikt, ik gebruik maar een 150w Power Brick, en mijn Mini Media/Console heb ik nog niet boven de 116w gezien (gebruik een wattage meter), met Metro Last Light Redux op Very High en Tessellation op Normal en 1920x1080 gebruikt hij maar 105w, ideaal voor een Mini Media/Console :)

Nu hoppen dat ze het zelfde gaan doen met de Geforce GTX 1050, ook een Low Profile versie zonder 6 pin connector, de dan ideale Mini Media/Console PC.

[Reactie gewijzigd door AmigaWolf op 6 september 2016 02:31]

Wat mij betreft, de Odroid C. ¤40,- + nog ¤20,- aan kabels / opslag en je hebt een geweldige 4k media player. Draai er android op voor netflix etc en kodi voor content die lokaal opgeslagen is.

http://www.hardkernel.com/main/products/prdt_info.php
Die games die je nu noemt zijn nogal CPU-bound, ik denk niet dat zo'n GPU de prestaties daarvan verbetert...
Ik denk dat hij ook voor de zwaardere games prima zal kunnen hoor, zolang je niet eist dat de boel maxed out of op 4k draait oid zal het nog wel prima speelbaar zijn.
In mn desktop pc zit een 650Ti met 1 GB VRAM, en eigenlijk is dat VRAM de grootste beperking waar ik op moet letten met nieuwe games. Eigenlijk alle spellen die ik op mn desktop pc speel draaien er prima op (World of warships, War thunder, Far cry 4, R6: Siege, en zelfs de BF1 beta loopt nog op een vrijwel altijd boven de 60 FPS.) Het enige spel waar ik (toendertijd) met een gratis weekend op steam moeite mee had was Black ops 3, en dat leek te komen doordat hij er niet uit kwam met zn VRAM.
Zal wel niet op ultra zijn die BF1 Beta ;)
Nee, alles op "low" zo'n beetje. maar dat maakt voor mij niet echt uit. Maar dat een budget kaartje van een jaar of 4 geleden nog 50-80 FPS dr uit weet te persen op 1680X1050 vind ik best netjes. Ik heb intussen alleen wel spijt dat ik niet voor een boost versie met 2 GB VRAM oid ben gegaan toendertijd.
Het was een beetje een noodoplossing omdat de HD 6850 die ik had totaal niet beviel door problemen die ik had met de drivers en prestaties, maar op de keuze voor de Ti variant met 1 GB VRAM na heb ik er nooit spijt van gehad.

Overigens ziet die BF1 beta er zelfs met deze lage instellingen nog steeds onwijs vet uit ;)

Ik ken de verdere *50 kaartjes niet, maar dit ding was toch wel geniaal qua prijs/prestatie verhouding, en door de VRAM beperkingen van dit oude beestje overweeg ik de 1050 zeker als opvolger

(ik heb ook nog een "echte games PC" die aan mn tv in de woonkamer hangt en waar ik meestal met controller op speel, die heeft wel een wat vlottere 3dkaart om lekker te genieten van alle prachtige beelden)
Die spellen draaien nog goed op mijn 550M :/
Ze zijn zelfs nog redelijk goed speelbaar op mn laptop met 610 GPU ;)
Ik denk dat de Kaby Lake nucs of eventueel de nieuwe atoms met gen9 gpu een zuinigere en voordeligere keus zijn.
Met beetje geluk wordt dit een LP-kaartje. Dan heb ik zeker intresse. Lijkt me leuke opvolger van de 750ti dan.
Precies, dit lijkt mij de opvolger van de 750Ti, en daar ben ik blij mee indien er geen extra voeding nodig is buiten de 75W PCIe bus. Perfect om 2e hands 2e/3e generatie i5 of i7 (zakelijke) PCs mee te upgraden.
Hoop ik ook. Ik zit hier met 2 Radeon 7750's in crossfire, dat is ongeveer het snelste (al 2 jaar...) te krijgen in low profile. (op 2 750ti's in SLI na denk ik, maar dat is niet heel veel sneller...).

Tijd dat er weer eens iets nieuws komt in low-profile land dus. Al is de markt waarschijnlijk klein.

[Reactie gewijzigd door Shadow op 5 september 2016 13:47]

Het is maar net of je naar een DX11 of 12 (of Vulkan) benchmark kijkt. De RX 470 verslaat de GTX 1060 bij Deus Ex bijvoorbeeld. Ik verwacht dat AMD kaarten net iets sneller dan gelijkgeprijsde nVidia kaarten zullen zijn in toekomstige DX12/Vulkan games door hardware ondersteuning voor Asynch compute. Wel zullen nVidia kaarten voorlopig de zuinigste blijven en de enige optie voor het ¤350 plus segment.
Er zijn genoeg DX12 games waar dat niet zo is. Het zal van game tot game afhangen wie de snelste is, onmogelijk om nu te voorspellen.
Ik dacht er ooit aan om een kaart uit de nvidia 1000 lijn te kopen. Ze waren me toch te duur en toen kocht ik maar een oude gtx 770. Ik speel nooit boven 1080p en dan meestal nog oude spellen ook, dus dat is meer dan genoeg. Die ene keer dat ik meer nodig heb zet ik hem wel wat lager.

Sterker nog, ik deed het eerst met een gts 450 sli opstelling, was op zich nog goed maar ik wilde hardware video-encoding voor steam in home streaming.

Weet nog steeds niet wat te doen met de oude kaarten.
Hoe serieus moet ik dit gerucht nemen? Voor het zelfde geld heeft een handig iemand hier z'n 950 zwaar lopen te overclocken, want de '1050' lijkt wel erg op de 950 ?
Beetje off-topic misschien, maar in plaats van dat ze nieuwe kaarten lanceren, kunnen de prijzen van de GTX1070 niet eens droppen naar de ooit beloofde 430 euro? :*)
Inmiddels overigens ¤410.67 ($379 * 0.895495 ¤/$ * 1.21), want de Euro is ten opzichte van de Dollar wat gestegen. Maar er lijkt tot nu toe niet veel beweging te zitten in de prijzen...
Liefst niet, dan voel ik me slecht door hoeveel ik er voor betaald heb. :'(
Long story short - een mindere kaart dan de GTX960 voor meer geld.
Lijkt mij sterk.

Ik denk/hoop dat de 2GB versie voor rond de 140 euro te koop zal zijn uiteindelijk, en de 4GB versie rond de 160 euro
Nvidia zelf bracht geen 75 watt kaarten uit, dit deden third party bedrijven zoals asus als ik me niet vergis. Verder bleken die kaarten soms hetzelfde probleem te hebben als de rx 480, dat ze meer dan dat door het pcie poort heen zogen


Om te kunnen reageren moet je ingelogd zijn



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True