Door Jelle Stuip

Redacteur

Nvidia GeForce GTX 1060 review

Op scherp in het midrange-segment

19-07-2016 • 15:00

284

Singlepage-opmaak

Conclusie

'GTX 980-prestaties in een midrange-videokaart', beloofde Nvidia met de GTX 1060 te bieden, en die belofte is het bedrijf nagekomen. De GTX 1060 blijkt snel genoeg te zijn om de meeste games op 1920x1080 te draaien, met de grafische instellingen op ultra, en een framerate van 60fps. Daarbij heeft de midranger dezelfde features als zijn grote broers, zoals smp en het encoderen en decoderen van hevc-video op uhd-resolutie, en ligt het verbruik een stuk lager dan bij de eerder genoemde GTX 980. Wij testten de GTX 1060 Founders Edition, die helaas niet in Nederland of België te krijgen zal zijn, en de snelste uitvoering van MSI, die dankzij zijn overklok een procent of vijf sneller is dan de Founders Edition. De MSI is bovendien voorzien van een joekel van een koeler, die het relatief zuinige kaartje daardoor vrijwel altijd onhoorbaar koelt.

Ten opzichte van Nvidia's midrange-videokaart van de vorige generatie, de GTX 960, is de prijs wel fors gestegen; in plaats van een euro of tweehonderd geeft Nvidia nu een vanafprijs van 280 euro op en kost de Founders Edition 319 euro, terwijl een overgeklokte uitvoering, zoals de door ons geteste MSI, daar nog ruim boven zit. Aanvankelijk verwachten we dan ook dat de prijzen tussen de drie- en vierhonderd euro zullen liggen en wellicht later richting de 280 euro zakken. Maar, doordat deze midrange-kaart prestaties biedt die te vergelijken zijn met een high-end kaart van de vorige generatie is die hogere prijs wel enigszins te rechtvaardigen. De GTX 1060 is bovendien een interessante kaart voor gamers voor wie de GTX 1070 te ver buiten het budget gaat, maar die wel een Nvidia-kaart van de laatste generatie willen hebben.

Hoef je niet per se een Nvidia-kaart, maar behoor je tot de groep die twijfelt tussen AMD's RX 480 en de GTX 1060, dan zal het een lastige keuze blijven. We hebben met behulp van verschillende prestatie-indices geprobeerd duidelijk te maken hoe de verhoudingen liggen. Daarbij kwamen we tot de conclusie dat de GTX 1060 op dit moment een procent of zeven sneller is dan de RX 480, maar dat het verschil in de toekomst, wanneer alle games gebruik maken van DirectX 12 of Vulkan, best klein zou kunnen worden. Of dat ook daadwerkelijk het geval zal zijn is een kwestie van afwachten, maar op dit moment houden AMD en Nvidia elkaar scherp in het midrange-segment, en dat is voor ons gamers alleen maar mooi.

Lees meer

Reacties (284)

284
267
148
7
1
53
Wijzig sortering
Thanks, dit geeft een ander beeld (meer in balans ipv het voordeel voor Nvidia) ....in mijn geval;
http://ht4u.net/reviews/2...er%5B3%5D%5B%5D=16&aa=all
Zitten een heleboel bullshit benchmark uitslagen in.

Bijvoorbeeld Fallout 4 met
3840 x 2160 [Kein AA/16xAF] 11,4 FPS GTX1060 versus 12,3 FPS voor de RX480.
Wat totaal onspeelbaar is.
Als om het speelbaar te maken Physx moet uitgezet worden dan schiet AMD daar erg veel mee op maar nVidia niet en als dat bv TressFX is dan is het precies andersom.

Dit soort uitslagen heb je als gebruiker/koper niks aan.
Reviews cherry picken kan iedereen maar de consensus is toch licht in het voordeel van NVIDIA.
als je de factor prijs niet meerekent
Toch wel, bekijk de reviews maar. En al zeker als je de factor warmte en geluid meerekent
Anoniem: 350176 @aval0ne19 juli 2016 17:34
Als de prijs van gas stijgt piep jij wel anders! Toch liever zo HR ketel in je PC gehad ;).
Ik vind het erg jammer dat Tweakers de spellen VAAK op Medium zet met 4k en soms op High, zet ze ook gewoon met 4K op Ultra (net als Guru3D en vele andere review sites), iedereen weet toch dat je de settings lager moet zetten in spellen als je ze op 4k wil spelen, jullie zetten zelfs in The Witcher 3 alle resoluties op High, is helemaal niet nodig, op 1080P Ultra speelt de The Witcher 3 60fps op een GeForce GTX 1060, dus waarom hem dan op High zetten???

En Doom is alleen op 1080P gereviewd, ERG jammer, Doom is met gemak op 2560x1440 te spelen met een Geforce GTX 1060, zit je RUIM boven de 60fps.

En dat jullie hem steeds vergelijken met de Geforce GTX 980, en NIET met de Radeon RX 480 8GB, alleen in Total War: Warhammer heb je het over de Radeon RX 480, ik weet dat hij net zo snel is als de Geforce GTX 980, maar hij is een concurrent van de Radeon RX 480 en niet de Geforce GTX 980, die ze niet meer maken en nu alleen nog verkopen wat winkels nog hebben liggen.

En dat de Radeon RX 480 in Total War: Warhammer zelfs sneller is dan de Geforce GTX 1080 op 1080P, is omdat jullie CPU de bottleneck is, Guru3D gebruikt de Intel Core i7-5960X Extreme Edition (8-cores) OC naar 4.4GHz, en die heeft een stuk minder last er van op lage resoluties, omdat die CPU veel sneller is en dat grafische kaarten minder last heeft van een CPU bottleneck, heeft dus NIKS met DX12 te maken, want op 1080P is de Geforce GTX 1080 de snelste bij Guru3D vanwege de snellere CPU, en is de Geforce GTX 1060 maar 2 fps langzamer dan de Radeon RX 480 8GB.

Verders wel een leuke review, maar vind het wel jammer dat er niet meer spellen getest worden.

En ik had gelijk de prijs van de Geforce GTX 1060 is bijna net zo veel als de Radeon RX 480 8GB, meerdere Geforce GTX 1060 kan je al kopen onder de €300 (ja ik weet ze zijn nog bijna nergens op voorraad, maar je kan ze wel al vast kopen voor onder de €300), net als de Radeon RX 480 8GB, ja AMD krijgt het hier door (jammer genoeg) moeilijk door.

Geforce GTX 1060

Radeon RX 480 8GB

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 23:20]

Die CPU is toch totaal onrealistisch in combinatie met een gtx1060. Wie besteedt er 1k+ aan een cpu om vervolgens te gamen op een 300€ gputje. De resultaten hier zijn een stuk nuttiger. Dat de cpu nog wel eens tot bottleneck kan verkomen is helemaal niet onrealistisch door de slordige programmering van veel games op dat gebiedt. Dat dx12 daarbij belasting van de cpu naar de gpu verplaatsen als de eerste een bottleneck wordt en dat de AMDs dat aanzienlijk beter kunnen dan de nvidias is best een belangrijk resultaat. Iig nuttiger dan een benchmark van een gpu naast een cpu die 5x meer kost dan de gpu met een overclock die ook nog eens een een koeling vereist die meer kost dan deze gpu.
Dat zou een prima argument zijn bij de review van een systeem, maar niet bij de review van een videokaart. Je wilt weten hoe snel een GPU is en niet hoe snel een bepaald systeem is onder bepaalde condities. Genoeg sites doen vaak zat een CPU test met games en van daaruit kun je prima bepalen welke combinatie CPU/GPU bij elkaar past.
Daar mag absoluut geen plaats voor zijn bij een review over een nieuwe videokaart.
Want dat argument gaat dus ook op voor elke kaart die sneller is. Een 1080 zal in dat geval dus even snel lijken als een 1060, en hoe kun je dan een fatsoenlijke conclusie over een videokaart trekken.
Hoe voor deze post een +2 krijgt is mij een raadsel.
Ja uiteraard wil je weten hoe snel de gpu is. Dat kanjer ook duidelijk zien in het gros vande Benchmarks. Het compenseren voor een zwakker cpu is echt wel degelijk een interessante eigenschap van de gpu. Daarin is de 480X klaarblijkelijk beslist beter dan de NV tegenhangers. En dat is een meerwaarde, die anders volstrekt wordt genegeerd als alle reviewers het zouden aanpakken als jij stelt. Bovendien is de cpu in het test setup van tweakers.net niet bepaald zwak. Sterker nog, op die ene cpu na, die dat andere magazine heeft is hij zowat de sterkste cpu die je kan krijgen. Als het daar dan al speelt, dan is dit een nog feature van die kaart.
Als kaarten hierdoor even snel lijken, mapje als reviewer gerust op de cpu als bottleneck wijzen en hoeft hem niet mee te nemen in calculaties voor verschillen. Als je echter ziet, dat een kaart juist de cpu bottleneck weet te verhelpen dan is dat cruciale informatie die inde review van de gpu hoort. Het is namelijk niet een eigenschap van een gpu/cpu combinatie maar specifiek van deze gpu

[Reactie gewijzigd door Darkstriker op 22 juli 2024 23:20]

En die test wordt ook vaak genoeg uitgevoerd, genoeg sites testen CPU/GPU combinaties met games. Maar dat is geen GPU review, dat is een systeem review. Hoe moet je nou weten hoe snel een kaart in een bepaalde game is als er een CPU bottleneck is?
Prima als dat óók getest wordt, maar een 49xx op 4,4ghz is in games trager dan een 6600K op stock, dus hoe reëel is het om dat te roepen dat het bij een GPU review hoort? Helemaal niet, daar kun je zoals ze bij zoveel sites doen prima een review over maken, maar vervuil daarmee de performance van sec een GPU niet.

Maar ik weet wel waar dit vandaan komt. Het is dat gehuil over die zogenaamde "CPU bottleneck van kaarten" specifiek als AMD er beter van lijkt te worden. Waar wat deze ophef toen de overhead van de AMD drivers onder DX11 zodanig was dat ze niet eens een derde van de drawcalls haalde. Met als resultaat da je een ontzettend veel sneller cpu nodig had?
Bekijk de reviews van de FuryX er maar op na, het is geen toeval dat hij op lage resoluties niet uit de verf kwam. Overal werd maar gehamerd op de CPU bottleneck. Maar nu is dat ineens niet meer boeiend in een GPU review?

Dat zijn dubbele standaarden en daar ga ik sowieso niet aan mee doen.
Ik denk dat het toch nuttig is om met 3 CPU's te testen, juist omdat je bij de koper van de GTX960/RX480 in de praktijk vaker een i5 of i3 zult zien, dan een i7 6 core(+).

Je wilt als koper toch weten welke kaart het beste uit je systeem haalt. Mij maakt het niet uit of de GPU uit het groene of rode kamp komt, als ie maar vlot is in mijn configuratie.

Het zou wel inzicht verschaffen als ipv uitsluitend de gemiddelde en minimum FPS van de games ook de gemiddelde CPU belasting wordt meegenomen. Dan zie je ook dat stevige kaarten vaak een stevige CPU nodig hebben.
Natuurlijk is het nuttig om die test te doen, dat geef zelfs meermaals aan... Alleen om dat in een GPU review te proppen is ook zo zonde. Performance van combinaties van hardware over een brede linie bepalen is ontzettend veel werk als je het goed wilt doen. Dat heb ik liever een deep-dive over bijvoorbeeld CPU/GPU combinaties in combinatie met DX12. Om maar wat te noemen.

Het gaat alleen om het feit dat je een GPU niet moet testen met een bottleneck op een ander onderdeel als je sec de performance van de GPU wilt weten. Ik neem aan dat ik nu wel eens duidelijk ben geweest.

Overigens is het feit dat een CPU 6 cores heeft helemaal niet bepalend voor zijn in game performance. Mijn i7 4930K houdt zich prima staande, maar is absoluut geen game monster. Ik zou tweakers eerder aanraden om met een i7 6700K te testen.

[Reactie gewijzigd door Thekilldevilhil op 22 juli 2024 23:20]

De reden waarom er de beste cpu word gebruikt is om zeker te weten dat er geen mogelijke Bottleneck is en je dus de maximale performance krijgt te zien.
Ik heb het ook over de GeForce GTX 1080 op dat stukje, als je iets beter gelezen had.
En dat de Radeon RX 480 in Total War: Warhammer zelfs sneller is dan de Geforce GTX 1080 op 1080P, is omdat jullie CPU de bottleneck is,
wat duidelijk aan geeft dat nvidia veel in de driver moet proberen op te lossen wat AMD in hardware kan wat veel extra cpu overhead met zich mee brengt voor nvidia.

en aangezien bijna niemand een 1060 met een extreme edition CPU zal combineren lijkt me dat zeker iets om mee te nemen.
zet ze ook gewoon met 4K op Ultra (net als Guru3D en vele andere review sites), iedereen weet toch dat je de settings lager moet zetten in spellen als je ze op 4k wil spelen
Sorry maar naar mijn idee is dat echt dikke onzin. Je wil testen op instellingen die zo dicht mogelijk bij de instellingen komen waarop mensen werkelijk gaan spelen. Als ik de Guru3D test zie en lees dat de 1060 maar gemiddeld 27 fps haalt met hun instellingen, dan weet ik dus alleen maar dat het op die instellingen eigenlijk niet speelbaar is. De test van Tweakers laat me dan juist zien hoeveel het helpt om de instellingen omlaag te draaien. Bij de benchmark van Guru3D denk je misschien, mwa als ik de settings omlaag draai dan wordt het vast goed genoeg. Bij de test hier zie je dat het nog steeds (net) onder de 30 fps dipt en voor mij zou dat dus niet goed genoeg zijn. Uiteraard zou het het beste zijn als het beide in dezelfde review getest wordt, maar als je maar tijd hebt om één instelling op te nemen, dan zou ik gaan voor degene die het meest in de buurt komt van hoe het in de praktijk gebruikt gaat worden.
zeg toch duidelijk dat het voor mij van toepassing is.....
dus ja, cherry picking, omdat ik niet op alle resoluties speel en niet allerlei waardes AA heb aanstaan.
Mee eens, kijk maar naar het verschil in fps in totaal, en dan het verschil in prijs.
Link hier.
Tja, 7% sneller maar de prijs in vrijwel altijd meer dan 15% hoger... de RX480 blijft dus de betere prijs/prestatie verhouding hebben.
Waar heb je het over, je kan ze al bestellen voor onder de €300,-


De goedkoopste Radeon RX 480 8GB kost € 275,50.

De goedkoopste Geforce GTX 1060 kost € 286,-

Scheelt maar € 10,50, dus de Radeon RX 480 8GB heeft NIET een betere prijs/prestatie verhouding, dat heeft nu de Geforce GTX 1060, omdat hij sneller is (in de meeste spellen) en bijna net zo duur zijn.
sneller in oude spellen op basis van dx11.

De kaart met verweg de beste prijs/prestatie verhouding is overigens zonder meer de 480 4GB.

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

Waar heb je het over, in Rise Of The Tomb Raider DX12 is de Geforce GTX 1060 veel sneller, en in Total War: WARHAMMER DX12 scheelt het maar 1 a 2 fps, en in Ashes Of The Singularity DX12 het zelfde, maar 1 fps, alleen in Hitman (2016) DX12 is de Radeon RX 480 veel sneller.

http://www.guru3d.com/articles_pages/palit_geforce_gtx_1060_super_jetstream_review,13.html
tombraider is een nvidia game, en zelfs nvidia krijgt er letterlijk NIKS bij met dx12 vs dx11 met de 10 serie. De 480 verliest zelfs een 1 FPS met dx12, en de oude nvidia 9 serie kaarten nog wat meer

http://www.hardocp.com/ar...ion_review/7#.V4_nnLh9670

dat lijkt me genoeg zeggen over de kwaliteit en representativiteit van de DX12 performance in Tombraider.

verder zit je naar een overclockte, en dus duurdere, 1060 te kijken en die te vergelijking met stock 480.

op stock snelheid zie ik in ashes op 1080p bijna 3 FPS, en het heeft HEEL lang geduurd voor nvidia hier een beetje in kon presteren.
warhammer zie ik 6FPS,
en in doom (vulkan) 5 FPS.
en dan idd hitman met 11.
en zelfs in de door nvidia gesponsorde gears of war wint de 480 met 4FPS.


nvidia weet dus zelfs maar 1 van de 2 door hen zelf gesponsorde dx12 game te winnen, en voor de rest verliezen ze elke test met een low level API.

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

tombraider is een nvidia game, en zelfs nvidia krijgt er letterlijk NIKS bij met dx12 vs dx11 met de 10 serie. De 480 verliest zelfs een 1 FPS met dx12, en de oude nvidia 9 serie kaarten nog wat meer.
Ja en Hitman is een AMD spel, so whats your point?

En bij bijna alle review sites is de Geforce GTX 1060 sneller dan de Radeon RX 480 in Rise Of The Tomb Raider DX12.

Dus die ene die afwijkt kijk ik dus niet naar.
verder zit je naar een overclockte, en dus duurdere, 1060 te kijken en die te vergelijking met stock 480.
En nee ik kijk helemaal niet naar een OC en duurdere 1060 te kijken, ik keek naar de standaard versie Geforce GTX 1060, en die staat gewoon in die review, en die heeft een gemiddeld fps van 52 fps bij 2560x1440 (maar 1 fps lager dan de OC Geforce GTX 1060), en de Radeon RX 480 heeft een gemiddeld 45 fps bij 2560x1440.

http://www.guru3d.com/articles_pages/palit_geforce_gtx_1060_super_jetstream_review,13.html

En dat zie je HIER ook, en ook Hier, en ook Hier, en ook Hier, en ook Hier, you get the point, de Geforce GTX 1060 is gewoon sneller dan de Radeon RX 480 in Rise Of The Tomb Raider DX12.

Dus die van Tweakers en HardOCP neem ik met een korreltje zout.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 23:20]

uhmm, ik heb nergens gezegd dat de 480 sneller was in tombraider, en ik geloof dat je totaal niet begrepen hebt waar ik op doelde.

nogmaals dus: De dx12 implementatie van tombraider is zo slecht dat zelfs nvidia nieuwste generatie er niks bij krijgt in vergelijking met DX11. AMD en hun eigen 9 serie verliezen zelfs performance in DX12 in vergelijking met DX11 in tombraider.

de ene afwijking is dus tombraider.

de resultaten van tombraider zijn dus gewoon geheel te negeren omdat ze duidelijk op geen enkele manier representatief zijn voor de performance bij dx12 of vulkan.

en laat tomb raider nou net de enige game zijn die nvidia wel kon winnen in DX12. duidelijk omdat het op geen enkele manier gebruik maakt van de mogelijkheden van DX12. in elke andere low level API game wint AMD, (games die ook allemaal winst laten zien ten opzichte van DX11.)
En nee ik kijk helemaal niet naar een OC en duurdere 1060 te kijken,
deed je wel. en wel toen je het volgende zei
en in Total War: WARHAMMER DX12 scheelt het maar 1 a 2 fps, en in Ashes Of The Singularity DX12 het zelfde, maar 1 fps
en dit is alleen waar met de OC 1060, en niet met de stock.

Met stock zijn het de cijfes die ik op noemde.
deed je wel. en wel toen je het volgende zei

en in Total War: WARHAMMER DX12 scheelt het maar 1 a 2 fps, en in Ashes Of The Singularity DX12 het zelfde, maar 1 fps

en dit is alleen waar met de OC 1060, en niet met de stock.
Wow, je ziet HIER duidelijk gewoon de stock er tussen staan, hij haalt 49 fps bij 2560x1440 met Total War: WARHAMMER DX12 (de niet OC versie), en de OC versie die heet Palit GeForce GTX 1060 Super Jetstream, zit op 51 fps, zelfde als de Radeon RX 480 8GB, dus JA het scheelt maar 2 fps met de NIET OC versie.

En HIER zie je dat hij (de niet OC versie) 49 fps haalt in Ashes Of The Singularity DX12 bij 2560x1440, en de Palit GeForce GTX 1060 Super Jetstream haalt 51 fps, en de Radeon RX 480 8GB 50 fps, dus scheelt het maar 1 fps met de NIET OC versie.

En sorry een paar fps is niks, en de GeForce GTX 1060 concurreert met de Radeon RX 480 8GB, en ze zijn met de paar DX12 spellen die uit zijn dus net zo snel, en dat is geen probleem, want ze kosten ook ongeveer het zelfde, alle twee al voor net onder de €300,- voor de Radeon RX 480 8GB, aangezien er ook een 3GB versie komt, en die gaat dan concurreren met de Radeon RX 480 4GB.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 23:20]

ah, is dat de verwarring, ik zat naar 1080p te kijken (wat nog altijd veruit de meest gebruikte resolutie is).

we kunnen overigens forza 6 nog aan het rijdje toevoegen,
waar AMD wint met 13 FPS en quantum break waar AMD wint met 6FPS. (of 10 en 4 respectievelijk op 1440p)
En sorry een paar fps is niks
We hebben het toch vaak over 5 a 10%, soms zelfs meer verschil.

en ze kosten misschien even veel maar je krijgt wel 2GB meer geheugen met de 480.

De 3GB versie van de 1060 gaat langzamer zijn als de 6GB versie met een lagere clocksnelheid en minder shaders.
die zal dus mogelijk eerder met de 470 gaan concurreren als met de 480 4GB. (en 3GB is ook wel erg krap voor dit performance segment... mensen maken zich al zorgen met 4GB)

en zelfs de dx11 tests, als we even de games die extreme in het voordeel van nvidia zijn even negeren (game works) dan is de 480 behoorlijk consequent maar net iets langzamer als de 1060 in dx11, en consequent net iets sneller met dx12 en vulkan.

en met het oog op de toekomst ga ik dan toch echt voor dx12 en vulkan performance.

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

Das waar, maar steeds meer mensen gaan naar het 2560x1440 of Ultra Wide 2560x1080 resolutie toe, en daar is de GeForce GTX 1060 en de Radeon RX 480 8GB perfect voor.

En ook steeds meer mensen gaan voor de Ultra Wide 3440x1440 resolutie, die perfect is voor de Geforce GTX 1080, en je bij 99% van de spellen op gemiddeld 60+ fps zit alles op Ultra.
Prijzen zijn nu nog niet met elkaar te vergelijken.
Even 3 maandjes wachten, dan weten we veel meer..

Introductie prijs RX 480 8 GB was €249,-- die echt op voorraad waren.
Ik zie nu in de prijzen in de lijsten die echt beste laag zijn, maar niet op voorraad en nooid binnen gehad ook.

Ik denk dat de RX 480 8 GB op den duur veel goedkoper uit zal vallen dan de GTX 1060.

Ik moet wel zeggen dat ik de voorkeur heb aan zo'n AVGA SC GTX 1060.
Leuk dingetje.
Anoniem: 582487 @Paprika19 juli 2016 16:24
LANG verhaal kort.. de 1060 is EN zuiniger.. EN stiller EN klopt de 480 (non-cf) op 75% van de test op 1080p... best logisch eigenlijk.

AMD gaat pas een rol spelen in CF op 4k ofzo...
Dit is wel erg kort door de bocht. De amd is gewoon €80 goedkoper. Dit is een ander prijssegment en daardoor is de vergelijking al niet helemaal kloppend.goede Dx12 ondersteuning en SLI mogelijkheden die de amd erg interessant maken, helemaal met het oog op de toekomst
Ik word over 2 dagen 35, ik ben al bezig met PC's bouwen en knutselen sinds een 4*86 DX2; het hiel wel enorm dat m`n familie in de electronica branch zat.

Goed. Dat gezegd te hebben, heb ik al jaren gewoon geen tijd c.q zin om uren lang naar oplossingen te zoeken en wil ik dat mijn producten out of the box gewoon werken voor wat ik in ogen heb. En daar is Nvidia nou 1 maal beter in vanwege hun betere drivers en software.

Ik koop dan wel hun hogere segment (580->780TI->1080) maar het argument geld door hun hele linie. Namelijk ik kan out of the box meteen streamen en/of opnemen via shadowplay met 0 frameloss/extra resources; terwijl bij het AMD kamp ik daar Xsplit etc. voor moet aanschaffen/instaleren/configureren/testen en/of OBS maar again; configuratie/testen; het zijn niet de meest intuatieve stukjes software helaas.

Driver support: Altijd beter geweest, of het nu de RAGE series van ATI waren geweest tot een 9800 die ik had gehad ; er is altijd wel hier en daar geknutsel met nieuwe games en kan je altijd wel verwachten dat je na 2 weken een patch driver van AMD/ATI krijgt om iets op te lossen. Gewoon geen zin in.

TLDR: Die 80 euro heb ik liever meer, voor de betere software support.

Daarnaast dat hele SLI / CF argument is ook grappig.
Mensen die juist mid-range of low-end kopen hebben meestal niet een pimp moederbord met SLI/CF support; die zijn blij voor 69 euro een kast met een voeding te hebben, een basic mobo van 60 euro en gaan met die banaan.
Sinds de dagen van de 9800 is er op driverfront echt wel wat veranderd in het AMD-kamp, hoor. En dat zeg ik als ex-eigenaar van een 9800, toen je nog cleaners moest draaien om alle oude drivers "echt" te verwijderen voor je een upgrade kon doen, anders speelde je met je leven. :)

Tegenwoordig is het qua drivers lood om oud ijzer: soms rijdt Nvidia een scheve schaats, soms AMD, maar het is niet meer zo dat je bij AMD hoeft te vrezen dat je de system restore in moet om het weer aan de praat te krijgen, noch dat je bij Nvidia altijd snel een oplossing krijgt als je een issue hebt. Van dat stigma dat AMD/ATI destijds heeft opgelopen komen ze waarschijnlijk niet meer af, maar in mijn ervaring (wederom persoonlijk) is het tegenwoordig niet meer gerechtvaardigd om te roepen dat Nvidia het beter doet qua drivers. Gaat ongeveer gelijk op nu.

Waar Nvidia al een hele tijd de betere kaarten heeft (en zal houden) is efficiëntie van de architectuur, met navenant mindere temperaturen, verbruik en geluid. Of dat je 80 euro waard is is een tweede, maar dat vind ik een sterker argument dan drivers.
Sterker nog, als ik puur naar de drivers kijk dan heb ik tegenwoordig een (kleine, maar toch) voorkeur voor AMD. Sinds de crimson-versies is het echt behoorlijk netjes allemaal.

* BramT doet duit in zakje.
Succes met AMD drivers onder Linux ;) Driver support voor AMD kaarten is (helaas) nog steeds niet zo best. Als je fatsoenlijke openGL wilt, en multihead support, ben je nog steeds een half weekend bezig, worden de nieuwste kernels niet ondersteund, etc...

Met Nvidia werkt het gewoon wel, en dat is al jaren zo. Alleen al daarom, voor mij Nvidia hardware!
Bedankt! Heb er alleen weinig aan omdat ik geen linux draai.

Dit argument is een hele goede. Als je een Linux gebruiker bent, dan is Nvidia inderdaad de betere keuze. Helaas is de markt zo klein.

Dat is ook nog steeds 1 van de redenen dat ik het niet prive draai. De Native ondersteuning voor veel dingen. En de dingen die Linux beter doet als Windows, daar heb ik in m'n privésfeer niet zo veel aan.

Het jammere is dan alleen wel dat ik door te blijven wachten tot het allemaal netjes werkt, de markt kleiner houd, waardoor het dus langer duurt voordat Linux "mainstream" wordt.
Mjah, dat kan ik me voorstellen. Ik ben niet gebonden aan Microsoft software, en ik game niet heel erg veel. Dus voor mij geldt eigenlijk precies het omgekeerde. Vandaar dat ik al jaren Linux gebruik, met af en toe een uitstapje naar OSX :)

Anyhoe, on-topic, ik denk dat het altijd goed is als er concurrentie is, en hiermee zet Nvidia AMD hopelijk weer op scherp!
Succes met Gamen onder Linux. Je geeft een non valide argument. Er zijn gewoon héél weinig games die draaien op Linux. En dan bedoel ik uiteraard dat je géén gebruik maakt van Wine. Ik bedoel, stop dan met eigenwijs Linux gebruiken en installeer dan in een keer Windows.

Ja, ik weet dat er op steam best wel wat indie games zijn die ook onder linux te spelen zijn. En dat met de steambox mogelijk meer gaat worden. Fact of the matter, iets van een halve procent gamed onder Linux. Bron: Steam Survey.

En AMD kiest er gewoonweg niet voor om die niche markt te bedienen.

En verder snap ik niet wat je zit te klagen, dat je een half weekend verder bent is toch juist de charme ervan?
Ik snap je punt niet zo goed :)

Ik gebruik geen Windows, omdat ik het een waardeloos systeem vind. Dat is mijn persoonlijke mening, iedereen mag daar uiteraard zijn eigen mening over hebben. Onder Linux, wat ik een stuk beter vind, werken de drivers van AMD een stuk minder goed dan die van Nvidia. Dus kies ik voor Nvidia.

Dat gamen onder Linux minder goed werkt dan onder Windows ben ik zeer met je eens. Maar dat boeit mij niet zoveel. Als ik wil gamen haal ik wel een console! Voor mijn computer gebruik is Linux zeer geschikt en ik zoek mijn hardware er dan ook op uit dat het daarmee goed samenwerkt. Hetzelfde zou ik met Windows overigens ook doen.
"voor gamen koop ik wel een console" waarom koop je dan een grafische kaart? Een GTX 1060 is een beetje overkill voor non gaming aplicaties vindt je niet? Kun je beter met de geïntegreerde graphics van je CPU werken. Die ondersteunen tegenwoordig al resoluties tot 4k.
Waar heeft borft gezegd dat hij een GTX 1060 neemt?
Nvidia heeft wel meer modellen. Het is niet alleen gaming waarvoor je een grafische kaart kunt gebruiken, renderen of mining gaat bijvoorbeeld met een discrete GPU beter dan bij een APU.
Amen!

geintegreerde graphics heeft weer allerlei andere issues, zoals problemen met video playback, de eerder genoemde multihead problemen. En zo af en toe mag ik graag een spelletje spelen, en dat gaat zelfs op de meest crappy Nvidia kaart beter dan op Intel :)
Succes met Gamen onder Linux. Je geeft een non valide argument. Er zijn gewoon héél weinig games die draaien op Linux.
Ja, slechts zo'n 2000 titels op Steam alleen al... 8)7
Inderdaad heel veel indie titels zoals je hieronder zegt, maar er zitten ook meer dan genoeg triple A titels tussen en er komen er steeds meer bij. Overigens vind ik dat niet erg, veel indie games bieden betere gameplay dat de gemiddelde triple A game IMHO.
En dan bedoel ik uiteraard dat je géén gebruik maakt van Wine. Ik bedoel, stop dan met eigenwijs Linux gebruiken en installeer dan in een keer Windows.
Er zijn andere valide redenen om geen Windows te willen gebruiken, zeker Windows 10 niet met alle phone-home features er in. Maar goed, dit soort uitspraken nodigt helaas meestal uit tot een flame war. Overigens gebruik ik zelf geen Wine.
Ja, ik weet dat er op steam best wel wat indie games zijn die ook onder linux te spelen zijn. En dat met de steambox mogelijk meer gaat worden. Fact of the matter, iets van een halve procent gamed onder Linux. Bron: Steam Survey.
Je hebt de bron niet goed gelezen. Het Linux gebruik in de Steam survey zweeft al jaren rond de 1 procent, als je kijkt naar browser user agent data dan zou het Linux gebruik wereldwijd zo rond de 2 procent liggen. Geen enorme markt dat geef ik toe, maar het is meer dan men vaak beweert.
En AMD kiest er gewoonweg niet voor om die niche markt te bedienen.
En dat is nu juist niet waar. AMD is altijd een erg Linux vriendelijk bedrijf geweest. Het 'probleem' ligt bij het voormalige ATI. Die hebben al sinds jaar en dag slechte Linux drivers voor hun GPU's en AMD zit daar nog steeds mee in hun maag. De ondersteuning is wel verbeterd en met hun nieuwe (deels open source) AMD GPU driver en het GPU Open initiatief zal het nog wel verder verbeteren, maar ze zijn er nog lang niet.
En verder snap ik niet wat je zit te klagen, dat je een half weekend verder bent is toch juist de charme ervan?
Meh. Op een gegeven moment heb je de leeftijd dat je niet meer de zin en de tijd hebt om er een heel weekend aan te besteden en je gewoon wilt dat het werkt. En gelukkig is desktop Linux inmiddels op het niveau dat dat ook gewoon kan, mits je een GPU van NVidia hebt.

En voordat je gaat zeggen: "als je wilt dat het gewoon werkt, installeer dan Windows", dat is ook kul. Ik ben in het verleden ook hele weekenden bezig geweest met het perfectioneren van mijn Windows (2000, XP en zelfs nog even 7) installaties. Het is maar net wat je wilt en hoeveel tijd je er aan kwijt wilt zijn. Als je geen eisen stelt geeft Ubuntu of Linux Mint een prima out-of-the-box ervaring in minder dan een half uur.

[Reactie gewijzigd door rbr320 op 22 juli 2024 23:20]

Dit is onzin. Deze generatie zet AMD stevig in op de Linuxdrivers en met name als je opensourcedrivers wilt hebben die redelijk tot goed presteren dan moet je bij AMD zijn. Verder moet je juist recente kernels + userspace hiervoor hebben.

Inderdaad, AMD's OpenGL implementatie loopt achter bij die van Nvidia (en die van Mesa al helemaal) maar ik vermoed dat dit het komende jaar aardig rechtgetrokken gaat worden en de benchmarks geven aan dat Vulkan juist beter draait op AMD.

Ik ben één van de vorige generaties overgestapt op Nvidia omdat de AMD drivers steeds problemen gaven (schermcorruptie dat soort dingen), maar deze generatie stap ik juist weer over op AMD omdat ik graag goede opensourcedrivers wil hebben (waar ook een beetje normaal mee te gamen valt). Nvidia is zwaar anticompetitief (Physx, Cuda, G-sync, Gameworks, etc.) en ondersteunt opensource vrijwel niet (alleen voor hun mobiele tak).

Verder, een half weekend voor multihead support? Really? Dan doe je denk ik iets fout of je hebt een rare setup.

[Reactie gewijzigd door XVI op 22 juli 2024 23:20]

Op het moment is dat met die drivers al lang niet meer het geval. Ze maken allebij wel eens een foutje. Echter heb ik nooit verschrikkelijke issues gehad met AMD maar de enige nVidia kaart die ik ooit heb gehad pleegde spontaan een vurige zelfmoord omdat er een driver defect was en daardoor de fans niet draaiden.

Wat wel zo is is dat nVidia meer geld heeft, en daarom meer developers kan betalen hun games voor nVidia kaartjes te optimisen.

Het is trouwens echt niet zo moeilijk om OBS op te zetten.
Geen enkel probleem gehad met amd de laatste jaren. Wat jij nu noemt is toch echt uit een heel ver verleden.
Wat een kul post. Je overtuigd hier niemand met je persoonlijke geschiedenis omtrent tech. Feit is en blijft dat de AMD kaart een stuk goedkoper is en op DX12 gebied vergelijkbare(betere momenteel zelfs) prestaties levert. De 480 werkt ook out of the box zonder problemen, en de SLI mogelijkheid kan voor budget gamers zeker wel interessant zijn omdat dit betekent dat ze over 2 jaar niet een compleet nieuwe kaart nodig hebben maar een goedkope 480 erbij kunnen prikken om prestaties gelijk aan een 1070 uit hun PC te persen.
En dat laatste argument van een tweede kaart erbij prikken wordt vaak gegeven en in praktijk nauwelijks toegepast. Ook is het budget technisch totaal niet handig. Er moet dan nu al rekening gehouden worden met een mobo dat de boel ondersteunt (=duurder) en moet er met de voeding rekening gehouden worden dat ie het vermogen kan leveren (=duurder). Of je dan per saldo nou zoveel goedkoper uit bent...? Ik betwijfel het.
zo'n beetje elk moederbord heeft wel 2 PCI-E 16x sloten, is niet iets wat je in je portemonnee gaat voelen

Voeding kan je gelijk in hebben in sommige gevallen, maar als je slim bent koop je een voeding die ruim bemeten is, en niet 1 die net aan je configuratie kan trekken

En de 2e kaart kan je natuurlijk over een jaar erg goedkoop krijgen, dus goedkoper ben je waarschijnlijk wel uit

Het is meer de vraag of je ook beter uit bent met 2 kaarten (hangt erg van het spel af)
Ik ben het met je eens. Er is GEEN reden om twee kaarten te gebruiken als er een beter single card optie beschikbaar is.
Geen gedoe met drivers, geen games zonder ondersteuning en geen stutter etc. Als je 2 480 koopt ben je ongeveer 500 euro kwijt. Koop 1 1070 met dan geld en je hebt 1. Betere performance 2. Geen gedoe met ondersteuning en drivers 3. Minder stroomverbruik.

NVIDIA Is het hier duidelijk ook mee eens.

En voor het "Later upgraden wanneer je weer geld hebt" ook onzin. Hoezo? Verkoop dan gewoon je 480 en haal daarna de betere kaart?
Er zijn zat mensen die op een lager budget zitten, wel willen gamen en geen zin om schulden te maken. Dus upgraden wanneer je weer geld hebt (gespaard) is niet helemaal onzin, het hangt van de levensstijl van iemand af.

Over een jaartje zou je een tweede RX480 tweedehands voor ca € 175 (of nieuw € 235) kunnen kopen.
Stel dat de GTX1070 in prijs zal zakken naar € 450, dan moet er € 275 bijgelegd worden (RX480 voor € 175 verkopen). Of je zou een GTX 1070 tweedehands kunnen kopen, maar die zal ook prijzig zijn totdat er een nieuwe generatie is.

Ben het wel eens dat een enkele krachtige kaart vaak een betere oplossing is dan SLI/CrossFire.

Zelf koop ik altijd mobo's die geschikt zijn voor SLI en CF. Dat komt nu weer van pas, aangezien ik even de tijd wil overbruggen met 2* GTX 970 in SLI tot de 1080Ti (of een high end kaart van AMD) verkrijgbaar is. Die 970's schuiven daarna door naar andere PC's (1080p gaming) en vervangen een R9 380X en een GTX 770.
Ik denk dat er heel weinig mensen na een jaar nog een tweede kaart kopen. Ik denk dat vele niet eens een extra kaart kopen omdat ze nog genoeg kunnen met hun huidige kaart en hun zakcentjes liever bewaren of aan iets anders spenderen.

Tegen de tijd dat de RX480 or GTX1060 games niet meer op de 1080/2k Resolutie speelt met speelbare framerates zijn we alweer een generatie verder en dan kun je beter de nieuwe generatie "budget" kaart kopen dan een tweede 480/1060 er bij halen.

Ik denk ook dat vele mensen dat doen.
Ik denk dat die kaarten op 1080p altijd speelbare framerates zullen hebben, maar dan met (iets) lagere settings.

Ik draai al een tijdje in het wereldje mee, en het verschil in videokaarten per generatie is in de praktijk niet zo groot als de benchmarks doen geloven. Vroeger werden er grote klappers gemaakt door nieuwe technologieën, tegenwoordig duurt het 3-5 jaar wil er een groot verschil gemaakt worden.
De games worden wel steeds veeleisender (hoewel het bij Doom wel meevalt).

Hoe dan ook ik heb tot nu toe 2x upgrade-door-SLI-strategie toegepast, en dat is altijd goedkoop uitgevallen doordat ik de 2e kaarten voor een gunstige prijs tweedehands (na 1½-2 jaar) heb gekocht. Eventjes plezier van gehad en daarna weer doorgeschoven.

Het verschil in prijs tussen mobo met of mobo zonder SLI is meestal niet zo groot, en ik hou graag zo veel mogelijk upgrade-opties over. Maar er zijn weinig mensen die SLI/Crossfire gebruiken, ik dacht zo'n beetje 10%, dus het is wel een overlappende niche markt. Misschien dat de RX480 hier verandering gaat brengen. SLI is leuk wanneer je met 2 goedkope kaartjes meer perst dan uit een enkele grote kaart die duurder is.
Er zijn tijden geweest dat dat zo was.
En daar is Nvidia nou 1 maal beter in vanwege hun betere drivers en software.
yup, ze hebben de afgelopen 2 jaar namelijk al 3 keer een driver uitgebracht die kaarten omzeep helpt. echt ge-wel-dig!
Namelijk ik kan out of the box meteen streamen en/of opnemen via shadowplay met 0 frameloss/extra resources; terwijl bij het AMD kamp ik daar Xsplit etc. voor moet aanschaffen/instaleren/configureren/testen en/of OBS maar again; configuratie/testen; het zijn niet de meest intuatieve stukjes software helaas.
plays.tv zit al weer een tijdje in de drivers integrated. en nu gewoon als los stuk software en niet geïntegreerd in raptr of nog erger in die ENORM trage geforce experience bloat zooi.
er is altijd wel hier en daar geknutsel met nieuwe games en kan je altijd wel verwachten dat je na 2 weken een patch driver van AMD/ATI krijgt om iets op te lossen. Gewoon geen zin in.
ik heb als sinds de 9700pro enkel ATI/AMD gehad en zit inmiddels an mijn 5de en ik heb geen flauw idee waar je het over hebt. het ENIGE dat ik SOMS in games moet aanpassen is de nvidia gimpworks zooi uitzetten of terug schroeven. bedankt nvidia.

nvidia verziekt hun eigen PC games market en dat is waar IK geen zin meer in heb.
hebben meestal niet een pimp moederbord met SLI/CF support;
buiten OEM borden en mini/micro ATX moet je toch goed zoeken wil je een moederbord vinden dat niet 2 16x pci-e slots heeft. daarbij kosten ze ook niks meer. sterker nog de goedkoopte atx met maar 1 16x slot is zelfs 10 euro meer als de goedkoopste met 2 voor socket 1151.

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

ten eerste bedoel je CF.. geen SLI (de eerste die een AMD kaart in SLI zet krijgt van mij een schouderklopje)

maar de enige reden waarom ze deze kaart niet in SLI zetten is denk ik (zover ik gelezen heb) al een x of 5 genoemd.. deze kaart zou (ik herhaal ZOU) net zo snel zijn in SLI als 1x een 1080 in non-sli dus dan heb je een SLI rig voor ongeveer 550-600 euro)
Dat is niet waar. De rede dat ze geen SLI in de 1060 gedaan hebben is omdat het geen nut heeft.
Mensen die 2x een 1060 kopen kunnen beter het geld steken in 1 1070.
Daarnaast hoeft NVidia zo maar 2 kaarten in plaats van 3 te ondersteunen.
Mensen die 2x een 1060 kopen kunnen beter het geld steken in 1 1070.
wie is nvidia om dat te bepalen? en wat nou als ze nu geen geld hebben voor een 1070, maar wel een 1060, en over een jaar of wat er een 1060 naast willen zetten?
Dan kan je beter tegen die tijd een nieuwe variant kopen. :)
over 1 jaar verwacht ik niet zo veel verschil (geen nieuwe node), en is de 1060 weer goedkoper.
De prijzen in Nederland zijn niet bepaald representatief, waarschijnlijk omdat het een verkopersmarkt is, omdat de nieuwe kaarten van zowel AMD als Nvidea nauwelijks op voorraad zijn.

Als je in Duitsland gaat kijken, dan zijn de prijzen wat ze zouden moeten zijn. Daar is de GTX1060 slechts een tientje duurder dan de RX480.


edit: er wordt hieronder gevraagd hoe ik aan mijn informatie kom. Welnu, ik heb gekeken op Duitse sites waaronder mindfactory.de. Daar zijn zo'n beetje alle kaarten van elk merk voorradig en is het verschil tussen de goedkoopste RX480 en GTX1060 precies 10 euro, oftwel 3,7%. Bij caseking.de via de link uit de firstpost van vipeax precies hetzelfde: 269 vs 279 euro.

Persoonlijk vind ik een site die zo'n beetje alles kan leveren een betere graadmeter dan onze pricewatch, waar Sicomputers met zowat elk product onder de prijs van een concurrent gaat zitten, maar niet kan leveren.

[Reactie gewijzigd door ABD op 22 juli 2024 23:20]

Hoezo zijn de prijzen in Duitsland representatief? Het verschil in adviesprijzen is wel meer dan 10 euro.
Hoe kom je daar bij. De 480X 8GB is daar a diverse keren voor minder dan 250€ te koop geweest afgelopen weken. En ook daar zijn de goedkope 1060 kaarten gewoon niet leverbaar.
TNX voor de tip, ABD, ik zat altijd op Idealo en Preisroboter te kijken.
Dit is wel erg kort door de bocht. De amd is gewoon €80 goedkoper. Dit is een ander prijssegment en daardoor is de vergelijking al niet helemaal kloppend.
Is hij helemaal niet, ze zijn zo goed als even duur.

De goedkoopste Radeon RX 480 8GB kost € 275,50.

De goedkoopste Geforce GTX 1060 kost € 286,-

Scheelt maar € 10,50, dus de Radeon RX 480 8GB heeft NIET een betere prijs/prestatie verhouding, dat heeft nu de Geforce GTX 1060, omdat hij sneller is (in de meeste spellen) en bijna net zo duur zijn.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 23:20]

met een kaart van 320 euro, of zelfs 370 euro, wat VEEL meer als dat de 480 kost.

en laat die 75% nou net allemaal oude games zijn, welke steeds minder relevant gaan zijn, en ze beide toch wel snel genoeg voor zijn.

en die 30 watt bekommert niemand zich om.
De eerste weken waren de AMD kaarten ook een stuk duurder. Trekt allemaal wel bij...
Anoniem: 582487 @Countess19 juli 2016 18:56
weet niet waar jij dat '30 watt bekommert niemand zich om' idee vandaan heb.. dat heb ik namelijk niet eens gezegt...

ik DENK zomaar eens dat je finaal de plank mis slaat.. en 'oude games die niet meer relevant zijn' ??? please explain because last time I checked... waren deze games

- tomb raider
- grid
- gta V
- far cry primal
- the witcher 3
- doom
- hitman

^ toch allemaal recente games die in ELKE benchmark gebruikt worden.. dusja please enlighten me...zolang deze games nogsteeds geen 4k 120 fps draaien met 1 van deze kaarten constant.. of hoger.. zijn ze nog altijd allemaal 'relevant' dus hierbij is je comment wasted breath material ;)

have a nice day chap
Klopt. Nvidia 1060 is idd de gemiddelde winnaar in deze test. Maar in DX12 games is AMD wel degelijk erg sterk.

Dat komt door de native Asynchronous Shaders support.:
Asynchronous Shaders/Compute or what’s otherwise known as Asynchronous Shading is one of the more exciting hardware features that DirectX12, Vulkan and Mantle before them exposed. This feature allows tasks to be submitted and processed by shader units inside GPUs ( what Nvidia calls CUDA cores and AMD dubs Stream Processors ) simultaneous and asynchronously in a multi-threaded fashion.(bron)

De vraag is echter dat Nvidia wel in staat in om deze DX12 feature ooit te benutten.
http://wccftech.com/amd-n...performing-async-compute/

Het is dus nog een open vraagstuk dat voorlopig in het voordeel van AMD wordt beslecht aangezien ze nu al kunnen aantonen dat ze de Asynchronous Shaders kunnen benutten. Wetende dat meer en meer games DX12 zullen ondersteunen is maar de vraag of Nvidia nu de beste koop is, ondanks het feit dat ze op DX11 heer en meester zijn.

Koop je nu een 1060 of een 480, het zal nooit een slechte koop zijn. Nvidia is wat krachtiger in hedendaagse games + efficiënter/stiller maar AMD kan beter overweg met DX12 en kan op de koop toe in CF geplaatst worden terwijl CLI niet mogelijk is met de 1060. Vooral CF kan voor veel gamers een belangrijk argument zijn omdat je na 2 jaar uw prestaties kan eenvoudig kan upgraden voor pakweg €100 als je 2dehands koopt.

Tijd zal ons wijzer maken maar het feit dat AMD goedkoper is + DX12 proof + CF heb ik het gevoel dat AMD de bovenhand heeft. Al zou ik van nature voor NVidia kiezen omdat ik in ver verleden (toen de driver ATI nog parten speelden) ondervonden had dat Nvidia toch een stukje stabieler was. Maar dat is zoals al uitvoerige besproken nu geen argument meer.

Emo vs ratio ;-)

Edit typo.
Asynchronous Compute is geen DirectX12 feature, het bestaat al langer alleen nu is er meer oog voor en is het bereikbaar voor developers door de low-level api's.

http://www.hardocp.com/ar...caling_gaming_framerate/5
Async Compute

We called Ashes of the Singularity the "poster child for Async Compute" earlier, and there is no doubt that there has been a ton of discussion around that. As soon as the developer discussed AotS and Async Compute, it seems public opinion is that every benefit seen moving from DX11 to DX12 has been assigned to "Async Compute." It is worth mentioning here that Async Compute is not a feature required by DX12. The fact is that Async Compute Engines have been in AMD GPUs for years; since the 7900 series. Async Compute was somewhat expected to be able to be exploited with the DX11 API, but the fact of the matter is that true support just was not there. The slide below shows Async Compute in action in the GPU pipeline.
Far Cry 3/4 en Watch Dogs hebben zelfs de "AllowAsynchShaderLoading" in hun configuratiebestanden en staat standaard aan, alleen volgens mij heeft het geen effect.
De RX480 veegt anders de vloer aan met de 1060 in DirectX12 games wat erg belangrijk is voor toekomstige games. Vandaar is de RX480 de betere koop want de aankoopprijs zal nog eens lager liggen ook dan de 1060.
Check dat even goed. Ze zijn nergens voor een prijs in die dimensie leverbaar. Ja, je kan ze voor die prijs bestellen, maar dan heb je over een maand misschien een kaart. Tegen die tijd is de AMD ook gewoon weer goedkoper. De eerste die enigzins leverbaar is (binnen afzienbare tijd) is de Gainward van 310€ en dan is er toch al aardig verschil. En dan moet je er nog bij noemen, dat voor 1080p resoluties, de 480X met 4GB gewoon de veel slimmere keuze is (en op die resolutie is die ook niet langzamer dan de 8GB variant) en dan is het verschil gewoon 80€. En dat is wel gewoon ruim 30%.
Wat klets je nou
Ik zie in reviews anders dat hij in Rise of the Tomb raider sneller is in DX12, maar het scheelt niet veel, in Hitman en DOOM is hij zelfs een stuk sneller
Hooooo, bij introductie was de AMD RX 480 8GB €249,-- en toen nog echt leverbaar ook.
Wel even goed vergelijke hé.
Wat een leuke lijst. Maar wat wil je ermee zeggen waarom de ..... ?
Zou jij mij als je ze toch allemaal gelezen hebt de "Critics Consensus" kunnen geven zoals je bijvoorbeeld ziet bij rotten tomatoes :) ?
Omdat niet iedereen het even eens is met de kwaliteit/content van alle review sites (en terecht :p). Wat ik zelf bijvoorbeeld wel mis is een prestatie-index gezien vanuit de GTX 1060. Nu moet je met allemaal rare getallen zelf gaan rekenen en als je dan op de bron link klikt (een interne Tweakers link) krijg je een 404. :+

Mijn eigen mening is niet veel waard, gezien het antwoord geheel anders gaat zijn voor iemand die alleen MOBA games speelt, iemand die alleen de bekende AAA shooters speelt of iemand die echt alles wat uitkomt probeert. Wat ik wel weet is dat de GTX 1060 een stuk zuiniger is, terwijl de RX480 het over een jaar of twee een stuk beter zal doen dan nu (wat betreft prestaties) in de benchmarks.

Als je minimaal 2-4 jaar wilt doen met een videokaart zou ik zelf een RX480 aanraden, echter als je iemand bent die om het jaar/twee jaar zijn videokaart te koop zet, dan zou ik de GTX 1060 aanraden. Ben je iemand die AMD niet vertrouwt dan zul je toch wel nVidia kopen. Ben je iemand die juist nVidia als bedrijf niet leuk vind om redenen {X, Y, Z}, dan zal die persoon toch wel een RX480 kopen.

Zelf heb ik overigens een GTX 1080 gekocht, niet omdat ik graag nVidia sponsor of het "laten we een kleine chip die eigenlijk een GTX 1060 had kunnen zijn verkopen als het top model met een hoge prijs" gebeuren graag accepteer, maar omdat ik het verschil niet ga maken, door de kaart niet te kopen, om nVidia te forceren haar strategie te veranderen. Ik heb een ruim budget en wil dan ook liever gewoon nu op 165Hz gamen. Op dit moment biedt AMD dan ook geen opties voor het (kleine) segment van de markt waar ik mij in kan terugvinden. Hoe we er volgend jaar voorstaan zie ik dan wel weer...

[Reactie gewijzigd door Paprika op 22 juli 2024 23:20]

Ik ben het helemaal met je eens, behalve met "maar omdat ik het verschil niet ga maken". Dat is natuurlijk wel raar.

Dat denken tientallen miljoenen Amerikanen met een krankzinnig onzuinige auto ook. "ik wil de Saudi Arabiërs niet steunen, maar het helpt niets als ik minder ga verbruiken". Als iedereen dat denkt (en dat gebeurt min of meer ook) dan verandert er inderdaad niets.
Echter kunnen zij wel gewoon een leuke sportauto komen die wel zuinig (of zelfs volledig elektrisch) is. Ik heb geen alternatief als ik een snelle kaart wil voor die 165Hz die ik wil behalen...

[Reactie gewijzigd door Paprika op 22 juli 2024 23:20]

Mooi om te zien dat het instapmodel de 60's het vrijwel op elk vlak beter doet dan de highend (non Ti) van de vorige gen. Ik doel dan vooral op de GTX980, deze heb ik zelf, die een resolutie van 3440x1440 moet pushen elke dag.. de GTX1060 doet dat niet alleen beter en sneller met zijn 6GB, maar ook nog eens een stuk efficiënter met zijn stroomverbruik!

Ik denk dat ik pas naar een nieuwe videokaart ga kijken als de 1000 series met de Ti modellen komen. Dan wordt het pas echt interessant om op bijna 4K of 4K resoluties met een single GPU te gaan gamen.
De 980 was dan ook een bijzonder matige kaart op zijn eigen prijspunt destijds, en de reden voor hele volksstammen om 'm links te laten liggen en de 970 te nemen. Eigenlijk een directe herhaling van de 670 versus de 680.

Ik denk sowieso met een res van 1440p of hoger, dat deze kaarten het gewoon net niet zijn. Je gaat vanaf het moment dat je 'm gebruikt al concessies moeten doen voor die res. Dan is een 1070 of zelfs een tweedehands 980ti een veel betere keuze, in het geval van de 980ti zelfs qua perf/dollar op alle fronten beter.

De x60 heeft altijd last van een bottleneck, is het nu niet, dan over een jaar al wel. Kijk hoe ver de 960 nu is weggezakt, dat staat niet meer in verhouding tot de aanschafprijs of de relatieve performance op basis van shaders. Nvidia's x60 kaarten hebben ALTIJD een memory bottleneck. Kortom, als je niet echt móet, kies het AMD alternatief op dit prijspunt en je hebt er veel langer plezier van.

Eigenlijk maakt Nvidia het ons simpel: in dat kamp ben je altijd het beste af met de x80ti (top end), x70 (prijs/perf high end segment) of met de x50ti (prijs/perf midrange). Kom je qua wensen op een x60 of een x80, Nvidia lekker links laten liggen en voor AMD gaan. En SLI, alleen maar dual op een x80 of beter anders is het huilen met de pet op.

[Reactie gewijzigd door Vayra op 22 juli 2024 23:20]

Wtb: Glazen bol, dan worden we allemaal beter :D

Ik wil wel even opmerken dat de prestatieverschillen die ik de laatste dagen heb gezien feitelijk gelijk zijn op 1080p, 1440p, en 4K. Even uitgaande van DX 11 want DX 12 benchmarks is een beetje rommelig, maar die bijna ~20% neemt niet af op 4K. Om je nu direct zorgen te maken over een evt memory bottleneck vind ik wel heel erg vlot.

Wel met je eens wat de positionering mbt 1440p betreft, ook uitvoerig aangehaald in mijn review: eigenlijk wil je daar een GTX 1070 voor. Aan de andere kant, ik heb ook lang zitten gamen met 1440p en een GTX 770, en ik vind persoonlijk de hele 'alles moet max en 144 FPS' beweging een beetje overdreven. Een GTX 970 met 1440p speelt ook alles lekker weg, zo groot is dat verschil tussen high en ultra vaak niet, en ik zou met een dergelijk prestatiepunt nu (oftewel je hebt een 290x / 970 / 480) niet meteen verdrietig zijn als je een 1440p scherm hebt. Hetzelfde gaat dus op als 500 euro te veel geld voor je is, dan is een GTX 1060 (of dus een RX) prima plezier aan te beleven.

Maar goed, een hoop aannames in al een erg subjectief onderwerp (wat is een acceptabele prestatie etc).
Ja dat is zeker waar, met wat tweaken in de settings kun je op mid range heel lang doorkachelen. Ik doe het nu eigenlijk ook met m'n 780ti (=970/980) omdat ik Pascal nog te duur vind, en The Division draait nog altijd op een comfortabele 75-120 fps :)

Maar ik vind het dan weer een stuk minder leuk als ik op een nieuwe aankoop op de native res al meteen flink zou moeten tweaken. Voor mij voelt dat dan vooral als een slechte keuze - in monitor of qua GPU.

[Reactie gewijzigd door Vayra op 22 juli 2024 23:20]

Behalve als je een ultrawide 34" 100hz beeldscherm hebt gekocht met G-sync zoals ik :o
Geen AMD meer voor mij dus ;)

[Reactie gewijzigd door infernal_nl op 22 juli 2024 23:20]

Tja, mooi dom, dat je jezelf een vendor lock-in hebt bezorgd met Gsync. Temeer omdat het niet samen gaat met ULMB of strobing en op hogere refresh rates/fps heb je er sowieso al niets aan. Dus voor die enkele game op 30 fps heb je dan Gsync... jippie :)

Nvidia's mid range is nooit echt goed geweest en deze 1060 is ook niet wereldschokkend, de prestaties zijn gemiddeld rond de 980 maar de uitschieters zijn altijd naar beneden en niet naar boven toe, en het ziet er naar uit dat de RX 480 het gat op DX12 groter gaat maken en Nvidia achter zich laat.

[Reactie gewijzigd door Vayra op 22 juli 2024 23:20]

Dat is inderdaad discutabel maar een wel overwogen beslissing..

Ik snap alleen niet dat jij als Nvidia GeForce king het verkeerd hebt op het gebied van gsync, wellicht is dit perceptie van persoon tot persoon.. maar door de komst van gsync merk ik nu dat 60hz er totaaaaaal anders uit ziet dan 60hz op mijn oude beeldscherm, zowel met als zonder vsync.

Alles ziet er veel en véél smoother uit, de gsync helpt en is duidelijk zichtbaar tussen de 40 en 100fps (100 is het hoogste wat mijn beeldscherm kan)

Hoe kom je hier precies bij? kan je deze twee punten toelichten?
en op hogere refresh rates/fps heb je er sowieso al niets aan. Dus voor die enkele game op 30 fps heb je dan Gsync.
Op hoge fps is het ook mogelijk om een frame rate lock te gebruiken, of adaptive Vsync, (en met Pascal: fast sync) en dat te combineren met strobing (als je paneel dat kan) - daarmee haal je echt voordeel uit de hoge refresh rate, en je balanceert af op stabiele FPS qua settings. Op dat moment heb je Gsync niet nodig.

Op lage fps is Gsync nuttig, maar dan is een hoge refresh weer zinloos. Gsync is een 'luie' manier om fluctuerende fps te compenseren, maar het is veel beter om stabiele fps te zoeken per game, waardoor je Gsync niet nodig hebt en ook je input lag stabiel zal blijven (net als bij FPS merk je een iets hogere stabiele input lag, veel minder dan een sterk fluctuerende input lag - voor een stabiele lag kun je compenseren). Tegelijkertijd betaal je bij voor Gsync en lock je jezelf effectief aan een Nvidia kaart. Kortom, de prijs is vrij hoog voor zo'n beperkt voordeel. Een scherm gaat meestal meerdere GPU generaties mee, dus dat is nogal wat.

Tot slot, maar dat is heel persoonlijk, vind ik backlight strobe een bijzonder nuttige feature die wél bijna altijd zinvol is, en die is ook niet te combineren met de variable refresh die Gsync gebruikt.

Veel van deze argumenten gelden ook voor FreeSync maar de grap is nu juist dat je daar (bijna) geen meerprijs voor neerlegt, dus 'het niet gebruiken ervan' doet minder pijn en daarmee is ook de vendor lock-in niet- of minder- aan de orde.

[Reactie gewijzigd door Vayra op 22 juli 2024 23:20]

Lang verhaal maar het mist de nuance waarom G-Sync duurder is:
One disadvantage that AMD has had when going up against the NVIDIA technology was prominent at low frame rates. AMD has had "variable refresh rate windows" that have varied from a narrow 48-75Hz (our first 21:9 IPS panel) to a much wider 40-144Hz (TN 2560x1440). When you went above or below that refresh rate with your game render rate (frame rate) you would either revert to a non-variable refresh rate state of either having V-Sync enabled or V-Sync disabled, at the users selection. The result, when your frame rate when below that minimum VRR range, was an experience that was sub-par - you either had tearing on your screen or judder/stutter in the animation. Those were the exact things that VRR technology was supposed to prevent!

NVIDIA G-Sync solved the problem from the beginning by doing something called frame doubling - when your in-game FPS hit that low VRR window range, it would double the frame rate being sent to the screen in order to keep the perceived frame rate (to the monitor at least) high enough to stay inside the range. That gave us no effective minimum variable refresh rate range for NVIDIA G-Sync monitors - and for users that really wanted to push the fringe of performance and image quality settings, that was a significant advantage in nearly all gaming environments.

While NVIDIA was able to handle that functionality in hardware thanks to the G-Sync module embedded in all G-Sync displays, AMD didn't have that option as they were piggy-backing on the Adaptive V-Sync portion of the DisplayPort standard to get FreeSync working.
Je betaalt voor de extra chip (laag productie volume, dus duur) welke je wel de beste ervaring oplevert.

Later is AMD met LFC gekomen. Op de slide van AMD zelf staat duidelijk het probleem aangegeven.
The answer? To implement frame doubling in software, a feature that I have been asking for since day one of FreeSync's release on the market. AMD's new Radeon Software Crimson is the company's first pass at it, with a new feature called Low Frame Rate Compensation (LFC).

The goal is the same - to prevent tearing and judder when the frame rate drops below the minimum variable refresh rate of the FreeSync monitor. AMD is doing it all in software at the driver level, and while the idea is easy to understand it's not as easy to implement.
Het is prima om de voor en nadelen van een bepaalde techniek te benoemen maar het komt nu over alsof je denkt dat Nvidia gebakken lucht verkoopt. Voorlopig bied G-sync de beste spelervaring, AMD is hard aan het werk om FreeSync te verbeteren. Zie deze recentelijk slide van dit jaar.
Niemand heeft wat tegen G-Sync, maar ik denk dat je bent vergeten dat AMD gebruik maakt van FreeSync, wat precies hetzelfde doet. Maar dan op monitoren die al verkrijgbaar zijn voor minder dan 150 euro :P
LG biedt momenteel een 34" 21:9 Freesyncer aan voor minder dan €900, terwijl een G-Syncer met dezelfde specs nog 1200 moet opleveren. Wellicht was het prijsverschil nog groter toen jij jouw monitor kocht. Daar had je heel wat AMD GPU-power van kunnen kopen :)

En op hoge refreshrates is het sowieso minder opvallend, mocht er een frame missen. Bovendien kan een monitor dan makkelijker overschakelen. De meest nuttige toepassing blijft bij lage framerates, maar op hoge framerates is het natuurlijk ook prima.
Bij hogere refresh rates van je monitor heb je minder tot geen last van de stutters die gsync wegneemt. Dus het verschil in tijd (ms) wanneer een GPU klaar is om een frame te tonen en wanneer de monitor het beeld ververst heeft is met hogere refresh rate een stuk kleiner (1/60, 1/100, 1/144 etc). Dit ligt ook wel aan de persoon hoe gevoelig die er voor is en het hoe hoog het aantal Hz van je monitor is. Maar vanaf 100-120Hz merk ook ik niets meer van de voordelen die gsync zou moeten geven en heb het daarom ook maar uitgezet omdat het ook weer een klein beetje lag/frame-time toevoegt.

Edit: Je hebt trouwens OF gsync OF vsync aanstaan, niet allebei tegelijk.

[Reactie gewijzigd door Dunky555 op 22 juli 2024 23:20]

Ik denk dat ik er erg gevoelig voor ben dan, want ik vind het echt heerlijk om naar die smoothness te kijken! }>
Edit: Je hebt trouwens OF gsync OF vsync aanstaan, niet allebei tegelijk.
Dat weet ik, ik gaf alleen aan dat mijn oude beeldscherm op 60hz met of zonder vsync heel anders aan voelde dan 60hz op mijn nu gsync monitor terwijl dat in feite het zelfde zou moeten zijn toch? ik bedoel 60hz is 60hz.. right?
Vsync wil je eigenlijk altijd uit hebben staan, dat geeft behoorlijk wat lag. Minimaal 30ms meen ik mij te herinneren van een video op youtube dacht ik. Deze was het geloof ik https://youtu.be/8uYMPszn4Z8?t=172

Je hebt nu een 100Hz monitor en dat doet ook al veel voor de smoothness, ook als je maar 40 tot 60FPS in een game haalt. Het is niet alleen gsync. Als je wilt vergelijken moet je je monitor ook op 60Hz zetten of bedoel je dat je dat ook gedaan hebt?
Wat je zou moeten vergelijken met je oude monitor is 60Hz zonder en met gsync, 100Hz met en zonder gsync en dan ook alles met lage (+/-40) FPS en hoge (100+) FPS in game.
Dan zul je waarschijnlijk merken wanneer je je monitor op 100Hz hebt draaien en 90+ FPS in games haalt dat gsync niet veel meer toevoegt. Misschien zelfs met rond onder de 60FPS in game ook niet. Ik merk het met mijn 144Hz monitor niet, maar ik weet niet of jouw 100Hz ook al genoeg is om niets van gsync te merken.

[Reactie gewijzigd door Dunky555 op 22 juli 2024 23:20]

FreeSync is vooralsnog net zo hard een vendor lock-in als G-Sync..
Ja, maar als dat weinig tot niets kost, is dat natuurlijk niet zo relevant.
intel gaat het ook ondersteunen, en nvidia had het vorig jaar al kunnen actieveren in de 9 serie maar is daar te gierig voor.
Intel zegt al langer dat ze FreeSync gaan ondersteunen, tot nu toe is daar weinig van terecht gekomen. Verder had Nvidia al G-Sync uitgebracht toen AMD met FreeSync op de proppen kwam, en hadden het overgrote gedeelte van de markt in handen. Een concurrerende techniek ondersteunen is dan ook totaal niet logisch. Heeft niks met gierigheid te maken, maar eerder met een solide business plan.

[Reactie gewijzigd door ColinZ op 22 juli 2024 23:20]

Voor zover ik weet staat Nvidia amd niet toe om freesync te gebruiken, en anders wordt er sowieso wel een hoog bedrag voor gevraagd. Dat zie je o.a. ook terug in de G-Sync monitors.

Je kan het moeilijk een vendor lock-in noemen als het een open standaard betreft.
G-Sync vereist integen stelling tot FreeSync custom hardware in de vorm van een FPGA. Dat drijft de prijs enorm op. AMD is tot nu toe de enige vendor die FreeSync ondersteund. Wil je FreeSync gebruiken dan zit je vooralsnog vast aan AMD. Of de standaard nu open of prioritair is verder irrelevant.

[Reactie gewijzigd door ColinZ op 22 juli 2024 23:20]

In de praktijk misschien nu wel, maar Intel komt er ook mee, en er komen straks nog veel meer schermen bij. Een echte vendor-lock-in zoals g-sync kan ik het niet noemen.
Intel zegt al langer dat ze FreeSync gaan ondersteunen, tot nu toe is daar weinig van terecht gekomen.
nu het opgenomen is in de VESA standaard verwacht ik niet dat het lang gaat duren.
maar eerder met een solide business plan.
waarmee ze consumenten en met namen hun eigen klanten benadelen.

Dat het kan en niet illegaal is wil toch niet zeggen dat je dat zomaar hoeft te accepteren van een bedrijf? dit soort dingen ga je toch niet als makke schapen gewoon slikken? kom op zeg.

ze naaien hun eigen klanten, en de markt, en jij gaat ze nog lopen verdedigen ook.

verder zit je helemaal niet vast aan AMD met freesync, want je betaalde helemaal niks extra's voor freesync. als je een nvidia koopt heb je dus geen verloren investering, je mist alleen de mogelijkheden van free sync. (wat, opnieuw, de keuze van nvidia is)

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

nu het opgenomen is in de VESA standaard verwacht ik niet dat het lang gaat duren.
natuurlijk zal Intel het ooit wel gaan gaan ondersteunen, maar dat is tot nu toe alleen maar speculeren.
waarmee ze consumenten en met namen hun eigen klanten benadelen.
Ik zeg dan ook solide en niet ethisch.
Dat het kan en niet illegaal is wil toch niet zeggen dat je dat zomaar hoeft te accepteren van een bedrijf? dit soort dingen ga je toch niet als makke schapen gewoon slikken? kom op zeg
Nvidia heeft geïnvesteerd in het ontwerpen van een FPGA en de bijbehorende marketing kosten. Ieder weldenkend bedrijf zal de kosten willen terug verdien en winst willen maken op de investering.
verder zit je helemaal niet vast aan AMD met freesync, want je betaalde helemaal niks extra's voor freesync.
Wil je echter het Adaptive Sync gedeelte van je monitor gebruiken weer wel.

[Reactie gewijzigd door ColinZ op 22 juli 2024 23:20]

dus... oneerbiedig gezegd te gierig en te trots.
Nee hoezo? Het primaire doel van een bedrijf is om winst te maken, niet om vriendjes te worden met de consument. (hoewel brand loyalty ook een positief effect kan zijn)

Maar misschien moeten we deze discussie elders voort zetten aangezien we behoorlijk off topic gaan. Ik vind deze discussie wel zeer boeiend.
Ik zou beargumenteren dat G-Sync handig is voor iedere game die je met een unlocked framerate (en zonder V-Sync) wilt spelen. Ongeacht de fps. Dat weegt wmb. zwaarder dan ULMB!

Wat de DX12 potentie van de RX480 betreft ben ik het met je eens, maar staat nu al vast dat Nvidia de DX12 performance van Pascal niet gaat verbeteren? En hoeveel games gaan async compute hevig implementeren?

ULMB, strobing en vendor lock-in: helemaal met je eens! Maar gezien het track record van Nvidia gedurende op zn minst de afgelopen twee jaar lijkt het groene team een redelijke safe bet te zijn op dit moment.
Persoonlijk zou ik er niet om rouwen om over drie of vier jaar m'n huidige G-Sync monitor af te schrijven en daarna een mooi 4k OLED paneeltje met Free/G-sync te kopen. Dat zou betekenen dat mn vendor lock-in twee generaties heeft geduurd (970+10XXXX), en dat zie ik niet als een probleem.
Eerst mag AMD weleens met mooie high end kaartjes gaan komen though! Dan eventueel spijt krijgen van de vendor lock in en een 10XXXX moeten kop[en.

[Reactie gewijzigd door Arrahant op 22 juli 2024 23:20]

Je had jezelf een paar maanden geleden ook 300 euro kunnen besparen op een Freesyncer met dezelfde specificaties, want dat is het prijsverschil tussen die 34" Predators van Acer met G-Sync of Freesync.

Had je alleen daarvan al een redelijk vette kaart kunnen scoren... :P
Is het niet zo dat Freesync minder functionaliteit biedt dan G-Sync? Alleen binnen een bepaalde fps range oid?
Dat verschilt voor beide technieken per monitor.

Over het algemeen wordt G-Sync wel op meer high-end modellen gezet waar vanzelfsprekend de range groter is, Nvidia stelt daar dan ook eisen aan. Freesync is een open standaard waar AMD dus geen eisen aan kan stellen. Over het algemeen is het verschil niet groot.
Ik snap wat jullie zeggen, maar ik ben niet minder blij met de monitor die jullie de grond in stampen ;(
Het is voor mij een weloverwogen beslissing geweest niet met freesync te gaan..
ten eerste wil ik geen AMD kaarten meer, heb ze jaren gehad en ben inmiddels van kamp groen geworden, niks mis met kamp rood overigens, gewoon een voorkeur.
daarbij wilde ik meer dan 60hz, en 21:9 aspect ratio. Dan heb je maar 2 smaken, acer predator x34 of asus PG348Q. Qua design vind ik de acer predator X34P het mooist (komt in december pas naar nederland) maar qua built quality van wat we nu weten en harde feiten hebben is de Asus superieur. ik heb dan ook de asus.. enja.. op een beeldscherm van ruim €1400 maakt die €300 voor mij nou ook niet zo veel verschil ;)
Al doende leert men, toch? Zo was het ook een beetje bedoeld als plek in de comments. Je monitor wordt er niet minder om - maar er zijn wel handigere keuzes te maken. De situatie was echter een tijdje geleden nog heel anders als nu, de Gsync/FreeSync keuze was een tijd bijzonder karig en dat is nu niet meer zo.

Ik heb zelf ook niet al te lang geleden een 1080p 24 inch 120hz monitor (geen 'sync') aangeschaft en heb nu ook een beetje buyer's remorse (wil eigenlijk 1440p), maar ik denk dat je daar nooit echt vanaf zult zijn ^^

[Reactie gewijzigd door Vayra op 22 juli 2024 23:20]

Je kan 'm in de verkoop gooien en inderdaad 1440p nemen.. ik heb zelf meer dan 6 jaar op 1080p 60hz 24" gegamed.. je kan dan de individuele pixels zien en dat was ik zat na verloop van tijd.. ik dacht goed ik ga een monitor kopen waarmee ik weer minimaal 5 a 6 jaar mee vooruit kan.

Toen wilde ik op ieder vlak verandering. want meer pixels + meer inch vond ik niet een geweldige upgrade.

Ik wilde dus:
-meer dan 60hz
-hogere resolutie dan 1080p
-gsync
-spectaculaire verandering

punt één is gelukt: 60hz = 100hz
punt twee is gelukt = 1080p = 1440p (ultrawide, dus geen 2560 maar 3440 breed)
punt drie is gelukt
punt vier is ook gelukt = curved en een 21:9 aspect ratio
Ik stamp je monitor niet de grond in hoor! Tis natuurlijk een topding :) Maar je reactie op Vayra hierboven is natuurlijk nogal nutteloos. Mensen met een G-Sync monitor gaan altijd voor Nvidia en mensen met een Freesyncer gaan voor AMD (en Intels igp's, binnenkort). Net als dat je met zo'n Nvidia 3D-headset ook niet snel voor AMD kiest.
Dat is vanzelfsprekend - al zou je ook als Nvidia gamer natuurlijk heel goed een Freesyncer kunnen overwegen omdat dat vaak bijna niks scheel met een normale monitor itt G-Sync.
In jouw situatie is een GTX1060 sowieso behoorlijk beperkt, op de resolutie waarop jij speelt met bijbehorende framerates kijk jij eerder naar de 1070 en 1080.

De discussie sterft zo nogal af, dat is het meer. Mensen die zich oriënteren kunnen zich beter focussen op de kaart alleen, of op het totaalplaatje en de bijbehorende kosten. Laten we kampen eens buiten beschouwing laten en de boel objectief bekijken, met juiste oriëntatie :)
Ach, hier op Tweakers zijn er gewoon mensen die om wat voor reden dan ook een bedrijf het zonlicht niet meer gunnen.

Wees tevreden met je monitor! Het is een prima ding, en daar kan een ander niks aan veranderen. De GTX960 wordt hier ook elke keer weer met de grond gelijk gemaakt, maar daarbij vergeet men dat het alternatief van AMD op dat moment geen ZeroFan technologie had, een stuk meer verbruikte, en een H.265 decoder miste...

Zolang een product in jouw wensenplaatje past, lekker kopen.
En wat als iemand 5000 euro per maand kan sparen en uitgeven? Of als iemand meer dan 100.000 euro 'over' heeft?
Je leeft maar één keer en je geld kan je daarna toch niet meenemen. Daarnaast is gamen een goedkope hobby vergeleken met veel andere hobby's, zelfs als je dit soort dure monitoren koopt.
Rare analyse. De GTX 660 Ti was een goede deal ten op zichtte van de GTX 670. Alleen in enkele specifieke titels was er iets te merken van de beperkte bus. Bovendien had je de 660 Ti PE die met zijn factory overvolt 1200-1280 Mhz boost. Die was daarmee sneller dan menig GTX 670. Deze kaart scoorde een 9.7 op TechPowerUp.

De x60 serie die ik daarvoor had was de GTX 460 Hawk. Dat is de leukste kaart die ik ooit heb gehad. Stock was dat ding 675 Mhz. MSI liet hem op 780 Mhz draaien. Echter dankzij de overvolting, uniek voor die tijd, kon je hem opschroeven naar 950 Mhz. Daarmee zat je onderhand op GTX 480 performance. Deze kaart scoorde een 9.4 op TechPowerUp.

De GTX 260 daarvoor was ook weinig mis mee. Bij launch was hij een stuk duurder maar uiteindelijk heb ik een uitlopend (pre 216 core) model voor 139 euro bij CDromland gehaald. Tot op de dag van vandaag werkt die kaart nog steeds.

In mijn ervaring is het juist eerder het tegenovergestelde. Op 1 of andere manier lijken alle 4870's te zijn gesneuveld. Daarnaast is het erg lastig met het legacy driver gezeur. Zelfs 'recente' kaarten als de 6870 zijn legacy tegenwoordig. Nu heb ik niet de illusie dat die GTX 260 en GTX 460 van mij nog echt optimalisaties krijgen (die zijn ook heus wel legacy). Echter je kunt gewoon een nieuwe driver downloaden en vrijwel alle games draaien er nog op (ook op Windows 10). Dit jaar merkte ik voor het eerst dat backwards compatabilty een probleem werd bij de GTX 260 (dx10). The Division en Battleborn weigerden te draaien. Op de 460 ging het wel, op de 6870 deed the devision het ook niet.

Dus los van dat je uitspraak niet genuanceerd is lijkt mij eerder het tegenovergestelde waar. In de regel blijven mijn Nvidia kaarten het langer doen en zijn ze ook langer bruikbaar. Dat is in ieder geval de laatste 10 jaar zo geweest.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 23:20]

Het gaat er niet om dat de kaarten legacy zijn of niet, het gaat erom dat je de games niet kunt spelen. Zoals dus meest recent The Division met de 6870. Verder doet de E350 (HD 6310 ) bijvoorbeeld geen hardware decoding op YouTube op Win10 via Crimson.

De tegenhanger van de 4870 was overigens de gtx 260, niet de 460.

De AMD ging toen aan de leiding, dat was de betere kaart. July 2009:
ATI Radeon HD 4800 Series 7.03%
NVIDIA GeForce GTX 260 2.42%

Juni 2010
ATI Radeon HD 4800 Series 8.16%
NVIDIA GeForce GTX 260 3.46%

Dit jaar:
GTX 260: 0.84%
4870: 0.51%

Dus ze zijn echt verdwenen...
De 4870 zijn in duizenden mining rigs verdwenen en een martelingsdood gestorven. De 4850 en 4870 waren jarenlang de goto voor home/semipro-mining van bitcoins. Dat zal zich zo snel niet herhalen omdat mining op gpus inmiddels natuurlijk veel te inefficiënt is.
ik denk eigenlijk niet dat die mining GPU's op de steam hardware survey terecht zijn gekomen (die zullen immers geen steam draaien)

maar zoals ik hier onder al aan gaf, hij vergelijkt de "4800 series" met enkel de 4870, ipv met zowel de 4850 als de 4870. en dan blijken er ineens 3 keer zo veel 4800 serie kaarten nog in gebruik te zijn.

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

Dat bedoelde ik ook niet. Mining was de reden dat ze er dit jaar in verhouding met de nvidia inmiddels veel minder zijn.
je vergelijkt de 4800 SERIE (dus zowel de 4850 als 4870) van toen, met alleen de 4870 nu.

ze zijn dus niet verdwenen alleen uitgesplitst. Samen met de 1% van de 4850 zijn er dus nog steeds 2 keer zo veel als van de 260 en hebben ze dus nog gewoon nagenoeg de zelfde verhouding.
Zoals dus meest recent The Division met de 6870.
dat had ik uitgelegd, puur toeval dat de nvidia nog werkt omdat de kaart erna practice de zelfde architectuur heeft gehouden.
Verder doet de E350 (HD 6310 ) bijvoorbeeld geen hardware decoding op YouTube op Win10 via Crimson.
de e350 is 5 jaar oud, en crimson is daar niet voor geschikt en die GPU staat ook niet bij de supported products van de driver.

crimson page zegt het zelf:
"AMD E-Series APUs with Radeon™ R2 Graphics"

de bobcat heeft een HD 6xxx serie en dus geen R2.

je hoeft onder windows 10 helemaal geen driver te installeren voor de e350, en dat zal de pagina je vertellen als je hem laat detecteren of handmatig aangeeft welke hardware je precies hebt. dan kom je hier uit namelijk:

http://support.amd.com/en...Win10-WDDM1-2-Driver.aspx

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

je vergelijkt de 4800 SERIE (dus zowel de 4850 als 4870) van toen, met alleen de 4870 nu.

ze zijn dus niet verdwenen alleen uitgesplitst. Samen met de 1% van de 4850 zijn er dus nog steeds 2 keer zo veel als van de 260 en hebben ze dus nog gewoon nagenoeg de zelfde verhouding.
Ik verzin niet hoe AMD die hardware aanmeld. Die verandering heb ik ook niet verzonnen, die heb ik ooit eens opgemerkt omdat ik elk jaar wel een keer op de hardware survey kijk.

Het staat je vrij de hele geschiedenis uit te pluizen. Begin eens in 2011, dan zie je dat er ongeveer evenveel 4850's dan 4870's waren.

Vergelijk dat met nu
NVIDIA GeForce GTX 260 0.84%
AMD Radeon HD 4850 0.96%
AMD Radeon HD 4870 0.51%

Gek he?
de e350 is 5 jaar oud, en crimson is daar niet voor geschikt en die GPU staat ook niet bij de supported products van de driver.

crimson page zegt het zelf:
"AMD E-Series APUs with Radeon™ R2 Graphics"

de bobcat heeft een HD 6xxx serie en dus geen R2.
Dat was nu juist het punt dat ik maakte. Volgens Vayra heb je langer plezier van je AMD videokaart. In werkelijkheid heb je na enkele jaren al 'gezeik' bij AMD.

In mijn ervaring zit de probleemloze werking bij Nvidia op circa 8 jaar. Bij AMD is dat circa 4 jaar (dan pak ik de 7000 serie als laatst werkende serie).
je hoeft onder windows 10 helemaal geen driver te installeren voor de e350, en dat zal de pagina je vertellen als je hem laat detecteren of handmatig aangeeft welke hardware je precies hebt. dan kom je hier uit namelijk:

http://support.amd.com/en...Win10-WDDM1-2-Driver.aspx
Als je geen driver installeert dan is YouTube al te veel voor de E-350. Kijk anders eens op het AMD forum als je mij niet geloofd: https://community.amd.com/thread/183779

Verder bleken er ook dependencies te missen bij Crimson en moest ik die handmatig uit de temp mappen bij elkaar sprokkelen.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 23:20]

Ik verzin niet hoe AMD die hardware aanmeld.
nee, maar je had er wel even beter op kunnen letten voor je wilde ongefundeerde uitspraken gaat doen.
Gek he?
mensen die meer uit gaven aan een GPU zijn ook sneller geneigd te upgraden? verder hadden die 2 kaarten het zelfde PCB de zelfde componenten op geheugen na en was de hd4870 zelfs iets koeler als de hd4850. heel weinig reden dus om het verschil in gebruik nu aan hardware failen te wijden/

ik zie hier zeer zeker geen goed bewijs voor de claim dat AMD kaarten sneller kapot gaan.
In mijn ervaring zit de probleemloze werking bij Nvidia op circa 8 jaar. Bij AMD is dat circa 4 jaar
en mijn ervaring is dat de nvidia in mijn laptop kapot is na 3 jaar matig gebruik met maar heel af en toe een game, en de huidige nvidia in mijn werklaptop niet eens 2 schermen in daisychain kan aansturen zonder elke half uur een driver recovery te moeten doen.

terwijl de ATI x700 (2004, met voltmod) nog prima werkt. en van allen AMD/ATI kaarten die ik heb gehad (5) alleen mijn 14 jaar oude 9700pro (2002) is echt kapot is gegaan.
dan pak ik de 7000 serie als laatst werkende serie).
en dat is gewoon onzin. voor oudere kaarten zijn gewoon legacy drivers voor te krijgen en mijn vriendin's 5000 serie (2009 dus 7 jaar oud) werkt er prima mee op windows 10.

dan kan je wel zeggen dat division nog werkt op een iets oudere nvidia als op AMD maar dat is, nogmaals, puur toeval omdat die nvidia niet officieel is ondersteund, en je probeert hemelbrede conclusies te verbinden aan een moment opname met maar 1 game en maar 1 kaart.
Als je geen driver installeert dan is YouTube al te veel voor de E-350. Kijk anders eens op het AMD forum als je mij niet geloofd:
tja, kon beter, maar de e350 is aardig niche, en is zeker niet indicatief voor de normale videokaarten. verder draait die e350 hier prima als linux server/media center.

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

Wat mij betreft verandert het helemaal niets aan de uitspraak. Bij benadering gingen de 260 en 4870 een tijd lang gelijk aan elkaar op. Ineens begonnen de 4870's te dalen. Dat gebeurde nadat die dingen al niet meer te koop waren.

Het lijkt me niet dat mining daar een rol bij heeft gespeeld. Immers daarvoor wil je een nieuwe kaart anders ben je bij voorbaat kansloos. Dan hadden we dat eerder moeten zien gebeuren.

Verder snap ik je punt dat je aan de laptop illusteert, met n=1 is het lastig uitspraken doen. Maargoed ik heb ondertussen 24 jaar ervaring met hardware en ik ben vrijwel altijd op de hoogte geweest van de ontwikkelingen. Dit is hoe ik er naar kijk. Als ik een uitspraak moet doen of je nu op lange termijn meer aan een Nvidia of aan een AMD hebt dan wint wat mij betreft de eerste. Hetgeen bevestigd wordt doordat ik hier nog o.a. een GTS 250 heb liggen waarmee je gewoon een game als Borderlands 2 op je lan kunt spelen. Werkt 100% zoals verwacht. Vayra impliceerde het tegenovergestelde.

De e-350 was superieur aan het Atom alternatief van Intel. Ik was fan en aankoper van het eerste uur. Ik heb hier ook een positieve review geplaatst. Echter vanaf dag 1 was het een bak ellende wat drivers betrof. Ik weet niet hoe snel jij bent ingestapt maar zowel op Linux als Windows was het allemaal zeer problematisch. Zoals ik al zei is het anno 2016 opnieuw problematisch. Ik kreeg hem recentelijk bij een clean Windows 7 install niet normaal geïnstalleerd zonder rare fratsen uit te halen.

Als ik de balans opmaak dan heb ik geen spijt van de E-350, de atom was gewoon te traag. Maar ondertussen zit er wel een G4400 in mijn NAS (aanrader overigens, bizar veel sneller met unrarren etc).
Inderdaad mooi om te zien, maar nou was de 980 ook niet heel spannend... een 970 met leuke overklok presteerde al bijna gelijk en kostte veel minder. De prijs/prestatie verhouding nekte de 980. Zelfde verhaal maar dan wat minder sterk met de 770 en 780.
Ik vind het zelfs nog wel interessant als deze kaart echt €280 wordt om 'm in te ruilen voor de GTX1060 tot de Ti kaarten uit komen..
De prijs maakt nu dan toch wel veel uit want als de gemiddelde 1060 kaart op 310-320 of meer zit dan heeft de RX 480 een prijsprestatievoordeel en daarin zit dan ook nog wat meer DX 12 potentieel.
Daarbij komt erbij dat je de 1060 niet in SLI (wat erg jammer is) kan zetten en bij de rx480 eventueel een ander rx480 kan aansluiten. Dus m.a.w. de 480 lijkt me wat meer future-proof. Voor mij betekent het gebrek van SLi support bij de 1060 toch een no-go, helaas.
En Nvidia kan niet mee komen op DX12. Voor de huidige DX11 spellen hebben ze nog voordeel, maar dat is straks n.v.t.
Ik zie nochtans in deze benchmarks dat de 1060 heel goed mee kan komen in DX12.
uhmm de ~280 euro kostende 480 verslaat de 370 euro kostende MSI in doom, hitman en warhammer, en enkel in de nvidia-gesponsorde game tombraider kan de 1060 hem voor blijven.

Als we ashes niet nee nemen dan hoort tomb raiders er ook niet in thuis.

en dan zouden we ook nog even naar de 4GB 480 kunnen kijken die praktische niks langzamer is maar wel beduidend goedkoper.

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

Die 370 euro kostte de RX480 op de dag van de release ook ongeveer, dat is heel snel gezakt. Soort early adopter tax ;)

Komt nog wel naar beneden die prijs
nee, op de dag van release kon je voor 280 een rx480 8Gb bestellen. enkel de eerste 2 winkels die prijzen naar buiten brachten hadden ze exhortation hoog staan.
In Nederland kun je ATM (vandaag) inderdaad geen 1060 voor adviesprijs kopen, in Engeland en Duitsland hebben ze al wel de juiste prijs (overclockers verkoopt de MSI voor zo'n 238 pond).

M'n punt is, die prijs zakt nog wel naar een normaal niveau, dit zijn gewoon de webshops die wat extra winst willen pakken.
Op de dag van de launch en enkele dagen later kon je een 219 euro RX 480 kaart kopen welke flashable was naar een RX 480 8GB :D
De 9 serie van nvidia doet het niet goed in dx12. Maar de 10 serie kan prima mee komen in dx12.
nou nee, ook de 10 serie failt behoorlijk. alleen in de door nvidia gesponsoorde game tombraider kunnen ze AMD voor blijven op het zelfde prijs punt. elke andere low level API game wint AMD met gemak.

[Reactie gewijzigd door Countess op 22 juli 2024 23:20]

de review?

in hitman, warhammer en doom word de beduidend duurdere 1060 verslagen door de 480. alleen in de door nvidia gesponsorde tombraider kan de 10 serie AMD voor blijven.

en dan zijn gears of war en ashes nog niet eens meegenomen in deze review, die AMD ook wint.

en dan hebben we nog niet eens gekeken naar async, waar het beste dat van de 10 serie gezegt kan worden is dat ze niet langer performance verliezen als het aangezet wordt. alleen in time spy kan nvidia een bescheide winstje laten zien maar timespy heeft dan nauwelijks echte async, enkel context switching, wat nvidia wel kan... met de driver wat je terug ziet in de CPU scores die naar beneden gaan, terwijl geen enkele AMD daar last van heeft.
Hitman en ashes zijn beide games waar AMD qua development erg dichtbij bij staat. Dat is soortgelijk als the witcher op nvidia kaarten. Doom draait overigens alleen echt lekker onder vulkan. In opengl kakken ze keihard in.
Witcher zit vol Propriety Nvidia Gameworks crap. Dat is toch wel ff wat anders dan een van de eerste DX12 games meehelpen met de implementatie ervan. En aangezien AMD al sinds GCN 1.0 zijn architectuur klaar heeft voor een dergelijke API was het logisch om bij hen aan te kloppen.

Nvidia geloofd nog steeds heilig in een eeuwenoude architectuur die nu toch echt afgeschreven kan worden. Al zullen ze ongetwijfeld nog wel een tijdje met zakken geld strooien om dat te verlengen. (Zoals het door Nvidia gesponsorde Time Spy en z'n neppe implementatie van async)
Wat een onzin praat je nu. Amd teert juist enorm op de oude gcn technologie en moet het puur van raw power hebben. Nvidia is met enorme compressie technieken bezig geweest om met minder meer te doen. Vandaar dat ze ook zo zuinig zijn.
ROTR zou ik trouwens niet meerekenen voor DX12. Het is in essentie een DX11 spel in een DX12 wrapper
Doom is vulkan officieel niet ondersteund door de 1060. Warhammer dx12 was bugged as hell. Hitman zal ik zo nog even kijken. in mijn ogen een storm in een glas water wat mensen wel vaker last van hebben.

/edit alleen de 1060 heeft moeite met hitman. De 1070/1080 tonen prima scores. Even 1 a 2 driver versies wachten. En hij komt gewoon de 480 voorbij zoals de rest.

[Reactie gewijzigd door loki504 op 22 juli 2024 23:20]

Daarbij komt erbij dat je de 1060 niet in SLI (wat erg jammer is) kan zetten en bij de rx480 eventueel een ander rx480 kan aansluiten. Dus m.a.w. de 480 lijkt me wat meer future-proof. Voor mij betekent het gebrek van SLi support bij de 1060 toch een no-go, helaas.
True, maar ergens ook logisch. Hadden ze SLI ondersteuning gehad kocht niemand nog een 1080 natuurlijk.
Ja want dit is ook met de 960 gebeurt? Sli heeft veel nadelen. En is vrijwel alleen intresant als je in het hoog segment zit. Maar in laag/mid segment is sli onnodig.
Multi GPU opstellingen hebben vele nadelen en zijjn zelden aan te raden, of het nu in low of high end segment zit. Maar dat is het punt hier niet. Als goedkoop upgrade pad kan het wel interessant zijn
Uiteraard is sli af te raden. Alleen wil je sneller als een 1080. Is de enige mogelijkheid 2x1080.
Kom even snel uit het jaar 2005 naar 2016 m8. SLI en CFX opstellingen zijn prima voor 99% van alle games. Draai al jaren CFX en dat gaat soepel. Een betere reden om geen SLI aan te bieden zou zijn omdat in de toekomst net zoals bij CFX er geen bridge meer nodig is voor multi-gpu opstellingen. Sterker nog, DX12 heeft gewoon een api waarmee multii-gpu opstellingen out-of-the-box werken zonder driver instellingen. Kijk maar even hier: http://wccftech.com/micro...-multigpu-configurations/ of bijv. https://www.techpowerup.c...ulti-gpu-it-works-for-now Daaruit maak ik op dat je prima 2 x GTX1060 kan draaien en een behoorlijke performance gain hebt.. zolang het een dx12 game is etc etc. Als de optimalisatie op DX12 niveau gefixed kan worden scheelt dat wel aanzienlijke knaken voor zowel nVidia als AMD.

[Reactie gewijzigd door bille op 22 juli 2024 23:20]

maar in DX12 (en misschien ook Vulkan?) wordt multi gpu beter ondersteund
mogelijks valt dat probleem dus weg en wordt het dus wél interessant
(want 2x RX480 is veel goedkoper dan een GTX1080)
De 1060 verbruikt dan weer wat minder en is veel minder luid.
Iedereen weet dat AMD ref. coolers gewoon luid zijn. Maar wie koopt er ook ref.
Anoniem: 194860 @TWyk19 juli 2016 16:27
Idd.
Vind prijzen rond de 400 Euro eerlijk gezegd ook geen midrange prijzen.
Midrange zou tussen de 250 - 350 Euro max moeten zijn, alles daarboven is geen midrange. :)
Dat is meer het resultaat van de tekorten. (Al dan niet artificieel)

Als ze nou gewoon eens lekker gingen (of als iedereen 3 maanden geduld had) zullen beide kaarten wel een stuk beter geprijsd zijn denk ik. Nu kijk je tegen de gokjes van sales managers aan, die hopen even een 150% marge te halen.
Voor mij ook wel belangrijk, nu ben ik in de basis een console gamer dus met high end videokaarten doe ik niet mee. Toch is mijn 1Gb 7770 toe aan vervanging (om even aan te geven dat hij het voor mij tot nu toe goed deed).

De RX 480 was mijn eerste keus, nu na dit lezen is de 1060 ook niet verkeerd maar wel erg prijzig. Hij scoort dus blijkbaar een klein stukje beter (kort door de bocht) maar is bij 80 euro duurder. Hier ga ik er vanuit dat binnen enkele maanden de prijzen genormaliseerd zijn.

AMD zet hem in de markt voor 200 en hoger en Nvidia voor 280 en hoger. Voor mij is dan 80 euro een hoop als ik het niet zozeer terugzie. De high end gamer zal toch wel zijn neus ophalen en voor de 1070/1080 gaan. Stroomverbruik vind ik trouwens wel zeer netjes.
voorraad 0, voorraad leverancier 0
Ja en dat dan zal je even moeten wachten. Maar zullen gewoon voor die prijs moeten leveren.
Oplichters zaak?
Staat gewoon goed aangeschreven, ook hier op tweakers.
https://tweakers.net/shop.../sicomputers/shopreviews/
Heb anders nooit problemen mee gehad.
ik zie steeds duidelijker het voordeel van DX12 en Vulkan en het hogere potentieel dat AMD weet te bieden vs. de oudere API. Tuurlijk, Nvidia zal wel met een driver komen om het verschil kleiner te maken maar voelt toch een beetje als vastklampen aan oude techniek (CD en muziek, ook zoiets). Wat mij betreft tijd dat alle gameontwikkelaars zich puur gaan richten op DX12 en vulkan in plaats van het blijven oplappen van DX11 met drivers. Als Nvidia dan ook overstapt op nieuwe architectuur is daar iedere(en) (gamer) mee gebaat
Er zijn met DirectX 12 / Vulkan natuurlijk twee verschillende zaken aan de hand, en die moet je eigenlijk wel los van elkaar vergelijken.

Ten eerste is er het feit dat de API dichter bij de hardware zit. Hierdoor zou de overhead voor grafische taken minder moeten zijn dan met DirectX 11 of OpenGL, omdat de opdrachten simpelweg door minder lagen heen moeten gaan. Je moet hier echter wel rekening bij houden dat als je een zeer snelle CPU gebruikt, deze overhead toch al vrij klein zal zijn. Dit effect zal je veel meer merken als je bijvoorbeeld een sterke grafische kaart test op een vrij zwakke CPU.
Ik verwacht dat dit voordeel vergelijkbaar is op zowel Nvidia als AMD hardware, aangezien er eigenlijk alleen software lagen tussenuit geknipt wordt, en je voordeel krijgt doordat die zaken niet meer door de CPU heen hoeven.

Het tweede voordeel staat eigenlijk los van DirectX 12 of Vulkan, maar wordt er door mogelijk gemaakt, en dat is async compute. Daarmee kunnen bepaalde taken die voorheen sequentieel uitgevoerd werden, nu simultaan gedaan worden. Hier had ik laatst wel een interessant filmpje over gezien, hoewel ik niet echt weet hoe accuraat die was.

De strekking was, kort uitgelegd, het volgende. Relatief gezien heeft AMD hardware meer cores dan Nvidia hardware, en draaien die (relatief gezien dus) op lagere kloksnelheden. Omdat veel taken sequentieel uitgevoerd moesten worden met DirectX 11, waren er een hoop cores die niets konden doen op de AMD hardware. Met async compute vervolgens (mogelijk gemaakt door de low level access) kunnen veel van deze taken opeens wél parallel uitgevoerd worden, waardoor deze extra cores benut worden. Hierdoor krijgen AMD kaarten dus een boost. Echter aan de andere kant, omdat Nvidia kaarten minder cores zouden hebben, zijn die toch al die tijd al bezig, en zijn er eigenlijk geen (of in ieder geval minder) cores die niets zitten te doen.
Als, in een hypothetisch geval, alle cores voorheen al benut waren, heeft async compute zelfs extra overhead, omdat er nu een extra soort van scheduler tussen moet zitten.

Neem bijvoorbeeld dit theoretische geval. Stel een AMD kaart heeft 4000 cores waarvan er bij DirectX 11 maar 3000 benut worden. Met Direct 12 én async compute kan je die extra 1000 benutten, en heb je dus theoretisch zo'n 33% extra rekenkracht.
Als een Nvidia kaart dan 3200 cores heeft (die allen iets sneller zijn), en met DirectX 11 worden er ook 3000 benut, dan heb je met async compute er maar 200 bij (zo'n ~6% laten we zeggen).

Nu weet ik dus niet hoe accuraat dit is, en hoe dit in de werkelijkheid écht zit, maar het idee is wel belangrijk. DirectX 11 vs 12 is dus een compleet ander verhaal dan async compute uit vs async compute aan. En Nvidia zou wel eens niet veel sneller kunnen zijn met async compute dan zonder async compute, simpelweg omdat de hardware al volledig benut zou worden.

Om dit goed te bekijken, zou het dus interessant zijn om verschillende tests te doen. Zowel de top-end AMD kaart als de top-end Nvidia kaart met een vrij slechte CPU testen op DirectX 11 of OpenGL vs DirectX 12 of Vulkan zonder async compute. En een andere test (met een sterke CPU) op DirectX 12 of Vulkan met en zonder async compute, om dat geval in isolatie te testen.


Edit: filmpje ondertussen teruggevonden: https://www.youtube.com/watch?v=55sEPM7Ux-U

[Reactie gewijzigd door Rainbow op 22 juli 2024 23:20]

Je kan het ook anders zien. AMD heeft nooit alles uit dX11 weten te halen. Nvidia heeft dit wel altijd gekunt.

Betreft de nieuwe api's er is nogsteeds bar weinig materiaal om echt goed over te kunnen oordelen. De grote games die er zijn. Zijn vrijwel allemaal door AMD gesponsord (hitman, ashes of singularity, tomb raider).
Dat nVidia achterloopt op DX gebied is nou niet echt schokkend.

Dit is altijd zo geweest, vandaar was DX10 zou gestript van functies omdat nVidia hun zaken niet op orde hadden.
In DX11 en OGL zijn ze anders wel heer en meester.
Ik wacht wel op de rx480 aftermarket... als de huidige dx12 titels iets doen voorspellen zoals: warhammer,doom en hitman vs tombraider dan lijkt de rx480 aftermarket de sweetspot voor het midden segment is voor dx12 en vulkan titels die het komend jaar en de jaren daaropvolgend uitkomen.

[Reactie gewijzigd door HenkdeFries op 22 juli 2024 23:20]

NVIDIA zal vast niet stil gaan zitten als het op Drivers voor DX12 aankomt.
Klopt, dit is nvidia's software oplossing : Dynamic load balancing & Preemption
Dynamic load balancing
http://i0.wp.com/www.etek...ync-.jpg?resize=800%2C379

Preemption
http://i2.wp.com/www.etek...sync.jpg?resize=800%2C387

"Even with all of these additions, Pascal still won’t quite match GCN. GCN is able to run async compute at the SM/CU level, meaning each SM/CU can work on both graphics and compute at the same time, allowing even better efficiency."

"Nonetheless, Pascal is finally offering a solution with hardware scheduled async compute, bringing Nvidia closer to AMD. Either way, with both Nvidia and AMD working on async compute, developers are more likely to take notice and make sure our GPUs are fully utilized."

Source:
http://www.eteknix.com/pa...0-async-compute-explored/

[Reactie gewijzigd door HenkdeFries op 22 juli 2024 23:20]

Als ik kijk naar puntje 11. Prestatie-index, zijn jullie volgens mij de aller belangrijkste vergeten in het middensegment, namelijk de prijs/prestatie verhouding. Geen idee of dit bewust is gedaan of domweg een foutje maar bij de RX 480 review stond die grafiek er wel reviews: AMD Radeon RX 480: CrossFire, VR, DX12 en overklok getest

Het lijkt me dat je met onderstaande data toch de benodigde doorslaggevende grafieken kan berekenen en van daar uit ook een echt advies kan geven welke kaart je nu dient aan te schaffen?
De door ons geteste Founders Edition is helaas alleen in de Nvidia-webshop in Frankrijk, Groot-Brittannië en Duitsland te krijgen, en zal daar 319 euro kosten, terwijl de overgeklokte MSI volgens de fabrikant een adviesprijs van 369 euro meekrijgt
Hint: AMD is hier aan de leiding
Het lijkt me dat je met onderstaande data toch de benodigde doorslaggevende grafieken kan berekenen en van daar uit ook een echt advies kan geven welke kaart je nu dient aan te schaffen?
Nee want de prijzen zijn nog niet echt stabiel.
Ik zou graag de performance per watt grafieken zien. Dan kan je ook echt advies geven over welke kaart je dient aan te schaffen.

Hint: NVIDIA is hier aan de leiding.
Nee want de prijzen zijn nog niet echt stabiel.
Dit was nochtans geen probleem bij de 480 launch. De prijs/performance werd zelfs in een nieuwsbericht aangehaald met de 'verkeerde' prijzen. Dit is echt meten met 2 verschillende maten op deze manier.

Ik bedoel: kijk naar de launch prijs van bv. de MSI gamging:
pricewatch: MSI GeForce GTX 1060 Gaming X 6G

379 kost hij nu aan keiharde euro's vs 275 euro voor de RX 480 8GB. Op basis daarvan kun je gerust stellen dat de prijs/performance bar slecht is, en de gamers die op 1080p wensen te gamen beter de 480 (4gb eig) kunnen aanschaffen.

Als je dit in een grafiek giet gaat Nvidia af als een gieter en zijn ze duidelijk de verliezende partij.
Ik zou graag de performance per watt grafieken zien. Dan kan je ook echt advies geven over welke kaart je dient aan te schaffen.
Performance/Watt is leuk, maar niet beslissend in dit segment (en volgens mij bijna nooit buiten de server markt). Je gaat echt niet honderd euro extra uitgeven om enkele watts te besparen. Koop dan een efficiëntere voeding, die kan je tenminste meenemen naar je volgende systeem.
voor ongeveer die prijs kan je een rx480 kopen of een r9 390X
We hebben dat inderdaad de vorige keer gedaan, maar de prijzen schommelden de eerste dagen enorm, waardoor je die indexen eigenlijk niet goed kon gebruiken. Ook nu nog zien we dat de prijzen erg variabel zijn en - vooral nu er weinig voorraad is - weer omhoog gaan. Vandaar dit keer geen prijs/prestatie-index.
Dan zou ik toch een serieuze waarschuwing verwachten om de kaart uit jullie review (MSI gaming) niet te kopen vanwege de te hoge prijs Momenteel. Het is mogelijk dat hij nog gaat zakken, maar dat geld voor alle kaarten.

Daarbij vind ik dat Nvidia hun claims met prijzen 'vanaf' eerlijk gezegd onzin. Je komt het overal tegen in nieuwsberichten en reviews, maar de realiteit is gewoon anders. Dat mag toch vermeld worden in de review, of dat kan alleen bij AMD?

Zie ook de minpunten bij de andere grote reviews hier op Tweakers van Foritein en TERW_DAN
pricewatch: MSI GeForce GTX 1060 Gaming X 6G

Zijn jullie van plan om over 2 weken dan wel een dergelijke vergelijking te publiceren voor de prijs/performance per resolutie? Dan kan het op deze manier recht gezet worden. Nu is het een groot 'happy' verhaaltje maar het pijnpunt, prijzen en beschikbaarheid worden vermeden imo.
Op het moment dat de review online gaat weten wij nog niks, enkel de adviesprijzen van Nvidia en soms een adviesprijs van een fabrikant. Winkels bepalen echter weer zelf wat ze voor een kaart vragen. We zouden de review na publicatie kunnen updaten, maar uit ervaring weten we dat de prijzen behoorlijk schommelen, dus dan zouden we in de dagen na release dagelijks het artikel bij kunnen werken. Daar wordt het niet duidelijker op.

Als de custom versies van de GTX1060 en RX480 - toch de versies die de meesten zullen kopen - een beetje goed beschikbaar zijn, zullen we die tegen elkaar afzetten. Tegen die tijd zullen de prijzen hopelijk wat gestabiliseerd zijn zodat je goed kunt zien welke kaart de meeste performance voor je euro's geeft.
De X (performance) blijft gelijk, terwijl de Y (prijs) variabel is, dit moet toch wel een dynamische tabel te verwerken zijn? Met de BBG heb je bijvoorbeeld ook een prijs op moment van publicatie en een prijs real time uit de PW opgehaald.
een en ander moet dan toch te koppelen zijn en X per Y is Z.

Ik vind het een beetje Tweakers onwaardig om excusen te zoeken om iets niet te doen, dan te kijken wat mogelijk is.
hopelijk komt die er nog bij, want zelfs als je nog maar af gaat op de adviesprijzen, dan zie je de RX480 helemaal naar de kop van het pak schieten.
Mooie kaart en een goede insteek in de huidige markt lijkt me. Echter wat ik niet aan die prijzen snap is hoe nvidia hierin aan het schalen is gegaan.

Toen ik mijn GTX770 kocht heb ik daar €322 voor betaald. Toen vond ik dat een extreem dure kaart voor toch wel behoorlijk zo niet hele goede prestaties. De opvolger GTX970 was alweer wat duurder, maar met ~€380 vond ik dit nog begrijpelijk, ook gezien de inflatie ed. Maar op dit moment zie ik de gtx1070 (logische opvolger van de 970) voor >€500, en de GTX1080 is met ruim €800 helemaal onbetaalbaar.

De GTX1060 bied dezelfde prestaties als een GTX980 en heeft de prijs van mijn (toen nieuwe) GTX770. Is Nvidia hier nu aan het schuiven met hun producten. Wellicht dat iemand hier een goede uitleg voor kan geven.
Aantal redenen die ik kan bedenken:

1. Adcocaat van de duivel argument: Weinig concurrentie in het high-end segment, Nvidia kan flink verdienen op de early adopters.

2. In a perfect world argument: Nieuw productie procedé van 16nm finfet, hierdoor slechte yields en hoge R&D kosten die terugverdient worden.

3. De euro-dollar is in ongeveer 2 jaar tijd volledig naar beneden gekelderd, dit heeft de europrijzen helaas relatief hard doen stijgen.

4. De 1070 lijkt een logische opvolger van de 970 qua naamgeving maar is dit in verhouding natuurlijk niet. Voordat Pascal uit kwam was je dik €700 kwijt voor een 980 ti. Nu heb je voor ongeveer €500 een 1070 met 980 ti prestaties voor een lager bedrag met minder verbruik.

Dit is hoe ik er over denk in ieder geval. De prijzen voor de 1080 vind ik wel belachelijk en die hele 'founders edition' mag ook direct opdoeken. De 1070 zou mooi in balans zijn voor een bedrag van €430 a €450 in mijn ogen. 1440p, waar ik op game, is wel een stuk betaalbaarder geworden dan :)
4. De 1070 lijkt een logische opvolger van de 970 qua naamgeving maar is dit in verhouding natuurlijk niet. Voordat Pascal uit kwam was je dik €700 kwijt voor een 980 ti. Nu heb je voor ongeveer €500 een 1070 met 980 ti prestaties voor een lager bedrag met minder verbruik.
Zo werkt dat natuurlijk niet. Als dat de gang van zaken was, zaten we inmiddels op GPU's van €9999, want er zijn meer dan eens nieuwe generaties geweest die de prestaties van de vorige generatie bijna verdubbelden.

Dat is wel hoe Nvidia het met Maxwell en Pascal in de markt zet, maar de 1070/1080 zijn gewoon de opvolgers van de 970/980. Naamgeving van zowel de kaart als de chip en de die size laten dit zien.

Volgens jouw logica had de 8800 GTX geen voorganger, aangezien zelfs 2 7900 GTX'en in SLI die niet bij hielden. Dan had de 8800 GTX dus makkelijk €1100 moeten kosten. Een GTX 280 had dan wel €1600 ofzo mogen zijn. Een GTX 480 dan weer makkelijk zo'n €3000.

Een 1060, 1070 en 1080 volgen gewoon de 960, 970 en 980 op. En dit zijn op hun beurt de opvolgers van de 560 Ti en lager.

[Reactie gewijzigd door Werelds op 22 juli 2024 23:20]

Dit is dus precies wat mijn gevoel ook was. Nvidia plaatst qua prijzen de GTX1070 in de markt als een GTX980, tuurlijk presteren ze nagenoeg hetzelfde omdat de chips beter worden, maar een echt alternatief aan de onderkant komt er dus niet bij. Of gaan ze straks een "GTX1040" uitbrengen die de specs van een GTX950 moet vertegenwoordigen? "De prijzen laten het hier mijn inziens namelijk op lijken"

[Reactie gewijzigd door GLR89 op 22 juli 2024 23:20]

Indien de 1060 ietwat genegeerd word en men daadwerkelijk overstapt op de rx480 dan zullen de prijzen terug wat worden gelijkgetrokken imo.

Alleen spijtig dat deze laatste vaker dan niet een €40-€60 duurder uitvalt bij de shops die er wat winst op willen pakken. Denk niet dat AMD het zich kan veroorloven om ze op de vingers te tikken en levering kan weigeren.

En daarbovenop nu nog een review van een custom OC 1060 waar mensen (nog) geen cijfertjes kunnen zien van een custom rx480.
Allemaal leuk en wel, maar ik ben bang dat die adviesprijs van rond de 280 euro, vanwege de tekorten en generale nederlandse naaierij, eerder iets van 350+ euro gaat worden hier. :/
De prijs-prestatie verhouding zal inderdaad alles bepalend worden. Nog even wachten en dan de conclusie trekken denk ik dan maar.
Precies wat je zegt. Ik hoor verhalen van 280 euro tot prijzen richting de 400 euro, dat zegt nogal wat over hoe interessant een GTX 1060 is / gaat worden. Daarnaast houdt het bij AMD ook niet over wat beschikbaarheid (zeker aftermarket) of prijzen betreft, dus het is allemaal nog een beetje afwachten. En ook zoals je zegt, het is daardoor heel lastig om nu een conclusie te trekken alvorens we ook nog maar in de glazen bol hebben gekeken wat DX12 enzo betreft, pfff.
Ik zie op Amerikaanse websites dat de prijs tussen de 260 en 320 dollar (http://www.newegg.com/Pro...00403&Tpk=N82E16814500403) ligt.
Plus import/btw, dan zou 280-350 wel een richtlijn moeten zijn. Prijzen die je nu ook bij caseking ziet staan voor tal van 1060's.
Dat vind ik toch geen mid-range prijzen meer hoor maar wel high-end. De reviewer vind deze prijzen te rechtvaardigen vanwege de goede prestaties, ik niet. De prijzen van de RX480 gaan sowieso lager liggen en meer aanleunen bij de mid-range.
Je geeft het zelf al een beetje aan.. 'gaan liggen'. Het is echt nog afwachten, want op dit moment zie ik ook geen RX 480 kaarten voor minder dan 300 euro leverbaar.

Als 280 eur al echt buiten je budget zit zal je nog heel even moeten wachten, de kans dat er spoedig een RX 470 en/of een GTX 1050 zullen volgen lijken mij wel aanwezig.
Interessante opmerking!
Ik dacht dat dit voor zij die nVidea prefereren, niet bijzonder relevant was.
Is dat veranderd of eerder omdat het nu goed uit lijkt te komen, wat denk jij?

Op het gebied van de prijs prestatie verhouding was AMD toch lang koning?

[Opgepast, na deze zin volgt een mening.]
Voor mij geen nVidea ever ;) Ze verk*er de markt door computer spellen fabrikanten te sponsoren als zij toevallig hun spel afstellen op nVidea only blabla. Op zich geen probleem!
- behalve als het gros van de gamers hier door aanneemt dat nVidea per definitie beter is met alle gevolgen van dien..

Daar komt bij dat het de concurrentie belemmerd in de ICT markt.
Ik dacht dat dit voor zij die nVidea prefereren, niet bijzonder relevant was.
*NVIDIA

[Reactie gewijzigd door aval0ne op 22 juli 2024 23:20]

Alternate durft gewoon bijna dik 400 euro te vragen azerty doet het iets netter
Alternate is altijd al verschrikkelijk duur.
Ze zijn na mijn idee duurder geworden nadat ze stofzuigers en andere onzin zijn gaan verkopen
Wat mij meteen opvalt is de smalle bus en de beperkte bandbreedte. In de review van techpowerup zie je dat het verschil tussen de GTX 1060 en de R9 290X op 1920x1080 15 procent is in het voordeel van de GTX 960 en op 4k is dat maar 2 procent. Nu lijkt het geheugen wel aardig overklokbaar maar op hoge resoluties zou ik niet zomaar deze kaart aanbevelen.
Dat zegt mogelijk meer over de 290X dan de 1060. Als ik naar mijn benchmark resultaten kijk tussen de nieuwere RX48 en de GTX 1060 (en dan enkel die op hoge instellingen) dan zie ik diezelfde 15-20% winst op 1080p terugkeren op 1440p en 4K. Dat is dus wel met een factory-oc GTX 1060 vs de reference RX 480 (dat is wat ik nu eenmaal heb liggen), maar zonder noemenswaardige memory clock boost, en gezien de onderlinge verhoudingen niet echt een indicatie dat 'de bandbreedte' een echte rol speelt.

Daarbij is 4K gaming sowieso behelpen met alles minder dan een GTX 1080, maar het nut van 4K is een andere discussie :D

[Reactie gewijzigd door Foritain op 22 juli 2024 23:20]

Op dit item kan niet meer gereageerd worden.