Door Jelle Stuip

Redacteur

AMD Radeon R9 Fury Review

Meer bang-for-buck dan zijn grote broer

Conclusie

De R9 Fury is het kleine broertje van de Fury X, dus het ligt voor de hand om de videokaart allereerst tegen het topmodel af te zetten. In die strijd blijkt de Fury zich goed tegen de Fury X te kunnen weren. Gemiddeld gezien is de Fury in onze benchmarks ongeveer zes procent langzamer dan de Fury X, maar als we uitgaan van AMD's adviesprijzen is de Fury X wel achttien procent duurder. Tel daar bij op dat je met een lichte overklok al in de buurt van de prestaties van de Fury X komt, en de Fury vormt een geduchte concurrent voor AMD's eigen topmodel.

Maar, de concurrentie komt natuurlijk niet alleen uit eigen stal. AMD positioneert de Fury tegenover Nvidia's GTX 980 en dat is vanuit AMD geredeneerd een goede keuze, de Fury is namelijk gemiddeld gezien sneller dan de GTX 980. Dat verschil neemt toe als je de resolutie opvoert, op full hd is het verschil namelijk klein, maar op 2560x1440 is de Fury ruim zeven procent sneller en op 3840x2160 ongeveer dertien procent.

De Fury is echter niet goedkoop. Ga je uit van de adviesprijs van 550 dollar, dan kom je omgerekend en inclusief btw op 600 euro uit. Dat is een stuk meer dan een GTX 980, die voor ongeveer 530 euro in de Pricewatch staat. Bovendien kost de Asus-variant die wij testten bij de paar webwinkels die de kaart al aanbieden maar liefst 669 euro. Nu zullen die prijzen in de komende weken ongetwijfeld nog zakken, maar het lijkt onwaarschijnlijk dat de prijzen zo ver zakken dat de Fury wat prijs betreft in de buurt van de GTX 980 komt, zeker als we het prijsverloop van de Fury X als indicatie gebruiken. Die kaart heeft omgerekend een adviesprijs van ongeveer 700 euro, maar kost drie weken na het uitbrengen nog 750 euro.

Voor games op lage resoluties zoals 1920x1080 pixels is het prijsverschil op dit moment zo groot dat de Fury niet echt concurrentie tegen de GTX 980 kan vormen, ook al is de nieuwe AMD-kaart iets sneller. Op hogere resoluties verandert dat verhaal en doordat de Fury met een kleine overklok al dicht bij de prestaties van de Fury X in de buurt komt zien we de Fury vooral in combinatie met een 1440p- of 4k-scherm goed tot zijn recht komen.

Reacties (180)

Wijzig sortering
Allergrootste nadeel van Fury X is de rare minimum framerates. Een ronduit ridicule test met 3x 4K resolutie gaming van Tweaktown: http://www.tweaktown.com/...ty-11-520x2160/index.html

Deze test gaat over Fury X en 980Ti maar kunnen ook redelijkerwijs aan de non-X worden toegeschreven (Denk gewoon een paar procenten minder)

Ten eerste zijn ze allemaal op medium getest, en bovendien praten we over setups welke alleen toegeschreven kunnen worden aan 0.01% van alle gamers. Het punt wat dus gemaakt wordt is dus vrijwel hypothetisch te noemen en de meeste gewone mensen gamen niet op deze manier.

Battlefield 4, Medium:
Fury X Crossfire: 52 fps/70 fps (Min/Avg)
980 Ti SLI: 37 fps/60 fps (Min/Avg)

Conclusie: Hier wint Fury X, hoewel beide setups prima framerates neer zetten, heeft de Fury X een veel hoger minimum framerate.

Metro: Last Light, Medium:
Fury X Crossfire: 7 fps/39 fps (Min/Avg)
980 Ti SLI: 8 fps/40 fps (Min/Avg)

Conclusie: Beide kaarten ontlopen elkaar niet, maar de minimum framerates zijn slideshow niveau. Beide setups hebben het lastig, toch wint Nvidia's setup hier, al maakt 1 frame vrij weinig uit. Gelijkspel.

Shadow of Mordor, Medium:
Fury X Crossfire: 13 fps/50 fps (Min/Avg)
980 Ti SLI: 25 fps/44 fps (Min/Avg)

Conclusie: Op gemiddelde framerates wint Fury X dit, echter is de minimum framerate schokkend te noemen, met een onspeelbare 13 fps. Nvidia doet het hier veel beter door een quasi-speelbare 25 fps te klokken. In de praktijk zal je van 6 frames verschil niet veel uitmaken, dus dit noem ik een gelijkspel.

Thief, Medium:
Fury X Crossfire: 7 fps/45 fps (Min/Avg)
980 Ti SLI: 28 fps/42 fps (Min/Avg)

Conclusie: Tja. Gemiddelde framerate is Fury X weliswaar beter, maar 980 Ti doet vrijwel niets onder. Wel weer opvallend is de ronduit schokkende minimum frame rate: Slideshow bij Fury X, terwijl 980 Ti een speelbare ervaring neer zet. Voor de meest consistente ervaring ben je bij Nvidia wel aan het betere adres. Nvidia wint dus.

Tomb Raider, Medium:
Fury X Crossfire: 51 fps/70 fps (Min/Avg)
980 Ti SLI: 60 fps/73 fps (Min/Avg)

Conclusie: Tomb Raider is geen loeizware game, wat ook wel blijkt uit de scores. Beide setups scoren ruim voldoende voor een speelbare ervaring. Wil je echter 60 fps zonder dips consistent gamen, dan is Nvidia de betere keus. Voor het gemak een gelijkspel.

Bioshock Infinite, Medium:
Fury X Crossfire: 14 fps/57 fps (Min/Avg)
980 Ti SLI: 17 fps/45 fps (Min/Avg)

Conclusie: Duidelijk verhaal. Hoewel beide setups dramatisch scoren op minimum framerates is de Fury X een stuk beter op het gemiddelde, waar bijna 60 fps wordt gehaald. Nu is Infinite geen zware titel, maar toch. Clear win Fury X.
Eindresultaat::
Gelijkspel: 3 keer (Metro: Last Light, Shadow of Mordor, Tomb Raider)
Fury X win: 2 keer (Battlefield 4, Bioshock: Infinite)
980 Ti win: 1 keer (Thief)

Eindconclusie:
In de praktijk ontlopen beide platformen elkaar niet zoveel. Op gemiddelde framerates is de Fury X een betere optie dan Nvidia's setup. Wat echter wel opvallend is, zijn de minimum framerates. AMD's setup valt hierin terug naar slideshow waarden op bepaalde games, terwijl Nvidia nog quasi-speelbare framerates op het scherm weet te toveren.

Waar dit aan ligt? Dit kan van alles zijn. Slechte drivers vind ik nogal zwak als argument daar de titels waar het om gaat al een tijdje uit zijn. Geheugen? Dat zou kunnen. Het is mogelijk dat bepaalde secties van de benchmark de 4 GB doen choken en 6 GB net die extra ruimte geeft om door te runnen. Dat weet ik niet. Wel is het zo (En dat laat het eindresultaat niet zien) dat de Nvidia setup over het geheel wel een stuk constanter is, met slechts 2 games die qua minimum framerates onspeelbaar zijn tov 4 games voor de Fury X setup. Daar zit naar mijn mening het verschil tussen 4 GB en 6 GB. Toch moet je het AMD nageven dat het uitzonderlijk knap is wat ze hier doen. Tegelijkertijd wil ik wel benadrukken dat dergelijke setups alleen voor de echte diehards zijn die makkelijk 5K willen ophoesten voor een dergelijke setup. In de realiteit zijn dergelijke waardes onnozel te noemen.

Betreffende de 3D Mark tests:

Dit is logisch, HBM is een stuk effectiever dan GDDR5, tot het punt dat zelfs Titan X hardware wordt verslagen. Tegelijkertijd roept dit ook vragen op: Hoeveel VRAM wordt er nu werkelijk gebruikt op BS resoluties zoals 8K? Gezien de winst van Fury X is geheugenbandbreedte en bus duidelijk de oorzaak, niet het hoeveelheid geheugen zelf. Dit geldt wel voor een synthetische benchmark. Kijk je vervolgens naar de game performance (Zie hierboven), dan kleurt het enigzins anders.
Doe die CF test over een paar maanden nog een keer en de minimum framerate zal wel meer in lijn liggen en naar verhouding gewoon kloppen met de max...

Een nieuwe kaart met een nieuw ontwerp, dan weet je bij (ATI)AMD gewoon dat je nog maanden kan wachten tot het met CF goed gaat werken.

Echter gaat het in de review van tweakers helemaal niet om CF, mogelijk dat ze dat later nog gaan testen en tot dezelfde conclusie komen, maar niet iedereen die en videokaart koopt is er van plan 2 te kopen...

[Reactie gewijzigd door watercoolertje op 14 juli 2015 16:31]

Maar daar zit imo ook de steek. De titels waar de minimum framerate zo laag ligt, zijn allemaal titels die al een tijdje uit zijn. Zou de Fury driver dusdanig verschillen met de overige Radeons dat dergelijke problemen opduiken? Daarom denk ik ook dat het niet een driver issue is, maar dat er ergens toch een choke point gehaald wordt.

Uiteraard ben ik het met je eens dat dergelijke setups niet representatief zijn voor de ''gewone'' gamers.
Een nieuwe kaart met een nieuw ontwerp, dan weet je bij (ATI)AMD gewoon dat je nog maanden kan wachten tot het met CF goed gaat werken.
Dit wordt altijd gezegd als excuus voor slechte resultaten maar in praktijk komen die mirakeldrivers nooit.
En AMD heeft de launch van de Fury enkele keren uitgesteld. Dus ze hebben al wel wat tijd gehad om aan de drivers te werken. Zeker met de prestaties van de Titan X voor ogen, wisten ze sinds begin dit jaar al op welk niveau ze moesten mikken.
Daar ben ik het absoluut niet mee eens.
Alleen duurt het erg lang voor ze echt goed zijn.
Waar ik mij vaak aan stoor is dat beide gpu bakkers vaak als de kippen erbij zijn om te proberen de nieuwste spellen goed te ondersteunen
Maar daardoor dan weer de oudere spellen vaak weer in de problemen komen.
Ik heb hier nog een machine staan met 2 x 7970 kaarten met de laatste drivers werkt het ding perfekt en behoorlijk rap. Soms zelfs zo rap dat ik heel vaak denk 1 keer een klik te hebben gegeven maar er meerdere keren een programma word gestart.
En al mijn spellen draaien als een zonnetje op deze wat oudere machine, soms zelf veel beter dan op de nieuwe machines. Ondanks de zogenaamd betere hardware.
Dit komt gewoon omdat in mijn visie deze drivers inmiddels perfect zijn en CF zover ik heb kunnen ontedekken inmiddels foutloos draait.
Daarom verwacht ik dat ook voor de fury kaarten het even zal duren voor ze echt goede drivers hebben. Want het is nu eenmaal onmogelijk voor elke fabrikant om rekening te houden met alle verschillende hardware configuraties.
Wij geven vaak de schuld aan 1 onderdeel maar er zijn zo verschikkelijk veel factoren van belang dat je door de bomen het bos niet meer ziet.
Bij een kennis heb ik altijd afgevraagd waarom hij met exact dezelfde video kaarten zijn systeem trager en hakkelig overkwam tot ik mijn geheugen in zijn machine stak. Mijn 1866 Mhz liep beter dan zijn 2133 Mhz geheugen. Volgens msi door timing problemen... of dit wel of niet klopt blijft koffiedik kijken. Maar wij gaan voor het makkelijke want je pc is prima toch de videokaart driver deugt niet :D
Ik wil niet veel zeggen maar de laatste drivers voor de 7970 lopen als een zonnetje voor mij. Iedereen vergeet dat nvidia heel wat meer geld heeft om aan ontwikkelaars te besteden dan AMD. Ja het duurt lang voor de drivers goed zijn, maar als je daarmee beweert dat nvidia perfect is, dan kan ik je vertellen dat je droomt.
Ik heb al sinds het uitkomen van de 9xx serie problemen met de drivers voor de gtx780.
Deze machine draait ronduit belabberd en heb er zelfs antieke drivers op moeten zetten om het speelbaar te houden. De oude 7970 laat de nvidia nu ver achter zich zowel met spellen als desktop. Dus een dik applaus voor nvidia dat ze hun eigen kaarten verkloten
Shadow of Mordor, Medium:
Fury X Crossfire: 13 fps/50 fps (Min/Avg)
980 Ti SLI: 25 fps/44 fps (Min/Avg)

Conclusie: Op gemiddelde framerates wint Fury X dit, echter is de minimum framerate schokkend te noemen, met een onspeelbare 13 fps. Nvidia doet het hier veel beter door een quasi-speelbare 25 fps te klokken. In de praktijk zal je van 6 frames verschil niet veel uitmaken, dus dit noem ik een gelijkspel.
25-13 = 12
maw, 980 Ti SLI presteert onder deze omstandigheden dubbel zo goed. Het verschil tussen 48 en 60 is amper zichtbaar in vergelijk met 13 -> 25 fps.

Deze setups zijn ook zo verschillend, je vergelijkt een dual core met een single core.
Ik keek naar de Average framerates (Welke 6 is) maar ik bedoelde dus inderdaad 12. Foutje bij het typen, bedankt!

Het verschil tussen 60 fps en 48 is echter best aanzienelijk. Bij 60 fps hou je een vloeiende ervaring, bij 48 fps zal er, omdat het een onregelmatige framerate betreft, er toch stotter op treden.

Blijft uiteraard wel zo dat beide setups elkaar nauwelijks ontlopen over het geheel heen.
Maar voor die vloeiende ervaring heb je minimaal 60 fps nodig. Als het gemiddeld 60 fps is dan schokt het nog steeds het grootste deel van de tijd. Tenzij je gsync/freesync hebt natuurlijk, en dan maakt het weer niet zo gek veel uit.
Of locken op 30 fps. Je wilt inderdaad dat het een of het ander is. Of 30, of 60 fps. Daarom zal dergelijke eisen ook behoorlijk wat van je GPU vragen.
Ik geef om die reden vaak de voorkeur aan het uitschakelen van bijvoorbeeld anti aliasing, ik heb liever stabiele framerate dan een jaggie minder.
Dat is uiteraard een optie daar AA en AF geaccepteerde performance opties zijn.

Ik word vooral niet vrolijk van vendor-only grafische snufjes die bewust brak zijn op de tegenpartij. Concurrentie moet juist samenwerken, ipv elkaar als schooljochies te pesten.

Maar dit is wel behoorlijk offtopic meen ik zo :P
Concurrentie moet juist samenwerken
Dat is een contradictio in terminis :)
Hoeft niet perse. Concurrenten kunnen met elkaar samenwerken om nieuwe innovaties in hun vakgebied mogelijk te maken.

Is niet eens zo raar als het lijkt overigens. Microsoft heeft Apple ook wel eens geholpen, en vice versa.
Microsoft en Apple zijn niet echt concurrenten. Sterker nog, Apple heeft Microsoft zelf opgezocht toen ze de Mac ontwikkelden, omdat ze applicaties wilden hebben.

Directe concurrenten als AMD en nVidia werken meestal alleen samen als er een of ander comite achter zit, zoals bv met OpenGL of DirectX. Dat doen ze niet uit zichzelf, maar meer uit noodzaak.
Het zijn slechts 2 van de grootste IT bedrijven in de wereld, maar ja.
Punt blijft dat concurrenten ook elkaar kunnen helpen. En het zou misschien mooi voor gamers zijn als Nvidia en AMD dat ook eens deden. Gewoon, omdat het kan.

Dat zou op zichzelf al beter zijn dan dat eeuwige vendor pesten.
Het zijn slechts 2 van de grootste IT bedrijven in de wereld, maar ja.
Ja, maar Apple is een hardware-bedrijf, en Microsoft is een software-bedrijf (hoewel er bij beiden wat crossover is).
Voor Microsoft is het gewoon interessant om bv Office for Mac te leveren, want daar verdienen ze gewoon goed aan (er zijn ook niet echt concurrenten op de markt).
En voor Apple is het ook interessant natuurlijk, dat je op de Mac gewoon een Office hebt die (min of meer) compatible is met MS Office op Windows.
In dit geval worden beide bedrijven er beter van.

Bij nVidia en AMD gaat samenwerken niet op die manier. Ze doen namelijk precies hetzelfde, en richten zich op precies dezelfde markt.
Er zijn vast voldoende mogelijkheden te verzinnen. Industry standard Voxel GI of hybrid rendering zoals Imagination dat doet met rasterization en raytracing.

Anyhow, dat is een onderwerp voor een andere discussie, bij een ander nieuwtje :)
Er zijn vast voldoende mogelijkheden te verzinnen. Industry standard Voxel GI of hybrid rendering zoals Imagination dat doet met rasterization en raytracing.
Daar hebben we al DX12 en OpenGL voor.
Geen hybrid rendering van rasterization en raytracing en VXGI is Nvidia developed. Geen idee of dat op AMD hardware werkt.
Je moet algoritme scheiden van technologie. VGXI is iets dat geimplementeerd is bovenop DX11.3/DX12_1.
Iedere kaart die DX11.3/DX12_1 kan, die kan ook iets als VXGI. En iedere ontwikkelaar kan met de DX11.3/DX12_1-API iets als VXGI bouwen. Voor OpenGL zijn er ook extensies voor: https://www.opengl.org/re...V/conservative_raster.txt

Dat werkt nog niet op AMD hardware, maar ooit zal AMD ook die features implementeren. Het is immers de standaard.
Feit blijft dat Nvidia/AMD best wel wat meer mogen samenwerken. Daarvan heb ik nu voldoende voorbeelden van gegeven. Helaas zie ik in het laatste gedeelte een dig naar AMD. Ik wens dan ook deze discussie niet verder te voeren (Naast dat het anders wel erg offtopic wordt).
Helaas zie ik in het laatste gedeelte een dig naar AMD.
Volgens mij zie je spoken.
Ik constateer alleen dat AMD nog geen DX12_1/DX11.3 implementeert, dus je kunt nog geen VXGI doen (wat trouwens on-topic is, gaat over de features van de gereviewde kaarten).
Maar, en dat lijkt me positief, ik zeg dat AMD die features wel gaat implementeren.

[Reactie gewijzigd door Anoniem: 471038 op 14 juli 2015 22:41]

Ik constateer dat je dit al vaker hebt gezegd. VXGI is Nvidia only en ik zie liever bijvoorbeeld dat ze zoiets gaan oppikken wat Imagination doet.

Wil je hier meer over debateren, dan kan dat in een PM. Elke volgende reactie van jouw kant in dit topic zal ik daarom ook negeren.
Ik constateer dat je dit al vaker hebt gezegd. VXGI is Nvidia only en ik zie liever bijvoorbeeld dat ze zoiets gaan oppikken wat Imagination doet.
VXGI is een implementatie van nVidia, maar zoals al gezegd, de onderliggende hardware-features zijn gestandaardiseerd in DX12_1.
Waarschijnlijk zal VGXI ook wel op andere GPUs werken (maar vooralsnog zijn er geen andere GPUs die DX12_1 ondersteunen, dus dat weten we pas als die er zijn), met bv Hairworks is dat ook het geval. Dat is standaard DX-code.

Daarnaast snap ik niet wat je bedoelt met je referentie naar Imagination. In mijn beleving werken ze niet op een andere manier.

[Reactie gewijzigd door Anoniem: 471038 op 14 juli 2015 23:19]

Het lastige in de game rendering industrie is dat nVidia en AMD zichzelf als technologieleider beschouwen (in het midden latend wat hierin de technologische waarheid is). Dergelijke marktpartijen hebben blijkbaar moeite een veelbelovende technologie van de andere partij als veelbelovend te beschouwen en als standaard te verheffen.

Ik zou het interressant vinden als game makers zich zouden terugtrekken op de implementatie van de kale OGL en DX standaarden om zo het initiatief meer naar zichzelf toe te trekken. GPU bouwers moeten zich dan weer meer richten op een goede implementatie van deze interfaces, die eigenlijk als stand van techniek, i.e. Standaard zijn te beschouwen.

Technologie ontwikkeld zich dan misschien minder snel omdat de ontwikkeling van deze interfaces altijd na ijlt op de technologische druk van de industrie. Het voordeel is wel dat technologie meer volwassen is bij implementatie.

[Reactie gewijzigd door teacup op 15 juli 2015 07:22]

Dergelijke marktpartijen hebben blijkbaar moeite een veelbelovende technologie van de andere partij als veelbelovend te beschouwen en als standaard te verheffen.
Het probleem hier is dat als een fabrikant met iets nieuws komt, dat dat toegespitst is op zijn eigen hardware.
Dit is vrijwel nooit optimaal voor de hardware van de concurrent.
Vandaar dat je een bemiddelaar als Microsoft of Khronos ertussen wil hebben die de belangen van meerdere fabrikanten tegen elkaar afweegt, en zo een standaard formuleert die voor iedereen acceptabel is.

Daarnaast loop je dan niet tegen mogelijke problemen aan dat een fabrikant ervoor zorgt dat een nieuwe versie van een API ineens niet meer werkt op hardware van andere fabrikanten, om wat voor reden dan ook.
Ik zou het interressant vinden als game makers zich zouden terugtrekken op de implementatie van de kale OGL en DX standaarden om zo het initiatief meer naar zichzelf toe te trekken.
Ik denk dat je een verkeerd beeld hebt. OGL en DX zijn het *gevolg* van wat de fabrikanten aandragen aan nieuwe technologie. Het is niet zo dat MS of Khronos zelf nieuwe grafische features bedenken. Dat kunnen ze ook niet, want het zijn zelf geen GPU-ontwerpers, en ze kunnen moeilijk inschatten wat wanneer haalbaar is qua hardware-ondersteuning. Daar hebben ze de GPU-ontwerpers voor nodig.
Dergelijke marktpartijen hebben blijkbaar moeite een veelbelovende technologie van de andere partij als veelbelovend te beschouwen en als standaard te verheffen.
Dit is inderdaad waar. En dat doen ze niet alleen naar elkaar, maar ook collectief. Imagination (o.a van PowerVR) heeft al een tijdje de Wizard GPU, die hybrid rendering aanbiedt van traditioneel rasterizing en real time raytracing middels een eigen RTU (Ray Tracing Unit) en API (OpenRL). Ze hebben daarbij een versie van de Unity Engine die deze hardware ondersteunt.

Je hoort er niets over van Nvidia of AMD. Waarom niet? Just met hun hulp (Aangezien het de enige 2 grootmachten zijn op videokaartgebied) zou je dergelijke technologie breed beschikbaar kunnen maken. En dan hoef je ook je tijd niet meer te verdoen met dingen zoals VXGI (Al is dat natuurlijk een stuk goedkoper te implementeren daar dat slechts software is)
laat het ons niet hebben om standaarden te maken... want volgens mij doet amd daar iets beter z'n best voor dan nvidia...

nvidia ontwikkeld wel een hoop, daar niet van, maar ze patenteren alles om er commercieel zelf aan te winnen.
Amd daarentegen probeert juist industriestandaarden te ontwikkelen door dingen die ze maken breed en gratis beschikbaar te stellen.. denk bv maar aan gsync vs freesync...
als nvidia dit als standaard had gewild hadden ze er geen licentiekosten voor gevraagd maar gewoon beschikbaar gemaakt (en het maakt niet uit of je er een patent op hebt; een patent is niet hetzelfde als licentiekosten vragen; het wil enkel aantonen dat jij de rechtmatige eigenaar bent van die tech zodat een ander er geen geld voor kan vragen)
Het is precies wat ik bedoel met vendor pesten. Beide partijen ontwikkelen genoeg leuke dingen waar ze beiden van kunnen profiteren. Maar er wordt geen poging ondernomen dergelijke technieken wijdverbreid te maken. Een gemiste kans.
Later heb ik nog bedacht dat zou de focus van AMD en nVidia meer liggen op het voeden van informatie richting OGL en DX deze standaarden ook meer uptodate zullen zijn en beter beantwoorden aan de behoeftes van beide fabrikanten. Dit ondergraaft het argument dat door zich afhankelijk te maken van de voortgang in een standaard de ontwikkeling bij beide GPU bouwers zou worden gesmoord.

In deze zin zijn OGL en DX niet alleen technisch inhoudelijke standaarden, maar ook politieke platformen waarin alle belanghebben invloed uitoefenen, en de standaard niet altijd het doel van deze invloed is.
Ik zie je punt. Toch is het in deze dan bijzonder hoe beide partijen eigen technieken gebruiken (VXGI, TressFX, etc) als paradepaardjes voor hun eigen kaarten (Die dan weer slechter werken op de kaarten van de tegenpartij)

Dergelijk ''pesten'' vind ik alleen maar schadelijk voor de eindgebruiker, de gamers dus. Naast universele standaarden zouden dergelijke technieken ook universeel zijn, ter bevordering van de innovatie.
Om nu te zeggen dat amd tot de hele grote behoord wil ik je daarin tegenspreken, AMD is vergeleken bij Intel en nvidia een middengroot bedrijf ook qua markt aandeel.
Het feit dat dit bedrijf beide al meerdere keren hun het vuur aan de schenen heeft gezet is een hele prestatie.
Daarbij komt dat AMD al meerdere keren pogingen heeft gedaan om samen te werken, maar nvidia wil dit niet voor duidelijke redenen. Jawel omdat ze bang zijn voor de kleine lastpak AMD

On topic ik ga voor de Fury X, maar een ieder moet voor zichzelf uitmaken welke kaart voor hem het beste is. Doordat nvidia veel spellen beinvloed zul je vooral moeten kijken welke spellen jij gaat spelen.
Speel je nieuwere spellen die nvidia zo heeft aangepast dat AMD er slecht op draait zul je die nvidia bagger dus moeten kopen.
Ik zelf vertik het om deze methode te belonen en zal dan ook geen enkel spel kopen wat alleen voor nvidia kaarten echt goed werkt.
Om nu te zeggen dat amd tot de hele grote behoord wil ik je daarin tegenspreken, AMD is vergeleken bij Intel en nvidia een middengroot bedrijf ook qua markt aandeel.
Ik refereerde naar Microsoft en Apple, maar ik zie wel dat je je kon verwarren met Nvidia/AMD :)
Hahaha sorry ik vergat even dat ik onder jouw reactie had geplaatst silly me, het was meer als een algemene opmerking bedoeld :D
Veel mensen denken nog AMD een fors bedrijf is, maar dat is het eigenlijk niet echt vergeleken bij al de echte giganten. Dus jawel M$, Intel, Apple en nvidia ( de kleine letters is uiteraard mijn minachting naar dit bedrijf ) ;)
AMD is wel, net als Nvidia, actief op meerdere gebieden en maken ze naast GPU's ook processors en embedded graphics.
Kan je goed zien bij Project Cars. Als ik mij niet vergis is dit een crowdfunding game. Ik neem aan aan dat ze van nVidia een grote zak geld gekregen hebben(wat ze zeer duidelijk goed kunnen gebruiken) om de game te optimaliseren voor hun kaarten aangezien AMD daar significant slechter presteert. Daarvoor alleen al zou ik, zoals jij, geen nVidia kaart kopen. Alleen de eindgebruiker is daar de dupe van en ik vind dat deze praktijken van nVidia eens mogen stoppen.
dat verschilt van persoon tot persoon, zelf schroef ik de settings net zo lang op tot ik op 45 gemiddeld zit. Een dal in fps komt dan meestal op 30 uit, ik merk het verschil tussen dat en 60 average gewoon niet. Ik geloof ook dat het er aan ligt wat je gewend bent, als je 60fps counterstrike speelt en je gaat dan naar 40 fps gta5 dan geloof ik zo dat je het merkt.
Nee hoor, dat verschilt helemaal niet. Het schokt nog steeds, of jij dat nou zo ervaart of niet. Wel kan het uiteraard verschillen of je er last van hebt en of je liever wat mooiere graphics of een wat hogere framerate hebt.

In mijn ervaring hangt het overigens van allerlei factoren af. Zo heb ik een tijd mijn PC aan de TV gehad in de huiskamer en speelde toen borderlands 2 met een xbox controller met zo'n 40 fps zonder problemen. Toen heb ik mijn PC toch weer naar boven gehaald en ging ik met keyboard en muis spelen en opeens was die zelfde 40 fps vreselijk schokkerig in mijn ervaring. Het verschil naar mijn idee is dat je met de muis een directere controle over de beweging hebt waardoor je ook meer last hebt van verstoringen in de soepelheid daarvan. Hetzelfde effect heb je natuurlijk tussen verschillende games.

[Reactie gewijzigd door Finraziel op 14 juli 2015 22:25]

Dat verschilt wel van persoon tot persoon. Wat ik ervaar is doorslaggevend, niet wat jij daarvan vind. Vandaar.

Speel Skyrim met min fps van 30. Als mijn char stilstaat gaat na een x aantal secs de wereld draaien. Met mijn settings zie je dat dat vloeiend gebeurd. 30 min fps is dus vloeiend, in mijn beleving.

Nu, bij mijn pa's laptop ziet er het idd dramatisch uit, het beeld hort en stoot als de wereld ronddraait. Dan zit hij ook dik onder de 30 fps min, eerder 10+. Dat is pas schokken.

Als je 40 fps schokkerig vind, zit er iets niet goed. V-sync aan zorgt voor schokken, want die heeft bijv 60 fps nodig bij 60hertz monitor. V-sync uit zou dat moeten voorkomen, dan mag het niet schokken. Dan krijg je misschien wel tearing, maar dat is iets anders dan schokken.
Vsync zorgt er nou juist voor dat het niet schokt omdat de beeldjes even lang op het scherm weergegeven worden. Wel kun je er vertraging door krijgen omdat de GPU een beeld rendert en dan wacht tot je monitor zover is om een nieuw beeld weer te geven. Zolang de effectieve framerate echter constant blijft (dus niet heen en weer flappert tussen 30 en 60 fps) zou het wel degelijk vloeiend moeten zijn (en dan gebruik ik vloeiend in de betekenis dat bij een constante beweging een object elk plaatje even ver verplaatst is, niet dat niemand meer de individuele frames waar kan nemen).

Ik begrijp ook wel wat jij bedoelt, dat er weliswaar tearing optreedt maar dat een scherm daardoor wel direct weergegeven wordt, maar zo werkt het volgens mij toch niet. Ik weet niet zeker of een monitor op 60 hz ook werkelijk 1/60 seconde bezig is om het scherm op te bouwen, zo niet dan verklaart dat waarom het toch schokt. Het zou ook kunnen dat het afhankelijk is van waar jij op het scherm kijkt en waar het beeld wijzigt hoe lang het precies duurt voor jij dat beeld ook ziet, er is dus nog een variabele delay tot het beeld ook gewijzigd wordt op het stuk van het scherm waar jij naar kijkt.

Stel bijvoorbeeld jij volgt een object dat van links naar rechts beweegt over de horizontale middenlijn van je monitor. Laten we x even de tijd noemen die het kost om 1 beeld weer te geven (1/60e seconde dus bij 60 hz). Stel dan dat op t = 0,25 x er een nieuw beeld door de GPU aangeboden wordt. Op een kwart van het scherm zie je nu inderdaad een tear, en jij ziet op 0,5 x het object verspringen naar de positie waar hij op t=0,25x zou moeten zijn. Het volgende beeld wordt aangeboden op 1,75x, er verschijnt dus een tear op 3/4 van het beeld, maar jouw object zie je pas verspringen op t=2,5x, naar de positie die hij op 1,75x had moeten hebben. Er is dus een 0,5 x variatie opgetreden en dat veroorzaakt een schokkende beweging in het object dat jij aan het volgen was.

Hoe dan ook, punt blijft dus dat bij een framerate die uit de pas loopt met de refresh rate het beeld altijd zal schokken. Dat is geen kwestie van je ervaring maar een kwestie van wiskunde. Als het in jouw ervaring goed genoeg is dat jij het niet ervaart als schokken dan is dat iets anders en dat zeg ik ook in mijn vorige post. Dat is gewoon een kwestie van smaak.
Lees hierboven mijn respons. V-sync aan kan wel degleijk voor stutters zorgen.
Het kan inderdaad, maar jij bracht het alsof het dat altijd doet. Als je niet specifiek in de situatie zit waarbij de effectieve framerate (dus 15/30/60 op een 60hz scherm) steeds verandert, dan wordt het met vsync wel stabieler.
Overigens heb ik zelf ook adaptive vsync aan staan, dat werkt hoe dan ook beter, en hou ik mijn ogen open voor wanneer Asus hun 27" IPS gsync scherm uitbrengen want dat lijkt me nog veel fijner. Standaard vsync is inderdaad zeker niet zaligmakend.
Standaard vsync is inderdaad zeker niet zaligmakend.
Dat is wel een verschil met vroeger, in het 2d-tijdperk.
Toen werden games zo ontworpen dat ze altijd minimaal 50/60/70 fps draaiden (afhankelijk van de verversingssnelheid van het platform).
Bepaalde trucs werkten alleen maar als je code strak gesynchroniseerd was met het beeld, zoals bv sprite multiplexing.
Al die oude arcade/console/home computer spellen draaien dus altijd perfect soepel.
Euhm 60 fps .... vroeger ... ik ben misschien wat seniel maar vroeger dan praat je over rond de 30fps volgens mij.
Overigens heb ik helemaal geen enkel probleem met rond de 30 fps tenzij je alle toeters en bellen aanzet in een spel.
Om als voorbeeld de borderlands games te noemen die speel ik zowat alles op laag op 1 ding na het bereik van je zicht die staat op ultra. Waarom omdat ik na 960 uur spelen alles al heb gezien en het mij niet meer boeit hoe het er uit ziet.
Dat dit dan meteen een fps geeft waar sommige helemaal gestoord van zouden worden vind ik ook helemaal niet belangrijk.
Mijn machine kan eigenlijk alles makkelijk aan en spellen lopen soepel. Ik geef toe ik heb geen nieuw spel meer gekocht sinds midden 2014 omdat er helemaal niets is uitgekomen wat mij boeit of wat niet alweer een kopie is van een ander spel.
Ik verwacht dan ook voorlopig helemaal niets wat mij kan bekoren aankomend jaar. Dus dat word de oude goede spellen spelen tot mijn spellen mijn neus uitkomen.
Euhm 60 fps .... vroeger ... ik ben misschien wat seniel maar vroeger dan praat je over rond de 30fps volgens mij.
Zoals ik zeg, vroeger MOEST je op volle framerate renderen. "Racing the beam" heet dat: http://www.wired.com/2009/03/racing-the-beam/
Mjah, was misschien niet helemaal duidelijk. V-sync is er juist voor om het spel aangenamer te laten uitzien, en dan vooral om tearing te voorkomen. V-sync doet echter niet veel om stutters te voorkomen, integendeel; zoals je al weet kan het dan juist wel stutterig ovekomen.
In bepaalde situaties, met bepaalde spellen, natuurlijk. Nooit altijd.
Ja en nee. Als je gpu niet voldoende FPS kan generen, kan het ook met vsync aan niet vloeiend aanvoelen.
Vsync zorgt er nou juist voor dat het niet schokt omdat de beeldjes even lang op het scherm weergegeven worden.
Nee, vsync zorgt ervoor dat er alleen een nieuw beeldje wordt getoond op het moment dat het scherm niet aan het verversen is.
Het gaat wel tearing tegen, maar het is geen garantie dat alle beeldjes even lang op het scherm weergegeven worden.

Dat gebeurt alleen in het 'ideale' geval dat je altijd sneller kunt renderen dan de verversingssnelheid van je scherm.
Zolang de effectieve framerate echter constant blijft (dus niet heen en weer flappert tussen 30 en 60 fps) zou het wel degelijk vloeiend moeten zijn
Ja, en dat is dus vaak niet het geval.

[Reactie gewijzigd door Anoniem: 471038 op 16 juli 2015 11:58]

http://www.gamefaqs.com/boards/632848-far-cry-3/64989271
hier word toch keihard gezegt dat V-sync wel stutters kan voorkomen (en veroorzaakt als de verkeerde mode/settings word gebruikt).

Adaptive V-Sync werkt vaak goed, soms echter is triple buffer + V-Sync on de beste optie.
http://www.reddit.com/r/t...stuttering_with_vsync_on/
Meer positieve resultaten.

Oja:
Why you see stutters with standard vsync:
Nothing is more distracting when gaming than frame rate stuttering and screen tearing. Stuttering occurs when frame rates fall below the VSync frame rate cap, which is typically 60 frames per second, matching the 60Hz refresh rate of most monitors and screens. When frame rates dip below the cap VSync locks the frame rate to the nearest level, such as 45 or 30 frames per second. As performance improves the frame rate returns to 60.

In performance-intensive games this dramatic change in frame rate can occur several times per second, resulting in clearly noticeable stuttering as the frame rate jumps around, often causing eye strain and headaches.
Rechtstreekse quote van Nvdia;s Geforce Hoofdkwartier.

Durft er nog steeds iemand te beweren dat stutters onmogelijk zijn met V-sync on ? O-)

Bron: http://www.geforce.com/hardware/technology/adaptive-vsync

[Reactie gewijzigd door Madrox op 16 juli 2015 17:49]

Laten we even vsync scheiden van adaptive vsync. Ik had het namelijk alleen over normale vsync (en ik reageerde ook op iets dat vziw over normale vsync ging).
En inderdaad, zoals je zelf aangeeft, stutters zijn zeker niet onmogelijk met vsync aan :) Dat is waar ik zelf dus ook op reageerde.
Ach ja, ik reageer ook niet op jou. Beetje lastig de juiste respons te pakken in deze boombrei :)
@Madrox Hahaha daar heb je 100% gelijk in ;)
het is soms een wonder dat je denkt aan te haken bij een persoon en later ziet dat het toch niet daar kwam waar je wou ;)
Enige wat hieruit blijkt is dat met 3x 4k schermen sommige spellen bij de 4GB limiet aan geheugen komen. Met name bij de spellen die veel geheugen gebruiken (misbruiken) zoals Shadow of Mordor zie je de AMD kaart inkakken. Zoals jij zelf al aangeeft zijn er heel weinig mensen met een dergelijk setup en ook dat de 4GB limiet met resolutie iig nog ver weg is, zelfs bij een resolutie van in totaal 24 Megapixel terwijl een enkel QHD scherm op 3.6 Megapixel ligt. Dus eigenlijk is dit een win voor de Fury X omdat de meeste consumenten zich nu geen zorgen hoeven te maken over het geheugen limiet (de kaarten zijn ook simpelweg niet snel genoeg om die resolutie bij te houden).

Bij de single card benchmarks zie ik juist de Fury X en zelfs de Fury regelmatig met betere minima komen dan de 980 TI. De Fury vind ik dan ook de beste keus, overklockbaar naar een Fury X, zonder overclock zuiniger dan een 980 TI en zelfs betere minima bij sommige spellen.
Nu nog de prijs die nog even iets moet zakken en er is gelukkig weer concurrentie op de GPU markt, wordt de consument alleen maar beter van.

Bij het lagere segment vind ik Nvidea echter beter, zoals ook bij de index in deze review blijkt deze toch de meeste bang voor de buck te geven. Zelf ben ik niet heel bang dat geheugen een bottleneck gaat worden voordat de kaart simpelweg te langzaam is, Witcher 3 zit bijvoorbeeld op maximaal 2.3 GB. Met de 3.5 GB van de 970 is er nog zat ruimte over.
Mooie username, Rifleshader :)

Afgaande op je reactie:
Enige wat hieruit blijkt is dat met 3x 4k schermen sommige spellen bij de 4GB limiet aan geheugen komen. Met name bij de spellen die veel geheugen gebruiken (misbruiken) zoals Shadow of Mordor zie je de AMD kaart inkakken. Zoals jij zelf al aangeeft zijn er heel weinig mensen met een dergelijk setup en ook dat de 4GB limiet met resolutie iig nog ver weg is, zelfs bij een resolutie van in totaal 24 Megapixel terwijl een enkel QHD scherm op 3.6 Megapixel ligt. Dus eigenlijk is dit een win voor de Fury X omdat de meeste consumenten zich nu geen zorgen hoeven te maken over het geheugen limiet (de kaarten zijn ook simpelweg niet snel genoeg om die resolutie bij te houden).
Dit is inderdaad wat ik zelf ook geloof. Her en der argumenteren mensen dat 4 GB eigenlijk te weinig zal blijken voor 4K gaming. Echter zullen we dat pas bij de volgende generatie merken daar de huidige kaarten simpelweg niet futureproof genoeg zijn om in 2018 ook de nieuwste titels op 4K resolutie te runnen. Wel is het zo dat het potentieel van HBM pas wordt bewezen als de resoluties omhoog gaan. Voor de huis/tuin/keuken gamer die op 1080p gamet, zal een Fury X vrijwel niets verschillen met de concurrentie, en kan je beter een kaart kiezen uit het segment daaronder.

Nadeel is wel dat het HBM geheugen niet echt te overklokken is, zeker niet als je dan naar de kaarten met ''normaal'' GDDR5 kijkt. Koop je dus een kaart met HBM geheugen, dan kan je er vrijwel geen overklok winst mee boeken. Misschien dat HBM 2 dat zal aanpassen, maar als je wilt overklokken dan heb je een slechte dag met de Fury kaarten :)
Ik gok dat het te maken heeft met betrouwbaarheid, 500 Mhz met 512GB/s maakt het al de snelste kaart m.b.t. het geheugen. En komt het niet leuk in het nieuws als overklokkers allemaal hun geheugen laten bricken omdat ze er teveel spanning overheen gooien en de clocks te hoog laten gaan.

Dus dat ze de techniek eerst willen laten bewijzen doordat het niet kapot gaat en zodra HBM als een huis staat zal HBM 2 waarschijnlijk wel (licht) overklokbaar worden.

Een andere reden die ik kan bedenken is omdat het niet te overzien is wat de hitteafvoer doet, dat de onderste stack van het HBM geheugen dan de warmte gewoon niet snel genoeg kwijt kan.

En bedankt! Gebruik de naam al jaren voor spellen (shooters) en nieuwe namen zijn altijd lastig, dus dit is leuk om te horen :).
Vooral vanwege de grote geheugenbus he ;)

Ik hoop uiteraard dat HBM 2 het overklokken wat makkelijker zal maken, maar ik denk zomaar (gewoon natte vinger werk) dat HBM zich daar heel wat minder voor leent. Misschien krijg je wel hybride kaarten op de markt, met zowel HBM als GDDR5???

Ik ben overigens hoogst benieuwd hoe een rifle shader eruit ziet ;)
Medium settings inderdaad jammer. Zegt daarmee ook meteen niets meer over het VRAM gebruik. Dat zit hem niet in die pixels voor de framebuffer, maar in de textures en AA. Lijkt mij wat je zegt onnozel dat iemand 5.000 euro neerlegt voor een setup om dan op medium te gamen met waardeloze minimum FPS. Dus of 6.500 euro voor een setup met 4 kaarten en dan high/ultra quality, of toch een lagere resolutie zoals 2560x1440 en met twee kaarten op ultra spelen. Dan wordt echter de vraag: is 4GB op ultra settings @ 1440p genoeg? Want hoeveel videokaarten je er ook in stopt, effectief heeft dat spel toch echt maar 4GB VRAM tot de beschikking...
Met dergelijke extreme resoluties kan het ook haast niet anders met medium settings. En inderdaad, dan wil je je hardware ook wel beter benutten. 4 GB lijkt op dit moment voldoende, al kan dat mede door Fury's geheugenbus komen dat het nu zo presteert. Waarschijnlijk moet het ware potentieel van HBM nog gezien worden.

In ieder geval levert het kortere kaarten op :+
Wat is dit voor lachwekkende onzin in de conclusies... 'toevallig' worden vrijwel alle spellen waar NVIDIA beter op de minium framerates scoort als 'marginaal' omschreven. Als je de subjectieve nonsens weglaat scoort de 980ti in 5 van 6 gevallen beter met de minium framerates. Zelfs 8 ipv 7 is een 12.5% verschil.
Wat is dit voor lachwekkende onzin in de conclusies... 'toevallig' worden vrijwel alle spellen waar NVIDIA beter op de minium framerates scoort als 'marginaal' omschreven.
Ik zou je nog gelijk kunnen geven in de test waar Nvidia wint met 6 frames verschil. Maar 8 vs 7 fps? nee, niet echt. De minimum framerate mag dan wel lager zijn in het 6 frames voorbeeld, maar de gemiddelde framerate is dan weer hoger bij AMD. Zou je anders kunnen aangeven waar je denkt dat er bewust subjectief wordt geconcludeerd?
Als je de subjectieve nonsens weglaat scoort de 980ti in 5 van 6 gevallen beter met de minium framerates. Zelfs 8 ipv 7 is een 12.5% verschil.
Zoals gezegd staat daar dan weer tegenover dat AMD dan weer hogere gemiddelde framerates heeft. Ik probeer geen absolute, letterlijke afweging te maken, want 8 fps vs 7 fps maakt in een game echt niets uit. Beiden blijven onspeelbaar. Ik probeer vooral een ''redelijke'' afweging te maken waarbij er juist niet alles letterlijk wordt geconcludeerd.
Min fps zegt heeft weinig een hele korte dienen je min fps is aan gort. Je moet dan naar percentile fps kijken met een grafiekje er bij zodat je kan zien Hoe vaak hij dit en hoe erg.
Je reactie is ietwat onduidelijk, maar als ik het goed begrijp zeg je dat min fps weinig invloed heeft op het geheel en dat naar de procenten moet worden gekeken?

Als dat het is, dan ben ik het met je eens. Wel zullen dergelijke min FPS gebeuren tijdens choke momenten. En dan maakt het niet uit hoe kort dat moment is, je zal het uiteindelijk wel opmerken als je van 30+ klapt naar 10.
Als dat in een test run van bv 15 min een keer gebeurd zegt dat weinig. Het kan zo maar zijn dat het de run daar op niet voor komt.
Er zijn wel manieren die andere review sites gebruiken om inzichtelijk te maken of het vaker voor komt.

Daarnaast zijn er ook sites zoals HardOCP die grafieken er bij hebben zodat je het frame verloop kan zien. Dat zegt in mijn ogen veel meer dan Min-Avg-Max.
Het is inderdaad ook heel subjectief. En grafieken waren ook inderdaad duidelijker geweest. Maar het feit dat dergelijke framerates worden gehaald zegt toch iets lijkt me.

Neemt niet weg dat AMD weer een geduchte tegenstander is op het videokaartenfront :)
Vermoedelijk komt dat inderdaad door iets minder geheugen op de Fury. De 2GB extra op de 980ti kan in sommige benches net genoeg zijn om de FPS niet helemaal in te laten storten omdat er net niet naar system ram geswapt moet worden.
Maargoed, je hebt het hier over inderdaad absurde resoluties van 3x 4K. Ik denk dat de meeste Tweakers al blij zullen zijn met 1x 4K, en daar hebben we gezien dat de performance dips een stuk minder zijn.
Wat me ook opvalt is dat het lijkt dat er nog vrij weinig aan driver optimalisatie gedaan is bij AMD. Nou zal bij Nvidia ook nog wel het een en ander te winnen zijn (vooral bij de 970), maar aangezien deze toch al een hele tijd op de markt is zal dat een stuk minder zijn.

Als de Fury over een paar weken een vergelijkbare prijs als de 980 zou hebben denk ik dat ze best wel wat marktaandeel van Nvidia af zullen snoepen. Mij hebben ze iig al aan het twijfelen gebracht...
http://wccftech.com/amd-r...-quad-sli-uhd-benchmarks/

Hier zie je een gemiddelde van 12 games in quad-sli op 4K.
En je ziet ook hier de "maar" 4GB HBM leuk blows traden met de 12GB van de Titan X.
Maar dit zijn allemaal gemiddelde FPS btw ... dus ik vermoedt dat ook weer hier die rare irritante framedrops naar laag zitten voor de AMD kaart.

Maar alsnog als de fury hierbij in de buurt komt "gemiddeld" is dat zeker niet slecht alleen snap ik dan niet waarom iemand voor een Fury X zou gaan VS een Fury.

Wat wel leuk is btw is dat we wel kunnen zien dat voor 3 monitor setups 1080 aan zijn einde is en we naar 2560 X 1440 kunnen gaan als standaard

[Reactie gewijzigd door Rhylian op 14 juli 2015 17:26]

Beste Tweakers, ik mis in de review de benchmarks met windows 10 dx 12 waarom? Omdat vele toch binnenkort zullen overstappen naar deze OS en het een wereld van verschil maakt (althans voor mij :) )

Ikzelf heb namelijk met mijn ATi HD 7770 een low end videokaartje (wilde eerst upgraden vandaar dat ik deze review las) onder windows 8.1 en ondanks de nieuwe driver 15.7 kon ik een nieuwe game als F1 2015 niet spelen met redelijke FPS. Dezelfde game (en zelfde PC) onder windows 10 build 10162 levert mij een solide 60FPS _/-\o_ (ik game op lagere resolutie 1280X1024)
Tevens Assetto Corsa gaat met dezelfde settings van 60 FPS naar 80 FPS een toename van 33%!

Dus in een review die waarschijnlijk ook dient als aankoop advies voor velen is het in mijn ogen aan te raden om windows 10 nu al op te nemen in de benchmarks.
Waarschijnlijk omdat W10 nog niet officieel uitgebracht is. Ik hoop dat we na 29 Juli deze benchmarks wel zullen zien.
Leuk zo'n prijs prestatie index, maar dan moeten jullie wel realistische prijzen gebruiken.
• 980Ti hebben jullie bijvoorbeeld een prijs van €710 voor aangehouden, terwijl je maar 1 kaart kan kopen voor die prijs en het gemiddelde ergens rond de €750 ligt.
• De Fury X zetten jullie een prijs van €750 voor neer terwijl de gemiddelde prijs in de webshops op zo'n €700 ligt en de goedkoopste €680 is.
Het lijkt mij goedkoper en aantrekkelijker als je gaat gamen op 4K om vervolgens 2x een GTX970 aan te schaffen.

Als je alleen ruimte hebt voor 1 kaart zou ik pas de andere overwegen.

[Reactie gewijzigd door Jonathan-458 op 14 juli 2015 14:18]

Lekker handig die 3.5gig met gimped 500mb op 4k :+
Een fury heeft ook maar 4GB. Die 500MB zal het niet maken.
Daarom vind ik het ook geen ideaale 4K kaart. Met Witcher 3 op fulld HD met alles op ultra minus hairworks zit ik al over de 2GB aan videogeheugen gebruik. Games worden natuurlijk steeds mooier en veeleisender. Naast dat 4K letterlijk 2x de resolutie is, is 4GB denk ik toch echt te karig.
4k is niet 2x maar 4x Full HD resolutie natuurlijk ;)
Benchmarks wijzen uit dat er nauwelijks problemen zijn inclusief frametimes. Lijkt aardig opgeblazen. 4k met 4gb aan geheugen is sowieso geen vetpot. Dus als je echt 4K zou willen dan leiver 2x een 390x of 2x een 980ti.
Zoals ook hier in deze reviews te zien is, lijkt die 4GB-limiet voor noch de 970 noch de Fury een probleem... 4k draait er uitstekend op, en ik ken weinig mensen die meer dan 4k hebben staan op dit moment. Heck, het gehalte 4k-gamers is nog altijd minimaal... De meesten pakken een 1080p-monitor want die zijn zo lekker goedkoop... Het geld is namelijk op na die flitsende videokaart :P
FullHD is inderdaad nog het meest populair. Maar de stap zal toch een keer gemaakt gaan worden. Maar ik vrees niet met de huidige Fury serie.
Dan krijg je allemaal sli problemen zoals games die niet meerdere gpu's supporten etc. Single gpu blijft dus altijd de voorkeur.

[Reactie gewijzigd door Blauwmaceje op 14 juli 2015 14:18]

Klopt, maar ik denk dat we voorlopig nog geen Single GPU's tegen gaan komen die op 4K met een hoop games lekker mee gaat komen op High of ultra settings, zelfs de Titan X en R9295X2 (dual gpu) hebben moeite dus je bent uiteindelijke dan wel op SLI of Crossfire aangewezen, support moet hiervoor gewoon beter worden.
Dus eigenlijk heb je 2x een fury of fury x nodig op 4k :)

Wel een dure grap overigens...

[Reactie gewijzigd door watercoolertje op 14 juli 2015 15:21]

En waarschijnlijk een enorm gebrek aan geheugen, tenzij je met DX12 het geheugen wel (gedeeltelijk) kan optellen natuurlijk
Te zien aan de huidige benchmarks met 4K lijkt dat nog best mee te vallen...

Het grappig is juist dat de Fury kaarten het beter doen naar mate de resolutie hoger wordt terwijl die het ook opneemt tegen kaarten met 6/8GB :)

Ik ben overigens ook wel nieuwsgierig naar een prestatieindex gebaseerd op de minimale framerate, is dat nog toe te voegen tweakers? Dit lijkt mij namelijk ook een zeer belangrijke factor.
Nee je kan het geheugen niet optellen, 4 Gb is nu eenmaal wat erop zit.
De praktijk spreekt de aanname dat je meer geheugen nodig hebt tegen.
4 GB geheugen op je kaart is ruim voldoende voor de huidige spellen.
Wat heel veel mensen niet beseffen is dat een ieder die met 3 tot 6 schermen zowiezo al met minstens 3 kaarten willen gamen.
Of 2 dual gpu kaarten gebruiken
Wat betreft DX12 er is nog geen enkel dx 12 spel.
En als ik zo eens kijk naar de onwikkelingen van voorgaande spellen, zal het wel weer een hele poos duren voor er werkelijk spellen zijn die er echt gebruik van maken. De meeste spellen die zogenaamd DX11 zijn starten veelal als DX9 op. Dus naar DX12 kijken is pure flauwekul.
Tegen de tijd dat DX12 uit komt en er spellen voor uitkomen ga ik wel eens kijken of ik het de moeite waard vind. Maar zeuren over iets wat er nog niet is vind ik echt nutteloos
Rustig aan, er is geen reden om je op je tenen getrapt te voelen. Verder heb je nog geen gelijk ook. Mijn persoonlijke ervaring is dat 4GB geheugen op een 4k scherm met 2 R9 290x kaarten toch behoorlijk ver vol kan zitten. Nu weet ik niet hoeveel beter de compressie van de Fury X en non-X is, maar ik kan me absoluut voorstellen dat je echt tekort kan komen. Niet nu, nee, maar garantie dat het 'ruim' voldoende is voor de toekomst heb je niet echt.
Verder wat je zegt over het gebruik van 3/4 gpu's en gamen is onzin, het schaalt van geen meter en (vooral 4) is gewoon pure geldverspilling voor gamen, daarom doen alleen patsers en mensen die de kracht ergens anders voor inzetten het (Renderen, rekenen, minen, whatever).

Ook betreft het gebruik van DX9 kan ik je alleen maar tegenspreken, aangezien elke actuele A-titel makkelijk support geeft voor DX11.1 en zo zal dat net zo zijn voor DX12. Geen idee welk genre je speelt, maar misschien lopen er daar veel games nog op DX9, of misschien verwar je het gewoon met dat veel recente games gewoon nog DX9 support hebben (Bijvoorbeeld GTA 5). De DX11 mode heeft wel visuele voordelen hoor ;) .

En als laatste, DX12 is nog nieuw en er lopen volgens mij inderdaad nog geen games mee, maar dat gaat weldegelijk komen natuurlijk dus zeggen dat ik 'zeur over iets wat er niet is' is onzin aangezien het gewoon klaarstaat, en dat jij dan niet naar volgend jaar wilt kijken is dan gewoon apart. En geheugen stacken bij DX12 en Mantle moet ook gaan lukken bij crossfire, dus niet teveel roepen en jezelf eens verrijken met wat informatie en wat ervaring voordat je een reactie gaat afkraken. Welkom op Tweakers :)

http://www.guru3d.com/new...combine-video-memory.html

[Reactie gewijzigd door Ultrapc op 15 juli 2015 02:28]

Hahaha nee ik ben niet op mijn tenen getrapt hoor :D

Ik spreek je ook meteen tegen ik heb het niet over 4K gaming.
Van de mensen waar ik mee samen speel zijn het alleen de patsers met veel geld die op 4k gamen.
Ik zelf heb ook nog helemaal geen ervaring met 4K en ik denk dat de meeste mensen daar nog niet klaar voor zijn. De bedragen die je daarvoor nodig hebt zijn behoorlijk hoog.
ik ben het deels met je eens dat de schaling tegenvalt, maar ook hier weer kan en ga ik niet naar 4 K kijken. Een vriend van ons speelt graag vliegtuig spellen en draait met 6 redelijk grote schermen. Hij is zeer tevreden over zijn 2 x amd dual gpu's, het mooiste is dat deze patser 3 dure 980ti kaarten had gekocht en AMD heel hard zat af te zeiken tot hij merkte dat het helemaal niet zo lekker liep als de winkelier had beweerd.
Dat neemt niet weg dat ik zelf ook drommels goed weet dat de schaling niet echt super is. Dat weet iedere gamer nogmaals ik praat niet over 4K want dat heeft vrijwel niemand in mijn omgeving. Diegene die 4K wel hebben klagen steen en been dus tot er kaarten komen die makkelijk 1 scherm per kaart aankunnen zal je mij niet zien overstappen.
Er zijn wel degelijk heel wat spellen die uitkwamen als dx11 en het niet waren. Jij spreekt over de spellen die later zijn uitgekomen nadat DX11 inmiddels gewoon goed was.
Ik praat dus over bijvoorbeeld Heroes of M&M welke zogenaamd dx11 was maar zeker te weten dx9 draaide. Maar goed ik bedoel dus hiermee dat het altijd een tijd duurt voor er echt spellen uitkomen die het goed ondersteunen. De meeste spel ontwerpers wachten liever tot anderen hun vingers hebben gebrand aan deze nieuwe zaken.
Ik wil niemands mening afkraken ik spreek over wat ik vind en hoe ik tegen de zaken aan kijk.
Dus als ik kijk naar wat je wil snap ik dat je uitkijkt naar meer prestaties, wat ik zeker begrijp. Maar ik vrees dat er een ergens iemand iets zal moeten verzinnen zodat de performance of veel grotere schermen en zeker op 4K beter zou kunnen presteren.
Ik weet ook dat AMD mogelijk toch kaarten gaat uitbrengen met meer geheugen. Op zich had iemand al gehint dat er mogelijk problemen waren met het toepassen hiervan. Het was niet duidelijk of dit met de procedure of dat het met de aansturing te maken heeft. Overigens is er geen enkel nieuwer spel wat mij aanspreekt of trekt zodra er een goed nieuw strategie spel is wat mij aanspreekt zal ik het rustig bekijken maar het laalste jaar is er niets bij dat mij boeit.
Misscien word ik ook gewoon te oud voor spellen ;) Ben tenslotte al zolang aan het gamen dat het allemaal saai word :)

[Reactie gewijzigd door TEB_Webbie op 15 juli 2015 03:23]

Gelukkig :) , betreft 4k gamen heb ik in de 3 weken dat ik het heb gedaan (test setupje) 1 conclusie getrokken: het is bijna niet te doen en het is zeker nog niet voor de casual gamer, en eigenlijk al helemaal niet voor de pro gamer. Meer voor de mensen die een beetje willen rondrijden in GTA5 en genieten van de graphics terwijl hun kamer langzaam opwarmt vanwege de pc die dat allemaal mag trekken :/ .

HoMM ken ik enkel van horen en heb ik nog nooit gespeeld, maar ook in die tijd (ik neem aan dat je de laatste bedoelt?) waren er al games die gewoon DX11 liepen, maar zoals gezegd: dat ligt een beetje aan het genre game.

En dat ontwikkelaars zich liever nergens aan branden is waar, al is het de laatste tijd toch zo dat een nieuw gereleased spel gewoon vol zit met bugs, zonde...
Hahaha je wil niet weten hoe heet het werd in mij kamer met 3 amd 290x kaarten in de machine .... De vrouw werd helemaal gek van de hitte. Verklaarde iederen dan ook die zo spellen spelen voor gestoord ;).
Buiten was het 3 graden maar ik had de ramen wijd open om de hitte uit de woning te krijgen, De machine bleef nog binnen de perken maar je word gek van de hitte. De 290x'en vonden die hitte blijkbaar zelfs prettig. Want ze liepen als een zonnetje :D.
Het is natuurlijk wel machtig spelen met alles alles op max of ultra dat dan wel weer.
Maar goed voor je relatie is het wat minder ;)
Dit ligt helemaal aan wat je wil en welk spel, 1 x 4K 1080p monitor is geen probleem met redelijke settings, 2 x 4k word of je settings verlagen of er een kaart bij prikken. Daarboven en hogere standaard zoals 144p en 2160p ben je snel klaar dan merk je duidelijk dat je toch moet gaan sleutelen aan je intellingen om het speelbaar te krijgen
Met 3 of meer monitoren trekken de meest krachtige sets met 3 en 4 gpu's met moeite de spellen, de spellen die mijn maat spelen staan soms zelfs even stil. (5 tot 12 fps ... vreselijk en onspeelbaar. dus voorlopig lijkt het mij en onbetaalbaar en niet echt speelbaar zeker als je alles op high en ultra wil.
Je moet ook aan de toekomst denken. 2x 970 kun je niet meer aanvullen, dat levert namelijk haast geen prestatie winst op. Een enkele Fury betekent dat je er in de toekomst nog 1 bij kunt prikken waardoor je een verdubbeling van performance krijgt.
Verdubbeling (100% verbetering) krijg je nooit, maar Crossfire schaalt wel beter dan SLI.
Nee...
http://www.pcgamer.com/nvidia-geforce-gtx-980-ti-review/
(ctrl-f Multi-GPU benchmarks)
De 970 in SLI is vergelijkbaar met de 980 Ti, vaak presteert de 980 Ti zelfs beter als je naar de minimum framerate kijkt. Twee 970's kun je misschien wel iets goedkoper vinden dan een 980 Ti, maar het scheelt erg weinig en dan zou ik toch echt liever voor de single card oplossing gaan.

edit: Hier wordt het ook besproken: http://www.overclock.net/t/1558541/gtx-980-ti-vs-gtx-970-sli

[Reactie gewijzigd door Finraziel op 14 juli 2015 19:30]

SLI en Crossfire opstellingen hebben voor mij een iets te grote spreiding in performance om er warm voor te lopen.

Een aspect neem ik hierin niet mee. DX 12 kan een positief effect hebben op de efficiency van het gebruik van het grafisch geheugen. Dit is positief voor enkelvoudige kaarten met beperkter resources. SLI/Crossfire opstellingen hebben nog het extra voordeel van (deels) gemeenschappelijk te gebruiken geheugen. Dit weekt het geheugenplafond los van 4GB of minder kaarten.

In onze gedachten wordt een dergelijke mogelijkheid alleen maar mooiere en mooier. Het zal ik wel weer afgesaaid worden. Toch ben ik wel benieuwd wat het uiteindelijk met de line up van kaarten laat gebeuren. Beide bouwers zullen verwacht ik snel "optimalisaties" uitvoeren on onevenwichtigheden in de lineup te herstellen. De dual of meer GPU opstellingen hebben hierbij een bijzondere rol. Een leuke onbalans in GPU scaling kan een Crossfire of SLI opstelling populair maken. Niet alleen GPU's maar ook CPU's en hun onderlinge communicatie wordt efficiënter. Dit is met name interessant voor meer kaart opstellingen. Misschien wordt 1440p dan een gewone resolutie en 4K iets beter bereikbaar.
goedkoper kan ja. maar sli heeft ook nadelen. en een hoop willen dat niet.
ot:

"Voor games op lage resoluties zoals 1920x1080 pixels" vind ik een vrij opmerkelijke uitspraak.
Hebben meer mensen dat, of loop ik gewoon erg achter inmiddels?

1080P gamen is voor mij nog steeds prima / mooi genoeg etc. Waarom wordt dat tegenwoordig als 'laag' gezien? :)
Exact, maar ik vermoed dat met dit soort kaarten, je niet langer "budget" of middelmaat gamers gaat vinden. Kaarten van +500 euro zijn high-end en in high-end kan je 1080 niet langer de norm noemen.
Dat het niet laag is ben ik met je eens: vind persoonlijk 1080p ook voldoende, en volgens mij is het nog steeds de meest gangbare resolutie - 'mainstream' zou imo. een meer passende en ook meer neutrale term zijn.
Maar aan de andere kant biedt een hele lading extra pk's onder de kap van je gaming PC wel de mogelijkheid om te gamen met gebruik van downsampling (wat tov. 'standaard' 1080p het beeld een stuk beter maakt).
Een argument voor een hoge resolutie is dat je zonder anti aliasing zou kunnen. Dit helpt je performance dan ook weer een beetje.

Detailniveau van games is niet alleen af te meten aan de resolutie van de textures maar ook aan de fijnmazigheid van de geometrie van de 3D modellen. Zolang de geometrie van de modellen nog achterblijft bij de resolutie die de textures inmiddels hebben kan het effect van hi res gaming inderdaad nog gerelativeerd worden.
Nou ja, het is over het algemeen wel het minimale wat mensen tegenwoordig hebben op desktop PC's. Daarnaast moet je de opmerking ook in context zien, we hebben het hier over de absolute high end. In die context is Full HD best wel een lage resolutie ja, maar het is natuurlijk niet zo dat het ineens een pixelfestijn is.
@dartbord je hebt helemaal gelijk, maar ook ik ben over gegaan naar een groter scherm.
Terwijl ik vrijwel altijd vond dat 1080p goed genoeg was. Het heeft gewoon voordelen dus heb ik inmiddels een 1440p.
Als ik bijvoorbeeld weer eens meerdere bestanden wil vergelijken dan is het gewoon heerlijk dat je ze mooi naast elkaar kan houden op 1 scherm.
Met name met de wat grotere werk bestanden zoals bijvoorbeeld grote speadsheets of bijvoorbeeld database lijsten zul je baat hebben bij een wat forser scherm.Ik overweg zelfs alweer om er toch weer een 2e naast te zetten. Nog meer werk oppervlak ;)
Maakt het iets uit voor spellen... wel ja en nee het ligt dus aan het spel of je het prettig vind of niet.
Wat ik bemerk is dat als het spel je omgeving zeg maar vasthoud, dus je kan niet echt ver uitzoomen in je omgeving. Dan ervaar ik het soms zelfs storend om op een groter scherm te spelen speel je bijvoorbeeld een spel zoals sins of solar rebellion dan vind ik het spelen op het grotere scherm weer zeer prettig.
De Fury X bleek een beetje een paper launch te zijn. Nog altijd staat er bij de meeste shops een levertijd van 12+ dagen. De vraag is of dit voor de Fury (non X) ook op gaat. De geschiedenis spreekt in ieder geval niet in het voordeel van AMD die de vraag nog weleens wil onderschatten.

Het ziet er overigens uit dat HBM goed nieuws is voor de hogere resoluties. Toch hoop ik niet dat 3840x2160 de nieuwe standaard wordt. Ik zie persoonlijk liever realistischere beelden op een wat lagere resolutie (maar met 1440p is natuurlijk weinig mis).
Je moet er ook even rekening mee houden dat de yields voor HBM nog niet zo groot zijn, het is een gloedjenieuwe technologie en daar heeft het nu eenmaal tegenslagen bij.

Ik vind het trouwens raar dat de Fury met 7/8 van de cores van de Fury X en 50Mhz minder zo dichtbij kan scoren, en ik vind het jammer dat er nog steeds geen reviews zijn met overvolted resultaten. Het beste wat ik kan vinden is de powerlimit met 17% van de 50% die mogelijk is omhoog, nou ja, het zal een kwestie van tijd zijn. Het zou me in ieder geval geen moment verbazen als veel van deze kaartjes met 50% hogere powerlimit en meer voltage de 1200Mhz kunnen aantikken.

Heb gisteren VSR en FRTC geprobeerd in de nieuwe driver, VSR was wat "moeilijker" in te stellen maar het resultaat is werkelijk verbluffend! Dit is echt veel beter dan standaard AA, het lijkt wel alsof ik echt 1440P monitoren heb :+

Helaas is een 280X niet echt genoeg voor 7820x1440 (Ik draai Eyefinity) en loop ik toch achter de feiten aan bij bijvoorbeeld Arma III, waar ik veel (eigenlijk alles behalve textures) op uit of low moet zetten om 35-40 FPS te halen. Dit is voor mij ook de reden om te kijken naar de Fury, ik hoop dat deze (zoals je al aangeeft) over niet al te lange tijd normaal beschikbaar is.
De Fury X bleek een beetje een paper launch te zijn. Nog altijd staat er bij de meeste shops een levertijd van 12+ dagen. De vraag is of dit voor de Fury (non X) ook op gaat.

De yields van de Fiji-chip vallen echt vies tegen:
http://nl.hardware.info/n...wege-tegenvallende-yields
Heel verrassend zijn de tegenvallende yields niet: Fiji heeft immers 8,9 miljard transistors aan boord. Alhoewel Nvidia's GM200 nog groter is, blijkt die makkelijker te maken doordat de transistors verder van elkaar zitten. Daar komt nog bovenop dat AMD gebruikmaakt van HBM en een speciale interposer inzet om dat geheugen met de GPU te verbinden. Het samenvoegen en testen van de chip is dus vrij complex.
Wat ik graag wil weten is of deze test gebruik gemaakt heeft van een reference versie van de GTX 980 of van een van de af fabriek overgeklokte versies.

Dat maakt namelijk nogal een verschil. De meeste GTX980's die je kunt kopen zijn namelijk af fabriek overgeklokt en zullen dus beter presteren dan de reference versie. En meestal kun je bij de goedkopere kaarten makkelijk hogere overclocks gebruiken.

Dat maakt natuurlijk wel een verschil voor de scores zoals die nu neergezet zijn omdat die scores niet representatief zijn voor de GT980's die je in de winkel kunt kopen.
Ja, we hebben een niet-overgeklokt reference design van de GTX 980 liggen. Overgeklokte exemplaren zullen dus wel wat beter presteren. Aan de andere kant: de R9 Fury die we testten is ook niets standaard overgeklokt.
Als je de Fury probeert te overklokken, zal je merken dat de headroom heel erg klein is (cfr. andere reviews). Misschien dat er iets meer "winst" valt te behalen als je het voltage kan opschroeven. Maar bij dit GPU design lijkt het stroomverbruik enorm de hoogte in te gaan als je extra stroom toevoegt.

Conclusie: wie een Fury neemt, kan dit best doen omwille van het prestatieniveau af-fabriek. En niet met het idee om het ding als een gek te overklokken.
De spanning verhogen met Afterburner en dergelijke kan momenteel nog niet op de Fury kaarten en daardoor is de overklok headroom quasi onbestaande (al overklokt een GTX 980 ook al beter zonder extra spanning). Dat het stroomverbruik de hoogte in gaat bij extra stroom is natuurlijk heel logisch, je zegt het zelf :p. Ik vermoed dat je bedoelde dat het stroomverbruik snel stijgt met meer spanning, maar dat is tot dusver dus nog niet bewezen want het kàn gewoon nog niet.
Klopt, ik baseer me vooral op
- overclockingresultaten R290/390(X) reeks
- de hoge transistor-dichtheid van het design
- het feit dat de chip aan standaard voltage al weinig overclockmarge heeft en aanzienlijk wat verbruikt
- deze pagina waarop een Asus- Fury met iets lagere spanning maar liefst 30 Watt minder verbruikt bij gaming dan een Sapphire Fury.
- momenteel geen enkel vendor-tool toelaat om het voltage aan te passen.

Het is geen "hard bewijs", maar wel indicatief, vind ik.

EDIT: Eigenlijk is het simpel: als de Fury veel hoger viel te clocken, dan had AMD het zelf al gedaan. Zeker met die waterkoeling. Want gingen ze niet voor de performance-crown?

[Reactie gewijzigd door Jack77 op 14 juli 2015 19:01]

Verschil is de 980 kan je dan alsnog flink overclocken. De Fury X/Fury zitten al flink aan hun limiet en het geheugen kan sowieso niet overgeclocked worden.
Inderdaad, een 980 kan zo over het prestatieniveau van de Fury tillen met een simpele overclock. De kaart zal dan nog altijd minder stroom verbruiken en goedkoper zijn.
Je weet niet of de Fury (X) aan z'n overklok limiet zit aangezien dit ook heel goed door voltage tekort kan komen. Even wachten op de echte overklokresultaten dus. :Y)
Ik geloof er niets van dat de AMD kaarten aan hun limiet zitten, ook bij de voorgaande kaarten was er weinig tot geen speling. Later komen er hoger geklokte kaarten uit als net zoals voorgaande, en ik reken erop dat er zeker te weten kaarten komen met afwijkende kloksnelheden en koelingen.
Ik vermoed dat er toch moelijkheden zijn met het HBA geheugen en ik denk dat er later mogelijk ook kaarten worden uitgebracht met wat ruimer geheugen.
Maar ook dat is pure marketing want in mijn visie is 4 Gb nog steeds ruim voldoende.
Als je meerdere monitoren wil aansturen op veel hogere resoluties ga je toch meerdere kaarten gebruiken.
Interessante review. Grappig om te zien dat bij de oudere games mijn HD7950 in crossfire nog gewoon meekomt met de Fury. In nieuwere games zullen deze het afleggen omdat de nieuwste kaarten sneller informatie kunnen verwerken.
Dat is ook niet zo gek, de GCN-architectuur is marginaal veranderd, en een 7950 brengt 1792 cores mee, (3584 voor crossfire), tegen 4096 cores van de Fury-broertjes. DirectX in welke vorm dan ook zal ook niet veel verschil aanbrengen, dus voorlopig zijn de oude kaarten nog een prima alternatief. Let wel op dat de efficiency omhoog gegaan is, 2x 7950 zal rond de 350 W verbruiken, tegen 275 voor de Fury, die daarvoor meer power meebrengt.
hmmm weer het verhaal zoals met de R9 290X en de R9 290 waarbij de non-X bijna identiek aan de X versie presteert maar veel goedkoper is. Nou is de waterkoeling (met garantie omdat het van de fabrikant komt en je het niet zelf hoeft te doen) wel leuk maar veel mensen preferen nog steeds aircooled. Jammer ... Ze schieten zichzelf een beetje in de voet
Is de Fury X niet getest door Tweakers met een oudere driver en de Fury met een recentere? Kan goed zijn dat in de nieuwere driver meer game-optimalisaties zitten waardoor de Fury dichter aanleunt bij de Fury X. Indien dit zo is mocht Tweakers daar wel eventjes rekening mee gehouden hebben.
Alles staat of valt met de prijs. Voor enkele tientjes meer heb je al een (reference) 980ti die stukken sneller is dan de fury (en de fury x). En voor een stuk minder geld heb je een normale 980 die, zeker na een overclock, maar enkele procenten langzamer is.
Ik heb toen de fury x in de prijslijsten verscheen aanbieders gezien die de kaart voor 695 euro aanboden, inmiddels hebben ze allemaal de prijzen verhoogd. Dus lijkt mij dat de vraag naar deze kaarten toch wel vrij hoog moet zijn als men in paar dagen tijd de prijzen dikke 50 euro hebben opgeschroeft.
Ik zelf wacht tot er kaarten uitkomen met betere waterkoelers of hoge kloksnelheden.
Want ik denk dat de meeste fabrikanten wachten tot dat ze zelf mogen klooien aan het ontwerp.

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.



Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee