Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 218 reacties

AMD heeft zijn Radeon R9 Fury-videokaart geÔntroduceerd. Het was geen geheim dat de R9 Fury X een kleine broer in de vorm van de R9 Fury zou krijgen, maar specificaties waren tot nog toe nog niet bekend.

AMD Radeon R9 FuryDe R9 Fury komt als subtopmodel onder de R9 Fury X te staan, die AMD in juni introduceerde. Ten opzichte van de R9 Fury X kan de R9 Fury niet over de volledige Fiji-gpu met 64 compute-units beschikken, maar zijn er acht units uitgeschakeld, waardoor er in totaal nog 3584 streamprocessors overblijven.

De gpu is op 1000MHz geklokt en er is 4GB hbm beschikbaar. Net als bij de Fury X is dat geheugen op 500MHz geklokt, met een effectieve snelheid van 1Gbit/s. Dankzij de geheugenbus van 4096bits komt de totale bandbreedte uit op 512GB/s.

In tegenstelling tot de Fury X zal de Fury niet door AMD van waterkoeling voorzien worden, maar zijn fabrikanten vrij om hun eigen koelers te monteren. Momenteel zijn er echter maar twee fabrikanten die videokaarten met de AMD Fury-gpu uitbrengen. Het is niet bekend waarom dat het geval is. Ook is onbekend of en wanneer andere fabrikanten hun R9 Fury-kaarten zullen uitbrengen.

Asus voorziet zijn R9 Fury van een koeler met drie fans onder de Strix-naam. De kaart heeft naast drie displayport-aansluitingen een hdmi- en een dvi-uitgang. De achterkant van de videokaart wordt verstevigd met een backplate en de drie ventilators stoppen met draaien als de temperatuur laag genoeg is.

Sapphire's R9 Fury werkt volgens hetzelfde principe en zet de drie ventilators stil als de gpu-temperatuur onder de 50°C komt. Op de Tri-X-videokaart is geen backplate aanwezig, maar zorgt een frame voor versteviging. Er zijn drie displayport-aansluitingen en een hdmi-aansluiting aanwezig.

Vanaf 14 juli moeten de Fury-videokaarten in de winkel liggen. Europrijzen zijn nog niet beschikbaar, maar AMD hanteert een prijs van 549 Amerikaanse dollars. Omgerekend en inclusief btw zou dat rond 600 euro uitkomen.

AMD Radeon R9 FuryAMD Radeon R9 Fury

Moderatie-faq Wijzig weergave

Reacties (218)

Het enige verschil is (op de koeling en wellicht verbruik na) dus het aantal compute-units? Kunnen we er dan vanuit gaan dat deze kaart gewoonweg voor 87,5% de scores van de R9 Fury X haalt?

Als dat zo is, lijkt het mij dat de prestaties ongeveer gelijk zijn aan de GTX 980. Het is te hopen dat de R9 Fury dan geen 600 euro gaat kosten, gezien de GTX 980 al vanaf 500 euro verkrijgbaar is.
Tomshardware heeft er al een review van. Hij presteerd duidelijk beter dan de gtx 980 :)
http://www.tomshardware.c...i-x-overclocked,4216.html
Hij is inderdaad 'iets' sneller dan de reguliere 980, maar presteert wel een stuk minder dan men voorheen zei (sneller dan de titan). Daarnaast voor een nieuwere generatie is de performance/watt een stuk minder dan de 980.

Ik vind het een tegenvaller en dan ook 'maar' 4GB geheugen. Wat op dit moment genoeg is, maar met 4K gaming absoluut niet het geval is.
Nou, vooralsnog worden games op 4K niet door geheugenhoeveelheid, maar door gehugenbandbreedte beperkt. Misschien dat dat op termijn zal veranderen, maar de vergelijking tussen deze kaart of de Fury X met hun nvidia tegenhangers (die evenveel maar wel veel langzamer geheugen hebben) laat dat goed zien. Op lage resolutie is de bandbreedte geen issue en worden de gpus puur beperkt door het aantal berekeningen per seconde. Naar mate de resolutie hoger wordt doen het de AMDs steeds beter in verhouding en dat komt dus doordat de bandbreedte bij de nvidia kaarten meer tot een bottleneck wordt dan bij AMD.
Nou is dat bottleneck opgelost met hbm (lijkt het iig) en zullen we op termijn misschien textures krijgen die de 4gb vol maken. Maar vooralsnog zijn de AMDs hoofdzakelijk beperkt door hun berekening per seconde.
Deze kaart is toch niet geschikt voor 4k gaming (geen enkele eigenlijk..). Voor performance/watt moet je helaas niet bij AMD zijn. Wel geven ze vaak veel prestatie tegen een competetieve prijs.
Bij AMD zijn de kaarten iig wel stabieler, zoek maar eens op het internet op hoe vaak de GTX 970 crasht door agressief terug clocken met een te laag core voltage. Zorgt ervoor dat de kaart zuiniger is, maar ook dat je je spel vaker opnieuw op kan starten.

Daarbij verbruiken de kaarten in idle nagenoeg gelijk en PCs staan over het algemeen het meest in idle te werken (videos kijken, op Tweakers het nieuws lezen etc.). Wel gok ik dat een GTX 980 overgeclockt zodat deze hetzelfde presteert als de Fury nagenoeg hetzelfde verbruikt (of zelfs meer). Dit betekent dat de kaarten vrijwel gelijk zijn aan elkaar, behalve dat de Fury hogere prestaties tegen een hoger stroomverbruik biedt.

Zelf heb ik de 970 GTX, dus zeker niet bevooroordeeld maar ik moet wel even kwijt dat de low power consumption ook zeker niet zonder problemen is. Hoe vaak ik geen Witcher 3 crash heb gehad bij een transition van een cinematic of iets dergelijks...


@Edit
Hoe zo is deze reactie off topic / irrelevant? Het gaat wel degelijk over de Fury kaart in v.g.l. de Nvidia kaarten en over de discussie dat AMD niet performance efficiŽnt zou zijn.

[Reactie gewijzigd door Rifleshader op 12 juli 2015 00:47]

Furyx is juist zuiniger dan de 980TI
Ik heb vandaag geen reden om vriendelijk te zijn. Spijt me zeer :(

Nee je comment gaat nergens over. De Fury is volgens HWI 20 procent sneller dan de 980 in UHD. Tegen ongeveer 30 watt meer stroomgebruik.

30 watt extra gebruik terwijl je 20 procent meer performance hebt.
Ik zie niet in waarom AMD geen goede Performance per watt heeft.
Jeroen ik deel je mening, noch vind ik je aggressief reageren en noch kan ik nergens vinden hoe het opeens van Fury-980 naar Furyx-980ti kon gaan. Maar blijkbaar lezen alle downmodders daar overheen... 8)7
Dat doet ie dus niet he, op 1080p en 1440p, is de 980gtx beter. Alleen op 2160p is de R9 fury non oc iets beters.
OC vs OC gaat de 980GTX waarschijnlijk wel winnen. Door het ruimte verschil in oc potentieel. ~8% vs ~25%

http://nl.hardware.info/r...er-van-luchtgekoelde-fiji
Je verwijst naar een andere review. Overigens vind ik de conclusie van de review die jij linkt nogal raar.
''De adviesprijs is volgens AMD $549. Dat zou betekenen dat de kaart omgerekend en met BTW en extra marge toegevoegd in Nederland een dikke § 600 gaat kosten. Daarmee zit de Fury ruwweg zo'n § 100 boven de goedkoopste GTX 980 kaarten en iets minder boven de luxere varianten.''
Als ik deze berekening na loop klopt er geen hol van.
1. 549 dollar=492.6 euro (met de huidige koersen van 1 dollar=0,90 euro)
2. 492.6*1.21(de btw)=596.046 euro
3. Extra marge toegevoegd in Nederland..? Wat..?
596 euro is geen 'dikke 600 euro'. Sowieso vind ik het raar om hier berekeningen van te maken, want vaak klopt er geen hol van. Bijvoorbeeld de msrp van de gtx 980. Die is 499 dollar (was vroeger 550 dollar). De goedkoopste gtx 980 is 496 euro in Nederland. Dus niets geen extra +100 euro erbij. Er is maar 1 manier hoe we achter de prijs komen en dat is afwachten. Conclusies trekken uit dit soort vooronderstellingen vind ik raar.

Overigens klopt het niet wat je zegt. Je zegt dat de gtx 980 op 1080p beter presteerd, terwijl hardwareinfo dit in hun conclusie heeft staan:
''Kijken we naar de prestaties dan is de Fury in Full HD met Ultra settings een fractie sneller dan de GTX 980. In Ultra HD met Ultra settings is de kaart volgens onze berekeningen gemiddeld zo'n 20% sneller dan een GTX 980.''

Andere websites zeggen ook allemaal dat de r9 fury sneller is.
Anandtech: ''The R9 Fury offers between 8% and 17% better performance than the GTX 980, depending on if we’re looking at 1440p or 4K.''
Tomshardware: '' In almost every test, Sapphire’s R9 Fury Tri-X outperformed Nvidia’s GeForce GTX 980. Even at reference clock rates it's able to keep up. Fury fits nicely between the GTX 980 and 980 Ti in both power and cost.''
Hothardware: ''And for $50 more than the GeForce GTX 980, the Fury consistently defeats that card by a decisive margin.''
Pcworld: ''There you have it: Despite rocking a cut-down version of AMD’s hulking new Fiji GPU, the Asus Strix Fury still packs a hell of a punch, landing closer to the GTX 980 Ti than the GTX 980 in terms of performance in general.
...
Out of the box, the Fury delivers exactly what you’d want out of a card with its price point. For $50 more than the GTX 980, it offers a solid jump in performance.''

Het klopt dus niet dat de GTX 980 sneller is dan de fury (non x). Dat zou ook raar zijn, want de fury x heeft een adviesprijs van 50 dollar meer en is nieuwer.
Conclusie is dat de kaart tussen de 980 en 980ti in zit qua prijs en prestatie.....
vindt dat toch apart gezien de RSP price hetzelfde is...
(de gesuggreerde prijs van de fabrikant in dollars.)
in Amerkika is de prijs iig gelijk en is de Fury iets sneller dan de 980 (op 1440P op 1080P is het practisch gelijk, en Fury is veel sneller op 4K maar op zichzelf nog steeds te traag om lekker te gamen op 4K, zoals elke kaart dat is op het moment)

[Reactie gewijzigd door freaq op 10 juli 2015 19:07]

Ik knap af op de temps van de vrm's. Het lijkt erop dat goede koeling daarop teveel kostte. :'(
Dat zijn temperaturen met Furmark, met games zit je minimaal 20 graden lager... ;)
Ik heb het helemaal niet over furmark. ;)
Ik heb het wel over Furmark omdat Tom's Hardware Furmark gebruikt bij de temperatuur analyse. Die hoge VRM temperaturen die jouw doen afschrikken zul je nooit ervaren tijdens het spelen van games... ;)

De VRM's hebben overigens een maximum temperatuur van 150 graden, bepaald geen eersterangs 'China meuk' zou ik zeggen...

[Reactie gewijzigd door db87 op 11 juli 2015 22:37]

Wat kan de reden zijn dat het Sapphire model niet is uitgerust met een 2.0 HDMI uitgang? Biedt een 2.0 HDMI uitgang geen voordelen ten opzichte van de nu aanwezige 1.4 HDMI uitgang?
Ik heb begrepen dat er een DP->HDMI 2 dongle uit komt. Vreemd dat het niet bij de kaarten wordt geleverd. Maar ik denk dat er nog genoeg mensen geen HDMI 2 monitor hebben.
Die dongles kunnen er inderdaad komen, maar zijn er nog niet en er is ook nog geen enkele fabrikant die een ETA kon geven. Oftewel, voorlopig kun je ze nog niet kopen ;)
Nee dat is inderdaad een misser van AMD net zoals met de introductie van de 5xxx serie.

Maar ik heb gekeken naar 4k monitors en die hebben geen HDMI 2 aansluiting nodig. Omdat ze voor zover ik ze heb bekeken een DP aansluiting hebben.

En er zijn een paar 4k tv's met DP aansluitingen, dus met een beetje slim inkopen kan je je Fury direct op je tv aansluiten zonder dongle.
Met Steam machine incl Titan X/GTX 980 TI die er gaan komen is HDMI 2.0 toch wel handig kan je kiezen uit alle TV's ipv enkele, nu is AMD zowiezo al geen optie vanwege Linux drivers dat terzijde.
HDMI 2.0 is vooral voor 4k TVs. Monitors gebruiken meestal DisplayPort.
TVs met DisplayPort zijn echter extreem zeldzaam.
Hetzelfde geldt waarschijnlijk voor andere devices, zoals projectors, capture devices etc.
Ja je hebt gelijk, maar er zijn ook 4k monitors.

Degene die ik heb bekeken hebben allemaal DP aansluitingen en HDMI 2.0 (behalve een Phillips monitor die het met HDMI 1.4 moet doen).

Goed dat we er even induiken. Want het ontbreken van HDMI 2 is volgens mij als minpunt genoemd in een aantal reviews en ook die van Tweakers.net.

Het hebben van HDMI 2.0 is dus helemaal geen probleem voor monitors!
En voor mensen die per se op een 4k tv op 60 hertz dingen willen zien komt er dan de dongle.
pricewatch: Samsung U28D590D Zilver
pricewatch: Philips BDM4065UC Zwart
En deze 4k tv's hebben DP aansluitingen:
http://tweakers.net/categ...YmlOZK4hampsZIOiAJJ19YCAA
Dus ook zonder dongle kan je je Fury op een 4k tv aansluiten en 4k contect op 60 frames/sec bekijken!
Goed dat we er even induiken. Want het ontbreken van HDMI 2 is volgens mij als minpunt genoemd in een aantal reviews en ook die van Tweakers.net.
Dat is het ook.
En voor mensen die per se op een 4k tv op 60 hertz dingen willen zien komt er dan de dongle.
Die ze zelf moeten kopen, en wat die gaat kosten, ik ben benieuwd... Vaak zijn die belachelijk duur.
Ik kan me nog wel herinneren dat een passieve DVI->HDMI adapter destijds zomaar 15-25 euro kon kosten als je hem los moest kopen.
Dus ook zonder dongle kan je je Fury op een 4k tv aansluiten en 4k contect op 60 frames/sec bekijken!
Maar je keuze in TVs is dan HEEL beperkt. En beetje jammer als je dus al een 4k-TV hebt staan, die dan geen DP heeft (zoals de meesten dus).
Kortom: nadeel.
Het had er gewoon op moeten zitten. En anders in ieder geval gratis de dongle meeleveren. Dit is gewoon onnodig gedoe, wat een minpunt is als de concurrent gewoon wel al een tijd een lijn producten met HDMI 2.0 levert.
Beetje jammer, omdat AMD altijd zo graag schermt met het zo goed ondersteunen van standaarden, en nVidia van alles verwijt.

[Reactie gewijzigd door Scalibq op 10 juli 2015 15:41]

Zo'n adapter ondersteunt niet HDCP 2.2 (kan later een probleem worden, nu nog niet) en zal actief moeten zijn dus ik denk eerder rond de 50 euro ? DP 1.3 -> HDMI had geen probleem geweest aangezien daar HDMI 2.0 in verwerkt zit. De vraag zou dus nog beter kunnen zijn : Waarom DP 1.2 ipv DP 1.3 ? Kan de chip de hoeveelheid data niet aan ?
Ik verwacht minstens 100 euro, kijk maar naar de Displayport naar duallink DVI adapters (nodig om bijvoorbeeld een single input Koreaanse QNIX via DisplayPort aan te sluiten) die zitten ook rond die prijs. Ik vind het persoonlijk gewoon belachelijk dat er geen HDMI 2.0 opzit, ja wij weten ook wel dat het geen perfecte standaard is en dat Displayport zoveel beter is, maar vertel dat maar aan TV fabrikanten en niet aan ons, AMD.
Ik was aan het kijken naar een alternatief voor de eventuele aanschaf van geforce gtx960 en was al verbaasd dat het niet op de radeon 3xx serie zit. Bij de Fury snap ik het dan idd ook helemaal niet. Op zoiets ga je als fabrikant toch niet bezuinigen? Het lijkt meer gedaan te worden om te voorkomen dat fabrikanten van bv schermen niet DP links laten liggen en voor HDMI gaan?

[Reactie gewijzigd door AtariXLfanboy op 12 juli 2015 13:52]

Ja mooi verhaal ik wil op de tv die ik uitkies 4k content afspelen , niet een tv moeten kopen met DP omdat AMD geen onderdeeltje erin wou stoppen van een paar euro, dus moet ik miss 1000 euro meer uitgeven aan een andere tv, nee hoor gemiste kans, en voor jou jij mist het punt.
Die adapters leuke praat maar voorlopig zijn ze er nog niet als ze uberhaupt nog komen..
nouja het is de vraag hoeveel de adapters gaan kosten. maar je bent wel deel van een hele kleine groep.
de mensen met een 4k tv is klein, en de groep die zo een tv heeft en ook nog eens zijn computer wil gebruiken om protected 4k content op 60 hertz te zien is echt nog heel klein. oplossing: koop een 4k dvd player! of koop gewoon een nividia kaart!

Om heel eerlijk te zijn vind ik het een vreemd argument om te zeggen: ik zit in een niche van een niche maar ik raad voor iedereen een product af. omdat dat product niet optimaal geschikt is voor mijn niche niche situatie.
Ik heb nergens gezegd dat ik t product afraad, dus ja heel vreemd idd omdat te beweren dan...gaat erom dat amd rare keuzes maakt.

[Reactie gewijzigd door ChAiNsAwII op 12 juli 2015 23:23]

@ Scalibq
"Ik kan me nog wel herinneren dat een passieve DVI->HDMI adapter destijds zomaar 15-25 euro kon kosten als je hem los moest kopen."
Als je rond de §600 uitgeeft alleen voor je videokaart is 15-25 euro goed te overzien.
De meeste mensen hebben nog geen 4k tv staan. En dus zal adoptie breder worden.

Ik ben het dus absoluut niet met je eens. Het is geen probleem om geen HDMI 2 op je kaart te hebben. Je kan je afvragen of een 4k tv wel bestaansrecht heeft als 4k monitoren al goed te krijgen zijn: Mensen die dat soort geld uitgeven aan een tv hebben vaak een receiver staan voor het geluid
Display port aansluiten
Dus argument invalid.

[Reactie gewijzigd door Avathar op 10 juli 2015 15:50]

Ik denk dat deze adapters nog een stuk duurder worden, want ze moeten actief zijn, en ook HDCP ondersteunen (want je kunt niet verkopen dat je wel je 4k-TV kunt aansluiten op je PC, maar geen BluRay kunt spelen).
Ik vermoed ergens tussen de 50 en 100 euro.
Dat is gewoon echt te veel.

En of je een 4k-TV hebt of niet, vind ik geen goed argument. Je gaat niet je keuze in TVs beperken tot alleen TVs met een DP, zodat je geen adapter hoeft te kopen.

De meest logische stap is om gewoon de Fury links te laten liggen, en voor nVidia te gaan. Dan heb je meer waar voor je geld, want je hoeft geen adapter te kopen (en ook geen gedoe met evt extra voeding aansluiten op zo'n actieve adapter), en je hoeft niet selectief te zijn met wat voor TV je koopt.
zie mijn vorige reactie:
Display port aansluiten
je argument gaat niet op.
Erm, want? Beweer je nu dat je een receiver ertussen moet zetten zodat je geen 'adapter' nodig hebt?
Of wat probeer je nu te zeggen? Is me niet duidelijk uit de link die je geeft.
Het enige dat ik zie, is dat je ERG hard het gemis aan HDMI 2.0 probeert goed te praten, en dat interesseert me eigenlijk niet. Geen HDMI 2.0 op de kaart hebben is gewoon minder handig dan wel, punt. Geen verdere discussie nodig.

[Reactie gewijzigd door Scalibq op 10 juli 2015 15:55]

Minder handig ok, net zoals Thunderbolt. Waarom die er ook niet opgooien.
Feit is dat lang niet iedereen een HDMI 2 device heeft.
Dat 4k tv's niet wijdverbreid zijn.
Dat 4k monitors allemaal DP hebben.

Dat mensen die nu een 4k tv hebben echt wel een receiver hebben en die hebben DP aansluitingen. En ja dan plug je door.
Ja vervelend voor je dat je probeert een probleem te maken van iets dat geen probleem is. Joh koop jij lekker Nvidia? Prima toch. Waarom reageer je dan op dit bericht?
Minder handig ok, net zoals Thunderbolt. Waarom die er ook niet opgooien.
Dat is een ander verhaal. Thunderbolt is echt een 'luxe' feature die de meeste mensen niet nodig hebben, die hebben genoeg aan PCI-e/USB/FireWire.
Feit is dat lang niet iedereen een HDMI 2 device heeft.
Dat 4k tv's niet wijdverbreid zijn.
Feit is dat je hier het beeld vertekent.
Dit zijn high-end DX12-kaarten, die heeft ook lang niet iedereen... Maar het zijn *juist* die early adopters, die ook 4k willen, die dit soort kaarten willen kopen. Die gaan voor het nieuwste van het nieuwste, het beste van het beste, het duurste van het duurste.
Voor dat publiek is een gebrek aan HDMI 2.0 gewoon lastig te verkopen, zeker als je dat bij de concurrent zonder meerprijs wel krijgt.
Dat mensen die nu een 4k tv hebben echt wel een receiver hebben en die hebben DP aansluitingen.
Erm, hoezo? Ik heb ook geen receiver, maar wel 4k. Wat moet ik met een receiver?
En sowieso, als je al een receiver hebt, is die receiver dan al wel HDMI 2.0 en 4k? Ik denk het niet. Of je moet toevallig recent ineens *alles* hebben geupgrade, dus videokaart + 4k + receiver.
Waarom reageer je dan op dit bericht?
Ik wilde alleen toelichten dat HDMI 2.0 vooral voor TVs bedoeld is, niet voor monitors.
Maar toen kwam jij met allerlei claims die wat mij betreft de werkelijkheid een beetje te ver verdraaien, dus dan reageer ik daarop.

[Reactie gewijzigd door Scalibq op 10 juli 2015 16:16]

Scalibq
Mijn claim was onder andere dat early adopters het niet erg vinden om extra geld voor extra features uit te geven. Dat zeg je zelf ook.

Verder was mijn claim dat veel gamers de kaart op een monitor aansluiten, dat lijkt me ook buiten kijf.

Vandaar dus dat HDMI 2 niet nodig is, in ieder geval niet nu, voor het grote publiek.
Scalibq schreef: "Maar toen kwam jij met allerlei claims die wat mij betreft de werkelijkheid een beetje te ver verdraaien" vind je dat zelf ook niet een beetje ad hominem? Ik noem jou ook geen leugenaar. Bovendien heb je me niet op onwaarheden betrapt, waar jij over valt is een verschil van mening.
Mijn claim was onder andere dat early adopters het niet erg vinden om extra geld voor extra features uit te geven. Dat zeg je zelf ook.
Nee, dat zeg ik niet.
Ik zeg dat early adopters gewoon de producten willen met de meeste features. Een kaart waarbij HDMI 2.0 ontbreekt, is dus minder aantrekkelijk dan een kaart die wel HDMI 2.0 heeft.
Als de Fury X nou andere dingen had waarom je PER SE die kaart zou willen hebben, dan kon je het nog wel enigszins verdedigen... Maar de concurrentie biedt meer performance, meer features (DX12_1), en betere connectiviteit (HDMI 2.0 + DP1.2).
De keuze voor early adopters is vrij eenvoudig.
Verder was mijn claim dat veel gamers de kaart op een monitor aansluiten, dat lijkt me ook buiten kijf.
Er zijn wsch ook genoeg mensen die dit soort kaarten op meerdere devices aansluiten, en misschien zelfs zowel een monitor als een TV.
Vandaar dus dat HDMI 2 niet nodig is, in ieder geval niet nu, voor het grote publiek.
Dat argument is dus niet geldig, zoals ik al eerder zei, want deze kaarten, 4k etc zijn niet gericht op 'het grote publiek', maar op de early adopters.
Je hebt al een 4k tv voor 500euros op amazon, met hdmi 2 en vet goede ratings, wie in de woonkamer zn pc heeft staan heeft zon tv zeker bestaansrecht, zeker een stuk meer dan die overpricde monitors...ja het geluid gaat via de reciever als je al gamed wil je ook vet geluid....
Dan heb je vast en zeker ook hele goede monitors voor een scherpe prijs op amazon.
Ik heb begrepen dat er een DP->HDMI 2 dongle uit komt. Vreemd dat het niet bij de kaarten wordt geleverd. Maar ik denk dat er nog genoeg mensen geen HDMI 2 monitor hebben.
Klopt, AMD heeft belooft dat er active converters komen. De prijs is nog een raadsel hiervan, huidige actieve DP --> HDMI kosten rond de §30,-. Dus verwacht dat de 2.0 versies rond de §50,- kosten.

Ten tweede overschat je het aantal mensen die een HDMI 2.0 device hebben. Hardware.info geeft dit ook al aan. Wanneer je je high end gaming pc wilt gebruiken icm een big a** 4k TV, zij het in de woonkamer of in je "studiekamer", dan ben je toegewezen aan een HDMI 2.0 poort. Alle nieuwe 4K tv's gebruiken geen DP meer voor 4k, maar HDMI 2.0.
@Bliksem B
Ja ik ben jet met je eens. bijna niemand heeft nog een 4k tv en van de mensen die er wel een hebben is er maar een klein deel die zijn computer gebruikt om 4k content op 60 hertz af te spelen.
Geen enkele kaart van de nieuwe lijn van AMD ondersteunt HDMI 2.0.
Geen enkel idee; blijkbaar "beslist" Sapphire dat de gamer met deze kaart toch niet in 4K60p kan/wil gamen en dus is een 1.4-interface voldoende voor lagere resoluties/frame-rates.

Sowieso vind ik het een raar verhaal; er zijn veel goedkopere kaarten die wel HDMI 2.0 hebben en worden ingezet voor simpeler taken zoals Kodi; waarom kan/mag je dus geen videokaart van dik 500 Euro hiervoor kunnen gebruiken?
Geen enkele AMD kaart heeft HDMI 2.0 ;)
Als je het nodig hebt, dan moet je naar het groene kamp gaan kijken, waar voorlopig de gtx 960 de goedkoopste met hdmi 2.0 is (Al komt er binnenkort een gtx 950 uit).

[Reactie gewijzigd door SmokingCrop op 10 juli 2015 14:21]

Echter heeft Nvidia wel 4K60 ondersteuning op HDMI 1.4 door chroma subsampling. Het niet helemaal eerlijk maar in de praktijk haal dan wel de 60hz.
Als de videochip van AMD het niet ondersteunt kan Sapphire daar niks aan doen natuurlijk
Hdmi is overbodig als je displayport heb dus waarom zou je nog moeilijk doen.

een displayport to hdmi adapter kost nog geen 2 euro met gratis verzending dus even vooruit plannen ivm verzend tijd en er is geen reden om hdmi 2 als verreisde te zien.
Er zijn nog geen converters van DP naar hdmi 2.0 die daadwerkelijk met UHD@60 werken
Om maar te zwijgen over de HDCP 2.2 standaard. Die adapters moeten ook nog komen en gaan flink geld kosten als het zo lees.
Ja, maar het gaat erom dat de converters van DP naar HDMI 2.0 ervoor zorgen dat HDCP 2.2 ook over HDMI 2.0 werkt.
Klopt. maar de compatibiliteit van features zou (en dat weet ik niet) kunnen betekenen dat er geen actieve maar een passieve dongle nodig is. Dat zou mogelijk behoorlijk schelen in de prijs.

Ik weet heel weinig van de protocollen die DP, HDMI 2 en HCCP gebruiken, en daarom gebruik ik woorden als "zou kunnen" en mogelijk.
Dus eigenlijk zeg je dat deze kaart nu kopen een flinke gok is, wat betreft HDMI 2.0 en HDCP.
Nee niet als je de kaart gebruikt waar hij voor bedoeld is: Gamen.

Het enige probleem dat ik zie is: Je wilt protected content zien op een 4k tv op 60 frames per seconde.
In andere scenario's heb je op dit moment geen probleem volgens mij (dus op 30 frames per seconde op 4k kan het wel) En gamen op een 4k tv kan ook maar op 30 frames/s (op een monitor doet hij wel meer frames).
Ja vervelend dat het niet op 60 kan. Maar je bent niet voor niets een early adopter.

Dan heb je soms issues, dat krijg je met early adopting.
Lees dit artikel: http://www.techhive.com/a...pirates-meet-hdcp-22.html
HDMI 2.0 is volgens de schrijvers geen garantie voor HDCP 2.2 compatibiliteit.

[Reactie gewijzigd door Avathar op 10 juli 2015 17:15]

Nee niet als je de kaart gebruikt waar hij voor bedoeld is: Gamen.
Want gamen telt niet als je het op een TV doet?
Ja vervelend dat het niet op 60 kan. Maar je bent niet voor niets een early adopter.
Als het voor hetzelfde geld bij de concurrent allemaal wel kan, dan is het vooral vervelend voor AMD.
Ja en dan klaagt iemand over het ontbreken van Thunderbolt op zijn grafische kaart.

Je hoeft geen Fury kaart te kopen. Dus als je het een probleem vind voor jouw specifieke setup dan moet je uitwijken naar Nvidia. Die maken ook heel mooi spul.
Ja en dan klaagt iemand over het ontbreken van Thunderbolt op zijn grafische kaart.
Thunderbolt zit niet op je grafische kaart, maar op je moederbord... Het is gewoon 'PCI-e over een draadje', en vrij duur om aan een systeem toe te voegen.
Snap niet waarom je daar nu al twee keer mee komt.
Klopt. maar de compatibiliteit van features zou (en dat weet ik niet) kunnen betekenen dat er geen actieve maar een passieve dongle nodig is. Dat zou mogelijk behoorlijk schelen in de prijs.
Nee, is er praktisch geen compatibiliteit tussen DisplayPort 1.2 (wat deze videokaart ondersteunt) en HDMI 2.0. Een adapter zou actief moeten zijn en flink wat geld kosten.
DisplayPort 1.3 heeft wel ingebouwde ondersteuning voor zaken als HDCP 2.2 en HDMI 2.0, maar DisplayPort 1.3 wordt door deze videokaart ůůk niet ondersteund.
@dusty-2011
Nee klopt maar HDMI 1.4 op de kaart ondersteund wel HDCP 2.2 maar op 30 frames/s.
Overigens moet je alles zelf goed checken: zelfs HDMI 2.0 is geen garantie voor het ondersteunen van HDCP 2.2 lees ik net in dit artikel: http://www.techhive.com/a...pirates-meet-hdcp-22.html
Er is in dit geval een actieve conversie nodig, wat het ding duurder maakt.
De support voor zowel HDCP 2.2 als HDMI 2.0 is pas bij versie 1.3 van DisplayPort toegevoegd. AMD ondersteunt nog geen DisplayPort 1.3. Deze videokaart ondersteunt dus alleen DisplayPort 1.2a. De videokaart ondersteunt dus ook niet HDCP 2.2.
Klopt DP versie lijkt 1.2 te zijn.
Goed dat is een misser, maar HDCP is alleen maar nodig om protected content te bekijken (DVD, Blue Ray) en dat is op 30 frames/s goed te bekijken. en dat kan wel over de HDMI 1.4 aansluiting (voor zover ik kan zien online) maar alleen op 30 frames/s.

Ik ben het met je eens dat ze die DP aansluiting wel op de meest recente versie hadden moeten brengen (futurproofing heet dat)

[Reactie gewijzigd door Avathar op 10 juli 2015 17:02]

En mochten ze komen dan gaan ze hoogstwaarschijnlijk duur worden. Heb nog een dp naar dual link dvi hier liggen. Voor dp naar single link betaal je paar euro maar voor dual link ben je al snel dikke 80 euro kwijt.
Niet als je een 4k tv wil aansturen. Ik gebruik zelf nu momenteel een 40inch 4k tv als monitor en dat is echt een verademing een zee kwa werkruimte. En voor DP naar hdmi 2.0 heb je een actieve adapter nodig die vooralsnog niet bestaan
werkruimte komt door resolutie niet de inches en de meeste tv's ondersteunen toch geen 60 fps dus dan is hdmi 2.0 ook overbodig lijkt mij.
Huh dan zou ik me toch me even inlezen want een tv ondersteund gewoon 60hz input als je de goede tv kiest ook met volledige kleuren en zonder chromasubsampling. Verder succes met 4k op 100%/125% dpi op monitor formaat dan is alles onleesbaar klein en heb je er weinig aan.
Wel een beetje in de toekomst kijken met zo'n dure kaart. Over vijf jaar waarschijnlijk wel
.

[Reactie gewijzigd door AtariXLfanboy op 11 juli 2015 23:28]

en de meeste tv's ondersteunen toch geen 60 fps

In de Verenigde Staten is 1080i60 de standaard voor TV, naast 720p60. 1080i60 is 60 fields per second, en 720p60 is 60 frames per second.
Logischerwijs hebben vrijwel alle TV's ondersteuning voor 60 frames per second.

Veel TV's hebben ook gewoon ondersteuning voor 4k 4:4:4 at 60hz. En die ondersteuning zal alleen maar breder worden in de komende jaren.

[Reactie gewijzigd door dusty-2011 op 10 juli 2015 17:18]

1080i60 is 60 fields per second, en 720p60 is 60 frames per second.
Logischerwijs hebben vrijwel alle TV's ondersteuning voor 60 frames per second.
Ja, ter verduidelijking: i60 is dus interlaced, en dat is het transport-formaat.
Er wordt 60 keer per seconde een nieuw 'field' gestuurd, dat ofwel de even of oneven scanlines bevat.
Er moet dus sowieso 60 keer per seconde 'iets' geupdate worden op het scherm.
De fields worden door de TV eerst nog ge-deinterlaced met een bepaald filter, om aliasing zoveel mogelijk te voorkomen, en dus maakt de TV er 60 frames per seconde van. Aan de kant van het scherm is het dus eigenlijk altijd wel 1080p60. Alleen voor transport wordt interlacing gebruikt als een vorm van datacompressie (1080i60 heeft ongeveer evenveel bandbreedte nodig als 720p60).
nou beide de cisco en horizon box sturen data weg @ 50hz en ook de dvd en blueray spaler doen dat (dat is dus het signaal dat er binnen komt.

Dat de originele source mischien anders is is een ander verhaal maar de tv krijgt dat signaal dus niet binnen.
Hier in Europa wel ja, dat heet PAL.
In de VS gebruikte men vroeger NTSC, en dat was dus 60 Hz ipv 50 Hz.
Daarom zijn hun HD-formaten ook nog steeds 60 Hz, en die van ons 50 Hz (bij PCs heeft men ook in Europa altijd 60 Hz aangehouden, er waren geen PAL-versies van CGA/EGA/VGA), zoals dusty-2011 dus al zei.
Dat betekent dus ook dat Amerikaanse DVDs/BluRays anders zijn dan die van ons hier.
De meeste TVs kunnen echter beide formaten aan. Als je je PC aansluit, kun je kiezen uit 50 of 60 Hz.

De keuze om de framerate vast te houden bij de overstap naar HD is waarschijnlijk geweest omdat ze op die manier de content makkelijker kunnen terugschalen voor SD-devices.

[Reactie gewijzigd door Scalibq op 12 juli 2015 12:04]

AMD logic:

Laten we een Mini-ITX kaart maken die vooral gebruikt wordt door mensen die een gamebak in de huiskamer willen hebben, maar zonder hdmi 2.0 zodat ze maar 30hz kunnen @ 4K

Kan je net zo goed een R9 290(X)/390(X) kopen omdat die bijna altijd 30FPS halen @ 4K.

[Reactie gewijzigd door Koning Willy op 10 juli 2015 14:38]

Of je neemt een receiver met displayport in en hdmi2.0 out. En ook genoeg 4k tv's die geen hdmi 2.0 hebben.
Of je neemt een receiver met displayport in en hdmi2.0 out.
Dat zijn extra en onnodige kosten die je maakt. Ik zou die kosten bij de aanschafprijs van de videokaart optellen. Bovendien voegt dit waarschijnlijk een bepaald aantal ms latency toe (input lag), wat niet handig is met gamen. Hoe minder input lag hoe beter.
Je hebt het over gamen op een tv. En dan ga je moeilijk doen om input lag? Tv is zoiezo al niet gemaakt om te gamen.
Console gamen doe je toch ook op de TV, of is het een PC master-race uitspraak? Ik game nu al een paar jaar met mijn PC in de huiskamer op de bank en het bevalt me goed.
Tuurlijk kan je er op gamen. Maar het is niet ideaal. Net zoals gamen op wifi niet ideaal is.
Same, beste van alles....
Je hebt het over gamen op een tv. En dan ga je moeilijk doen om input lag? Tv is zoiezo al niet gemaakt om te gamen.
Veel TV's hebben een game mode met sterk gereduceerde input lag. Dan is het natuurlijk zonde als je doet doorlussen via een receiver die weer flink wat input lag toevoegt.
Flink wat input lagg? Ik kan die van mij zo instellen dat hij 0 ms extra inputlag geeft. Dus nee die vlieger gaat niet op.
Als je het signaal omzet van displayport naar HDMI 2.0 dan komt daar wat input lag bij kijken. Dat kan niet in 0 ms.
Dit artikel gaat niet over de Fury Nano.
Nee, ik had het over alle 3 Fury's. Fury X past ook al in bijna alle Mini-Itx kasten.
Dit betreft de luchtgekoelde versie van de R9 Fury serie. De mini itx variant van deze kaart is de R9 Nano.
Of je gebruikt gewoon DP omdat dat een beter platform is...
Sorry hoor, maar waarom zou je ingodsnaam een Fury aan een TV hangen? De Fury is gemaakt voor gamen, TV's gemaakt voor TV kijken.

Wil je een HTPC, dan vraag ik me af waar heb je de 60Hz voor nodig? Films zijn 24FPS en alleen Youtube heeft 60FPS content (welliswaar alleen met 1080P). De tweede vraag waarom een Fury voor een HTPC? Dan gooi je gewoon geld weg.
Omdat jij het zo ziet betekent niet dat iedereen het zo ziet. Ik vind het heerlijk om big PC titels zoals the Witcher 3 op zo mooi mogelijk met zoveel mogelijk frames naar een goede TV uit te sturen en dan het te spelen met een Xbox 360 controller.
Yep, PC Gaming op TV is nu hip, vooral omdat je een 49 inch 4K IPS TV kan kopen voor het prijs van een goeie 28 inch monitor.
Tv's zijn sinds er fatsoenlijke resoluties opzitten juist geschikt om op te gamen, het beeld van mn plasma vind ik zelfs mooier dan mn gewone monitor, beetje een "rare" opmerking.
Omdat dit een van de marketing-punten was van AMD.
Dat de Fury-X een leuke kaart was voor Mini-ITX builds.

Er zijn genoeg mensen die ook op hun TV willen gamen, nu met Steam Link en Nvidia Shield console gaat het alleen maar toenemen.

[Reactie gewijzigd door Koning Willy op 10 juli 2015 14:53]

Mini ITX build =/= HTPC. Gamen moet je gewoon niet willen op een TV. Had wel meer verwacht van een "Tweaker"...
Nog zo iemand die denkt te weten wat anderen moeten willen en wat niet. Je bent vast heel gezellig in een groep.
Dus als je wilt gamen op een tv, lekker op de bank met een gamepad in je hand na een dag druk werken op kantoor waarbij je stijf 7.5 uur voor je monitor zit en geen zin heb om thuis weer achter je bureau te kruipen dan ben je geen "tweaker" ?

Gamers zijn zekers ook geen gamers als ze hun gaming behoefte doen op een console.

[Reactie gewijzigd door 7th op 10 juli 2015 15:02]

Trouwens wat @Lucasino niet weet is dat HDMI 2.0 ook 120hz @ 1080P support, en sommige 4K TV's kunnen dit echt native weergeven.
We gaan hier wel heel erg offtopic, maar als je zo eigenwijs bent:

Wie ben jij om te bepalen dat ik (of andere mensen) geen Witcher 3 mag op doen op mijn pricewatch: LG 60UB850V Zilver, Zwart en potje Battlefield op mijn pricewatch: Acer XB270HU Zwart ?

Ik had gewoon verwacht dat AMD HDMI 2.0 op de Fury(X) zouden zetten, daarom heb ik nu toch voor de 980Ti gekozen.

[Reactie gewijzigd door Koning Willy op 10 juli 2015 15:01]

Dat is leuk, maar wat als AMD weer tegenwerkt zoals ze gedaan hebben met DVI naar HDMI adapters waar audio geblokkeerd wordt door middel van hun drivers omdat de adapter niet van AMD zelf afkomstig is?

http://www.phoronix.com/s...page=news_item&px=MTQ4MDE
For some AMD Radeon graphics cards when using the Catalyst driver, the HDMI audio support isn't enabled unless using the simple DVI to HDMI adapter included with the graphics card itself... If you use another DVI-to-HDMI adapter, it won't work with Catalyst. AMD intentionally implemented checks within their closed-source driver to prevent other adapters from being used, even though they will work just fine.
So long story short, AMD clearly went out of their way to try to prevent their customers from using Radeon HD graphics cards with DVI to HDMI adapters that weren't provided by ATI/AMD. They added an extra EEPROM to the I2C bus of these adapters that their closed-source Catalyst driver on Windows and Linux then checks for in determining whether to enable HDMI audio. It's not that other adapters are incompatible as these artificial checks aren't found in the open-source Radeon DRM driver so there any DVI-to-HDMI adapter will be supported and it's been confirmed to work fine. This could theoretically be related to High-bandwidth Digital Content Protection (HDCP) requirements, but doesn't make too much sense with AMD being the only vendor of such HDMI adapters and only their Catalyst software driver forcing such checks. This is good news if you use the open-source driver, but bad news if you're using the Catalyst binary blob.
Ik zou wel eens willen weten of dit ook het geval is met DP naar HDMI, want voor TV gebruik wil je natuurlijk wel de mogelijkheid tot audio over HDMI te kunnen hebben.
O jee WEER iemand die met deze fake DP 1.2 -> HDMI 2.0 adapter komt... Lees de customner reviews erbij maar even door. En goh waarom staat deze adapter niet zoals zodaning bij Belkin geadverteerd? Dit is een magere DP 1.2 -> HDMI 1.4 adapter die door een oplichter verkocht wordt op Amazon als HDMI 2.0 ... tja het stekkertje past.
Ok hier gaan we dan:

1: HDMI 2.0. Is het echt nodig? 95% Niet. Daarintegen had een ABSOLUUT goede toevoeging geweest voor de value van deze kaart. Dus misser van AMD.
Ik zelf zie het nut van 4K TV's maar ik ga dan ook geen 5000 Euro voor een TV uitgeven.
Echter Zijn die mensen er wel en jammer dat ze die boot mislopen.
2: Energie verbruik, stuk beter. Echter kan nog beter.
3: Teveel mensen staren zich blind op het 4tje van het Vram. 4GB HBM = niet gelijk aan 4GB GDDR5.
Sterker nog komt dichter bij 5 GB GDDR5 dan bij 4. Daarnaast DX12 komt uit en zover ik het zie gaat dat veel efficienter om met Vram. Dus met DX12 zal 4GB HBM vergelijkbaar zijn met meer dan 5 GDD5 met DX11. Dus kan er mee door.
4: "Maar 3 nieuwe kaarten" Basically heeft Nvidia er maar 4. Wordt naar geruchten 5.
Vind ik opzich nog geen ramp maar ook hier weer 1 of 2 meer had zeker leuk geweest.
5: Op 4K komen de kaarten behoorlijk dicht bij een 980Ti MAAR jammer dat ie op lagere resulties de plank mis slaat. Had leuker geweest als ze zich iets minder op 4K prestaties hadden gericht
6: Mensen mekkeren ook niet over de GTX970 met maar 3,5GB VRam. Dan roepen ze opeens dat dat wel genoeg is en future proof. En de GTX 980 heeft ook maar 4GB.

Nu komt er een stukje "ik hoop".
Dit is gebaseerd op het feit dat AMD naar 14nm gaat volgend jaar.
1: ALS AMD volgend jaar naar 14nm gaat dan betekend dat dat er mogelijk maar 1 jaar tussen Fury en een 14nm lineup (kan) zitten dus in dat geval ERG logisch dat ze niet 5 of 6 nieuwe kaarten uit brengen.
Moeten ze dat natuurlijk ook wel doen anders tegenvaller.
2: Ook in dit geval zal de volgende kaart HBM 2 en dus meer Vram hebben.
3: Als de kaart dus al snel een opvolger krijgt is deze kaart meer voor de niet extreme topsegment bedoeld (dus de 5% ubertechs die alles het beste willen) maar voor bevoorbeeld meer voor mensen die waterkoeling willen zonder dat zelf allemaal te doen (in geval van de furyX) en de fury meer voor mensen die wel wat willen investeren in een kaart waar ze nog wel 2-3 jaar meekunnen.
Maar echt wel jammer dat ze daarmee toch wel weer de plank ietwat mis slaan.

De grote vraag is dus nu: Gaat AMD volgens jaar al nieuwe kaarten gebaseerd op HBM 2 en 14nm uitbrengen en zo ja ... dan hadden ze dat NU al aan moeten geven eerlijk gezegd.
De kaarten geven goede prestaties, maar missen wel hier en daar wat dingen die eerlijk gezegd de value van de kaart absoluut hadden verhoogd.
Komen er al inderdaad kaarten van 14nm en met HBM 2 volgend jaar uit dan zullen die direct tegen over de nieuwe Nvidia line up gaan ipv een jaar later en laten we hopen dat ze dan wel alles toevoegen wat er nu nog mist.

Kort: Leuke kaart, echter teveel aan de ene kant op het opsegment gericht (4K resolutie) maar dan aan de andere kant daar weer wat misser voor dat zelfde segment aan toevoegen (geen HDMI 2.0).
Niet slecht, maar niet overtuigend genoeg om echt met Nvidia mee te komen deze ronde.
De grote vraag is dus nu: Gaat AMD volgens jaar al nieuwe kaarten gebaseerd op HBM 2 en 14nm uitbrengen en zo ja ... dan hadden ze dat NU al aan moeten geven eerlijk gezegd.
De kaarten geven goede prestaties, maar missen wel hier en daar wat dingen die eerlijk gezegd de value van de kaart absoluut hadden verhoogd.
Komen er al inderdaad kaarten van 14nm en met HBM 2 volgend jaar uit dan zullen die direct tegen over de nieuwe Nvidia line up gaan ipv een jaar later en laten we hopen dat ze dan wel alles toevoegen wat er nu nog mist.

Kort: Leuke kaart, echter teveel aan de ene kant op het opsegment gericht (4K resolutie) maar dan aan de andere kant daar weer wat misser voor dat zelfde segment aan toevoegen (geen HDMI 2.0).
Niet slecht, maar niet overtuigend genoeg om echt met Nvidia mee te komen deze ronde.
Ik denk dat volgend jaar zowel AMD als Nvidia naar het 14/16nm procede gaan. Als ze het niet doen is dat omdat het kleinere procede nog niet klaar is, beide zitten niet op 28nm omdat ze het zo leuk vinden.
AMD zal tegen die tijd HDMI 2.0 ook erin hebben zitten.
Mijn verwachting is toch echt dat de 14nm capaciteit van AMD eerst wordt aangewend voor de productie van CPU's en APU's. De eerste reden gaf je zelf al, nVidia bevindt zich ook nog op 28 nm, een concurrentie argument is er dus niet echt. AMD zou haar kaarten koeler kunnen krijgen, en de performance licht kunnen verhogen. Als AMD naar 14 nm beweegt, moet, en kan, nVidia vlot volgen. AMD bereikt met een dergelijke strategie dus maar een tijdelijke voorsprong.

Iets anders dat op de achtergrond meespeelt is de toekomst van AMD als bedrijf. De topic nieuws: Gerucht: AMD overweegt zich op te splitsen geeft te denken. Mocht er een splitsing komen, en we weten nog niet of zoiets te gebeuren staat, laat staan in wat voor vorm, dan kan dit op een van de grote onderdelen van AMD (grafische of CPU divisie) grote impact hebben. Toch maar even refereren aan een van mijn reacties in dat topic. AMD lijkt zich te beraden op opdeling ondanks alle voordelen van de huidige samenhang. De enige reden hiervoor kan zijn dat het bedrijf niet voldoende capaciteit ziet om beide takken voldoende te ontwikkelen. Als je dan bedenkt dat het unique selling point van de grafische divisie, het HBM, ook verwerkt raakt in de CUP/APU architectuur en AMD erg weinig communiceert over de GPU divisie (zie voor meer details de reactie) hou ik er sterk rekening mee dat AMD wegdraait bij de GPU divisie. Het zou wel de radiostilte over de toekomstige roadmap verklaren. Ik hoop van harte dat dat gerucht uit dat topic achteraf "ruis" blijkt te zijn geweest en dat AMD nieuwe stoutmoedige plannen kan presenteren. Voorlopig moeten we het met briefings doen als deze van Anandtech

edit:: typo

[Reactie gewijzigd door teacup op 10 juli 2015 23:08]

HDMI 2.0 nodig?

Jazeker, een ieder die een HTPC voor een 4k tv wil gaan maken zal toch voor een 4k resolutie hdmi 2.0 moeten hebben. Met HDMI 1.4a heb je een resolutie limiet.

Niet alleen op een high end kaart maar juist ook op passief gekoelde kaarten voor hetzelfde doel.

Gemiste kans?!

Let wel dat 4k video is aangekondigd voor het eind van dit jaar. Dan komen ook de films uit in 4k op een 100GB blu-ray schijfje en komen er echte 4k blu-ray spelers op de markt!

Dus het wordt eigenlijk pas echte noodzaak aan het einde van dit jaar als alles op de markt komt en 4k op schijfjes beschikbaar is. Dan komt eigenlijk ook de nieuwe serie kaarten van AMD op de markt en het zou dan slim zijn om de gehele lijn met HDMI 2.0 te gaan voorzien.
HDMI 2.0 nodig?

Jazeker, een ieder die een HTPC voor een 4k tv wil gaan maken zal toch voor een 4k resolutie hdmi 2.0 moeten hebben. Met HDMI 1.4a heb je een resolutie limiet.
Zowel HDMI 1.4 als HDMI 2.0 hebben een maximale resolutie van 4096x2160, dus nee, je hebt geen resolutie verschil. Het enige verschil is de maximaal haalbare refreshrate daarbij, 24Hz vs 60Hz. Aangezien bijna alle films nog in 23.976FPS draaien is het verschil in refreshrate tussen HDMI 1.4 en 2.0 je minste zorgen voor een HTPC.

Daarbij vraag ik mij af wat je met een Fury of Fury X moet in een HTPC. Als het tegelijk een Steambox of iets dergelijks is oke, maar puur voor HTPC doeleinden is het natuurlijk van de zotten als je er een Fury (X) in stopt.
Nee hoor er zijn tooltjes voor smooth video playback en die gaan hoger dan die 30fps waar jij het over hebt. Dus meer dan 30 fps via hdmi 2.0 IS welkom.

Of vind je hd video kijken met judder en stotter fijn kijken. :)

Ik vind die resolutie dus wel gecrippled, je hebt zoals je zelf zegt maar 30fps via hdmi 1.4a. Ik zie dat als 1 ding via hdmi. Resolutie en fps gaan samen hand in hand.

[Reactie gewijzigd door Tourmaline op 11 juli 2015 09:06]

Daarom zeg ik dat het een gemiste kans is voor AMD.
En de groep mensen die een HTPC voor een 4K tv gaat maken valt onder die 5%.
Dus statistisch gezien geen grote groep dus niet super nodig NU in dat opzicht.
Ik vind alleen dat ze het zeker hadden toe moeten voegen, ten eerste voor de groep mensen die idd dat soort HTPC's bouwen, en om de Fury een iets langere levens "vatbaarheid" te geven. Ik denk nml dat AMD niet aan het einde van dit jaar nieuwe kaarten zal releasen. Eerder half tot eind 2016 ALS (en dit is een grote als) ze idd naar 14nm kunnen springen.
Ik hoop dat de converters van displayport naar HDMI 2.0 niet te duur zullen worden. Als AMD slim is, gaan ze die zelf leveren.
3: Teveel mensen staren zich blind op het 4tje van het Vram. 4GB HBM = niet gelijk aan 4GB GDDR5.
Sterker nog komt dichter bij 5 GB GDDR5 dan bij 4. Daarnaast DX12 komt uit en zover ik het zie gaat dat veel efficienter om met Vram. Dus met DX12 zal 4GB HBM vergelijkbaar zijn met meer dan 5 GDD5 met DX11. Dus kan er mee door.
Dit is echt onzin.
Een byte is een byte. HBM is puur een andere manier om geheugen aan de controller te binden dan GDDR. Dit maakt bredere bussen mogelijk, en daardoor meer bandbreedte.
Maar dat maakt niet dat het 'dichter bij 5 GB GDDR5 dan bij 4' komt. Dat slaat echt nergens op, want bandbreedte heeft niets te maken met hoeveelheid geheugen, en meer bandbreedte kan niet compenseren voor een gebrek aan geheugencapaciteit.
6: Mensen mekkeren ook niet over de GTX970 met maar 3,5GB VRam. Dan roepen ze opeens dat dat wel genoeg is en future proof. En de GTX 980 heeft ook maar 4GB.
Kleine kanttekening: Bij AMD is de Fury/Fury X de snelste kaart, en juist die kaarten profiteren het meest van meer geheugen, omdat ze door hun snelheid makkelijker hoge resoluties aankunnen, en dus meer gedetailleerde textures/geometrie.
De GTX980 is bij nVidia niet de topkaart, daar zitten nog de 980Ti en Titan X boven die WEL meer dan 4 GB hebben.
Zeker aangezien de Fury X qua prijs en performance dicht bij de 980Ti zit, had ie eigenlijk ook meer dan 4 GB moeten hebben. Nu is het dus een nadeel ten opzichte van z'n directe concurrent, ongeacht of je dat 'genoeg' vindt of niet. Bij nVidia krijg je gewoon 6 GB op de 980Ti voor hetzelfde geld, en dat is dus 50% meer, dat is behoorlijk.

[Reactie gewijzigd door Scalibq op 10 juli 2015 23:27]

De geheugenbeperking van 4GB wordt nog verergerd door het feit dat deze kaarten juist in de markt worden gezet met ondersteuning voor Quad Crossfire, wat veel van de voordeligere modellen niet ondersteunen. Pak je een setup met 4 Fury (X) kaarten, dan kun je opeens alle games prima op 4k draaien met aardige FPS op hoge kwaliteit, maar juist in dat scenario ga je de beperking van 4GB VRAM voelen. In die zin tonen alle benchmarks met enkele videokaarten het meest rooskleurige scenario voor de Fury, want dan gaat de kwaliteit op 4k terug van ultra naar high of zelfs medium om het qua fps 'speelbaar' te houden met een enkele GPU. Zo'n kwaliteit is dan natuurlijk minder veeleisend qua VRAM en presto, de benchmarks zien er zo rooskleurig mogelijk uit voor de AMD Fury.

Dus tweakers: hertest de meest VRAM intensieve games eens met een Quad Fury opstelling op 4K resolutie en de hoogste mogelijke grafische kwaliteit als jullie die mogelijkheid hebben. Plaats daar tegenover een Quad 980 Ti opstelling en dan wordt snel duidelijk of we die extra 2GB VRAM van de 980 Ti wel of niet nodig gaan hebben in de nabije toekomst. De voordelen van DirectX 12 worden toch snel genoeg weer teniet gedaan doordat games steeds net wat meer gaan vragen.

@Rhylian, de GTX970 hebben genoeg mensen al ontraden voor alles boven de 1920x1080 omwille van die trage laatste 0,5GB. Laten we die kaart dan verder ook graag buiten dit verhaal houden, want dit richt zich in alles op top-end 4K performance en niet op high-end value/efficiency met resolutie 1920x1080 of lager. Daar is een enkele 390X ook prima voor.

[Reactie gewijzigd door Bas van der Doorn op 10 juli 2015 23:35]

@Rhylian, de GTX970 hebben genoeg mensen al ontraden voor alles boven de 1920x1080 omwille van die trage laatste 0,5GB. Laten we die kaart dan verder ook graag buiten dit verhaal houden, want dit richt zich in alles op top-end 4K performance en niet op high-end value/efficiency met resolutie 1920x1080 of lager. Daar is een enkele 390X ook prima voor.
Dat vind ik ook weer een beetje kort door de bocht.
Ik heb zelf pas ook een 970 gekocht, wetende van de beperkingen met 3.5 GB, en niet echt verwachtende dat ik ermee kon gamen op 4k, maar het valt reuze mee.
Vooral oudere/lichtere games draaien makkelijk op 4k met 4xMSAA (ja, je ziet ook op 4k nog duidelijk jaggies, dus AA blijft nodig), 16xAF, en alles op max detail (zelfs Crysis 1, 2 en 3 zijn best goed te doen).
Je moet idd niet verwachten dat je de nieuwste/zwaarste games met alle detail op max op 4k gaat draaien, maar het is ook weer niet zo dat alles per se in 1080p moet.
Hier al de GTX 980 Ti Sli VS R9 Fury X Sli
http://www.tweaktown.com/...ty-11-520x2160/index.html

Wow wat een verschil maken die 2 extra GB GDDR5 zeg pfff ohhhhh goh de Fury X Sli is bijna hetzelfde of soms zelfs beter. Ja idd man die 2 extra GB van de 980 Ti in sli maakt echt het verschil hoor! .. Nee dus -_-
Ik zie soms toch een ENORM verschil in de minimale fps in games van jouw benchmarks. Dat maakt het er niet prettiger op met gamen en ken heel goed het gevolg zijn van te weinig vram. Minimale fps van 7 tegenover 25 van nvidia soms. Neemt niet weg dat wanneer dat RAM geen rol speelt de AMD kaarten meer power lijken te hebben.

[Reactie gewijzigd door OriginalFlyingdutchman op 11 juli 2015 09:04]

Yup de min FPS ben ik ook niet over te spreken.
Zou door de drivers kunnen komen, maar alsnog ondanks dat de average hoger ligt vind ik die dip naar zulke lage FPS heel jammer.
Om een discussie over de hoeveelheid grafisch geheugen te beslechten kunnen crossfire en sli opstellingen maar beter buiten beschouwing worden gelaten. De geheugens tellen immers niet op. Misschien dat DX12 daar nog verandering in gaat brengen, maar dat is een andere werkelijkheid.

Met de link die je geeft heb ik wat moeite, want ze mist nuance. Wat ik zo snel zag wordt er met een game, battlefield, getest. Dit kan op onervaren lezers een vertekend beeld achterlaten. Mensen die wat langer reviews lezen weten dat resultaten over verschillende games behoorlijk kunnen verschillen. Voor een goede Fury X review heb je performance informatie van veel games nodig. En dan nog moet je uitkijken dat de gekozen games niet cherry picked zijn om de kaart optimaal te laten uitkomen. Een voorbeeld van een review met veel testresultaten is die van Guru3d (Fury x). Voor tests van deze "gewone" Fury wil ik bovendien kopers vooral aanmoedigen zelf een gewogen oordeel te vellen door niet alleen naar resultaten van een site te kijken, maar ook de resultaten van andere sites hierin mee te nemen.

Helaas is het beoordelen van grafische kaart prestaties tegenwoordig best moeilijk, laat staan om een goede test op te stellen die beide kampen goed tot hun recht laten komen. Dit levert de schizofrene situatie op dat je als gebruiker lastig kan beoordelen wat het beste is voor jouw situatie.

Een genuanceerde discussie over testresultaten kan mensen die zich oriŽnteren zeker helpen, zolang we ons allemaal maar bewust blijven van de kanttekeningen die bij onze uitspraken te zetten zijn, en dat een enkel testresultaat vaak maar een halve waarheid laat zien.

[Reactie gewijzigd door teacup op 11 juli 2015 12:57]

Ze testen daar 6 games en Uni-engine. Dus niet alleen 1 game
Maar wel allemaal weer op medium settings, zoals bij LOTR: Shadows of Mordor. Ik zeg 4K @ ultra of als dat echt single digit FPS oplevert 4K @ high en in ieder geval 2xAA of iets als MSAA. Anders hoef je VRAM al niet te noemen, want op medium heb je in vergelijking ook bijna niets nodig... dan nog wil ik de ultra quality setting vergelijking zien op de maximale resolutie waar het nog wel qua FPS zinnig is, bijv. 2560x1600. Ultra is de maximale kwaliteit en daar kopen sommigen 4 stuks van de Fury voor. Voor hen is dat mogelijk bepalend. Ik zie het nut niet van 4K @ medium, dan mis je zoveel in je models, textures, afstand, water levendigheid, etc... dat je dan beter een iets lagere resolutie pakt, maar wel hogere kwaliteit. Die voorkeur kan verschillen natuurlijk, maar dat die testen er niet zijn is ronduit vreemd...
Eerlijk gezegd ben ik het met je eens dat het erg jammer is dat er geen high of ultra test gedaan zijn maar waarschijnlijk zijn de framerates voor beide kaarten dan zo achterlijk laag dat het gewoon de moeite niet is.

Echter De test link die ik aangaf is triple 4K en niet standaard 4K. Dus dat zuipt ook meer geheugen. Dus ik denk eerlijk gezegd dat ze express het naar medium gezet hebben voor de mensen die multi monitor setup preferen over high/ultra settings.
Er zullen ook niet echt bakken mensen zijn met eyefinity of surround maar het wordt wel steeds populairder. Dus eigenlijk ondanks dat allebei de kaarten in de meeste gevallen redelijk presteren op medium op 3X4K ... is het gewoon weg duidelijk dat ze allebei gewoon niet futureproof zijn op dat punt. Daarnaast willen ze ook (las ik dat ze daar eind 2016 op over willen gaan) 8K gaan toevoegen als resolutie en ik vraag me eerlijk gezegd af of beide kaarten dat wel trekken. Als 8K inderdaad dan al eind 2016 er is zijn zowel de 980 Ti en R9 Fury X eigenlijk gewoon dan al obsolete voor de ultra highend segment van gebruikers die graag multi monitor 4K of hoger en dan minimaal 60 FPS willen.

Bottom line, beide kaarten zijn eigenlijk alleen voor de gemiddelde gamer lang genoeg houdbaar. Voor het topsegment ... niet echt. Die zullen zeker zodra 8K resolutie of een nieuwe kaart er komt meer hebben aan de videokaarten die er dan gereleased worden met HBM 2
"Om een discussie over de hoeveelheid grafisch geheugen te beslechten kunnen crossfire en sli opstellingen maar beter buiten beschouwing worden gelaten."

Alleen zeggen alle testers: op ultra quality is mijn FPS te laag met een enkele fury, dus ga ik 4K resolutie op medium. Fair enough, maar dat probleem heb je niet meer met 4 fury's, dus dan kan die kwaliteit wel. En juist omdat het VRAM allemaal hetzelfde is zou op die hogere kwaliteit die meer VRAM vraagt dezelfde hoeveelheid VRAM een probleem kunnen worden. Zoals het nu qua testen staat is het kopen van 4 fury kaarten een grote gok qua haalbare kwaliteit op 4K. Daar zou je juist dit soort reviews voor moeten hebben toch?
God god ik zeg Sli ipv crossfire wow.
Uit mijn link:
BF4: 52min FPS Average:72 Fury X Crossfire
980Ti Sli: 37 Min Average 60.

Lagere FPS voor de 4GB HBM? interessant hoor ... maar nee dus.
Metro: praktisch gelijk

Shadow of Mordor?
Average ligt hoger voor de 4GB kaart
Thief, zelfde
Tombraider wel lager
Bioshock hoger.

Dus resultaat van games:
1 gelijk, 3 hoger, 1 lager.
Wie is hier nu blind?
Je redenatie klopt wel maar de theorie niet....
HBM is sneller maar die andere kaart heeft geen HBM dus kan je ze niet op jouw manier vergelijken.
Het punt is namelijk ook of er meer dan 4GB effectief wordt gebruikt en als dat het geval is zal de FURY X toch ook inkakken qua prestatie....
En nu praat jij onzin. 4GB DDR verwerkt gegevens ook niet aan 4GB DDR4 Zelfde met video geheugen. Het is niet alleen maar een andere manier het is ook een manier waarop het geheugen effectiever is. Aangezien het meer bandbreedte heeft verwerkt het data sneller. Period.
Waar praat ik onzin dan?
Ik zeg dat het sneller is.
Maar jij komt ermee dat omdat het sneller is, dat 4 GB 'eigenlijk' meer 5 GB is.
Dat slaat nergens op.
In jouw hoofd is 4 fietspaden naast elkaar kennelijk ook net zosnel als 4 Dus die 4GB HBM werkt sneller dan 4 GB GDD5 zou doen en zou dus wat betreft dat meer te vergelijken zijn met een 5 GB GDDR5 kaart.
Ja, het werkt sneller, maar nee, dat is TOTAAL niet te vergelijken met een kaart die meer geheugen heeft.
Als het geheugen vol is, is het vol. En dan moet je dus gaan swappen. En dat gaat via het systeemgeheugen, wat dus NIET sneller is, want dat heeft niets met HBM te maken.
http://www.tweaktown.com/...ty-11-520x2160/index.html voor je het geval je de link niet kan vinden :P
Maar ja zal zeker wel weer van de AMD propaganda machine komen niet?
Iig die 6GB legt het vaak genoeg af van de 4GB HBM. Dus: yup de 4GB HBM is wat betreft prestaties zeker te vergelijken met de prestaties van 5 of zelfs 6 GB GDDR5: Period en geen discussie over mogelijk
Nee, want die prestaties hebben niets te maken met de *hoeveelheid* geheugen, maar met de *bandbreedte*.
Wat je zegt, blijft dus onzin.
Zolang je niet meer dan 4 GB gebruikt, kan een kaart met 4 GB prima sneller zijn dan een kaart met 6 of 8 GB. Da's logisch. Een kaart wordt niet sneller van meer geheugen. Het gaat pas verschil maken als je dat extra geheugen nodig hebt, en je dus moet gaan swappen als je dat geheugen niet hebt.

[Reactie gewijzigd door Scalibq op 11 juli 2015 09:56]

Leer lezen ... Ik zeg dat de prestaties van de 4GB HBM vergelijkbaar zijn met de prestaties van 5GB GDDR5 wat dus inhoud dat je die tweet op die manier kan vergelijken.
Ja, ik weet dat je dat zegt. Ik zeg alleen al de hele tijd dat daar niets van klopt.
Dus waar jij jouw blah vandaan haalt weet ik niet
Ik heb al zo'n 20 jaar ervaring met het ontwikkelen van 3D graphics engines, en weet wel het een en ander van hoe CPUs, GPUs en geheugen zich gedragen. Dat is m'n vak.
maar welkom in de wereld waar als je 4 stukken touw van 1,25 cm diameter hebt dat die vergelijkbaar zijn met 5 stukken touw van 1 cm diameter. Inderdaad niet precies hetzelfde, maar wat betreft dikte vergelijkbaar.
Nee, dit slaat dus nergens op.
Je kunt meer bandbreedte niet vertalen naar meer geheugen. Zo werkt het gewoon niet.
Volgens mij ben je in de war met threads of zo. Daar is het wel zo dat twee trage threads evenveel werk kunnen doen als 1 snelle thread.
Maar geheugen is gewoon een 'doos' waar je dingen in kunt opslaan. Als die vol is, is ie vol. Of je die doos nu snel of langzaam kunt vullen, er gaat nooit meer in passen. Alle dozen van 4 GB zijn exact even groot, en er past exact evenveel in. Dat is ook wat 4 GB betekent: dat er 4 giga-bytes in passen. Dat is dus een exacte hoeveelheid.
Simpel wiskunde en nog makkelijk dat zelfs jij het snapt kan ik het echt niet uitleggen -_-
Ik denk dat ik het veel beter snap dan jij, en je uitleg deugt totaal niet. Ik hoop dat je het ooit gaat inzien, maar je lijkt me nogal eigenwijs.
Als ik een doos heb van 4 bij 4 en die kan ik sneller leeg maken als een doos bij 5 bij 5 kunnen we zeer zeggen in de normale wereld (dus in de niet scalibq hersens met kronkel) dat wat betreft het leeg gooien we die die twee dozen kunnen vergelijken in hoeveel ze verwerken.
Het jammere hieraan is dat dit niet is hoe je geheugen gebruikt op een videokaart.
Ja, als je constant 4 GB zou uploaden naar de videokaart, en dan weer weggooien, dan kun je dat vaker doen als je meer bandbreedte hebt. Maar dat is niet de use-case.

Je uploadt namelijk je textures, geometrie en andere buffers maar 1 keer, en dan ga je daarmee renderen.
De bandbreedte is dus vooral belangrijk bij het lezen van de data.
Maar omdat je gewoon 4 GB hebt, kun je dus niet meer data kwijt dan op een andere kaart met 4 GB. En dus als je iets wil lezen dat nog niet in dat geheugen zit, moet je gaan swappen. En bij swappen is je systeemgeheugen de bottleneck, niet het videogeheugen.

Heb je een kaart met meer geheugen, dan past dat dingetje wel in het geheugen, en hoef je dus niet te swappen, wat dus sneller is.
En ja je beweerd dat je al 20 jaar ervaring hebt maar sorry dit is zo basic dat ik me echt afvraag of je er wel uberhaupt verstand van hebt.
Misschien vind je het wel interessant om eens een blogje van mij te lezen. Bv deze waarin ik een 3d renderer ontwikkel die op een systeem draait met 16 KB(!) geheugen, en een 4.77 MHz processor (zonder FPU): https://scalibq.wordpress...23/8088-mph-the-polygons/
Die heeft overigens de eerste prijs gewonnen op Revision 2015.
Je kunt prestaties namelijk PRIMA vergelijken.
Je kunt een quadcore met HT ook bijv prima vergelijken qua multi core prestaties met een 8 core. Ondanks dat ze anders zijn.
Maar dat is dus niet te vergelijken met geheugen, zoals ik al zei.
Want ook voor CPUs geldt: een systeem met 4 GB zal trager zijn dan een systeem met 8 GB op het moment dat je meer dan 4 GB geheugen moet gebruiken. Dat systeem moet dan gaan swappen met de HDD, en dat is veel trager.

[Reactie gewijzigd door Scalibq op 11 juli 2015 10:45]

Tenzij je dus SNELLER geheugen gebruikt :P
Nee, want dat maakt dus niet uit, voor de zoveelste keer.
Je bottleneck is namelijk niet het videogeheugen, maar het systeemgeheugen. Als DAT sneller was, DAN zou je sneller kunnen swappen. Maar dat is niet afhankelijk van je videokaart.
En ik heb 1 keer je blogje gelezen ja lol.
Was niet onder de indruk dus 1 keer is genoeg.
Ja, gaat flink boven je pet natuurlijk. Als geheugenbandbreedte en opslag al boven je pet gaat, dan zul je niet veel van mijn blogs begrijpen. Maar dat zegt meer over jou, want zoals gezegd, deze demo heeft Revision 2015 gewonnen. Dus mensen die er wel verstand van hebben, waren blijkbaar wel onder de indruk, en hebben voor ons gestemd.
lol heb net de winnaars bekeken van Revision 2015. Goh je staat er niet tussen :P.
Nee, ik ga erom liegen? http://www.pouet.net/prod.php?which=65371
Echt, zielig.
Lees ook eens de reacties, zijn vrijwel allemaal bijzonder enthousiast. En als je op '8088 MPH" googlet, zie je dat er ook tot ver buiten de demoscene enthousiast op gereageerd is.
En als het boven mijn pet ging dan was ik wel onder de indruk geweest :P.
Niet als het zover boven je pet gaat dat je niet eens beseft waarom je onder de indruk geweest zou moeten zijn.
Paarlen voor de zwijnen, zoals men zegt.
En alleen in scalibqs wereldje als iets zichzelf sneller vol EN leeg kan gooien dan een grotere hoeveelheid wat zichzelf langzamer vol en leeggooit kunnen we dit niet vergelijken :P
Geheugen gooi je niet leeg. Je overschrijft oude content met nieuwe.
Punt is verder dat je het geheugen misschien in theorie sneller kunt vullen, maar dat vullen gebeurt vanuit systeemgeheugen danwel vanaf de HDD, dus dat is sowieso vele malen trager dan videogeheugen, dus de snelheid van het videogeheugen maakt hier niet uit. Je bottleneck is de rest van het systeem.
Dus de snelheid HBM heeft in de praktijk vooral voordeel bij lezen van textures en render-to-texture operaties. Maar dat zorgt er niet voor dat je op magische wijze 'meer geheugencapaciteit' hebt, of wat je nou eigenlijk precies wou claimen.

[Reactie gewijzigd door Scalibq op 11 juli 2015 15:02]

Ja hoor volgens jou is een GPU dus altijd vol :P. Niet dus.
In principe is geheugen altijd 'vol' ja. Tenminste, er staat altijd wel een waarde in.
'Leeg' betekent vooral dat het niet door een applicatie is gealloceerd, en dus dat de waarden in dat geheugen geen zinvolle betekenis hebben.
Maar het alloceren en dealloceren van geheugen is geen operatie op dat geheugen zelf, maar alleen op de datastructuur die bijhoudt welke blokken geheugen al dan niet gealloceerd zijn, en heeft dus niet te maken met de bandbreedte van dat geheugen.
lol dus dat zou het volgende beteken.
Als een kaart een chunk van 2,5GB Geheugen moet gebruiken, en daarna een een chunk van 2 GB Dan overschrijft ie volgens jou alleen de 2GB en blijft het total op 2,5GB Geheugen usage hangen. (blijft er namelijk inzitten volgens jou totdat het overschreven wordt) Dus als je 2,5GB Vram usage bereikt blijft de usage daarop zitten totdat ie iets moet weergeven dat meer dan 2,5GB Vram is en dan blijft ie daar op zitten. Zelfs als je de toepassing dan sluit en gewoon naar je desktop gaat. Blijft ie daarop hangen totdat je je PC uitzet zeker -_-
lol dus dat zou het volgende beteken.
Als een kaart een chunk van 2,5GB Geheugen moet gebruiken, en daarna een een chunk van 2 GB Dan overschrijft ie volgens jou alleen de 2GB en blijft het total op 2,5GB Geheugen usage hangen. (blijft er namelijk inzitten volgens jou totdat het overschreven wordt) Dus als je 2,5GB Vram usage bereikt blijft de usage daarop zitten totdat ie iets moet weergeven dat meer dan 2,5GB Vram is en dan blijft ie daar op zitten. Zelfs als je de toepassing dan sluit en gewoon naar je desktop gaat. Blijft ie daarop hangen totdat je je PC uitzet zeker -_-
Tjsa, ik weet niet wat ik hiermee moet. Het is duidelijk dat jij niet begrijpt wat het verschil is tussen geheugen-allocatie, en lezen/schrijven van geheugen.
Ik kan hier verder niets mee. Je zult je eerst zelf moeten inlezen, en ontdekken dat er geen 'lege' of 'volle' geheugencellen bestaan, en dat er geen 'leegmaak'-operatie op geheugencellen is.
Je zou hier kunnen beginnen met lezen: https://en.wikipedia.org/wiki/Memory_management
Ok met het risico verder offtopic te gaan ... Lol... Rhylian... je maakt jezelf hier zo langzamerhand wel compleet belachelijk. Lees de comments op Pouet(beroemde demo site) over de 8088 MPH demo maar eens na. Ik vind Scalibq wel eens overdreven NVIDIA fan, maar serieus hij heeft hier recht van spreken en praat geen poep (En ik progammeerde in de jaren 80 ook al wel op nu antieke computers)
Ik heb zowaar daadwerkelijk moeite genomen een tijdje terug om het technische verhaal achter 8088 MPH te lezen en ja het is een hoogstandje. Coding pr0n ! Zoiets zet je niet in elkaar zonder een gedegen kennis van cpu's , geheugen en code optimalisatie.
Hail to the makers of 8088 MPH!

[Reactie gewijzigd door AtariXLfanboy op 11 juli 2015 23:31]

Wat je ook van Scali mag vinden over zijn kijk op Nvidia/AMD, feit blijft wel dat 8088 MPH zeer indrukwekkend is voor de hardware waar het op draait.

Die 8088 mag dan wel op 4.77 mhz draaien, in de praktijk komt het erop neer dat je met nog minder moet doen dan een C64. Daarnaast wordt er gebruik gemaakt van CGA, 1 van de zeer weinige demo's die uberhaupt voor deze standaard gemaakt zijn (Meeste oldskool PC demos zijn sowieso EGA en 286 CPU's)

Hoewel ik het linken van zijn blog ook maar verdedelde linkspam vind blijft 8088 MPH een bijzonder indrukwekkende demo. Dat er uberhaupt 3D aan een redelijke framerate kan worden getoond maakt het des te indrukwekkender.

/offtopic, maar dat wou ik wel even recht gezet zien :)
(Meeste oldskool PC demos zijn sowieso EGA en 286 CPU's)
De demos die op een 286 draaien zijn op 1 hand te tellen. En daarvan hebben de meesten VGA nodig, niet EGA. En dan nog is een 286 vaak te traag, ook al kan de demo erop draaien.
De meeste oldskool PC demos zijn 386/486, 33+ MHz met VGA.

[Reactie gewijzigd door Scalibq op 12 juli 2015 13:10]

Maar ook een hele trits 286. Big deal.
Dus niet. Zoals ik al zeg, alles wat op een 286 kan draaien is op 1 hand te tellen.
De meeste demos gebruiken 32-bit pmode, omdat de beperkingen van 16-bit segmented mode van 286 en lager een groot probleem zijn (een 286 of lager is niet gewoon een 'tragere CPU', het is een compleet andere manier van programmeren).
Sowieso was er vrijwel geen demoscene op PC voor 1991/1992, dus 286 en lager was al een gepasseerd station toen men eenmaal demos ging maken voor PC.
Zijn er al benchmarks bekend?
Tomshardware heeft een review van de Sapphire versie. De fury is bijna net zo snel als de Fury X... AMD heeft zichzelf in een lastige hoek gekregen aangezien de Fury goedkoper is, (bijna) net zo snel en de Fury X als enige "extra feature" waterkoeling heeft. Wat ik zelf niet eens als een pre zie aangezien de AiO die door CM is geleverd verre van perfect blijkt. Iets wat AMD zelf erkend heeft.

[Reactie gewijzigd door Thekilldevilhil op 10 juli 2015 14:23]

Waarschijnlijk net ietsje beter dan een 390X voor 200 euro meer en met 4GB minder VRAM :?
Deze kaart heeft net als de Fury X HBM VRAM
Ik heb dan liever 8GB GDDR5 dan 4GB HBM.

Volgens benchmarks heeft HBM nu nog geen nut, en tot 2016 wanneer HBM V2 in alle mainstream Nvidia en Amd kaarten komt, zul je weinig optimizaties zien voor Fury-kaarten.

[Reactie gewijzigd door Koning Willy op 10 juli 2015 15:04]

Op basis van welke benchmarks. Die 8GB is leuk voor "de toekomst" maar de GPU zelf is helemaal niet toekomstbestendig. Daar is hij niet snel genoeg voor. Dat is wat alle benchmarks uitwijzen. Er is 1 scenario waar de 4GB HBM niet genoeg blijkt is bij GTA5, UHD met alles open (zie HWI en anandtech) maar daar zijn de framerates op een Fury X anders al zo laag dat het toch niet meer speelbaar is.

De 4GB vRAM gaat geen limiet vormen voor Hawaii, de kracht van de GPU zelf is al ontoereikend om gebottleneckt te worden door het geheugen. Zelfs bij berucht zware gamen als shadow of mordor, GTA5 en Watchdogs zie je dat.
Grid haald anders als je al een 4k scherm heb 45% meer fps op 8gb in verhouding tot 4 gb.
dus voor alle 4k gamers is 8gb en optimalisaties vanuit de game maker NU al een must.

dat game makers over het algemeen lui zijn is een ander verhaal maar qua hardware vind ik 8 gb nu al een must.

een 290x met 8 gb is nu al 35% sneller dan een 980 TI met maar 4 gg laat staan wat de fury kaarten met extra geheugen zouden doen.

Het geheugen is dan wel sneller maar daar heb je iks aan als de textures nog steeds van de schijf moeten komen en steeds gedumped en ingeladen moeten worden. met 8gb kan je zo goed als alle textures in het geheugen pompen en van daaruit draaien.

software is over het algemeen de bottleneck niet de hardware!

edit: 290x niet 295x

[Reactie gewijzigd door computerjunky op 10 juli 2015 14:49]

295X2 heeft twee keer 4GB geen 8GB.

Iedereen verwachte gewoon dat de Fury-kaarten 8GB HBM zouden hebben tot 1 maand voor release.

[Reactie gewijzigd door Koning Willy op 10 juli 2015 14:43]

Hoezo iedereen? Het was al 3 maanden voor introducite duidelijk dat HBM1 maar 4 stacks van 1GB zou ondersteunen. Dat was zelfs on record bevestigd door Hynix. Er is over weinig zoveel geschreven als het toen nog aankomende high-end model van AMD wat een stap terug zou doen in vRAM.

Hier een uitleg plus wat benches over waarom dat zo is.
http://www.anandtech.com/...radeon-r9-fury-x-review/7

[Reactie gewijzigd door Thekilldevilhil op 10 juli 2015 14:48]

Het was al heel lang bekend dat HBMv1 maar tot 4GB zou gaan
De 295x? Ik neem aan dat je de 295X2 bedoeld? Die heeft 2x4GB geen 8GB, het is een dual GPU kaart.

Dat de 295X2 35% sneller is laat alleen amar zien dat 4GB niet beperkend is, want zelfs 2x 290 4GB (wat de 295X2 in weze is) wordt niet gebottleneckt door 4GB vRAM als ze in crossfire staan. Prima conclusie toch.

En ik zie hier niet wat jij bedoelt:

http://nl.hardware.info/r...benchmarks-grid-autosport

De Fury X wordt niet gebottleneckt door 4GB vRAM.

[Reactie gewijzigd door Thekilldevilhil op 10 juli 2015 14:50]

He je daar ook een source van?
Want als ik kijk naar http://www.tweaktown.com/...maxed-settings/index.html

Zie ik dat de 4gb in cf met 4gb zelfs ietsjes beter doet in grid.
En files laden vanuit je hdd? Mag hopen dat je als je 600+ euro aan een gpu kan besteden je games van een ssd haalt en niet je hdd.
Ja en in alle mogelijke vormen is het onspeelbaar. Dus nutteloos. En ik zie bij grid niet een 45% fps increase. Dus nogmaals je bron waar 8gb in grid 45% meer fps oplevert in grid. En dan eigenlijk nog een non cf opstelling. Want dat is de manier die je brengt.
en een ssd is snel maar ga je serieus games van 50+ gb op een ssd zetten?
Natuurlijk doe je dat. Waarom zou je het niet doen. Je hebt eindelijk iets wat supersnel is en je laadtijden drastisch naar beneden haalt en dan zou je het niet gebruiken?
Ik heb op het moment 590 gb aan games geÔnstalleerd dat zou me een vermogen kosten aan ssd ruimte...

Ik zou het wel willen maar het is het voor opslag en games simpelweg niet waard.
Een 500gb ssd kost je nog geen 200 euro. Dus dat vind ik nog wel meevallen.
Ik heb hier net een 980Ti en kom nu al best wel vaak over die 4GB heen, vooral als ik DSR gebruik van bijvoorbeeld 8K naar 4K.

Games zoals Shadow of Mordor en GTA V komen ook over die 4GB heen.

[Reactie gewijzigd door Koning Willy op 10 juli 2015 14:26]

Dat het vRAM gealloceerd is wil niet zeggen dat het gebruikt wordt. Ook daar zijn genoeg artikelen over geschreven. CoD is berucht. De laatste delen alloceren rustig 6 GB vRAM op een titan black edition. Maar op een 2GB GTX770 werd er geen verschil in spreiding van de frametimes gevonden.
Dat wil het wel.
Ga je namelijk naar een ander deel van de map zou anders de schijf aangesproken moeten worden maar met 8 gb kan dat deel dus ook al in het vram staan en dus ben je geen rekenkracht kwijt aan het steeds dumpen en inladfen van textures.
het heeft zich al bewezen in de paar goed geoptimaliseerde games. zeker op 4k gaming en in mindere maten op 2560x1440/1600
Nee dat wil het dus niet, Guru3D heeft dit aangetoond met meerdere benches. Als jij dit niet vind zou ik eens benches posten. De allocatie is op geen enkele manier verbonden aan gebruik. Sterker nog bij CoD was het puur een reservering dus jouw verhaal klopt op 2 punten niet. Het vRAM was namelijk niet met data gevuld.

[Reactie gewijzigd door Thekilldevilhil op 10 juli 2015 14:44]

ik heb al in meerdere topics over dit onderwerp gepost dat in bepaalde games het voordeel er wel degelijk is en dat dat verschil te zien is.
en ook harde schijf leesactiviteiten tonen aan dat het in het geheugen blijft staan.

je hoeft het niet te geloven maar ik koop als volgende kaart echt een kaart met 8gb en geen gb minder (6 is namelijk net niet voldoende voor 4k en ik wil een 4k scherm tegen alliassing)

ik zal voor het merendeel van de bestaande games helaas geen verschil merken maar als defs hun werk goed doen worden games nu de kaarten er zijn wel geoptimaliseerd voor 4k en 8gb vram.


onderste 2 zijn van 4k :

http://nl.hardware.info/r...gb-het-kan-verschil-maken

min fps verschil van meer dan 50% op 1080p in crossfire : http://imagescdn.tweaktow...8gb-4k-maxed-settings.png

http://imagescdn.tweaktow...8gb-4k-maxed-settings.png

thief 24 vs 34 fps : http://www.tomshardware.c...x-r9-290x-8gb,3977-4.html


en zo zijn er met wat zoeken meer te vinden.
Het is nog niet zo dat alles beter werkt met 8gb maar dar is puur door de software en hopelijk een kwestie van tijd.
"In Ultra HD zien we een groter verschil: de 4GB kaart komt op gemiddeld 9 fps, de 8GB op gemiddeld 16 fps."

En die andere benches zie je Dat de framerate ook <25 zit.

Waar ik dus zei: "Maar dan doen we het andersom. Geef mij eens een voorbeeld van een in game benchmark waar een fureX gebottleneckt wordt door zijn vRAM op een manier dat 8GB wel speelbare framerate op zou leveren."

Ik heb al gezegd dat er randgevallen te vinden zijn. Maar deze hebben geen invloed op de real world performance omdat niemand settled voor 22FPS. Zeker niet met frame times van dik 100ms. Wat dat vergeet je er even leuk bij te melden. UIt jouw eigen bron: "De 99ste percentiel frametijd is 373 ms bij de 4GB kaart en 139 ms bij de 8GB kaart. Maar heel eerlijk: beide is eigenlijk niet speelbaar."

Zoals ik dus ik zei, theoretische gevallen. In de praktijk heb je hier maar bar weinig aan.

[Reactie gewijzigd door Thekilldevilhil op 10 juli 2015 15:04]

4k ultra is waar 8gb vs 4gb zijn slag slaat echter zijn er nog niet veel games die daarvoor geoptimaliseerd zijn omdat er tot voorkort bijna geen kaarten voor waren nu gaat dat dus veranderen en bega je wat mij betreft een fout als je nu iets met 4gb uitbrengt.

het gaat er dan ook niet om of het wel of niet speelbaar is et gaat erop dat het voordelen heeft.
als er beter voor geoptimaliseerd gaat worden zal het ook op lagere resolutie wel effect kunnen hebben doordat het op een andere manier gebruikt kan worden.

Helaas kan ik geen benches vinden van de 8gb kaarten in sli/crossfire om te zien wat dan de fps en verschillen zijn ten opzichte van 2x 4gb.

Het is wachten op iemand met geld teveel om die test te doen :) ik ben het in ieder geval niet.
Er zijn benchmarks van quad SLI GTX titan te vinden op verschillende fora. En er zitten er geneog tussen die ook de frame buffer doormeten. Het maakt allemaal nauwelijks wat uit.

Het probleem met UHD is dus dat Hawaii zelf te traag is om daar foetsoenlijk op de gamen. Je zit met hele andere beperkende factoren. 8GB+ vRAM gaan zeer zeker wel nut hebben maar dan praat je over 16nm Chips die wel genoeg shader kracht (en hogere pixel doorvoer) hebben om UHD games te renderen. Die GPU's gaan dan ook afgestraft worden door te kleine frame buffers.

Het is een beetje hetzelfde verhaal als de 2GB 680 vs de 4GB variant. Daar riep iedereen hetzelfde. Nu blijkt hij gewoon te traag om te gberuiken in situaties waar de dubbele frame buffer nuttig is.

En geloof me maar, ik heb genoeg getest met verschillende opstellingen op 7860x1440 (33% meer pixels dan UHD) en ik be uiteindelijk op een 970 gesettled omdat er geen GPU's zijn die dit aan kunnen, nog niet in ieder geval.

Ik wacht dus ook met smart op de 1080TI (of hoe ze hem ook gaan noemen). Maar deze generatie is volledig gelimiteerd door het 28nm process. En geen framebuffer kan daar wat aan doen.

[Reactie gewijzigd door Thekilldevilhil op 10 juli 2015 15:14]

ik kan je geen -1 geven. Je kan reacties op jezelf niet modereren... Ik weerhoud mijzelf er ook van de modereren in een discussie waar ik actief aan mee doe. Dus ik ga ook andere niet modereren die een reactie op jou geven. Laat andere maar bepalen wat ze van de discussie vinden.

En een huidige 4GB kaart gaat uiteindelijk vervangen worden vanwege een gebrek aan GPU kracht. Dat is niet mijn eigen "wijsheid" maar de conclusie uit testen van allerhande sites.

Je bent eerder door de GPU kracht dan je vRAM heen. Getuigen het gebrek aan situaties die het beeld andersom schetsen. Maar goed, als jij het beter denkt te weten dan techpowerup, tweakers, anandtech, HWI etc. etc. is dat helemaal jouw eigen keuze.

Maar dan doen we het andersom. Geef mij eens een voorbeeld van een in game benchmark waar een fureX gebottleneckt wordt door zijn vRAM op een manier dat 8GB wel speelbare framerate op zou leveren.

Hier wat ik bedoel: http://nl.hardware.info/r...ggenship-benchmarks-gta-v

Er is een geheugen bottleneck ja, maar als die er niet zou zijn dan heb je nog steeds geen speelbare framerates.

[Reactie gewijzigd door Thekilldevilhil op 10 juli 2015 14:51]

Als 4GB effectief genoeg zou zijn waarom brengt AMD dan 390x kaarten uit met 8GB? Misschien is AMD daar zelf niet zo zeker van.
Dat soort dingen zijn nooit onderheven aan marketing? Anders is een prijsverhoging ook niet te verantwoorden. Dat is hij eigenlijk al niet maar aangezien er nog heel veel mensen denken meer vRAM is meer beter...
Dat extra geheugen komt toch wel van toepassing bij 2 of meerdere kaarten in Crossfire opstelling.
Ik vind het een beetje hypocriet. Nu is voor alle AMD fans 4GB meer dan genoeg maar als NVIDIA een kaart heeft met maar 3.6GB bruikbaar van de 4GB dan is dat wel te weinig en zijn games plots niet meer speelbaar.
Hypocriet van wie? Ik volg je even niet meer... Zeker niet in relatie tot wat ik zei.
echt gast, dat weet je zelf dondergoed, volgens mij loop jij al lang genoeg mee op Tweakers...

Maar goed, er is minimaal verschil tussen de 4GB 290X en de 8GB 390X, meer geheugen op die kaart is dan ook niet meer dan marketing
Je bent eerder door de GPU kracht dan je vRAM heen. Getuigen het gebrek aan situaties die het beeld andersom schetsen. Maar goed, als jij het beter denkt te weten dan techpowerup, tweakers, anandtech, HWI etc. etc. is dat helemaal jouw eigen keuze.
Nou, ik wil niet heel vervelend zijn, maar Anandtech zegt dit:
http://www.anandtech.com/...review-feat-sapphire-asus
Along with a performance advantage, the GTX 980 is also better competition for the R9 Fury (and Fiji in general) since the GTX 980 is only available with 4GB of VRAM. This negates the Fiji GPU’s 4GB HBM limit, which is one of the things that held back the R9 Fury X against the GTX 980 Ti.
Anandtech vindt dus bij de Fury X dat 4 GB wel degelijk een probleem is. Volgens hun heeft de 980Ti echt een voordeel.
Of ze het een probleem vinden bij de 'gewone' Fury en de 980, is niet helemaal duidelijk, omdat ze alleen aangeven dat beiden dezelfde beperking hebben.
Dat is niet hun conclusie in de fury X review. Want jij quote nu een uitspraak uit de gewone fury review die met hun eigen benchmarks niet te ondersteunen is.
Dat is niet hun conclusie in de fury X review.
Dat beweer ik ook niet.
In die conclusie staat het iets anders verwoord, maar het komt op hetzelfde neer:
http://www.anandtech.com/...adeon-r9-fury-x-review/27
The last issue that dogs AMD here is VRAM capacity. At the end of the day first-generation HBM limits them to 4GB of VRAM, and while they’ve made a solid effort to work around the problem, there is only so much they can do. 4GB is enough right now, but I am concerned that R9 Fury X owners will run into VRAM capacity issues before the card is due for a replacement even under an accelerated 2 year replacement schedule.
Want jij quote nu een uitspraak uit de gewone fury review
Dat klopt, daar link ik ook naar.
die met hun eigen benchmarks niet te ondersteunen is.
Dat hoeft toch ook niet?
De stelling hier was:
"Je bent eerder door de GPU kracht dan je vRAM heen. Getuigen het gebrek aan situaties die het beeld andersom schetsen."
Blijkbaar verwacht Anandtech toch dat het een probleem gaat worden in de nabije toekomst. Daar hebben ze in de Fury X-review nog een hele pagina aan gewijd:
http://www.anandtech.com/...radeon-r9-fury-x-review/7
Daarin zeggen ze bv:
Still, when using the current-gen consoles as a baseline, the current situation makes it possible to build a game that requires over 4GB of VRAM (if only just over), and if that game is naÔvely ported over to the PC, there could be issues.

Throwing an extra wrench into things is that PCs have more going on than just console games. PC gamers buying high-end cards like the R9 Fury X will be running at resolutions greater than 1080p and likely with higher quality settings than the console equivalent, driving up the VRAM requirements. The Windows Desktop Window Manager responsible for rendering and compositing the different windows together in 3D space consumes its own VRAM as well. So the current PC situation pushes VRAM requirements higher still.
...
So with that in mind, let’s attempt to answer the question at hand: is 4GB enough VRAM for R9 Fury X? Is it enough for a $650 card?

The short answer is yes, at the moment it’s enough, if just barely.

To be clear, we can without fail “break” the R9 Fury X and place it in situations where performance nosedives because it has run out of VRAM.
...
Unfortunately for AMD they are pushing the R9 Fury X as a 4K gaming card, and for a good reason. AMD’s performance traditionally scales better with resolution (i.e. deteriorates more slowly), so AMD’s best chance of catching up to NVIDIA is at 4K. However this also stresses R9 Fury X’s 4GB of VRAM all the more, which puts them in VRAM-limited situations all the sooner.
...
Ultimately even at 4K AMD is okay for the moment, but only just. If VRAM requirements increase any more than they already have – if games start requiring 6-8GB at the very high end – then the R9 Fury X (and every other 4GB card for that matter) is going to be in trouble. And in the meantime anything worse than 4K, be it multi-monitor setups or 5K displays, is going to exacerbate the problem.
Dus, als je sites als Anandtech wil aanhalen, die hebben wel degelijk hun bedenkingen bij de 4 GB, ook al is het op dit moment nog geen groot probleem. Ze geven dus aan dat het mogelijk een probleem kan worden in de nabije toekomst.
Jij wil het doen voorkomen alsof er geen vuiltje aan de lucht is, dat is dus NIET wat sites als Anandtech zeggen.

[Reactie gewijzigd door Scalibq op 11 juli 2015 21:22]

Volgens benchmarks heeft HBM nu nog geen nut
Waar haal jij vandaan dat HBM geen nut heeft? het heeft genoeg nut

Het is energie zuiniger
Het is sneller
Heb ook al benchmarkts gezien dat HBM minder geheugen verbruikt als GDDR5

8GB GDDR5 is volgende de benchmarks juist nutteloos, ik snap deze conclusie van jou dan ook niet helemaal
De Fury kaarten verbruiken meer dan hun NVIDIA tegenhangers.
En dat is voor jouw genoeg om te concluderen dat HBM niet energie zuiniger is dan GDDR5? lekker kort door de bocht

Anders google jij even dan zul je zien dat

HMB tot 9x sneller is als GDDR5
http://wccftech.com/amd-f...hbm-9x-faster-than-gddr5/

HBM zuiniger als GDDR5
http://www.anandtech.com/show/9266/amd-hbm-deep-dive/4

En je zegt het zelf al het geheel is sneller, wat maakt de rest dan nog uit?

En waarom denk je dat AMD nu opeens veel dichter bij nVidia zit qua energie terwijl de chip veel groter en uitgebreider is geworden

Juist dat komt door HMB, als ze GDDR5 hadden gebruikt was het erergy verbruik buitensporig geweest

[Reactie gewijzigd door Sinester op 10 juli 2015 16:33]

MIsschien moet jij nog maar eens wat leeswerk doen. Want die twee verschillen wel degelijk van elkaar. GCN 1.1 vs 1.2, HBM, andere voltage regeling etc.
Wat nog niet naar voren komt in dit artikel is hoe de non-X zich verhoudt tegenover grote broer Fury X.
De non-X heeft 12,5% minder computing units, namelijk 56 (8 minder dan de 64 voor Fury X).
Dat resulteert in 3584 shading units (Fury X heeft er 4096).

Bij gelijke kloksnelheden zal de non-X dus 87,5% van de rekenkracht van de Fury X bezitten. Aan de hand hiervan is een redelijke inschatting te maken bij nog te verschijnen benchmarks. :)
Benchmarks zijn al verschenen. Hij presteerd niet 12,5% minder dan de fury x. http://www.tomshardware.c...i-x-overclocked,4216.html
De kaart heeft bij gelijke kloksnelheden 12,5% meer rekenkracht. Dat vertaalt zich zoals je terecht opmerkt niet in dezelfde toename van het eindresultaat. Dank voor de link (ook richting Flex-Ible) om de Fury non-X te vergelijken met de Fury X .
Toms Hardware heeft een review waarin de Fury wordt vergeleken met de Fury X, de 290X, de 980 TI, de 980 en de 780 TI.

Review Toms Hardware
In de eerste benchmarks zit de fury echt een flink stuk hoger dan de 980.
Wat ik al verwacht had, x en non x kaarten zitten vaak dicht bij elkaar, en de fury x zit dicht op de 980ti.

Bron: http://nl.hardware.info/n...n-r9-fury-met-luchtkoeler
23 punten meer in die index dan de 980 en 30 punten minder dan de 980ti. (vooral dankzij de benchmarks wsl... bij veel spellen valt AMD tegen) Ook kwa prijs zit het met de 600 euro tussen de ca 515 euro voor de 980 en de ca 750 euro voor 980ti er tussen in. Niet substantieel meer performance per euro wat in het verleden nog het sterke punt was van AMD.

[Reactie gewijzigd door AtariXLfanboy op 10 juli 2015 17:09]

Moet je wel in gedachten houden dat dit launch prijzen zijn, de 980 is al wat langer op de markt. Ik denk dat ie nog wel gaat zakken in prijs.
Ja dat is idd zo. Hoewel de 980 denk ik ook prima kan gaan zakken als ik naar de 980ti kijk? Het is sowieso nog even speculeren wat de prijs precies wordt 600 euro lijkt me erg duur tov de fury x die voor 678 euro te koop is.
Edit : Dat is wsl een foutieve prijs... anderen zijn veel duurder ... namelijk 750 euro

[Reactie gewijzigd door AtariXLfanboy op 10 juli 2015 23:39]

Dus nu missen wij nog alleen de details over de R9 Nano?
Hier is een plaatje te zien van de Nano:
nieuws: AMD kondigt Radeon Fury en 300-serie videokaarten aan

Size van de Nano is perfect voor ITX game systeempjes met een kleine case zoals EVGA Hadron Air.
Huidige ITX vid cards assortiment mag wel wat groter.
Yup, ik ben benieuwd hoe snel de Nano gaat worden. Verschillende OEMs hebben namelijk van de GTX970 ook een mini-ITX-versie gemaakt. Ik heb zelf laatst deze gekocht van Gigabyte: http://www.gigabyte.com/p...uct-page.aspx?pid=5252#ov
Zie ook hoeveel aansluitingen, ideaal voor een HTPC (en HDMI 2.0 natuurlijk).
De Fury X is op 1050MHz geklokt en niet op 1000 zoals de Fury.
Klopt, is verbeterd :)
Ik zie het nut er nog niet van in om op 4K te gamen. De kaarten zijn daar nog niet sterk genoeg voor om dit op high/ultra te doen. Dus het tekort van hdmi 2.0 is dan ook geen gemis. Wellicht krijgt de volgende generatie dit wel, als zij ook de kracht hebben om op 4k te kunnen gamen.

Aan de andere kant begrijp ik dat het net zo makkelijk was om wel hdmi 2.0 op de kaart te zetten. Mochten mensen de Fury in Crossfire willen draaien, dan zou het wel mogelijk moeten zijn om. Meer dan 30hz te halen op ultra.
Klopt. Maar dan kan je net zo goed dp gebruiken. 2x fury-x aan je tv hangen is best zonden. Of je gebruikt een receiver die dp in en hdmi 2.0. Ondersteunt.
De Fury ondersteunt geen hdmi 2

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True