Door Jelle Stuip

Redacteur

AMD Radeon R9 Fury X Review

Nieuwe topkaart voor hoge resoluties

24-06-2015 • 14:00

287

Singlepage-opmaak

Conclusie

De Fury X is de eerste videokaart met hbm-geheugen en dat blijkt te leiden tot een indrukwekkende bandbreedte. Het heeft daarnaast tot gevolg dat de gpu en het geheugen minder ruimte op de pcb innemen en dat de energieconsumptie van het geheugen daalt. Dat had weer tot gevolg dat AMD een gpu met maar liefst 4096 streamprocessors kon bouwen, zonder dat de videokaart buitensporige hoeveelheden energie nodig heeft. Om de warmte toch zonder al te veel rumoer af te voeren is er standaard een waterkoeler aanwezig, die ook bij hoge belastingen zijn werk stilletjes blijft doen.

Het was mooi geweest als de nieuwe Fiji-gpu meteen de snelste videokaarten van dit moment, Nvidia's Titan X en 980Ti, had weten te verslaan, maar dat blijkt in onze benchmarks net een brug te ver. We hebben een aantal games getest waarin we verwachten dat de framerates met nieuwere drivers nog kunnen stijgen, maar ook bij wat oudere games zoals Battlefield 4, Dragon Age: Inquisition en Far Cry 4 zien we dat de Fury X net niet aan de 980 Ti kan tippen. We zien wel dat de relatieve snelheid stijgt naarmate de resolutie omhooggaat, waarschijnlijk dankzij de bandbreedte van het hbm-geheugen. Bij lagere resoluties liggen de prestaties over het algemeen dichter in de buurt van die van een GTX 980, terwijl die bij een hoge schermresolutie dichter in de buurt van de prestaties van een GTX 980Ti liggen.

Dat maakt het voor AMD waarschijnlijk toch lastig om de Fury X te verkopen, want de prijs zal op een euro of zevenhonderd uitkomen. Dat is evenveel als de prijs van de GTX 980 Ti, die iets sneller is en wel een hdmi 2.0-aansluiting heeft. Mocht de prijs wat lager uitvallen, dan kan de Fury X wel weer een interessante keuze vormen. De videokaart schurkt wat snelheid betreft namelijk tegen de GTX 980 Ti aan en is, zeker op hogere resoluties, stukken sneller dan de GTX 980 en R9 390X. Is de Fury X je dan toch te duur, dan komt AMD over drie weken met de R9 Fury, zonder X dus, die een iets langzamere Fiji-gpu aan boord heeft, maar ook honderd euro minder gaat kosten.

Update, 25 juni 13:15 Naar aanleiding van de reacties onder het artikel hebben we The Witcher 3 opnieuw getest met Nvidia HairWorks uit. Dat zorgt bij zowel de Nvidia- als AMD-kaarten voor flinke framerateboosts, maar de kaarten van AMD hebben er duidelijk meer baat bij. Zonder deze Nvidia-feature ingeschakeld komt de Fury X zeer dicht bij de GTX 980 Ti in de buurt, terwij hij met HairWorks ingeschakeld zelfs achter de GTX 980 eindigde. De nieuwe grafieken zijn op pagina 11 van deze review bijgevoegd.

Lees meer

Reacties (287)

287
274
184
7
1
0
Wijzig sortering
Review van techpowerup: http://www.techpowerup.com/reviews/AMD/R9_Fury_X/
AMD's pricing of $650 for the Fury X matches that of GeForce GTX 980 Ti exactly. I'm not fully convinced that Fury X can win at this price level. While the card introduces cool new technology like HBM and watercooling, in a compact form factor, its performance is not high enough to conclusively beat NVIDIA's offerings, especially the factory overclocked models. The low gaming noise is a definite plus, but it is offset by the pump noise, higher idle noise and the fact that custom, slightly more expensive, GTX 980 Ti designs will certainly reach similar noise levels - with air cooling. Just like Titan X, AMD does not allow any custom variants of the Fury X, but NVIDIA's GTX 980 Ti is being customized by all of their board partners, which means individual products can be targeted a more specific needs of a smaller customer segment.
Review van de buren (die op één of andere manier een stuk uitgebreider dan "onze" lijkt): http://nl.hardware.info/r...w-amds-nieuwe-vlaggenship
De keuze zal dus voornamelijk van persoonlijke voorkeuren afhangen. Vind je het feit dat de kaart lekker klein en koel is dankzij de waterkoeler van belang, of kies je voor HDMI 2.0 bij de GTX 980 Ti? Verwacht je dat je volgende monitor een FreeSync model is, of vind je DirectX 12_1 ondersteuning toch belangrijker? En misschien wel de lastigste en feitelijk niet te beantwoorden vraag: denk je dat toekomstige games juist primair profiteren van sneller of van meer geheugen? Beide claims zijn goed verdedigbaar en ook wij durven/kunnen in die discussie geen kamp kiezen.
Review van Guru3D: http://www.guru3d.com/art...n-r9-fury-x-review,1.html
Overall we can certainly recommend the Radeon R9 Fury X if it fits your budget. For 649 USD you do receive a product with liquid cooling factory installed already, I mean that right there is 100 bucks by itself and something I can only applaud. There are some small oversights like HDMI 2.0 and the lack of a DVI connector, but 'nuff said about that. If AMD can bring performance up with a few tweaks in the lower resolutions, they will have an extremely competitive card on their hands. It might not be perfect or a competition slaughtering product at release - but it is close enough. We like it very much.
Review van HardOCP: http://hardocp.com/articl..._fury_x_video_card_review
Limited VRAM for a flagship $649 video card, sub-par gaming performance for the price, and limited display support options with no HDMI 2.0 and no DVI port. To be honest, we aren't entirely sure who the AMD Radeon R9 Fury X is really built for? The AMD Radeon Fury X is a confusing product, like a technology demo not fully realized, a showcase for HBM only but with no real substance. The AMD Radeon Fury X looks to be a great marketing showcase, but its prowess starts waning when you consider its value to gamers and hardware enthusiasts.
Review van techreport: http://techreport.com/rev...-graphics-card-reviewed/1
The question now is whether AMD has done enough to win back the sort of customers who are willing to pony up $650 for a graphics card. My sense is that a lot of folks will find the Fury X's basic proposition and design attractive, but right now, this product probably needs some TLC in the driver department before it becomes truly compelling. AMD doesn't have to beat Nvidia outright in order recover some market share, but it does need to make sure its customers can enjoy their games without unnecessary hiccups.
Review van Tomshardware: http://www.tomshardware.c...adeon-r9-fury-x,4196.html
There, sitting alongside Nvidia’s gaming champion, Radeon R9 Fury X now shares the throne. It’s not faster, it’s not cheaper and it’s certainly not any more elegant. The card is just enough to yield a bit of parity. And for the AMD faithful, that’s enough to warrant a purchase. We have to wonder if the company stopped just short of the gold, though. More speed, a lower price, some sort of game bundle—it could have gone in several directions, really, to convince enthusiasts that Fury X is the better buy
Anandtech heeft momenteel nog niets gepubliceerd.

[Reactie gewijzigd door Frozen op 22 juli 2024 15:42]

WoutF Hoofdredacteur @Frozen24 juni 2015 14:23
Ik kan je heel goed uitleggen waarom HWi het voor elkaar krijgt om in korte tijd 'meer' te doen. Uit hun eigen artikel:
Oudere kaarten hebben we niet opnieuw getest voor deze review, hou daar rekening mee als je de grafieken bekijkt.
Benchmarks van Alien: Isolation, Battlefield 4, Civilization: Beyond Earth, Far Cry 4 en Metro Last Light zijn in sommige gevallen van eind vorig jaar.
Wij kiezen ervoor om alle kaarten die wij in de tabellen tonen opnieuw te testen met de nieuwste drivers. We weten dat zowel AMD als Nvidia dikwijls na enige tijd nog optimalisaties doorvoert voor games en door oude resultaten te gebruiken loop je dus het risico een verkeerd beeld te geven.
Leuk dat je het zo uitlegt , desondanks krijgen andere sites zoals HWI en anantech van mij een veel hogere betrouwbaarheidsrating met hun reviews dan tweakers.net

De reviews bij tweakers.net zijn soms echt zo op het puntje dat ik eigenlijk zou roepen "betaalde reclame kuch kuch".

Je ziet het met Mac reviews en producten (dat is de duidelijkste), maar het is ook zeker herkenbaar bij tests tussen videokaarten.

De tests zijn nooit goed geregeld, Mantle word niet gebruikt onder het excuusje van ja er is geen cpu bottle neck terwijl bijvoorbeeld is bewezen dat de games die het ondersteunen wel degelijk nut hebben bij mantle. (zoals bv BF4).

De echte reden waarom men nu nog geen goede mantle vergelijking kan doen is omdat de 300 series veel slechter presteren onder mantle omdat de optimalisaties nog niet gereed zijn.

Mantle zou in zijn algemeenheid meegenomen moeten worden. Zonder mantle erbij is de hele review de moeite niet waard.(en vanaf volgende maand moet ook dx12 erbij).

Het lijkt dat men het belangrijker vind om een apple gerucht te bespreken dan een fatsoenlijke review te maken.
De reviews bij tweakers.net zijn soms echt zo op het puntje dat ik eigenlijk zou roepen "betaalde reclame kuch kuch".
En ik zou dan roepen: "onzin, onze content is niet te koop".
De tests zijn nooit goed geregeld, Mantle word niet gebruikt onder het excuusje van ja er is geen cpu bottle neck terwijl bijvoorbeeld is bewezen dat de games die het ondersteunen wel degelijk nut hebben bij mantle. (zoals bv BF4).
Bij onze testopstelling is er ook echt geen cpu-bottleneck en is er geen significant verschil tussen Mantle en DirectX. Dat hebben we meerdere keren met cijfers aangetoond. Alleen als je met tragere cpu's gaat werken heeft Mantle voordeel, maar dat doen wij niet.
Mantle zou in zijn algemeenheid meegenomen moeten worden. Zonder mantle erbij is de hele review de moeite niet waard.(en vanaf volgende maand moet ook dx12 erbij).
Dat DirectX 12 interessant is om te bekijken zodra het beschikbaar is ben ik het met je eens. Dat een review zonder Mantle de moeite niet waard is vind ik kolder. Nogmaals, het maakt in deze omstandigheden niet uit.
Het lijkt dat men het belangrijker vind om een apple gerucht te bespreken dan een fatsoenlijke review te maken.
In dit soort reviews zit dagen werk van meerdere personen. Fijn om te lezen dat het zo gewaardeerd wordt. :{
Bij onze testopstelling is er ook echt geen cpu-bottleneck en is er geen significant verschil tussen Mantle en DirectX. Dat hebben we meerdere keren met cijfers aangetoond. Alleen als je met tragere cpu's gaat werken heeft Mantle voordeel, maar dat doen wij niet.

[...]

Dat DirectX 12 interessant is om te bekijken zodra het beschikbaar is ben ik het met je eens. Dat een review zonder Mantle de moeite niet waard is vind ik kolder. Nogmaals, het maakt in deze omstandigheden niet uit.
Als je in een review wel Nvidia dingen aanzet maar de AMD dingen uitlaat (ik doel hierbij op Mantle en HairWorks) dan kan dat inderdaad zo overkomen. Vanwaar de keuze om HairWorks wel aan te zetten en Mantle niet aan te zetten?

Nu wordt er gelukkig gewerkt aan resultaten zonder HairWorks, maar deze vraag hadden jullie jezelf eigenlijk moeten stellen voordat de review online ging.
Zoals hier in dit artikel mooi wordt weergegeven:
http://www.overclock3d.ne...formance_with_hairworks/1

Je ziet het verschil tussen 64x en 8x tesselation nauwelijks. De grens ligt bij de 16x. Als je 16x gaat vergelijken met 64x dan heb je een vergrootglas nodig. In zo'n geval lijkt het mij geen nuttige toepassing van resources in een spel :P.
Hey Wout, ik waardeer het hoor! Ik heb totaal niet de indruk dat het als reclame of fanboy geschreven is. Mantle is binnenkort toch exit omdat de optimalisaties bij DX12 in zitten. Sowieso leest de review lekker weg!

Overigens moet je simpelweg investeren in een goede CPU. Zelfs met Mantle trekt mijn CPU (760K @ 90%) BF4 niet lekker. Hoewel het pijn doet in mijn AMD hartje, zou ik iedereen met een videokaart sneller dan een 280 een intel i5-4460 CPU of sneller aanraden

OT: ik denk wel dat de fury snel iets in prijs zal zakken waardoor hij wel goedkoper is dan de 980. De prijs prestatieverhouding is bij AMD over het algemeen het beste. Ook ben ik blij dat deze ook op volle belasting stilletjes z'n werk kan doen.

[Reactie gewijzigd door maartenv op 22 juli 2024 15:42]

Omdat we weloverwogen Mantle niet meepakken is de gehele review 'prutswerk?'. Ik ben altijd bereid om met iedereen in discussie te gaan, onze keuzes uit te leggen en te kijken waar dingen beter kunnen, maar met dat soort opmerkingen en slechte grappen die onze onafhankelijkheid in twijfel trekken kun je dat wel vergeten.
Beste Wout, je vergeet te reageren op de andere reactie die vannacht geplaatst is. Of moeten we uit het niet reageren zelf onze conclusies trekken?
Als je in een review wel Nvidia dingen aanzet maar de AMD dingen uitlaat (ik doel hierbij op Mantle en HairWorks) dan kan dat inderdaad zo overkomen. Vanwaar de keuze om HairWorks wel aan te zetten en Mantle niet aan te zetten?
Sp3ci3s8472 in 'reviews: AMD Radeon R9 Fury X: nieuwe topkaart voor hoge resoluties'

Om nog maar te ZWIJGEN over de absoluut, belachelijk, idiote, bekrompen, niet van verstand tonende reactie in de 'AMD Radeon 300-serie Review - R9 390X, 380 en R7 370 van MSI getest'.
AMD beveelt aan om het maximale tesselation-niveau op 8x te zetten, wat voor een veel hogere framerate zorgt terwijl de grafische impact meevalt. Om het een eerlijke vergelijking te houden met de Nvidia-kaarten laten we het tesselation-niveau op maximaal staan.
En. Dit. Is. Direct. Uit. Het. Artikel. Gequote.

Er wordt zelfs op gereageerd door Bullus, een reactie die een +3 krijgt. En daar wordt niet op gereageerd?
Bullus in 'reviews: AMD Radeon 300-serie Review - R9 390X, 380 en R7 370 van MSI getest'

Meen je dit nu? Ik kan er echt niet bij. En dan doe ik nu al twee dagen mijn best. "Om het eerlijk te houden"?! Wat?!
Kijk, als je niet serieus genomen wilt worden (leg wel even de klemtoon goed ;) ) ben je met die reactie echt op de goede weg. Er was zelfs een reactie in het GR gedeelte nodig om 'jullie' (dan heb ik het over Tweakers in zijn geheel) zo ver te krijgen een test opnieuw te doen met 'The Witcher 3'.
http://gathering.tweakers...message/44473606#44473606
http://gathering.tweakers...message/44473974#44473974
Dat Topic heb ik zélf gestart, dus já ik mag daar over zeuren :9


Ps, als je dus geen "dat soort opmerkingen en slechte grappen die onze onafhankelijkheid in twijfel trekken" wilt, moet je aan je manier van reviewen en reageren werken. Want alles bij elkaar kan ik mij voorstellen dat mensen nu conclusies gaan trekken. Maar gelukkig zijn er nog zat andere sites die wél weten hoe het moet!
(Desondanks wel een dikke thumbs up voor de reviewers die er alle moeite ingestoken hebben! (Y))
Ik heb de tests niet gedaan en de review niet geschreven, dus waarom de keuze niet gemaakt is weet ik niet. Belangrijker vind ik dat het door mensen aangedragen is, dat we inzien dat het inderdaad beter zonder gedraaid had kunnen worden en dat we die tests nu op nieuw aan het doen zijn. Dat vind ik uiteindelijk fijn aan Tweakers, mensen die constructief meedenken en kritiek geven waardoor de content uiteindelijk beter wordt :)

En ik sta echt te kijken van het feit dat je ons eerst compleet afzeikt beschuldigt van partijdigheid, zegt dat we niet weten hoe het moet, andere sites aanprijst en vervolgens een 'dikke thumbs up' geeft voor de moeite :D
Ik lees dat als cynisme (de thumbs up)...

Ook deze Fury X review is weer een staaltje van onvermogen:
Letterlijke quote:

"Om ervoor te zorgen dat de benchmarks relevant zijn..."

om vervolgens een lijstje te presenteren met Project Cars erin en verder veel te weinig games om die Nvidia-favored game in perspectief te plaatsen. En dan heb ik TW3 nog niet eens aangestipt. Als je Project Cars toevoegt, waarom laat je dan bijvoorbeeld niet Dirt ook in je suite? Dan zet je een Nvidia favored game af tegen een AMD favored game en is de balans weer terug.

Kijk nou nog eens bij werkelijk elke andere review en zoek de verschillen. Grotere benchmark suites met een veel beter gebalanceerd aanbod van nieuwe en oudere games (BF3 bijvoorbeeld, een ideale game om overklok winsten te testen, of AvP, nog een ideale game die GPU's altijd in de juiste rangorde zet, die ook volledig is geoptimaliseerd voor beide kampen, etc.).

Het spijt me echt maar de fouten die keer op keer gemaakt worden vallen keer op keer ten gunste van het groene kamp of Intel, en niet heel toevallig zijn die ook beide marktleiders en niet vies van een onderhands spelletje. Je kunt het blijven ontkennen, maar dan moet de praktijk ook een keertje die ontkenning ondersteunen, dat zou enorm helpen. En nee, dat is geen vrijbrief om lekker AMD-favored te schrijven, maar bewaak die neutraliteit nou toch gewoon wat beter.

Verder vind ik het ook een zwakke review van de Fury X zelf; er wordt geen enkele analyse gedaan van de gebrekkige prestatie op 1080p en zelfs vaak 1440p terwijl we het hier over de allergrootste 28nm die hebben die je zo'n beetje kunt maken, met een whopping 4096 shaders en slechts 64 ROPs. (Dat is tegelijk een stille hint naar de oorzaak, en ik ben niet eens reviewer) Waarom ontstaat er bij jullie geen vraagteken, bij het feit dat de big chip van Nvidia wél lekker schaalt op elke resolutie en die van AMD niet?

JE BENT EEN TECH SITE. Gedraag je ernaar zou ik zeggen. Het niveau is weer aan het dalen naar het lezen van de specs op de doos en een paar benchmarks draaien, en met halve interesse volgen van nieuws op dit gebied en daar dan iets mee doen dat keer op keer finaal de plank misslaat. Jullie horen klokken luiden maar weten niet waar de klepel hangt.

Triest.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

Ik heb de tests niet gedaan en de review niet geschreven, dus waarom de keuze niet gemaakt is weet ik niet.
Mag ik dan bij deze de suggestie doen om van tevoren (een paar dagen van tevoren, zodat je met een grote release zoals met de Fury X tijd zat hebt om alles uit te werken) een 'Plan van Aanpak' op te stellen voor de review. Waarin games uitgekozen worden, het testsysteem, de kaarten, drivers (hoewel dit voor de hand zal liggen) en eventuele settings e.d.? Ik neem toch aan dat er dan wel iemand was geweest die gezegd had: "Tesselation op max om het eerlijk te houden? Is dat nu wel zo verstandig met de Nvidia kaarten die dat een stuk beter kunnen hebben?".
Op zo'n manier kan je zaken ondervangen, dan hoef je niet alle spreekwoordelijke shit van de community over je heen te krijgen.
Want geef nou zelf ook toe: die opmerking over het 'eerlijk houden van de vergelijkingen' met tesselation op max is nou niet het toppunt van logica.

Wat dat betreft vind ik ook dat Tweakers een goede community heeft! Mensen hebben het beste met de site voor en iedereen draagt hun steentje bij (zei het soms een kiezel en in andere gevallen een rotsblok). Punt dat bij meerdere mensen waarschijnlijk wringt is dat er bij Tweakers met reviews van o.a. videokaarten soms beslissingen genomen worden die voor voordeel van een van de twee 'kampen' zorgt.


Achja, ik laat me af en toe wat meeslepen, zoals jij in aan het einde van je reactie nu dus ook lijkt te doen ;). We zijn allemaal mensen, dat kunnen we niet helpen.

Overigens zou ik mijn reactie nog eens goed lezen, want ik heb jullie nergens beschuldigd van partijdigheid. Nu wind jij je toch echt even te veel op. Ik ben kritisch, ik uit mijn kritische noot en dat steek ik met die reactie niet onder stoelen of banken. Maar nu beschuldig je mij van iets dat ik niet gezegd heb..


Terugkomend op het feit dat we allemaal mensen zijn: de reviewers kunnen ook fouten maken en verkeerde keuzes maken. Dat neemt niet weg dat de review er wel staat en dat mensen hun ziel en zaligheid erin gestoken hebben. Dat mag toch best beloond worden met een schouderklopje? Of gun jij de mensen die bij hetzelfde bedrijf werken als jij en die hard gewerkt hebben aan iets geen schouderklopje?
Anoniem: 471038 @Vickiieee25 juni 2015 11:45
Ik neem toch aan dat er dan wel iemand was geweest die gezegd had: "Tesselation op max om het eerlijk te houden? Is dat nu wel zo verstandig met de Nvidia kaarten die dat een stuk beter kunnen hebben?".
Dat lijkt me persoonlijk eerlijker dan de AMD-kaarten op een lager niveau laten renderen. Bij nVidia heb je namelijk die optie niet.
Dus dan zal er ook wel weer een community opstaan met klachten.
In dit soort situaties is er gewoon geen oplossing waar iedereen tevreden mee is.
Nee dat is onzin. 64x tesselation die niet zichtbaar is, is hetzelfde als 2160p gaan draaien met 4x AA eroverheen.

PC gaming is altijd het maken van zinvolle afwegingen mbt beeldkwaliteit en prestatie. Hairworks is een perfect voorbeeld hiervan, en heeft last van een gigantische performance hit op alles dat niet Maxwell heet. Moet je het dan aanzetten? Nee. Net zoals we geen 4x AA draaien op 4K, het biedt te weinig meerwaarde en kost teveel performance.

Hairworks moet gewoon uit, Mantle moet geen rol spelen (doet het ook niet) en zaken als PhysX ook niet. Ja de een kan het wel, de ander niet, maar dat is gewoon een gegeven. Voor een eerlijke benchmark moet alle proprietary rommel gewoon uit. Dan is het speelveld gelijk.

Overigens, elke zichzelf respecterende reviewsite doet dat ook.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

Anoniem: 471038 @Vayra25 juni 2015 13:17
Nee dat is onzin. 64x tesselation die niet zichtbaar is, is hetzelfde als 2160p gaan draaien met 4x AA eroverheen.
Daar ging het mij niet om.
Het ging er mij om dat het niet eerlijk is om nVidia op 64x te laten draaien terwijl AMD op 8x or 16x draait.
Je kunt namelijk bij nVidia niets regelen.
Hairworks moet gewoon uit, Mantle moet geen rol spelen (doet het ook niet) en zaken als PhysX ook niet. Ja de een kan het wel, de ander niet, maar dat is gewoon een gegeven. Voor een eerlijke benchmark moet alle proprietary rommel gewoon uit. Dan is het speelveld gelijk.
Dat ligt eraan hoe je het bekijkt.
Het speelveld *is* niet gelijk, die features zitten nu eenmaal in die games.
Ik denk dat het best verdedigbaar is om juist met alles aan te testen, omdat dat ook de manier is waarop die spellen gespeeld gaan worden.
Als jij een AMD-kaart koopt, dan ga je geen features uitzetten omdat een nVidia-kaart dat niet kan, of andersom.

Een beter compromis lijkt me om beide mogelijkheden te testen.

[Reactie gewijzigd door Anoniem: 471038 op 22 juli 2024 15:42]

Inderdaad, maar dat blijkt vaak niet haalbaar, ben het verder wel met je eens dat je features inderdaad niet zal uitzetten *mits* ze geen enorme prestatieverliezen opleveren.

Daarom zeg ik, het feit dat je bepaalde features wel hebt bij een bepaald merk, is een gegeven, dat weet je dus al en hoeft daarom helemaal niet meegenomen te worden in een benchmark. We doen het ook niet met GPU PhysX, waarom dan wel met Hairworks? Nvidia heeft er een handje van om het speelveld zo ongelijk mogelijk te maken om een eerlijke vergelijking zoveel mogelijk te verstoren. Ook dat is een tendens die al jaren aan de gang is. Ik vind dat een review, die door de meesten gelezen wordt als een kritische beoordeling van een product, hier ook oog voor moet hebben en niet mee moet gaan in dat business model.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

Anoniem: 471038 @Vayra25 juni 2015 13:45
We doen het ook niet met GPU PhysX, waarom dan wel met Hairworks?
PhysX is iets dat gewoon niet werkt op GPUs die geen Cuda ondersteunen.
Hairworks is DX11-code, en werkt dus ook op GPUs van andere merken.
Dus dat is wel een verschil.

Misschien moet je het JUIST daarom testen, bij de introductie van een nieuwe GPU? Het had namelijk best gekund dat de Fury X dat wel goed had kunnen draaien. Als het niet getest was, hadden we dat ook niet geweten.
Eerder heb ik ook wel eens aangegeven niet blij te zijn met de merk specifieke functies, omdat die pc gaming ondermijnen door te bewegen richting een AMD of nVidia gaming platform. De analogie met de consoles dringt zich dan op (al zijn die alle AMD aangedreven). Onderscheid hoe goed een game runt op platform A of B ondergraaft PC gaming.

Maar als een game is "geoptimaliseerd" voor AMD of nVidia, is dit dan een gegeven of een beschuldiging zonder een goede grond? We kunnen vaststellen dat bepaalde games beter draaien op merk A of B, is een dergelijke constatering ook gelijk de analyse? Zelf loop ik ook al een tijdje rond met die vraag, hoe op een neutrale manier grafische kaarten testen. Zoek wat "neutral ground" games die neutraal presteren op beide merken, of test gewoon heel veel games om zo de meetresultaten nauwkeuriger te maken. Vayra noemde eerder al wat games.

Neutrale games vinden, die braaf dicht bij de Directx of Opengl api blijven lijkt me heel moeilijk. Een betere vraag is: welke game engine is neutraal? Vandaag wat met deze vraag rond gesjouwd. Liep hierbij tegen een Fury X introductie van Techreport aan. Dit was geschreven voordat we de kaarten in handen kregen. Zijn analyse, met dezelfde info die we allemaal al weten was een andere invalshoek dan ikzelf tenminste tot nu toe aannam, een alinea van blad 2:
With Fiji, AMD is offering a rather different vision of how GPUs ought to be used by game developers. That's one reason I'd expect to see continuing fights between the GPU vendors over what effects folks incorporate into PC games. Nvidia will likely emphasize geometric complexity and tessellation, and AMD will probably push for prettier pixels instead of more polygons.
Op zich kunnen we hierover natuurlijk sceptisch zijn. Mijn eigen indruk is geweest dat AMD met alles kwam wat het had, dat het aantal ROP's tekort zou zijn was een keuze van AMD binnen het beperkte kader wat het 28nm IC haar bood. AMD moest iets wegkiezen (negatieve keuze), of haar prioriteiten stellen. Dat de keuze van AMD ook een positieve kan zijn geweest heb ik eigenlijk nooit als mogelijk gehouden, en heb ook nu moeite dit te geloven. Ongeacht de positieve of negatieve keuze lopen AMD en nVidia een verschillend pad af. Geometrie intensieve games zijn meer het ding van nVidia, shader effects en texturing zijn meer het ding van AMD. Het is een beetje aan de game makers welke filosofie de voorkeur heeft, en dit heeft met optimalisatie niet zoveel te maken. tijd moet gaan leren welke kant het opvalt. Ben wel bijna verbaast dat met mijn voorkeur voor nauwkeuriger geometrie ik dus in het nVidia kamp terecht lijk te komen :?
Anoniem: 471038 @teacup26 juni 2015 10:05
Onderscheid hoe goed een game runt op platform A of B ondergraaft PC gaming.
Maar dit hebben we toch altijd al gehad? Er is altijd 1 CPU of 1 videokaart de beste. Ze zijn immers niet gelijk. Dat is nou juist de charme van het PC-platform. Een tweaker probeert zelf de beste hardware bij elkaar te zoeken, en die dan zo goed mogelijk te configureren.

Ik weet nog wel in de tijd van de 386/486, toen mijn vrienden en ik voor het eerst zelf PCs gingen samenstellen en/of upgraden.
Veel standaard-PCs werden geleverd met een Trident VGA. Als je toen een ET4000 had, was je de man.
Maar als een game is "geoptimaliseerd" voor AMD of nVidia, is dit dan een gegeven of een beschuldiging zonder een goede grond? We kunnen vaststellen dat bepaalde games beter draaien op merk A of B, is een dergelijke constatering ook gelijk de analyse?
Niet per definitie natuurlijk.
Het is soms ook maar net hoe je het bekijkt. Een feature als tessellation is gewoon een standaard feature van DX/OGL, maarja, als de ene fabrikant er significant beter in is dan de andere, dan kun je dat voordeel natuurlijk gebruiken in games.
Het beste argument dat ik kan geven is dit: zolang het gewoon nette DX/OGL code is, dan zit het verschil hem puur in de hardware. Als de concurrent gewoon zorgt dat hun volgende GPU die feature ook beter ondersteunt, dan verdwijnt het voordeel vanzelf.
Dit hebben we bv al gezien met Crysis 2. AMD had hier problemen mee, totdat ze met de Radeon 7970 kwamen. Toen waren ze sneller dan de nVidia kaarten.
Neutrale games vinden, die braaf dicht bij de Directx of Opengl api blijven lijkt me heel moeilijk.
Dat is hier ook het punt helemaal niet.
The Witcher 3 maakt dan wel gebruik van Hairworks, maar het is gewoon standaard DX11-code. Er wordt niets 'vreemds' gedaan.

Er zijn inderdaad wel voorbeelden van games die features gebruiken die niet binnen de DX/OGL-API vallen, maar dat is met The Witcher 3 dus niet het geval.
Net als bij Crysis 2 zal een concurrent de game sneller kunnen draaien dan nVidia als ze gewoon met een snellere tessellation-oplossing komen dan wat nVidia gebruikt.

Je kunt er wel over debatteren of de hoeveelheid tessellation van Hairworks wel 'nuttig' is, maar net als bij de discussie van Crysis 2 destijds ga je dan voorbij aan het feit dat er 1 fabrikant is die dat gewoon significant beter doet dan de rest.
In feite ben je dan dus altijd inferieure hardware aan het verdedigen, en dat kan niet de bedoeling zijn.
Een betere vraag is: welke game engine is neutraal?
Geen enkele.
Als je als developer rekening moet houden met alle hardware die er op de markt is, en moet zorgen dat niemand ergens voordeel of nadeel van heeft, dan worden je mogelijkheden wel heel erg beperkt.
Dus daar wordt niet zo veel aandacht aan besteed. Dat probleem lost zich vanzelf op doordat de gebruiker bepaalde grafische features aan/uit kan zetten, en zo zelf de graphics kan fine-tunen op zijn systeem.
Dat de keuze van AMD ook een positieve kan zijn geweest heb ik eigenlijk nooit als mogelijk gehouden, en heb ook nu moeite dit te geloven.
Ja, ik vind dat ook onzin. Als je naar de feiten kijkt, is Fiji gewoon een GCN1.2-chip met HBM erop.
De GPU-architectuur zelf is dus al een paar jaar oud, en dat zal geen bewuste/positieve keuze zijn geweest, maar gewoon een beperking opgelegd door AMD's mogelijkheden op dit moment.

Om betere tessellation en 12_1 features toe te voegen, hadden ze een behoorlijk redesign van de GPU-architectuur moeten doen. Dat hebben ze blijkbaar uitgesteld tot de volgende generatie.
De achterliggende gedachte zou wel geweest kunnen zijn van: "We leveren de GPUs voor de twee consoles, dus is de kans groot dat PC-games op korte termijn grafisch niet veel verder komen dan wat die consoles doen. Dus kunnen we beter inzetten op meer bandbreedte en 4k dan op nieuwe features".

Ik denk wel dat veel reviewers geen idee hebben van wat 12_1 nou precies zou kunnen. Je kunt er namelijk vooral efficient mee rasterizen in 3d, dus met voxels werken.
Dit maakt onder andere nieuwe technieken mogelijk qua belichting.
Dus ik vind het veel te simpel om te denken dat nVidia alleen gaat voor 'meer geometrie', behalve dan als het in de ruime zin is van voxel-technieken etc, want dat zou je ook als geometrie kunnen zien. Maar dat inzicht blijkt op geen enkele manier uit de verhalen van reviewers die ik heb gelezen.
En ja, betere lichttechnieken leidt dus ook tot 'prettier pixels'.

We gaan het zien.
En dan ga je mij vertellen dat dat "onbevooroordeeld" was? Prima dan ben je dus nog een leugenaar ook!

Scheldt jij ook altijd op iedereen en nog wat op verjaardagsfeestjes waar je te gast bent? Hoe is ff je fatsoen schreeuwer. Waar ging het mis in je opvoeding?
@toet-toet Je bent niet goed bij je hoofd. tweakers /= verjaardagsfeest!
En spellen kan je leren: "Hoef ff je fatsoen"

Ik kan je aanraden eerst even na te denken, waarom zou ik me opwinden? omdat Tweakers.net de boel belazerd misschien? Moedwillig? Dat jij geen benul hebt over hoe en wat het gaat is niet mijn probleem!
Als je het beter kunt, solliciteer bij Tweakers en laat ons zien hoe je een gedegen review maakt... 8)7

Mantle is bewezen vrijwel nutteloos. In de eerste incarnatie was het zelfs slechter met dan zonder mantle in Battlefield 4. een prestatieverhoging van ongeveer 5 fps is verwaarloosbaar.

Om een gemiddelde te krijgen moet je echter het gros games en applicaties testen die Mantle niet kunnen gebruiken want dat zijn er slechts een handje vol of minder.

Wat wel interessant wordt is het vergelijk van de kaarten onder directx 12(.1). Daar zitten de optimalisaties voor beide kaarten al ingebakken en kun je derhalve ook zonder aparte software beter zien hoe ze presteren.

Daarnaast zijn er altijd al games geweest die op een van de beide merken beter presteren door optimalisaties. Zo heb je dus games geoptimaliseerd voor AMD kaarten en games geoptimaliseerd voor Nvidia. dat is altijd al zo geweest.
@Tourmaline
Ja en dus moet je streven naar een spreiding tussen software die je gebruikt om benchmarks te doen.
ook het niet uitschakelen van instellingen waarvan bekend is dat ze problemen opleveren is niet een manier om te testen.
en zo zijn er nog veel meer dingen!

Ik lees Tweakers om te kijken welke hardware ik (eventueel) wil gaan aanschaffen. Niet om daarna zelf tests te gaan lopen bedenken of om na te gaan op welke manier tweakers de tests heeft gemanipuleerd. #dusdat
reactie die er eerst stond.

Laat maar, ik ga ook nier verder reageren op geflame.

[Reactie gewijzigd door Jack Flushell op 22 juli 2024 15:42]

ben het niet met je eens over je mantle verhaal.

je kunt dan de GPU niet 1 op 1 vergelijken, en krijg je juist een schuine vergelijking.
ze praten over dat de CPU geen bottleneck vormt omdat dit gewoon één van de snelste CPU's is.
als ze nu een oudere cpu zouden gebruiken zouden ze dit niet kunnen noemen.

waarom zou je gaan testen als de optimalisatie nog niet klaar is? dat is toch een tijdverspilling. dan heb ik liever dat ze het niet doen en later als de drivers goed zijn een nieuwe test doen. dus juist als mantle getest zou worden als het niet geoptimaliseerd is is het niet de moeite waard.

ik wil tests zien met geoptimaliseerde drivers, dan weet ik wat ik er aan heb. als de resultaten met mantle nu allemaal slechter zijn dan dx11 dan zou mijn besluit snel op nvida vallen doordat je het voordeel wat mantle zou moeten geven toch al niet hebt. (icm mijn i7 920)

ben verder ook benieuwd wat het antwoord is van Nvidia, prijs verlagin 980ti? tot onder 650?
i7 920 heeft niks aan een fury / 980 ti, cpu is te traag om het ook maar fatsoenlijk te pushen.

Ik zie geen rede waarom nvidia zijn prijs zou verlagen, dingen zijn goed overklokbaar en hebben 6gb of gddr5 v-ram iets waar mensen meer op aan het wachten zijn dan hbm. Tevens hebben de kaarten ook ruimschoots ondersteuning voor goede aansluitingen en zijn ze enorm goed overklokbaar.

Allemaal wat ati niet heeft.

Ati in mijn visie is alleen interessant zodra ze erg goedkoop zijn tegenover nvidia, or echt gewoon een stuk meer performance bieden.

In geen van de gevallen is dit het geval met hun kaart.

In mijn visie is de kaart niks meer dan een tech demo en hadden ze beter een revisie kunnen maken van de 290x en dit als een 300 serie kaart eruit te pompen met meer v-ram en meer snelheid ( 50% meer ). En vervolgens direct naar hbm2 te gaan.

In mijn visie, ben je beter uit met een 980ti op het moment.
I7 heeft niks aan een Fury ???

Wie bepaalt dat? jij ?
http://hardforum.com/showthread.php?t=1804582&page=2
Mantle helpt zeker om meer performance uit de rappe videokaart te trekken. Wat mij betreft past een Fury dan ook prima in een i7 X58 systeem. Beter dan een GTX 980 ti, waar Mantle niet werkt.
Mantle wordt amper door games gebruikt, het is meer een novelty dan ook maar iets anders. Meeste games op het moment zijn dx11 en daar zal de cpu nog meer gesterst worden met amd kaarten aangezien hun dx11 drivers gewoon weg slecht zijn in vergelijking met nvidia.

Anyway, ik heb zelf zo'n cpu op 4ghz en een 290 bottleneckt al op een kleine hoeveelheid, laat staan een snellere gpu.

Wat de site zegt over mantle is leuk en aardig, maar het is zo gelimiteerd in games dat het vrijwel een novelty is.
Bottlenecken zal me een worst wezen, de echte vraag is: is het fatsoenlijk speelbaar ? En ik denk dat dat! nou juist reuze meevalt. Maar ja, als je je blind staart op wat voor max fps je eruit zou kunnen trekken, ja dan ben je algauw niet meer tevreden. Voor mij ligt dat anders; ik ben een pure gamer en geen fps-maniak.

Als je er een beetje inzit, weet je ook waar en hoe je je game optimaal kan tweaken zonder noemenswaardig eyecandy verlies.
Nou bottleneck is nogal interessant vooral als je veel geld aan een gpu uitgeeft die nauwelijks meer frames produceert omdat je cpu het niet bijhoudt. Wat toch wel de hoofdzakelijke rede is van een snellere videokaart te kopen lijkt mij.

Waarom dan 2x zoveel aan een fury/980ti uitgeven dan een 970/290 kaart? als je performance nauwelijks beter is en je weinig tot niks om fps geeft en high/ultra settings.

De termem "pure gamer" en "fatsoenlijk speelbaar" betekenen voor iedereen wat anders en zegt dus weinig.

Tweaken is altijd mogelijk, maar heeft weinig te maken met waar ik het over had.
Heb het niet perse over de 290x vs Fury, er zijn veel meer opties mogelijk qua upgrade path.

http://alienbabeltech.com...-core-i7-920-at-4-2ghz/5/
De i7 920 stock is uiteraard te zwak, je moet hem wel kietelen:
En dan blaast die nog steeds een aardig toontje mee.

Gebruikers ervaringen zeggen meer dan al die prachtige grafiekjes:
stephanos82 July 31, 2013 at 1:21 pm
i7 920 rocks! I’ve been rocking it since 2008 and 5 years on it still amazes me! No reason whatsoever to upgrade – I look forward to a few more years of gaming with it!

SusseXMAN August 1, 2013 at 12:12 am
+1 Stephanos82
It’s amazing to see the i7 920 going head to head with a 2013 high end cpu (an i7 975 would have been a fairer match IMO)! But look at that i7 920 fight – beating the 3770k in most game benchs when both coed to 4.2Ghz! Congrats – and respect to the little 920!
I rest my case :>

[Reactie gewijzigd door Madrox op 22 juli 2024 15:42]

Er is nog meer dan alleen snelheid dames en heren. Iedereen schreeuwt maar wat over snelheden die dicht bij elkaar liggen maar wat mij meer interesseert is beeldkwaliteit. Hoe ziet een game eruit of hoe goed wordt een foto weergegeven. Dat deed AMD altijd out of the box wat beter dan Nvidia. Zelfde geldt voor video, daar was AMD beter in dan Nvidia, gewoon een mooier beeld op je tv via video. Dat zijn dingen wat in de praktijk eigenlijk zwaarder moet tellen dan 5 fps meer.

Dus blind staren op 5fps meer op een resolutie waar het totaal niets uitmaakt is niet echt interessant. Althans niet voor mij.

120fps of 125fps op een 24 inch monitor is echt niet van belang!

[Reactie gewijzigd door Tourmaline op 22 juli 2024 15:42]

Waar haal je deze onzin vandaan?

Een videosignaal is een videosignaal. Er zit echt geen AMD saus of kleurfiltertje over heen ofzo.

Als er al meer is dan beeldkwaliteit en fps dan is het wel frame pacing, en daar is het juist AMD die de bal heeft laten liggen, en dat opnieuw doet met de Fury X, waarvan de frame times veel slechter zijn dan de directe concurrenten. Check de review van Techreport.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

LOL, er zit een grafische processor in die het beeld omzet. De een doet dat beter dan de ander. En nee het ene video signaal is niet zo goed als het andere. vroeger had je ook niet voor niets speciale haupauge converter kaarten die veel betere beeldkwaliteit leverden dan de gemiddelde kaart.

Er is een reden geweest waarom bijv. Apple een hele serie van hun mac pro's weer heeft voorzien van AMD kaarten omdat de Nvidia kaarten volgens de klanten(grafici e.d.) van mindere kwaliteit waren. Toen hebben ze weer AMD kaarten i.p.v. Nvidia kaarten in die serie gezet!

Er is veel meer dan fps.

"Verschillen

Het feit dat tegenwoordig vrijwel alle videokaarten – met de Intel GPU van Intel Atom systemen als enige uitzondering –geïntegreerde videodecoders aan boord hebben, betekent dat er op dit vlak weinig verschillen te vinden zijn. Maar… video hardwarematig decoderen is één, het zo mooi mogelijk op de monitor of TV weergeven is twee. Daarvoor is ook een juiste nabewerking ofwel postprocessing nodig. Denk daarbij aan deinterlacing, ruisonderdrukking, kleurverbeteringen, het wegwerken van compressieartefacten en zo kunnen we nog wel even door gaan.

Zeker voor PC’s waarbij het bekijken van TV- of filmbeelden het belangrijkste gebruiksdoel is, een Home Theater PC ofwel Media Center PC, is het van belang om een videokaart te kiezen die juist bij video een zo goed mogelijke beeldkwaliteit biedt.Zoals in de inleiding al gemeld: de verschillen op dit vlak zijn groot.""

"Voor de allerbeste videokwaliteit moet je dus – althans met de huidige stand van zaken qua drivers – ofwel bij ATI zijn ofwel een nieuwe Intel Core i3/i5/i7 Sandy Bridge processor kopen.


In de HTPC scene is het al langer geen geheim meer dat nvidia kaarten niet beslist de beste video output hebben!

[Reactie gewijzigd door Tourmaline op 22 juli 2024 15:42]

Kom eens met een voorbeeld, dan weten we ook waar het werkelijk over gaat en wat in de praktijk het verschil is.

Ik heb hier nog nooit iemand over gehoord namelijk en zelf ook nooit een verschil kunnen ontdekken. Veel van dit soort zaken los je namelijk softwarematig op en dat kan ook zonder videokaart.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

Lees bovenstaande... ;)
Ja precies, de HTPC scene... Is daar een scene van? :D Dit klinkt mij heel erg in de oren als audiokabels gesmeed door elfjes bij maanlicht.
Als het beter beeld geeft, waarom niet... :+
Ik moest ook direct aan dat topic denken ;)
Andere sites die wel met Mantle hebben getest geven aan dat het bij de R9 300 serie en de Fury-reeks helemaal niet werkt. Ze meten dan veel lagere prestaties dan met DirectX.

Zie bijvoorbeeld:
http://nl.hardware.info/r...-benchmarks-battlefield-4
http://nl.hardware.info/r...-benchmarks-battlefield-4
http://nl.hardware.info/r...-benchmarks-battlefield-4
Battlefield 4 draaien we normaal gesproken voor AMD GPU's met Mantle en voor Nvidia GPU's met DirectX. Met de nieuwe kaarten en de daarvoor aan ons geleverde driver liepen we echter tegen het probleem aan dat de prestaties met Mantle een stuk lager zijn dan met DirectX. Vandaar dat we voor de nieuwe kaarten de benchmark ook in DirectX modus hebben gedraaid.

Dus ben blij dat Tweakers met DirectX test. De AMD-drivers kunnen nog niet met hun eigen API omgaan.
In herinner me nog dat ze een APU gingen meten tegen een I7, sindsdien check ik benches elders.
Je kan natuurlijk ook altijd eindeloos discussiëren over wat er wel en niet moet aanstaan in een game. Zo kan je ook altijd zeggen dat het groene kamp benadeelt word door geen gebruik te maken van MFAA of waar mogelijk bv hairworks. Ik vind het fijn te zien dat er gebenchmarked wordt met dingen die zowel AMD als nvidia ondersteunen.
Nee, Mantle is een API change en in veel gevallen geen voordeel, ook niet voor frame delivery/pacing, wanneer er geen sprake is van een CPU bottleneck. Je argument gaat niet op, en zéker niet voor BF4, dat aantoonbaar slechter loopt op Mantle. Elke review gebruikt gewoon Dx11.
Wat zever je toch over mantle man, er zijn gewoon te weinig games die mantle ondersteunen en bij de buren zegen ze zelfs dat de fury x beter draait op direct X.

Ik hou trouwens ook niet van die opegehypte overpriced apple producten dus op dat vlak a ik zeker met je mee.
[...]
Wij kiezen ervoor om alle kaarten die wij in de tabellen tonen opnieuw te testen met de nieuwste drivers. We weten dat zowel AMD als Nvidia dikwijls na enige tijd nog optimalisaties doorvoert voor games en door oude resultaten te gebruiken loop je dus het risico een verkeerd beeld te geven.
En waarom hebben jullie die benchmarks niet gisteren/eergisteren of een paar dagen voor vandaag gedaan? Je maakt mij niet wijs dat Nvidia vandaag nog een speciale driver heeft uitgebracht om tegen de Fury X op te boksen. Daarnaast zal de Beta-driver van AMD vooral (zo niet alleen maar) optimalisaties en instructies voor de Fury X hebben. De tests met de andere kaarten hadden jullie dus makkelijk maandag al kunnen doen (bijv.). ;)

Vind dit eigenlijk geen argument.

Edit:
Om het even kracht bij te zetten: de 352.90 driver van Nvidia hadden jullie op 1 juni al.
We hebben de prestaties van de videokaarten getest met behulp van twee synthetische benchmarks en vier games, waarbij we drie schermresoluties testten: 1920x1080, 2560x1440 en 3840x2160 pixels. De Nvidia-kaarten hebben we getest met de 352.90-driver, die Nvidia ons voor het testen van de 980 Ti deed toekomen.
Bron:Nvidia GeForce GTX 980 Ti Review - Titan X junior

Daarnaast hoefden jullie 'alleen' voor de R9 390X en de Fury X de 15.15 driver van AMD te gebruiken.
Voor de Fury X en de R9 390X hebben we gebruikgemaakt van de door AMD beschikbaar gestelde 15.15-driver. Die driver werkt niet op oudere AMD-gpu's, waardoor we voor de R9 295X2 moesten uitwijken naar de 15.5-driver.
Bron: AMD Radeon R9 Fury X Review - Nieuwe topkaart voor hoge resoluties

De benchmarks van de Nvidia kaarten hadden jullie dus al en konden jullie uit het 'archief' opduiken. De Benchmarks van de AMD kaarten maakten dus geen verschil. Aangezien voor de R9 295X2 uitgeweken moest worden naar de 15.5 driver.

[Reactie gewijzigd door Vickiieee op 22 juli 2024 15:42]

[...]


En waarom hebben jullie die benchmarks niet gisteren/eergisteren of een paar dagen voor vandaag gedaan? Je maakt mij niet wijs dat Nvidia vandaag nog een speciale driver heeft uitgebracht om tegen de Fury X op te boksen. Daarnaast zal de Beta-driver van AMD vooral (zo niet alleen maar) optimalisaties en instructies voor de Fury X hebben. De tests met de andere kaarten hadden jullie dus makkelijk maandag al kunnen doen (bijv.). ;)

Vind dit eigenlijk geen argument.
Waar het om gaat is dat de reviewers niet AL die kaarten het hele jaar in het testlab hebben liggen. Ze krijgen vaak een sample voor x weken en dan moet hij weer terug. Dan kun je dus kiezen; met een beperkt aantal kaarten steeds hertesten, of historische resultaten gebruiken. De meeste websites kiezen voor het laatste.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 15:42]

Ch3cker Teamlead Testlab @sdk198524 juni 2015 21:35
Alhoewel we de meest courante videokaarten gewoon 'op de plank' hebben liggen gaat het vooral hierom :

1. We kunnen de kaarten niet ver van te voren testen, er kan immers nog een nieuwere driver uitkomen in de tussentijd.
2. Het kost gewoon heel, heel veel tijd om deze kaarten allemaal te benchen.

Om je een beeld te geven : elke benchmark wordt drie keer gedaan, en daar wordt het gemiddelde van genomen. Dat zijn dus alleen voor deze review al 421 afzonderlijke benches en dan ga je er vanuit dat alles goed gaat en je dus niks opnieuw hoeft te doen. Ook komen de geluids- en verbruiksmetingen er dan nog bij, wat ook aardig wat tijd in beslag neemt.

Dan komt er nog eens bij kijken dat er voor de 300-serie review ook nog benches gedaan moesten worden. Sommige daarvan konden we bij allebei de reviews gebruiken maar enkele kaarten uit die review zijn bij deze review niet relevant.

We benchen met 2 systemen tegelijk en zelfs dan kost het dus nog héél veel tijd.

[Reactie gewijzigd door Ch3cker op 22 juli 2024 15:42]

Dan wacht je een dag, of een halve dag, en ga je niet meteen na de NDA lift een halve review presenteren.

Keuzes...Kwaliteit moet voorop staan. De eerste zijn is toch al onmogelijk, profileer je dus op kwaliteit en sterke analyses. En, je zegt dat het allemaal niet kan, maar waarom lukt het W1zzard dan bijvoorbeeld wel? Omdat hij een nolifer is ofzo? En die benchmark suite liegt er niet om, drie keer zoveel tests op 4 resoluties ipv 3, mét een goede analyse en een zéér goed oog voor neutraliteit, overklokresultaten en betrouwbare cijfers, met kersen op de taart als relative performance, performance/dollar etcetera.

Mensen gaan toch rondkijken en meer lezen, zeker bij dit soort releases, dus qua page hits zou ik me ook niet druk maken.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

Nvidia heeft afgelopen week een nieuwe driver uitgebracht. Grafische kaart-drivers zijn zwarte magie, dus je moet gewoon opnieuw testen, want wat er gebeurt weet niemand.
Wist je bijvoorbeeld dat grafische kaart-drivers grofweg shaders overriden van spellen? Dat is een van de redenen dat spellen na release een bak sneller worden door updates van grafische drivers. Spellen zijn brak geprogrammeerd en AMD en NVidia fixen de fouten die fabrikanten maken.
Nee die zijn geen zwarte magie. Voor Driver teams zijn de game render engines black boxes. Voor de render team zijn de API Drivers black boxes. Dus ze moeten gissen en trail error testen. Op die dev na die NV assistance genieten.

Dat wordt met DX12 minder omdat de API lean& mean is en dus veel verantwoordelijk heid overgedragen wordt naar de dev's. En dus dat deel wat de driver team Eigen deed. Nu zelf custom voor hun engine implementeren of afhandelen. Dus dat driver game profiles wordt ook minder releavant.

Al zal de game industrie niet massaal overgaan op DX12. DX11 is wat toegankelijker omdat GPU en Vram beheer uit handen wordt genomen. Maar dan wel met de generieke beperkingen. Tja en middle groot project heeft mogelijk niet zoon dringent behoefte om hardware te pushen.
Kortom, spellen van speciaal begaafde ontwikkelaars (ehem Ubisoft) gaan nog meer glitchen, jippie...
Jammer genoeg is dat iets wat veel consumenten (en tweakers!) niet weten.

De developers horen op het klachten bankje te zitten, niet de fabrikanten om hun drivers.
Anoniem: 471038 @nandervv24 juni 2015 17:11
Spellen zijn brak geprogrammeerd en AMD en NVidia fixen de fouten die fabrikanten maken.
Zo zou ik het niet willen stellen.
Hoewel er zeker wel games zijn die wegens tijdsdruk niet bepaald de schoonheidsprijs verdienen, is dat niet per se de reden.
Ook als een game gewoon netjes en goed in elkaar zit, kan een GPU-fabrikant altijd wel 'optimalisaties' verzinnen in de driver om de game sneller te maken.
Hetzij door features aan te spreken die niet direct via de API toegankelijk zijn, hetzij door keuzes van de ontwikkelaars te overriden (lagere kwaliteit textures, minder tessellation, soms gewoon hele shaders vervangen door een simpeler algoritme/minder precisie etc), hetzij door bepaalde 'shortcuts' in de driver in te bouwen voor die specifieke game.
In sommige (veel?) gevallen gaat hierdoor ook de renderkwaliteit achteruit, maar dat valt de meeste mensen tegenwoordig niet meer zo op.

[Reactie gewijzigd door Anoniem: 471038 op 22 juli 2024 15:42]

Ik kan deze pure vorm van benchen door Tweakers alleen maar waarderen.
Maar ik blijf het zeggen: ik mis het onderzoeken van de overclock mogelijkheden. Zeker op een kaart waar andere fabrikanten niet hun gebruikelijke ding kunnen doen.
Zie hier: Vickiieee in 'reviews: AMD Radeon R9 Fury X: nieuwe topkaart voor hoge resoluties'

Het overclocken is door Hardware.info gedaan, zij het met redelijk weinig succes. Zoals aangegeven is het geheugen dus niét ovet te clocken. De chip daarentegen wel, daar heeft HWI een kleine winst kunnen boeken. Maar niet veel door de limieten die door AMD aan de kaart gesteld zijn.
En waarom hebben jullie die benchmarks niet gisteren/eergisteren of een paar dagen voor vandaag gedaan?
We zijn al sinds vorige week bezig met al het testwerk voor deze reviews, en hebben veel kaarten inderdaad eerder getest dan de Fury X, omdat we die toen nog niet in huis hadden. De reden daarvoor? De Fury X lag eerst bij HWi; omdat er zo weinig samples zijn moesten we op hen wachten.

Als HWi het lukt om in dezelfde tijd als wij nemen voor een review veel meer games te testen vind ik dat knap. Misschien lukt ze dat ook wel. Hoe? ik heb geen flauw idee, want ik kijk niet over hun schouder mee. Ik weet niet hoeveel mensen ze puur daarvoor aan het werk hebben en hoe vaak ze benchmarks draaien om tot een betrouwbaar gemiddelde te komen.

En jij weet dat al helemaal niet. Voor iemand die geen flauw benul heeft van hoe het er achter de schermen aan toe gaat bij ons en HWi vind ik je toon en kritiek opmerkelijk.
[...]
En jij weet dat al helemaal niet. Voor iemand die geen flauw benul heeft van hoe het er achter de schermen aan toe gaat bij ons en HWi vind ik je toon en kritiek opmerkelijk.
Ahum? Hoe weet jij dat ik dat niet weet? Weet jij dingen die ik niet weet? Of ben jij een alwetend wezen? Mag ik dan alvast de getallen voor de Lotto? :+
Die weet ik niet, en jij al helemaal niet, want jij bent geen 'alwetend wezen'. Ook weet jij niet wat ik wél weet. Of juist niet. Dus die beschuldigende toon mag ook wel even wat minder. Wees blij dat je opbouwende kritiek krijgt, doe er wat mee, want ik ben echt niet de enige die over deze review valt. Tenzij je niet tegen kritiek kan, maar reageer dan ook niet :+

Enfin, back on-topic:
Je weet dat je nu jezelf tegenspreekt, Wout? Eerst geef je aan dat HWi niet kaarten opnieuw bencht, waardoor ze meer tijd zouden hebben dan Tweakers om de Fury X te testen (wat dus impliceert dat Tweakers tests van oude kaarten tegelijk deed met de Fury X). En nu zeg je dat Tweakers moest wachten op HWi omdat zij de kaart eerst kregen en jullie tot die tijd (of daarvoor al, kan ik niet afleiden uit je reactie) oudere kaarten opnieuw gebencht hebben.

Ik neem toch aan dat er een regeling o.i.d. is waardoor beide sites evenveel tijd krijgen voor het testen van de kaart? Neem aan dat dat wel net zo eerlijk is.

Uit je eigen reactie leid ik dat dan weer af:
Als HWi het lukt om in dezelfde tijd als wij nemen voor een review veel meer games te testen vind ik dat knap.
Of neemt HWi dus meer tijd dan jullie dat doen/deden voor het testen van de kaart(en)? Gezien het verschil in grootte van de sites neem ik toch aan dat Tweakers wel meer mensen op een review kan zetten dan HWi? Of heb ik dat mis?
idd woutf,

ik wardeer het wel als alle kaarten opnieuw gebenchmarkt worden voor de beste resultaten en vind idd de reactie van vickieee wel een beetje raar. maarja er zijn genoeg mensen die het wel waarderen dus blijf het alsjeblieft doen. :)
Wij kiezen ervoor om alle kaarten die wij in de tabellen tonen opnieuw te testen met de nieuwste drivers.
Kan aan mij liggen hoor, maar als je een R9 295X moet lenen van een user en een Titan X van een webshop - volgens mij hebben jullie die kaarten niet eens liggen.
HWi heeft dat soort kaarten volgens mij gewoon op de plank liggen en doet volgens hun site regelmatig opnieuw benchmarks, zoals onlangs met GTA V.

Het komt op mij over als een slap excuus... correct me if I'm wrong.
Ch3cker Teamlead Testlab @Richh24 juni 2015 21:26
De R9 295X2 en de Titan X is zeer moeilijk aan te komen via de reguliere kanalen. Omdat we de relevantie voor deze review zagen hebben we moeite gedaan om deze kaarten alsnog via andere kanalen te regelen. De meest reguliere kaarten hebben wij natuurlijk gewoon 'op de plank' liggen.

Uit de review van HWI zelf : 'Oudere kaarten hebben we niet opnieuw getest voor deze review, hou daar rekening mee als je de grafieken bekijkt.'

Wij hebben alle benchmarks die je in deze review ziet gedraaid met de laatst beschikbare drivers. Als je geïnteresseerd bent in de (oudere) resultaten met oude drivers (en dus ook van oudere videokaarten) kan je die terugvinden in onze benchdb.
Dus jij wilt een Tweakers dat zijn grote spiegelende zonnebril omlaag schuift en zegt: "we hebben ze allemaal", als een soort overdrachtelijk "de mijne is groter" effect?

Hoe Tweakers de kaarten verkrijgt maakt natuurlijk niets uit. Dat ze meegenomen worden in een frisse test met reproduceerbare configuratie is toch het enige relevante?

Ik vermoed dat als Tweakers al die kaarten op de plank zou hebben liggen we helemaal tussen reclames door naar inhoudelijke content moeten zoeken. Een slimme netwerk organisatie die met minimale middelen zijn doel bereikt is me liever.
Ik heb zelf een tijdje geschreven voor een kleine hardwaresite (inmiddels behoorlijk dood, maargoed ik schrijf er ook niet meer voor :+ ) en wij kregen destijds gewoon alle kaarten opgestuurd van de fabrikant. Daar was geen reclame voor nodig. Die kaarten mag je van de fabrikant niet doorverkopen en blijven dus gewoon 'in de kast' liggen. Dat was hoe het toen ging, misschien gaat het tegenwoordig anders, dat weet ik niet.

Dat Tweakers dat blijkbaar niet heeft, en zoals Wout eerder zegt dat de Fury-kaart bij Hardware.info is opgehaald na hun benchmarks, geeft imo aan waar Tweakers tegenwoordig staat qua desktophardware.

Zelf vind ik het jammer dat Tweakers de PC-hardware zo links laat liggen en zich meer en meer focust op camera's, TV's, smartphones en Apple. Oke, da's ook interessant, tuurlijk. Maar het maakt wel dat ik voor dit soort reviews (eigenlijk alles op gebied van componenten) liever op HWI kijk.
Ik heb zelf een tijdje geschreven voor een kleine hardwaresite (inmiddels behoorlijk dood, maar goed ik schrijf er ook niet meer voor :+ ) en wij kregen destijds gewoon alle kaarten opgestuurd van de fabrikant.
Als dit hetgeen is wat ze zouden moeten kunnen verwachten dan is dat niet goed nee. Schaarste van de high end kaarten kan een reden zijn, maar dan nog lijken ze niet vooraan in de rij te hebben gestaan. Als dit inderdaad het geval is dan zou dit een reden moeten zijn om de huidige strategie nog eens tegen het licht te houden, want hoe je het ook bekijkt, desktophardware is de kraamkamer van de meeste andere hardware.
WoutF Hoofdredacteur @Richh25 juni 2015 07:04
Dat gaat nog steeds zo voor bijna elke videokaart-launch. In dit geval waren er echter nauwelijks kaarten beschikbaar waardoor AMD heeft besloten om de exemplaren te rouleren.
Dat is te prijzen, maar dan moet je wel een eerlijke benchmark suite hebben met neutralere games erin, zoals bijvoorbeeld Metro LL.

Verder moet je oppassen niet op de bandwagon van Nvidia driver verhaaltjes te springen. Nvidia roept bij elke driver release zoveel procent winst te boeken maar echt harde cijfers zijn lastig te vinden, en de winsten zijn nooit schokkend behalve als een game écht brak loopt. En als klap op de vuurpijl blijkt ook dat sommige driver releases een averechts effect hebben, zoals recent de gebrekkige optimalisatie van de Kepler kaartjes in game ready drivers, niet geheel toevallig omdat er een nieuw Maxwell kaartje uitkwam.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

Zelf zijn jullie ook niet echt slim bezig geweest. Door oude Catalyst 15.5 drivers te gebruiken zijn de benchmark resultaten onjuist en irrelevant. Ik vind dit echt onbegrijpelijk, dit is een bewuste keuze geweest aangezien dit niet in de versterkte documentatie staat. 8)7
Catalyst 16.6 is pas op 23 juni gelanceerd. Het is zeer onredelijk om dan te eisen dat die gebruikt wordt. Je kunt niet alle kaarten binnen 1 dag testen.
Het enige wat onbegrijpelijk is is jouw post.
ik kwam het volgende net tegen op de site van anandtech:
// For readers expecting the AMD Fury X review, unfortunately Ryan has been battling a virus this week and despite his best efforts it has taken its toll. The review is near completion but with a couple of key elements still to do - please keep your eyes peeled over the next few days for the full analysis.
Dus daar zullen we nog even op moeten wachten...
Wat me vooral tegenvalt is dat geen van de reviews ingaat op de tesselation performance van de Fiji gpu's... Dit is namelijk EINDELIJK een full size GCN 1.2 gpu waarbij ik gezien de prestaties van de R9 285 t.o.v. de R9 290(X) erg benieuwd was naar de tesselation prestaties prestaties.
Anoniem: 471038 @Spekkie8825 juni 2015 12:14
Nou, er is wel met The Witcher 3 getest, dat is toch ook wel een leuke tessellation-benchmark.
En Unigine Heaven natuurlijk, maar helaas alleen op 'normal' settings.

[Reactie gewijzigd door Anoniem: 471038 op 22 juli 2024 15:42]

Hebben ze bij AnandTech al een review van de GTX 960 intussen? Los van de artikels van Johan De Gelas is die site niet meer wat het geweest is, vind ik. En die AMD-section (lees: een merk-gericht onderdeel) vind ik maar louche...
Anoniem: 603532 @Jack7724 juni 2015 15:28
Er is ook een Intel-section.
Ik zie het nut er niet echt van in maar louche is het iig niet.
Mmm, vroeger was er een soort AMD Zone of Corner. Een gesponsorde area waarin ze alle AMD nieuws en reviews verzamelden. Is blijkbaar verwijderd.
Dankjewel Stef, van mij heb je een +3 met boost gekregen, top dat je dit even opsomt! :D
Valt behoorlijk tegen na alle hype, had toch wel verwacht dat die wat sneller was. Eens afwachten wat de prijzen gaan doen de komende maand en dan maar beslissen 980 TI of Fury X

Wij zijn tweakers en dan geen overclock resultaten |:(

Edit: De vraag gaat natuurlijk zijn welke kaart gaat het winnen in DX 12 volgende maand met win 10 release en alle toekomstige games die het gaan ondersteunen, het kan heel goed zijn dat die HBM dan een heel groot voordeel gaat worden, maar op het moment neig ik toch meer naar een 980 TI.

[Reactie gewijzigd door Cyclonic op 22 juli 2024 15:42]

Anoniem: 532949 @Cyclonic24 juni 2015 18:44
Ja over directx 12 gesproken, daar hoor ik leuke verhalen over. Zoals deze : http://www.tomshardware.c...us-shaders-gcn,28844.html

AMD beweert dat directx 12 gebruik gaat maken van technieken die ze in hun GPU's verwerkt hebben, maar die voor game's nauwelijks gebruikt werden. Maar omdat Microsoft nu graag zo veel mogelijk uit hun Xbox hw persen ze hier nu beter gebruik van gaan proberen te maken. Ik heb geen idee of dit werkelijk zo is, maar het zou mij niks verbazen als de GNC 1.2 architectuur wat kleine voordelen oven Maxwell zal hebben wanneer directx 12 uit komt.
Anoniem: 58485 @Cyclonic24 juni 2015 15:45
3 tot 8% langzamer dan een Nvidia. Prop een 100Mhz op de core extra en hij is net zo snel (al dan niet sneller). Big deal. Je hebt gewoon een dikke kaart voor een goede prijs, die het komende jaar al dan niet 2 jaar zelfs MEE KAN in ALLE games die je spelen wilt.

Hij is stiller, typical verbruik ligt identiek aan die van een nvidia, en je hebt een by design watergekoelde kaart in huis.

Nu driver optimalisaties nog ^^

[Reactie gewijzigd door Anoniem: 58485 op 22 juli 2024 15:42]

En de 980ti OC presteert weer aanzienlijk beter dan dat. Maar er zijn idd andere pluspunten zoals de waterkoeling en het formaat.
In de meeste games op 4K is Fury toch echt sneller, zie techpowerup. Men had zo gehoopt dat het een Titan x killer zou zijn, maar het is een prima kaart voor ongeveer 600 euro. Het is net nieuw, driver optimalisaties komen er nog aan, en niemand heeft op DX12 nog kunnen testen. Afwachten. Ik wil 'm stiekem wel hebben ter vervanging van mijn R270X Crossfire setup.
Hij gaat zowiezo meer dan €700 kosten. De fury x krijgt daarnaast slechts het originele model, andere fabrikanten kunnen niet hun versie er vanuit brengen. Dat is bij de 980ti wel het geval.

Ik ben wel erg benieuwd naar de DX12 benchmarks. AMD schijnt daar veel winst te kunnen pakken volgens de geruchten. Tier level 3 tegen over 2, en de 12_1 feature level gaat hoogst wss nauwelijks gebruikt worden door de game developers. Hier kan AMD idd wat winst pakken, we gaan het zien.

Kan iig ook niet wachten deze crossfire setup achter me te laten. Slechte ondersteuning, en elke driver of game update kan je performance weer om zeep helpen. Frustrerend geweest. Had er zelfs een playstation 4 voor in huis gehaald, waar ik nu wel enige spijt van heb.

[Reactie gewijzigd door echtwaarisdatzo op 22 juli 2024 15:42]

de fury x gaat 650 dollar kosten dus volgens de dollar naar de euro om te vormen nog steeds 650 euro kennelijk :p
Reken er maar wel op dat het hoger uitvalt. Dit verzin ik zelf niet, hardware.info schat een €750, tweakers zelf €700.

De 980ti kost in dollars ook 650. Zou niet meer dan logisch zijn als de Fury X dus een vergelijkbare prijs krijgt niet?

[Reactie gewijzigd door echtwaarisdatzo op 22 juli 2024 15:42]

De dollar en de euro zijn nu bijna gelijk. de euro is kwa waarde flink gekeldert! Euro-dollar is nu bijna 1 op 1. Alleen de Engelse pond heeft nu nog flink wat overwaarde.
De fury x krijgt daarnaast slechts het originele model, andere fabrikanten kunnen niet hun versie er vanuit brengen.
Ik heb een kleine maand terug tot een 970GTX besloten, van high end afgezien omdat hogere resoluties niet goed konden worden aangedreven, een stap terug dus. Voor mijn gevoel was er alleen een keuze tussen kwaden. nVidia had met haar procesgrootte AMD beslissend kunnen kloppen. Hebben ze niet gedaan, omdat hun architectuur na-ijlt bij de huidige schermresoluties (geheugen bandbreedte). Voor mij desondanks 970GTX omdat ik besloot de hogere resoluties voorlopig nog maar in de wilgen te hangen.

Zelfs met de huidige 980Ti en deze Fury kaarten kan je een discussie hebben of deze kaarten bevredigend high-res gaming mogelijk maken. De ene zal wel tevreden zijn, de andere verwacht voor de te investeren kosten een volmaakte oplossing. Dit maakt de high end kaarten van dit moment in mijn ogen wat controversieel. Wat de veeleisende gebruiker verwacht van een top end kaart is dat deze voldoende headroom heeft. Voor hoge resoluties hebben de huidige high-end dit naar mijn mening niet voldoende, afgezet tegen hun kosten.

Maar, als ik mijzelf realiseer dat de Fury kaarten op het 28nm procede zijn gebakken, dan heb ik diep respect voor AMD dat het met deze randvoorwaarden zulke presterende kaarten weet te produceren. Dat hiervoor een gesloten koelcircuit nodig is, is een trade off inderdaad. Ondanks dit maakt het AMD wat dat betreft de morele overwinnaar van de wedloop op dit moment. Bedenk de kennis die het merk heeft opgedaan in het harnassen van hun ontwerpparameter om met 28nm deze prestaties neer te zetten.

Ben heel benieuwd hoe AMD de performance nog verder kan opschroeven wanneer ze eindelijk aan hun die-shrink gaan toekomen. AMD heeft wat dat betreft nog iets in het vat zitten dat nVidia nu al heeft verzilvert. Hopelijk krijgt AMD voldoende ademruimte om tot die die-shrink te komen.

[Reactie gewijzigd door teacup op 22 juli 2024 15:42]

Op 4k is de GTX 980 TI 2% sneller
1440p 9% sneller
1080p 14% sneller
900p 18% sneller
Volgens TPU https://www.techpowerup.com/reviews/AMD/R9_Fury_X/31.html

[Reactie gewijzigd door Nature op 22 juli 2024 15:42]

Alleen de meeste 980 TI halen 1500mhz op de core, en ik heb in heel veel reviews gelezen dat die pomp een raar grinding geluid maakt. De kaart heeft inderdaad potentie maar ik wil nu performance en niet over een paar maanden. En dan vind ik hem toch teleur stellen.
Anoniem: 58485 @Cyclonic24 juni 2015 17:04
Er ontbreekt op het moment om het voltage aan te kunnen passen voor de Fury, maar ongetwijfeld dat we ook dikkere OC's zien dan hoogstens 95Mhz out of the box. Bedoel er zit een 400A VRM achter... daar moet echt wel wat sparks mee te maken zijn. :Y)
AMD Chef Engineer legt uit hoe het werkt allemaal:

https://www.youtube.com/watch?v=BuWvM4Iy5wo :+
"Hij is stiller"

Tweakers is niet de enige die over een hoge piep klaagt, in idle. De waterpomp veroorzaakt dan een hoge piep die zeer irritant is. Dit komt in heel veel reviews naar voren.

Voorbeeld: https://www.techpowerup.com/reviews/AMD/R9_Fury_X/30.html

Idle fan noise is a bit high though, mostly because of the pump, which emits a permanent high pitched whine, that tends to get quite distracting after a while.

Als je een stille kaart wil die op de achtergrond z'n werk doet kan ik deze kaart dus alleen maar afraden. Koop dan liever een kaart die idle netjes 0 decibel produceert (fans uit).
bij sommige games, met name Project Cars en The Witcher 3, zien we dat de AMD-kaarten ten op zichte van Nvidia enigszins onderpresteren en wellicht leidt een nieuwe driver later in het jaar in die games ook nog tot betere prestaties.
Door de nieuwe GPU, zijn er amper overclock-mogelijkheden op dit moment. De hoogste overclock die ik heb gezien sinds 14:00 (na het opheffen van de NDA) is een whopping 80MHz op een kaart die grofweg 1100MHz loopt.

Of die overclock goed of slecht is, laat ik me niet over uit maar het zal vast niet het verschil betekenen tussen een Fury in game X met 63fps en een 980Ti in game X met 75fps; het lijkt er gewoon op dat de actuele stand van zaken is: AMD heeft mogelijk een prijstechnisch mooie GPU neergezet maar is even vergeten om de drivers, optimalisaties etc ook meteen op de markt te zetten zodat het nu nog niet de beste koop is.

[Reactie gewijzigd door MAX3400 op 22 juli 2024 15:42]

AMD_Roy op twitter was aan het melden dat dit een "Overclockers dream zou worden" nou 80mhz en locked memory.... 8)7
Toch hebben ze het HBM 20% sneller gekregen bij de buren :)
De geheugenklokfrequentie konden we met 100 MHz verhogen. Dat lijkt weinig, maar is wel 20% bovenop de standaard klokfrequentie.
En betreft de GPU
Gezien de voltage locked is in CCC wil niet zeggen dat het niet verder kan. Even wachten op een afterburner update misschien met een voltage bump kan het nog een stukje hoger.

[Reactie gewijzigd door FNale op 22 juli 2024 15:42]

HBM kan op dit moment nog niet overclocked worden...
Anoniem: 300525 @Tettoom1224 juni 2015 14:57
Dan geeft GPU-z een verkeerde uitslag:

http://nl.hardware.info/r...enship-overklokresultaten

Ook wel apart dat AMD's eigen CCC deze mogelijkheid wel gewoon toelaat.

[Reactie gewijzigd door Anoniem: 300525 op 22 juli 2024 15:42]

Maar leest GPU-Z deze kaart wel goed uit? Vaak heeft die tool een update nodig na een nieuwe release.

Ik zie bij Memory Bandwidth ook 307,2GB/s, terwijl een Fury X op stock snelheid al 512GB/s doet.

Het is verder ook maar de vraag of die overklok wel iets toegevoegd en of het niet trager wordt(videogeheugen is ECC volgens mij, dus als je fouten gaat genereren moet er van alles gecorrigeerd worden zonder dat je artifacts oid krijgt :P)

[Reactie gewijzigd door !mark op 22 juli 2024 15:42]

GPU-Z geeft de juiste uitslag zie toch duidelijk default 500MHz en 600MHz staan :+
Alleen klopt de bandbreedte dan niet.
Nee dat zie je wel vaker dat die rekensom niet klopt.
Klopt "officieel'
Het aanpassen van de geheugenklokfrequentie is officieel niet mogelijk, maar wellicht als gevolg van een bug in de drivers, zagen wij om de zoveel reboots ineens wél een slider voor geheugenklokfrequentie in CCC. Het maakt dat we ook het geheugen hoger konden klokken.
De Maxwels zijn er tijdje en NV grotere duurdere driver afdeling heeft dus al veel langer hun werk kunnen doen en zijn ook nog steeds bezig. Met hun gelobby bij de devs.
Dus de performance zal nog groeien en ik kijk eerder uit naar de DX12 en Vulcan titels.

Daarnaast gezien NV nogal games naar zich toe trekt en er wat games zijn die AMD criplen.
Is 5 games gebenched wel erg mager.
HWI test er meer geeft iets ander beeld.

Ik koop hardware voor komende jaar of twee niet alleen voor deze 5 games.

Gezien hoe NVidia te werk gaat met hun game works kan je beter zoveel mogelijk games benchen. Tja mijn conclusie hou beide aan zit altijd goed.
Een Fury en 980 game system. Ga sowieso voor iets GCN1.2 en Maxwell2 aangezien ik ook in DX c++ hobby programmeer.
Je kan het ook zo zien. AMD weet een maandje na de introductie van de 980Ti een kaart neer te zetten die op 4k gelijk presteert, en als AMD even aan de drivers schroeft beter, dan de GTX980Ti. En dat met een iets lager stroomverbruik.
Kijk maar naar The Witcher 3 benchmark. Het is bekend dat AMD kaarten daar matig presteren, zie de 1080p benchmark. Maar bij 4k is de prestatie toch vrij gelijk. En dat met 'maar' 4GB geheugen.
Zou de AMD kaart als de drivers net zo goed waren als die van Nvidia (ik weet niet hoe je dat wilt meten of berekenen maar goed) de GTX980Ti dan niet keihard verslaan?

Ik had van Tweakers ook wel iets minder Nvidia oriented en andere soort games willen zien. Dat mag AMD natuurlijk niet als excuus gebruiken.
Maar als je bij de buren kijkt bij een AMD oriented game zoals Evolve dan presteert de Fury overall het beste van allemaal: http://nl.hardware.info/r...genship-benchmarks-evolve
Waarom wel een Project Cars, maar geen Evolve bijvoorbeeld?

Maar ik zou eveneens wel eens League of Legends, Dota 2, Starcraft 2, Just Cause 2, CS:GO, en dergelijke oudere games die nog veel gespeeld worden willen zien.
Of een game als Dirty Bomb die niet al te zwaar is, maar wel nieuw. En ik mis eigenlijk ook Crysis 3.

[Reactie gewijzigd door Fleximex op 22 juli 2024 15:42]

Grappig, AMD released speciaal voor deze nieuwe kaarten drivers, dus ook voor de 390X maar ze zijn niet bruikbaar voor de 290X.
Ik gok dat die driver ook de prestaties van de 290(X) verbeterd, maar dat dit nu te zuur zou zijn in de eerste reviews. Over vieze spelletjes gesproken.

Iets minder Nvidia oriënted? Ik tel er 3 voor AMD, 2 voor Nvidia en 1 console port (AMD optimised).

Wat betreft oude games: iedere kaart in deze lijstjes draait deze games met ziekelijke fps. Voor LoL is een slecht voorbeeld, toen ik nog een radeon 6870 had draaide ik al 120 fps..
Op 4K zijn die oudere games opeens weer wel zeer relevante benchmarks, zeker omdat AMD de Fury neerzet als de 4K kaart.
"Even aan de drivers schroeft"

Ja, want daar zijn ze niet al enkel maanden mee bezig zeker?

Als ze de drivers nog niet goed hebben bij een zeer belangrijke launch, dan hoef je op veel verbetering niet meer te rekenen hoor.
Dat gebeurt vrijwel altijd. Bijna iedere kaart presteert redelijk wat beter een paar maanden na de launch dan dat hij dat in het begin deed door betere drivers.
Als ze de drivers nog niet goed hebben bij een zeer belangrijke launch, dan hoef je op veel verbetering niet meer te rekenen hoor.
Zeker wel, jij kent AMD dan blijkbaar niet zo goed :) En ja dat is slecht, maar dat doet er niks aan af dat er bij AMD vaak nog wel merkbare verbeteringen komen na de launch...
AMD en ATI vroeger goochelen altijd met mirakel drivers na release van een kaart. Maar die verwachtingen werden nooit ingelost en dat zal nu ook niet zo zijn.
Serieus...als je niet weet hoe het werkt, reageer dan niet alsof je de gospel verkondigt.

Drivers zijn in orde, de kaart doet het prima. Goed zelfs. Feit is dat elke fabrikant altijd bezig blijft drivers te vernieuwen. Vaak kan daar aanzienlijke performance winst aan vast zitten. Dat is met nieuwe kaarten nog meer het geval. Dit is altijd zo geweest.
Ja, en wat gaat dat veranderen dan? Of werkt nvidia niet net zijn hard aan de drivers?

Punt is dat je moet kijken naar wat een kaart nu biedt, ipv hopen op magische driver updates die ze misschien wel of niet zullen uitbrengen...
Ja zij hebben al veel langer hard aan hun drivers gewerkt. Dus houd men rekening met wat achterstand bij AMD. Alleen is dit geen garantie.
Maar ja ik heb een 1440P dan speelt CPU afhankelijk en dus ook driver afhankelijkheid al stuk minder mee.

Voor 144FPS 1080P gamers wel wat van belang
Als AMD nu met een CPU aankwam die zo dicht bij Intel kwam, hadden we weer een competitieve CPU markt. Dit is puik werk van AMD en iets waar ze volgende generatie de kroon mee kunnen pakken. Nu, laat de prijzen maar zakken :).
Dit is puik werk van AMD en iets waar ze volgende generatie de kroon mee kunnen pakken.
Denk je dat?

Fiji Is een opgeschroefde Tonga gebaseerd op diezelfde generatie GCN architectuur. AMD heeft HBM en een flinke dot SM's nodig om iets weg te zetten dat in de buurt komt van nVidia's Maxwell. En dat terwijl Maxwell al weer een flinke tijd op de markt is.

De volgende generatie gaan zowel nVidia als AMD waarschijnlijk naar een kleiner procédé, en gaan ze naar verwachting beide HBM2 gebruiken. Wat de toekomst biedt Is natuurlijk koffiedik kijken maar als je de huidige status doortrekt dan moet AMD gewoon aan de bak.

Ik had eigenlijk meer de hoop (maar niet de verwachting helaas, eerlijk gezegd) dat AMD zich weer eens qua prestaties zou overtreffen. Dat Fury nVidia weer eens had laten zweten. Een paar generaties geleden gingen beiden nog regelmatig haasje over qua GPU prestaties, maar de laatste generaties hobbelt AMD er eerlijk gezegd wat achteraan. Het is imho nodig tijd dat AMD weer eens een GPU uitbrengt waarmee NVidia overklast wordt.
Dat Is goed voor de concurrentie. Goed voor de prijzen. Goed voor vooruitgang.

[Reactie gewijzigd door houseparty op 22 juli 2024 15:42]

maar de laatste generaties hobbelt AMD er eerlijk gezegd wat achteraan.
En nu met de fury staan ze praktisch weer gelijk. Alleen jammer dat ze die rebrands nog zo duur pushen. Ik had graag ook een Fury alternatief voor de 970 gezien.
Praktisch gelijk is subjectief. De afstand is imho groot genoeg om niet een "net niet" gevoel te hebben. Feit is dat ze er weer achteraan hobbelen.

Als je kijkt waarmee AMD moet uitpakken om met Fiji XT "praktisch gelijk" te komen met Maxwell dan kan ik het alleen maar jammer vinden eerlijk gezegd.
Er komt ook de R9 Nano!
Max 95 MHz bij de buren.

De 3D mark score valt daardoor zo'n 3000 punten lager uit dan een 980 Ti OC.
"We gaan ervanuit dat het gepiep en gebrom veroorzaakt worden door een productiefoutje en dat de kaart normaal gesproken niet zulk geluid voortbrengt."

Dat vind ik nogal een conclusie. Als juist een reviewer een exemplaar krijgt met dat soort kuren, dan zou ik er eerder van uitgaan dat hoogstwaarschijnlijk alle exemplaren dit euvel hebben en het zeer duidelijk meenemen in de waardering, al is het maar als waarschuwing voor zowel klant als leverancier. Mocht de leverancier dan kunnen aantonen dat het inderdaad om een defect ging, pas dan achteraf de review aan. M.i. mag een kaart met een dergelijke prijs nooit zulke kwaliteitsissues hebben.
Als je van andere reviews mag uit gaan, is het een structureel iets wat anderen ook opmerken. Juist in de meting wordt vaak gekeken naar de kaart zelf en niet naar de rest van het systeem als het gaat om productie van (overbodig) geluid; ook de heren van Guru3D geven aan dat ze kaart meer geluid maakt dan ze lief zou zijn.
De versies die in de winkels komen te liggen zullen stiller zijn volgens AMD.
Voor het moment blijft ik wel bij mijn 290x. Als je kijkt naar prijs/prestatie/technologie is er geen vooruitgang. Kan zijn nog wat driver problemen en verbeteringen, maar wil dit eerst zien.

Voor het moment betaal je voor een "nieuwere" kaart het dubbele maar prestatie blijft het zelfde. Afwachten dus.
Ik heb 290X en 5870 system met nog loss GTX580 en GTX560TI ergens.
Maar ik wacht op W10 en DX12 en ga dan pas langzamerhand orienteren om CPU MEM mobo update te doeen en SSD voor W10.
Daar komt dan een van die ouwe Gkaarten in en dan orienteren.
Ondertussen zijn er betere drivers W10 drivers en wat DX12 titels de nano en gewone Fury met straat prijzen.
Gelijk heb je, ik ben al heel tevreden met mijn R290 op het lawaai na dan :p
Witcher 3 runt heerlijk
Respect hoor voor dit, met veel minder R&D geld toch iets competatiefs neerzetten. Kritiek is goed maar kijk altijd eerst even naar wat amd, nvidia en intel aan r&d uitgeven.. Hele hoge verwachtingen is gewoon niet reëel..
als je veel minder R&D geld hebt moet dat zich ook vertalen naar een lagere prijs voor de kaart, dat zie ik dan niet direct terug.
Dan had ik daarvan toch graag een bron gezien.

En een verklaring waarom Intel nog steeds NVidia niet kan kloppen op de GPU markt...
De rebrands vond ik lichtelijk schandalig. Maar had goede hoop voor deze kaart. Helaas wordt dit niet waargemaakt. Als de prijs rond de 500 euro lag was dit een ander verhaal. Maar als het dichtbij de prijs van de 980ti zelf ligt. Zie ik totaal geen waarde van deze kaart waarbij de 980ti heel consistent is in zijn prestaties op alle resoluties en gewoon van meer regelmatige driver releases mag genieten.
Rebrands gebeuren bij beide kampen, in zo ongeveer elke generatie.
Een kaart van 2012 in 2015 rebranden? Er zijn grenzen.
De 8800 GT uit 2007 is tot 2010 ook gerebrand (4 keer in totaal). Dat er op het internet over deze generatie van AMD gezeurd wordt snap ik niet. De 290(x) is een supergoede kaart, dus waarom niet 'rebranden'? Hij kan voorlopig mee met de top dus ik zie het probleem niet.

@Rin: De Fury X kan nog makkelijk overgeclocked worden als die unlocked wordt, als je die temperaturen ziet. Voor die prijs een prima kaart voor hoge resoluties.

Heb het gevoel dat AMD er puur op basis van 'Reputatie' nu slecht af komt, wat niet helemaal eerlijk is.
Niet dat de vorige generatie op hetzelfde niveau als de voorgaande wordt geplaatst.

680 met speedbump naar de 770. De 680 werd dus vervangen door de 780.

Nu is de 290x gewoon een 390x met een minimale speedbump.

De Fury X daarintegen is fors hoger geprijsd en presteerd eigenlijk niet echt veel beter.
Valt me tegen. Zeker omdat ik denk dat je zeker in het begin toch wel 700 euro moet neerleggen voor een Fury X, voor 40 euro meer heb je een 980Ti met stock cooler :|
Ik zie dat toch anders een Water Koeling , dat hebben de meeste customs al niet. En dat voor reference prijs.
Watercooling heeft alleen zin bij overclocker en ondanks dat mijn hoop hoog was omdat de Fury X 'an overclockers dream' wordt genoemd vallen de overclock resultaten uit diverse artikelen erg tegen.
Anoniem: 175233 @Cornelisjuh25 juni 2015 15:42
Waterkoeling heeft ook enorm veel nut om de geluidsproductie binnen de perken te houden. Dit is de enige kaart die op volle belasting niet als een stofzuiger klinkt. Dat lijkt me niet alleen voor overclockers een voordeel...
Whut? Mijn MSI 770 Gaming is niet hoorbaar, ik hoor de voeding loeien en de TwinFrozR komt niet boven de CPU fan uit, die een low RPM versie is.

En dat is dus een oude koeler...

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

Ik heb een 290X lightning. Niet voor OC' en,
Maar Custom komt met de betere meer potente en stillere koel oplossingen. En draai hem op stock klok.

WC heeft naast OC potentie vergroting, ook de mogelijkheid van toepassen van grotere fan's. Dat geeft lager freqentie geluid. En dat wordt ervaren als aangenamer en is daarbij ook stiller door hogere lucht verplaatsing bij gelijke RPM tov kleinere fan's.
Een softwarematig nieuwtje dat AMD in de driver van de Radeon 300-serie en de Fury X mogelijk maakt, is framerate targeting control, afgekort ftc. Met behulp van ftc is het mogelijk om een maximale framerate tussen de 55 en 90fps in te stellen, waardoor de gpu in games niet meer frames zal renderen dan nodig is. Is de maximale verversingssnelheid van je scherm bijvoorbeeld 60Hz, dan kun je instellen dat de videokaart niet meer dan 60fps produceert, wat energie bespaart
Wat dus eigenlijk een veredelde V-Sync is, maar dan net even anders. Maar in plaats van dat er slechts (bijv.) 60 FPS wordt weergegeven op je scherm, wordt er in dit geval gewoon niet meer gerenderd. Wat dus inderdaad voor een lager verbruik kan zorgen (en zoals uit de alinea eronder ook blijkt, want van 334 Watt onbegrensd naar 231 Watt met FTC). Echter is het dus niet gelijk aan V-sync. Maar de combinatie van beide technieken zal zéér interessant kunnen zijn als dit een solide 60 FPS oplevert.
AMD heeft de Fiji-gpu gemonteerd op een behoorlijk compacte videokaart, die standaard voorzien is van waterkoeling. AMD heeft verder aangegeven dat de Fury X niet van andere koelers zal worden voorzien dan de standaardwaterkoeler, dus fabrikanten als Sapphire, Club3D en Asus zullen allemaal dezelfde videokaart verkopen en zich moeten onderscheiden met behulp van de bijgeleverde accessoires of eventuele games.
Ik vind dit op zich een pijnlijke misser. Graag had ik gezien dat fabrikanten met hun eigen aftermarket koelers op de proppen mochten komen, om dan zo te zien welke fabrikant de meest inventieve is. Dat alleen deze standaard koeler gemonteerd mag worden is enerzijds begrijpelijk, anderzijds vind ik het een gemiste kans. Ik was zéér benieuwd naar waarmee ASUS, MSI, EVGA, Gigabyte etc. op de proppen zouden komen!
AMD heeft wel bevestigd dat de R9 Fury niet van waterkoeling voorzien zal zijn en dat fabrikanten hun eigen koelers mogen monteren.
Toch benieuwd wat dit dan weer op gaat leveren en hoe dichtbij (of ver weg) de prestaties van de R9 Fury liggen ten opzichte van de Fury X. Om over de afermarket koelers dan nog maar weer even te zwijgen :D.
Heb je een behuizing die voorzien is van een venster, dan zijn de ledjes, die eventueel ook uit te schakelen zijn, een leuke toevoeging.
Leuke gimmick bij de kaart en leuk bedacht, maar waarom wordt het eerste LEDje alleen groen als hij geen beeld uit stuurt? Ik snap dat het 'de kleur' van Nvidia is en dat AMD traditioneel gezien rood is, maar bij lage prestaties en minder dan 20% belasting van de videokaart was het misschien wel leuk geweest als de eerste paar LEDjes groen zouden kleuren.
Off-topic deels: Aan de andere kant, maar dit zal wel verwarrend zijn, wat als de LEDjes in een soort 'schakelmodus' zouden branden, zoals op het stuur van een F1 wagen het geval is? Bij een belasting tussen de 0% en 50% branden de 8 LEDjes groen naarmate de belasting hoger wordt. Bij een belasting tussen de 51% en 100% branden ze dan rood. Zo zal dan bij een belasting van 76% 4/8 van de LEDjes rood branden. (50%/8 LEDjes = 6.25% per ledje. Meer dan 50% belasting, dus: branden ze rood. 4x6,25% is 25%, 25%+51% = 76% belasting.)
Ach, het is ook maar goed dat ik geen hardware ingenieur ben.. :+ :D
De keuze voor recente games betekent dat de benchmarks relevant zijn, maar bij sommige games, met name Project Cars en The Witcher 3, zien we dat de AMD-kaarten ten op zichte van Nvidia enigszins onderpresteren en wellicht leidt een nieuwe driver later in het jaar in die games ook nog tot betere prestaties.
Ik mag toch hopen dat jullie hiervoor niet de Tesselation op max geknald hebben om "een eerlijke vergelijking te houden met de Nvidia-kaarten laten we het tesselation-niveau op maximaal staan"?
Want dan begrijpen jullie het woordje 'eerlijk' niet namelijk :').
Van de zes games die we draaiden, weet de Fury X het best met Far Cry 4 om te gaan. In deze game is de Fury X bijna net zo snel als de GTX 980 Ti en bij 3840x2160 pixels komt de gemiddelde framerate zelfs boven die van de 980 Ti uit.
Uuhhmm, waar is de 3840x2160 Benchmark van Far Cry 4 op ULTRA? Battlefiedl 4 en Dragon Age: Inquisition worden beide op High getest, waarbij de 980 en 980Ti nog iets sneller zijn dan de Fury X. Bij Far Cry 4 is er bijna géén verschil tussen de kaarten op 'Medium'. Waarom is daar niet op Ultra of High getest? Gezien de gemiddelde en hoogste framerates bij deze game kan ik mij niet voorstellen dat Ultra of High ervoor zorgen dat de game onder de 30 FPS uit komt. (Gemiddeld op Medium zo'n dikke 47 FPS).
Gelieve hiervoor een verklaring te geven. Want bij GTA V waar het verschil tussen de kaarten weer groter is (6FPS+) in het nadeel van AMD wordt wél op High getest. En wordt 53+ FPS gehaald met álle kaarten.
Uitstapje naar de buren die (zoals we van ze gewend zijn) een héérlijk uitgebreide review geschreven hebben: http://nl.hardware.info/r...-benchmarks-the-witcher-3
Leert ons dat op Ultra bij UHD de verschillen er nog bijna zijn. Weliswaar zijn de 980Ti en de Titan X nog steeds ietsiepietsie sneller, het verschilt niet veel!
De pomp hoor je dan iets harder draaien, terwijl ook de ventilator van de radiator, een Scythe Gentle Typhoon, sneller gaat draaien.
Lijkt 'TheGreatAtuin' toch gelijk te hebben! :D
TheGreatAtuin in 'nieuws: AMD geeft details over R9 Fury X vrij'
Het was mooi geweest als de nieuwe Fiji-gpu meteen de snelste videokaarten van dit moment, Nvidia's Titan X en 980Ti, had weten te verslaan, maar dat blijkt in onze benchmarks net een brug te ver.
Ja, en nu Project Cars en The Withcer 3 nog een keer, maar dan zonder Tesselation graag. Ben benieuwd naar de benchmarks die er dan uitkomen!

Al met al vind ik het een interessante kaart, maar is het jammer dat hij niet zo snel is als een 980(Ti). Om heel eerlijk te zijn had ik er iets meer van gehoopt, maar dit zal wellicht in de toekomst nog komen als AMD de kaart, de chip en het HBM geheugen weet te fine-tunen.
We gaan The Witcher 3 opnieuw testen zonder Hairworks, verwacht morgen in de loop van de dag een update :)
En dan nemen jullie ook gelijk de andere 'Gameworks' spellen mee die voor een niet volledig neutraal beeld kunnen zorgen?
En zet dan ook aub gelijk de Tesselation uit, dan hebben geen van de kaarten er voor- of nadeel van :N

In ieder geval dank voor de verdere review en de update! :D
Je mag de tesselation dan wel 'oneerlijk' vinden, feit is gewoon dat de AMD-kaarten in tesselation - iets wat gewoon in de DirectX specificatie staat - gewoon heel slecht doet. Als je een spel op de beste instellingen gaat testen, dan zet je alle opties aan, dus OOK tesselation. Dan valt de AMD-kaart gewoon door de mand. Dat je graag zou willen zien wat het verschil is zonder tesselation kan ik me zeker voorstellen, maar oneerlijk is het zeker niet en geeft wel degelijk een neutraal beeld: AMD-kaarten zijn bij alles op max (als er tesselation is) gewoon langzamer dan NVIDIA.
Je hebt een punt, echter is er ook een nuance in aan te brengen. Het komt namelijk regelmatig voor dat er op kunstmatige wijze geintjes worden uitgehaald om de concurrentie in een kwaad daglicht te zetten. Hairworks is daar 1 voorbeeld van. Daar wordt bijvoorbeeld een schaal van tesselation toegepast die praktisch en visueel gezien bijzonder weinig of niets toevoegd. Het is bekend dat de maximale tesselation die AMD kaarten presteren lager ligt dan nVidia kaarten. Of die tesselation prestaties daarmee slecht zijn, daar kan je over debatteren. Maar bewust een mate van tesselation forceren waar je concurent slechter mee om kan gaan puur om nummertjes en niet omdat het iets toevoegd aan de visuele ervaring van een game vind ik persoonlijk over het randje.

Lees over dit specifieke voorbeeld ook eens de post op geforce.com: waar nVidia gebruikers zelf al niet blij worden van het verhaal daar hoor je gebruikers waarbij de hoeveelheid tesselation hun kaarten dusdanig beperkt dat ze er boos van worden.
Kepler framerates storten ook in bij het gebruik van Hairworks.

Dus feitelijk is Hairworks vooral voor de perceptie van de prestaties van Maxwell goed, voor de gamer en consument absoluut niet. Terecht dat er dus zonder Hairworks wordt getest (of dat dat gaat gebeuren), net zoals elke andere zichzelf respecterende reviewer dat doet.

Zelfs in techdemo's van nvidia zien we renders op 40 fps of minder lopen terwijl ze ALLEEN maar Hairworks hoeven te laten zien. Met andere woorden, leuk dat het er is, maar het is 'crippling' en niet alleen een steek onder water naar AMD maar vooral ook naar Kepler gebruikers die volgens Nvidia maar weer even moeten upgraden.

Goeie business voor Nvidia dus, niets meer en niets minder. Natuurlijk legt Nvidia het uit als 'pushing the envelope' en dat is ook ten dele waar, maar sneaky is het natuurlijk wel.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:42]

Laten we shaders ook uit zetten! :*)
Dat hadden jullie gewoon meteen moeten doen. Het is een gimmick dat niks toevoegt en Geralt zijn haar zelfs een stuk lelijker maakt. De performance dip is echt gigantisch.
Witcher 3 speelt gewoon al heerlijk op een R290 en met dit soort benchmarks krijgt men het idee dat geen enkele AMD kaart geschikt is
Jammer dat jullie niet overclocken want AMD zei dat deze kaart dat goed kon :/
Kijkt u hier eens, vers van de buren!
http://nl.hardware.info/r...enship-overklokresultaten
Op het moment van schrijven is het enkel mogelijk om de Radeon R9 Fury X te overklokken via de Catalyst Control Center. Daarin is de klokfrequenties voor het GPU in te stellen, naast de zogenaamde power limit. Er is geen mogelijkheid om het GPU-voltage te verhogen en het is ons niet duidelijk of dat puur een beperking is van de CCC software of dat de kaart geen voltage tweaking toestaat. Het aanpassen van de geheugenklokfrequentie is officieel niet mogelijk, maar wellicht als gevolg van een bug in de drivers, zagen wij om de zoveel reboots ineens wél een slider voor geheugenklokfrequentie in CCC. Het maakt dat we ook het geheugen hoger konden klokken.

Wij stelden voor onze overklokpoging de power limit maximaal in, ofwel +50%. Zoals gebruikelijk voor onze OC-tests stelden we de 5960X CPU ook nog wat hoger in, op 4,5 GHz.

Uiteindelijk bleek het overklokpotentieel beperkt. We konden de CPU-klokfrequentie met 95 MHz verhogen tot 1145 MHz. De geheugenklokfrequentie konden we met 100 MHz verhogen. Dat lijkt weinig, maar is wel 20% bovenop de standaard klokfrequentie.
Bij TPU schaalde overklokken niet lekker. 4-5% performance winst in BF3 op een overklok van 80 mhz Core, en dat was ook gelijk de limiet.

Fire Strike zegt bijzonder weinig.
Lijkt er op dat ik toch kies voor zijn zoontje, de r9 390x.
waarom? 290(x) heeft een veel betere prijs/prestatie verhouding, en is over te clocken tot bijna de prestaties van de 390x.
Ik zoek het niet om hem handmatig te clocken, moeten mijn fans ook weer vaker hard draaien en herrie maken etc.
ik denk dat dat bij de 390x ook wel het geval zal zijn, die draait vast wel nóg warmer dan de r9 290x.
Daarom weet ik het ook nog niet zeker. ;)
Veel slimmer om een oude 290X te pakken en zelf over te klokken. Gewoon eentje kiezen met een goede koeling erop en je bent goedkoper uit en mag zelf het overklokpotentieel bepalen. De R9 390X is gewoon dezelfde kaart met een hoger prijskaartje en het overklokpotentieel is al fabriek-af benut.

That's it.
Prijs verschil tussen een 290x en een Fury is aanzienlijk, ik ben van plan voorlopig op 144hz 1440p te spelen, 290x denk betere bang for buck?

Op dit item kan niet meer gereageerd worden.