Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 113 reacties

AMD heeft zijn nieuwste videokaart, de Radeon R9 Nano, formeel geïntroduceerd. Vrijwel alle details over de compacte kaart waren al door diverse media gelekt, maar onder meer de prijs van de kleine vijftien centimeter lange kaart was nog onbekend.

De R9 Nano is de derde kaart met AMD's grootste gpu tot dusver: de Fiji-asic. Net als de Fury en Fury X heeft de R9 Nano de nieuwste 28nm-gpu aan boord. Bovendien maakt de Nano gebruik van AMD's nieuwste geheugentechnologie: hbm. Daarbij zit het gddr5-geheugen niet verderop het pcb van de videokaart, maar op een interposer naast de gpu zelf. Dat levert kortere lijntjes en meer geheugenbandbreedte op en bovendien maakt het zeer compacte ontwerpen mogelijk.

De Nano heeft een volledig geactiveerde Fiji-asic aan boord: net als bij de Fury X zijn alle 4096 streamprocessors geactiveerd. De kaart is wel iets zuiniger dan de Fury X: er is slechts één 8pins-voedingsstekker aanwezig voor een tdp van 175W. Dat is flink minder dan de 275W van de Fury X: de kloksnelheid van de gpu is dan ook iets lager en kán oplopen tot 1000MHz, maar dat zal vaak iets lager zijn om binnen het powerbudget te blijven. Volgens AMD zal de kaart over het algemeen op ongeveer 900MHz tikken. Het 4GB grote hbm-geheugen tikt op 500Mhz (effectief 1000Gbps) over een bus van 4096 bit en heeft een bandbreedte van maximaal 512GB/s.

De Nano-kaart is specifiek voor mitx-behuizingen gebouwd: mitx-borden zijn 6,7" lang en de kaart is 6 inch. De temperatuur van de gpu zou dankzij een heatpipe op de vrm's en een vapor chamber op de asic op 75 graden Celsius gehouden moeten worden, met pieken naar 85 graden: dan pas zou gethrottled worden. De koeler moet ongeveer 42dB(A) aan geluid produceren en voert de warmte goeddeels naar buiten de behuizing af. Op de achterkant zijn drie displayport- en een hdmi-aansluiting te vinden.

De Radeon R9 Nano heeft een adviesprijs van 650 dollar gekregen. Pas op 10 september mogen reviews van de kaart gepubliceerd worden: dat is ook de datum waarop winkelvoorraden te verwachten zijn.

AMD Radeon R9 Nano

Moderatie-faq Wijzig weergave

Reacties (113)

Als de benchmarks laten zien dat ze het waarmaken hebben ze een knap staaltje techniek afgeleverd waarvan ik denk dat het wel eens de tides zal doen keren in het voordeel van AMD weer. Dit zou ook perfect toelaten om opnieuw een monster van een dual-GPU variant te maken!

Ben benieuwd naar de benchmarks en wat de toekomst zal brengen voor AMD op zowel GPU als CPU gebied! :)
Videocardz.com heeft sinds gisteren reeds een benchmark-leak betreffende de R9 Nano versus een GTX 970.

WCCFTech heeft bovendien extra aanvullende informatie betreffende deze kaart.

Tot 30% sneller dan een GTX 970 én overtreft zelfs nipt de GTX980! Indrukwekkende performance voor zo'n compacte kaart. Helaas wordt de bel snel doorprikt door de adviesprijs van 650 dollar. Nvidia's adviesprijs voor de GTX980 is slechts 500 dollar. Het gebruik van HBM-geheugen laat zich (zoals bij de Fury X) als early adaptor voelen in prijs.
Let wel op dat dit benchmarks zijn van AMD, dus gekleurd. Het is wachten tot 10 september voor onafhankelijke reviews.
Het voordeel tegenover een GTX 980 is dan de grootte, betwijfel of mensen daarvoor 150 dollar betalen, maar toch.
Lijkt me sterk met niet eens 20% van de markt in handen en de toch wel mindere drivers en software support.
Het tij kan uiteraard keren. Overigens komt het gewogen gemiddelde neer op 23,6% (http://content.hwigroup.n...ercury_gfx_mkt_shares.png), maar een daling is uiteraard wel zichtbaar.

M.b.t. tot de drivers wordt dit steeds minder belangrijk nu dat DX12 er eindelijk is. Dit 'close to the metal' aanspreken van de GPU zorgt er dus net voor dat drivers minder kunnen afremmen/optimaliseren. Overigens is blijkt AMD wel goed gegokt? te hebben met hun GPU architectuur aangezien deze veel meer profiteert van DX12 dan de laatste Nvidia's. (Zie Ashes of the Singularity benchmark).

Komt nog eens bij dat AMD ongewild erg wordt tegengehouden door de procedé's waarop ze hun ontwerpen kunnen laten bakken. Dit is bijna voor al hun producten nog steeds 28nm. Op CPU gebied dienen ze al af te rekenen met een 'verkeerde' architectuur die gericht is op multithreading ipv singlethreading + een oud procedé vs een Intel dat vele malen kleiner en efficiënter kan bakken.

Echter komt er dus het 14nm procedé aan voor zowel hun GPU's als CPU's/APU's, dit in combinatie met HBM2 geheugen (32GB VRAM wordt dan mogelijk), een nieuwe 'singlethreaded' gefocuste CPU architectuur. Al bij al ziet het er helemaal niet slecht uit!

Ja ze zitten momenteel op de blaren door verkeerde keuzes en de mislukte 20nm procedé's, dalende verkopen, ..., maar dan toch een erg lekkere GPU eruit kunnen persen die lekker snel, klein en efficiënt is?. Chapeau
Het is nog even de vraag hoe lang het gaat duren voor we echt veel DX12 games gaan zien, en of dat überhaupt ooit gaat gebeuren. Voor DX10 zijn er immers niet bijster veel games uitgekomen. Dit ondanks dat DX10 toch wat efficiënter was (Far Cry 2 had bijvoorbeeld DX9 en DX10 waarbij de tweede het beter deed). Uiteindelijk is vooral DX11 goed doorgebroken. Verder zie je vandaag de dag nog veel DX9 compatability...

De geschiedenis leert dat DX11 (en eerder) driver support dus de komende jaren nog zeker een issue blijft.

Verder vraag ik mij ook af of er met DirectX12 inderdaad geen ruimte meer is voor driver optimalisaties. De huidige optimalisaties zijn namelijk vaak hacks die foutieve calls van devs ombuigen. Dat zou toch ook met DX12 moeten kunnen?

[Reactie gewijzigd door sdk1985 op 27 augustus 2015 22:15]

AMD drivers zijn momenteel waarschijnlijk beter dan die van Nvidia, en al helemaal met DirectX12. Dat AMD slechtere drivers had was jaren geleden zo, maar nu is het Nvidia die wederom achterloopt.
Ze zouden zelfs een Quad GPU versie kunnen maken en de kaart zou dan even groot kunnen zijn als huidige high end kaarten.
Quad GPU zal misschien wel lukken om de dies op een grote printplaat te plaatsen ter grootte van een GTX 690, maar ik denk niet dat het energie-technisch mogelijk zal zijn. 4 keer deze GPU zou ruwweg 700Watt vragen, waarschijnlijk wat minder wanneer ze de GPU's wat terugclocken. Met de huidige technieken en connectors is (denk ik, ben hier niet 100% zeker van) maar maximaal 375Watt (PCI-e v3.0 + 2x 8PIN PCIe connector) mogelijk. Dan zou je nog eens een 8pin + 6pin nodig hebben om dat te realiseren, wat tot nu toe ongezien is.

Laat staan dat je dat gevaarte ook nog eens koel zal moeten houden... :p

[Reactie gewijzigd door juniordiscart op 27 augustus 2015 14:29]

Ze kunnen toch makkelijk een kleinere GPU versie maken, het hoeft geen high end GPU te zijn.

Dan heb je al een flink lagere verbruik.

Want het gaat niet zozeer om de kloksnelheid maar om de GPU size wat je de rekenkracht uiteindelijk geeft.
'Als'. Fury viel al redelijk tegen op alle resoluties onder 4K en deze kaart moet de GTX 980 uit de markt duwen.

Maar de Nano krijgt wel een adviesprijs mee die veel te hoog is, en de GTX 980 is al een kaart waarvan je je kan afvragen of ie bestaansrecht heeft op dit prijspunt, aangezien de 970 daar heel dichtbij zit met een veel lager prijskaartje.

Eerst zien dan geloven, maar een GTX 980ti killer is het niet, en de GTX 980 'killen' is zinloos.
Jammer, dacht dat er een goede concurrent zou komen, maar met die prijs is dat een No Go. Ik ga morgen de GTX970 mini halen :)
Een GTX970 ITX is wel even wat anders dan deze Fury Nano. In principe is dit een Fury X met een iets lagere clocksnelheid, wat je eerder zou moeten vergelijken met een GTX980Ti ITX (als deze zou bestaan).
In hoeverre deze vergelijk opgaat zal nog gissen blijven totdat de reviews/benchmarks komen. Als deze kaart ergens richting de Fury X gaat qua performance is dat voor zo'n klein kaartje een hele prestatie en zal het (zeker voor de echt kleine mITX behuizingen) veruit de snelste kaart zijn die je daarin kunt plaatsen.
Aan de eerste benchmarks te zien is deze kaart geen 650 dollar waard als je het vergelijkt met de mitx 970gtx. Die zijn voor pak hem beet de helft te koop wat deze kaart kost en kan alles op 2560x1600 goed aan en soms ook 4k. Als je puur na bang for the buck kijkt kan de nano met 200% van de prijs hier niet aan tippen. Maar we zullen het zien ik denk niet dat in deze kaart het antwoord ligt als ze zulke hoge prijzen hanteren.
Dat een GTX970 ITX je meer FPS/euro oplevert is duidelijk. Het is (helaas) zo dat je voor de top-end altijd substantieel meer betaald en zeker als het een zeer specifiek niche product is, in dit geval voor zeer kleine ITX cases. NVidia's Titan kaarten kosten ook altijd fors meer dan de GTX x80 kaarten, maar ze zijn meestal niet veel beter.

Mensen die veel bang for their buck willen in een kleine ITX kast, die halen een GTX970 ITX of een R9 285 ITX. Mensen die een erg kleine build willen met toch maximale GPU prestaties, die zullen naar een R9 Fury Nano of R9 Fury X kijken.
Dan komt er mooie tijd voor kleine kastjes mensen.
Als volgende gen van beide merken HBM2 massaal gaan toepassen. Wordt zowat alles compacter.

Alleen ik ben meer typetje groot.
Zou nog even wachten tot de leveranciers met hun prijzen komen, ik heb dit ook één keer eerder gehad. Hij zal wel rond de 450 doekies gaan zitten.
Adviesprijs is 650 dollar.

Als we kijken naar andere grafische kaarten:
- GTX 980Ti @ 700 $, hier 750 euro
- GTX 980 @ 520 dollar, hier 600 euro
- R9 Fury X @ 560 dollar, hier 600 euro
- R9 390X @ 430 dollar, hier 450 euro

Dus laat ik de bel alvast maar doorpikken: De R9 Nano zal minimaal 650 euro kosten, en gelijk de tendens hierboven laat zien zal het eerder 700 euro worden. Dromen van 450 of 500 euro mag je dus vergeten. De R9 Nano is niet de GTX970-killer waar mensen op hebben zitten wachten, niet aan deze pricepoint.
Klopt, maar een 970 killer is er al. De AMD 390.
ik durf een 390 toch niet in een low air-flow mini ITX form-factor te leggen. De 970 daarentegen, no sweat. TDP van de 390 ligt bijna 100% hoger dan van de 970 (148 vs 275).
Dus voor compacte systemen is een heethoofdig AMD monster echt geen Nvidia killer al was ie gratis.

Ik vraag me af wat Anno 2015 de verdeling zal is tussen midi en full towers enerzijds vs compact microATX, ITX en sub ITX pc's (zoals brix, nuc en steambox) aan de andere kant.

Voor compacte systemen voor bijv in de huiskamer of mobiel gebruik is performance per watt erg belangrijk en dat biedt de nano gelukkig wel. Jammer dat de rest van line-up er in faalt.

Ik zelf ben momenteel opzoek naar een compacte steambox. Dan zijn Nvidia GTX-en (zowel M als desktop) en deze nano eigelijk de enige opties voor serieuze performance.

offtopic:
eLJay blijft nog even dromen van een 990m

[Reactie gewijzigd door eL_Jay op 28 augustus 2015 16:54]

Sterker nog, je prijsvergelijking klopt nog niet eens. Je kaart aan dat de Fury X ~¤600 kost, maar de link die je neerzet is van een Fury.

De adviesprijs was volgens een eerder Tweakers artikel was $649 voor de Fury X. De goedkoopste prijs op het moment is ~¤700.

Met andere woorden, deze 'R9 Nano' komt zeker rond de ¤700,- te liggen. Als het al niet meer is door de geringe vraag en aanbod.

Persoonlijk zou ik eerder voor een Fury X gaan. Met een krachtigere koeling en hogere snelheid vind ik het geringe formaat verschil verwaarloosbaar, ik denk namelijk dat de Fury X in menig ITX kast past. Een lagere TDP zou doorslaggevend moeten zijn.

Ik hoop wel dat de Fury X eens een keer beter beschikbaar wordt, nu is hij nergens voor een 'normale' prijs te koop. Zo kunnen ze nooit concurreren met Nvidia, ik vind namelijk de Fury X en de R9 Nano een interessante optie om in te zetten als DIY E-GPU voor Macbooks (AMD kaarten worden goed ondersteund in Mac OSX zelf)
Sterker nog, je prijsvergelijking klopt nog niet eens. Je kaart aan dat de Fury X ~¤600 kost, maar de link die je neerzet is van een Fury.
beide links en prijzen zijn van de fury. de vergelijking is dus prima, alleen is niet van de fury X.

gewoon omrekenen van dollar naar euro en dan de BTW erbij en het klopt allemaal aardig goed.
Eerder mogelijk een 980 killer, die is ook relatief zuinig.
DX12 pakt die mogelijk ook de 980Ti kwa performance niet vermogen.
Tja een 980 ( Ti ) compact zijn er niet. Komt door GDDR5 chips.
Gezien de leveringsproblemen denk ik van niet. Denk dat deze kaart gewoon tussen de 500 en 600 euro uitkomt. De GTX970 Mini koop je voor 330 euro, en krijg je er nog gratis MGS5 bij ook....

Keuze is gemaakt, en ik denk voor meerdere Tweakers.
Je weet momenteel de winkelprijs niet.

Adviesprijs ligt altijd flink hoger dan de winkelprijs.

En de performance die deze kaart levert in dit formaat heeft geen alternatief.
De winkelprijs zal evenhoog of hoger liggen, maar zoals je zelf zegt:
En de performance die deze kaart levert in dit formaat heeft geen alternatief.
Dit is gewoon de beste 'mini' GFX kaart die je kan krijgen.
Er is geen reden om aan te nemen dat de winkelprijs even hoog zal zijn.

Vooral als je te maken hebt met meerdere producenten.
Ik vermoed dat er geen echte custom modellen zullen komen, net als bij de Fury X

EDIT: blijkbaar wel

[Reactie gewijzigd door graverobber2 op 27 augustus 2015 17:12]

Is dat zo? Dan wil ik bij jou wel een GTX970 kopen tegen de Adviesprijs.... Die lag namelijk een jaar geleden op 329 dollar tijdens de introductie.... Dat de GTX970 zo duur blijft komt omdat er geen beter alternatief is voor een betere prijs.

Ditzelfde zeg jij ook, Deze Fury zal de beste in zijn soort zijn, plus slecht leverbaar. Dus de kans dat deze kaart onder de Adviesprijs neergezet gaat worden zal zeer klein zijn.
Jij komt nu met een uitzondering en doet alsof je dat kan toepassen op de gehele videokaartmarkt.

Over het algemeen is de adviesprijs nooit gelijk aan de winkelprijs.

En die verhalen over slechte leverbaarheid hoor je over elk onderdeel wel maar wat blijkt? Het is alsnog overal te koop.
Het is gewoon marktwerking wat de prijs bepaalt. In dit geval hebben we een uniek product. Indien de vraag er ook naar is, zal de prijs zeer waarschijnlijk beginnen bij de adviesprijs. Producten die bij introductie al onder adviesprijs verkocht worden zijn meestal wat generieker, kennen meer concurrentie en daardoor wordt prijs als marketinginstrument ingezet. Deze Nano heeft daar echter zijn formfactor voor, dus verwacht niet dat de prijs zal afwijken van de adviesprijs. Pas als de retailers het aan de straatstenen niet kwijtraken, gaan we misschien een prijsdaling zien.

Ik vind het jammer, AMD kaarten waren vanaf de HD4xxx serie altijd enorme bang for buck, niks realistische prijs, maar gewoon agressief in de markt gegooid. MIjn 5850/5870 corssfire gaat nog prima mee, dus ik wacht nog wel een generatie....

@Dark_man:

Het is niet zozeer dat ik het vergeet. Ook webshops hanteren minimum brutomarges. Voor de reguliere retail/e-tail liggen deze vaak rond de 20%, maar bij PC-componenten liggen deze al sinds jaar en dag een stuk lager. Wederom, ook webshops zullen de prijs zo hoog mogelijk houden. Uiteindelijk draait het allemaal om winst(maximalisatie) en de prijs laten zakken is het laatste wat een retailer wil. Zolang de consument braaf de adviesprijs zal neerleggen, zie ik geen reden waarom retailers met een nichekaart als deze (want dat is het. Eigenlijk alleen interessant voor high-end mini-ITX systemen) op prijs gaan concurreren. Sowieso is de regel eerder dat niche nu eenmaal meer kost, vanwege de lagere vraag.

[Reactie gewijzigd door PhatFish op 28 augustus 2015 03:04]

Je vergeet een ding.

Sinds het internet concurreert iedere webshop op prijs.

Als er een webshop is die zijn kans schoon ziet om 1 euro goedkoper te zijn dan de concurrent dan zullen ze dat niet laten.

Het maakt dan ook niet uit of het goed wordt verkocht of niet.
Waarom dan niet voor een EVGA GeForce GTX 960 4GB Superclocked gaan?

Die is ook maar 172,72mm, en kost maar ¤ 256,- en is snel genoeg om zo goed als alle spellen op 1920x1080 te spellen op Ultra setting.

Ik heb nog geen spel tegengekomen die niet goed draaide op mijn 2560x1080 scherm.
Een MSRP van $650 is belachelijk hoog, voor in feite een luchtgekoelde R9 Fury X op lagere clocks :/ Aan de getallen te zien zou het zomaar kunnen dat de standaard overgeklokte R9 Fury's van OEMs zomaar beter presteren voor zo'n $100 minder geld. Ik zie het nut op dit prijspunt dan ook helemaal niet. Voor precies hetzelfde geld kun je dezelfde kaart halen, maar dan met veel hogere kloksnelheden en je krijgt er "gratis" een prima AIO koeler bij!
Wat deze kaart speciaal maakt is de afmeting en de performance/watt verhoudin en jij vergelijkt dat ding op alle vlakken behalve die 2 :P

Tuurlijk als je aan die 2 dingen wat deze kaart speciaal maakt geen boodschap hebt is deze kaart inderdaad niet speciaal :D

Ik vind hem ook erg prijzig hoor, maar ik draai dan ook 3x een R9 290 welke (voor mij) minder kosten dan de (advies!)prijs van deze kaart. Ik heb geen behoefte aan de energiezuinigheid voor die paar uur op een dag dat ik game, en de afmetingen zijn al helemaal niet relevant. Maar dat betekend niet dat ik hier geen markt voor zie!

[Reactie gewijzigd door watercoolertje op 27 augustus 2015 14:47]

Maar we weten nog niks over de performance ;) Stel je gooit het ding op 1050MHz, dan zal het performance/watt verhouding toch wel die van de Fury X evenaren, gezien de specs.

Laten we eerst wachten op benchmarks. Hopelijk blijft de performance boven dat van een R9 Fury, dan kan het wel een aantrekkelijke kaart zijn voor in een mini-ITX build.
nieuws: Specificaties van compacte AMD R9 Nano-kaart verschijnen online

Daar staat toch duidelijk (ja biased uiteraard) performance/watt tegenover andere kaarten van AMD...
Nice 3x R9 290 hoe krijgt u dat voor elkaar
Die gaan al een tijdje voor minder dan 200 over de toonbank hoor in V&A (heb denk ik 175 euro p/s betaald) ;)

Hoewel als ik eerlijk ben ik er nu maar 2 zelf in gebruik heb, de andere is in de PC van mn vriendin beland die ik voor der gemaakt heb. Die 3de schaalde toch voor geen meter...

[Reactie gewijzigd door watercoolertje op 27 augustus 2015 15:34]

Netjes gedaan.
Had zelf 2x R9270X maar die gaven wel vaak witte vlakken en problemen.
Vooral met drivers het werd wel beter.
Deze vervangen door 1x titan nieuw gekocht en nu een 2e handse van 360 euro op V&A.
Dat is ook niet verkeerd, je gamed dan toch hoop ik wel op hogere resolutie dan 1080p of gebruik je ze niet in SLI?
Op het moment gebruik ik de 2 monitoren de ik al had 2x 27 inch full hd
En speel ik alles op max ook anti allizing.
De volgende upgrade zal wel een 4K scherm worden ;)

Wil ook een mini itx bouwen met een leuke videokaart in een H frame mini dus even kijken wat eerst komt.
Waar vind je ze zo goedkoop 0.0, goedkoopste 290 die ik kan vinden is nog steeds 300+
V&A staat voor vraag en aanbod, ik koop dit soort producten nooit/zelden nieuw als er nog garantie op zit maakt het mij niet uit dat het al gebruikt is ;)

[Reactie gewijzigd door watercoolertje op 27 augustus 2015 16:41]

3x R9 290 wordt uiteindelijk zeer prijzig qua stroomkosten, waarbij je met een gelijk presterende single card na een jaar of 2-3 goedkoper uit zult zijn ;)! Plus dat je geen problemen hebt met slechte crossfire support.
3x R9 290 wordt uiteindelijk zeer prijzig qua stroomkosten, waarbij je met een gelijk presterende single card na een jaar of 2-3 goedkoper uit zult zijn
Mogen ze eerst wel een single GPU kaart maken die sneller is dan deze setup ;) Als die er is zijn we ook weer een jaar of 2 verder. En tegen die tijd pak ik gewoon weer de 2 beste kaarten van de vorige generatie om alsnog veel sneller te zijn dan die nieuwe overpriced single GPU kaart...

Enige nadeel van het verbruik vind ik de warmte, stroomkosten zitten bij mij met 2 mensen op ongeveer 30 euro per maand, en dan kook ik ook nog op stroom :D

En CF problemen heb ik zelden, voronamelijk een rol bij oude games die prima op 1 kaartje kunnen draaien.
Speciaal voor mini ITX Behuizingen?

Crossfire setup anybody?
Het is een stuk makklijker om twee lucht gekoelde R9 Nano kaarten in te bouwen dan twee watergekoelde Fury X kaarten. Minder ruimte nodig, lager TDP en ook nog eens een goedkoper.
Als deze inderdaad crossfire doet dan is dit een hele interessante kaart ja. Wél de (bijna?) volledige performance, maar niet de waterkoelings "meuk" van de Fury X. Ik vermoed alleen dat deze een ietwat ondergeklokt zijn ten opzichte van de Fury X kaarten om de TDP te halen.
Het is de exact zelfde chip als de fury X, maar de binning is van hogere kwaliteit (om het stroomverbruik en de warmteproductie zo laag mogelijk te houden).

Verklaart ook waarom de voorraad wat lager zal liggen: alleen hun beste chips komen in aanmerking voor deze kaart. Het grote verschil met de fury X (buiten waterkoeling en grootte), is dat deze kaart een lager standaard wattage heeft (175 vs 275). Buiten die verschillen is het eigenlijk dezelfde kaart.
uit de specs: Link Interface: Crossfire
Dat denk ik niet, DX 12 performance op AMD is superieur en daar moet je nu toch rekening met beginnen houden.

edit: typo

[Reactie gewijzigd door Sceep op 27 augustus 2015 14:34]

In 1 game met onafgewerkte drivers... te vroeg om daar al over te oordelen.
Ergens heb je gelijk maar ik heb een artikel gelezen op ocn.net dat het verschil verklaart. De huidige architectuur van AMD zou superieur zijn op gebied van DX12. En indien ze daar gelijk hebben zou het niet om een toevalstreffer gaan. Ik vind de link spijtig genoeg niet terug anders zou ik hem zeker delen ;( Ik heb namelijk geen zin om BS uit te kramen.

Ook het 4GB geheugen argument zou in een DX12 omgeving niet op gaan. Om met de huidige lijn van kaarten deftige perfomance te hebben in 4K heb je minimum 2 kaarten nodig en DX12 hoeft het geheugen van de kaarten niet te mirroren dus heb je in principe meer dan 4GB. Of het effectief zo is zal in de nabije toekomst blijken....
Sorry dat ik je erop aanval maar dat als bron aangeven. Het is puur speculatie die ove ren weer weerlegt wordt in de forum thread waar je dan 3 reactie punten voor krijgt. Verderop in het topic zie je weer grafieken dat het ook andersom kan zijn, dit weerleggen anderen ook weer. Het blijven forum posts van mensen die niet daadwerkelijk werken met deze materie.

Probleem is niemand weet nog precies op de fabriekanten zelf na wat er echt mogelijk is.
Ik heb die tread in dat forum afgelopen week door gespit. Maar ik moet je toch ongelijk geven. De core van die thread is een.
NVidia beschuldiging naar de devs modder gegooi. Dat hun godelijk ding niet presteerd in DX12. In betreffende game.
Hun verweer. Zij NV hadden de game code ook al een jaar. Dus als resultaat hun DX11 performance blaast AMD weg. Aangezien de invloed van driver team daar groot is. Zoals on de fly recompileren van shader code door de driver.

Die poster is blijkbaar een insider een techie die even langs komt om zijn gal te spuien en te verklaren waarom deze grilligheid. WHY?
Het blijkt dat men wel weet dat NV 1 GFX en 31 compute eenheden heeft en kan mixen. in hun top GPU. Maar men dacht dat AMD 1 GFX en 8 compute een heden heeft en kan mixen. Maar dat is in 8 voud. Al vanaf o.a. 290X GCN1.1
Je begrijpt dat dit perfect fit is voor multithreaded DX12 drawcall aanvoering. Met compute task en Copy task heel lekker parallel gaan.
Hij legt ook uit dat fury ook zwakke plek hebben. minder ROPS. Dus in bepaalde test. loopt 980Ti weer voor.

Daarnaast algemeen bekend nV testalatie performance. Die is toppie.

AMd heeft dus de betere architectuur voor DX12 maar of het allemaal wel in balans is is tweede. De Rops en testalatie is minder en 4GB limiet.
Maar ja als dev moet je nu zelf je resources gaan managen. Als dev weet je hoe je resources gebruikt worden dus je kan ze orderen naar gebruik en ze op tijd vrijgeven. Om GPU Heap niet onnodig vol te laten lopen. Afhankelijk van devs kan geheugen efficenter benut worden.
Dat zijn een aantal tegen posts inderdaad. Maar er worden ook met graphs gegooid die een ander beeld geven. Daarnaast is die game alleen puur gebasseerd op maximaal aantal calls tegelijkertijd. Wat dan ook weer rare resultaten in de laatste 3dmark geven waarbij een overgeclockte 760 opeens fors meer dan een 980 weet te halen puur door de overclock en de 290x en Fury X hetzelfde presteren qua calls. Dit klopt natuurlijk niet. Kan deze resultaten alleen weer niet terug vinden en geen idee op welk forum ik deze zag.

Daarnaast gaat het er ook om hoe snel kunnen de calls uitgevoerd worden. Het is nog echt koffiedik kijken en ik denk dat er nog geen conclusie eruit getrokken kan worden wat het uiteindelijke resultaat gaat zijn. Microsoft heeft wel alle DX12 demo's op Nvidia hardware getoond. Lijkt me sterk dat ze niet voor de snelste kaart van dat moment zouden gaan (980 vs 290x op dat moment),
Het duidelijk dat beide kaarten hun sterke en zwakke punten hebben. Die demo game leund sterk op zware drawcall last. Dat komt door de vele units en licht sources in beeld. Schietende units explosies. Een ordinaire corridor FPS zal kwa drawcalls mogelijk sterk mee vallen. Ook dikke CPU zal bij GPU bound settings de drawcall en ACE voordeel voldoende kunnen maskeren.

Maar die DX11 voorsprong van nV door driver magic drawcalls in 1080p verdwijnt in DX12. Omdat AMD kwa drawcalls helemaal bij is.

In DX11 is dev driverteam hardware wat de performance bepaald. Drivers zijn kolosaal met al die game profielen .
DX12 is dev naar de hardware. Driver is dunne doorgeef luik. Zal ook kwa omvang stuk kleiner zijn.

Niet dat nV helemaal gepaseerd is kwa invloed.
Ze sturen nog steeds mannetjes die aan de dev kant mee werken. Gameworks is ook aan de dev zijde. Zodat ze voor hun driver al grote invloed hebben. En nog steeds voldoende naai AMD mogelijkheden.
Ook zijn ze puur verantwoordelijk voor het correct werken op nV hardware. Niet AMD.
Daarbij komt effect GPU enabled PhysX
En testalatie en rauwe Rop performance.

Dus ja games kunnen nog steeds grillig reageren op welk merk hardware. Maar er is situatie bij waar manco in oude API een grote voordeel wordt in de nieuwe API. ACE architectuur.

Ik ben eigenlijk wel benieuwt of nV pascal architectuur al mee rekening houd. Ik vermoed van niet. Gezien Mantle naar DX12 en Vulkan een AMD feestje is. Maar nV kan uiteraard ook al de feedback van API partners gehad hebben zoals MS en Chronos. Maar of dat vroeg genoeg was voor Pascal?
Wat je heir zegt zijn puur speculaties he, de game developers zelf, microsoft en de fabriekanten geven allemaal nog aan dat de drivers niet volwassen zijn en dat er een hoop voordeel nog uit te halen is. Drivers zijn iets minder belangrijk waarschijnlijk maar zeker niet onbelangrijk. De kaart moet nogsteeds aan de api zelf gekoppeld worden. Het zou wel mooi zijn als AMD weer iets voor wat concurrentie kan zorgen. Want de monopolie is voor iedereen niet goed. Maar er wordt nu door 1 benchmark in 1 game die oorspronkelijk al erg AMD focused een scheef beeld geschetst.
Ja, het is maar hoe ver je een persoon kunt vertrouwen op internet. Of hij gelijk heeft of niet, we zullen het pas zien als er meerdere DX12 games uit zijn.

[EDIT]
Fable is een onafhankelijke DX12 game (niet gesponsord door AMD of nVidia) die dit jaar uitkomt. Dit zal een belangrijke graadmeter zijn.

[Reactie gewijzigd door LongBowNL op 28 augustus 2015 14:36]

Hier ben ik het dan ook 100% mee eens. Het is te vroeg om echt een conclusie te kunnen trekken.
Thx daar was ik naar opzoek :)
Het heeft bijna de performance van een 980Ti(misschien zelfs sneller in DX12), op een erg klein PCB. En dat op de zelfde prijs als een 980Ti.
De Fury X zelf presteerd al net wat minder dan een 980TI, deze is iets lager geclocked. Naast dat het geen overclock wonders zijn en minder videogeheugen hebben staan ze wat mij betreft toch als wat minder snel en minder future proof te boek.

Betreft DX12, op 1 benchmark na is het nog helemaal niet duidelijk hoe het speelveld dan zal zijn.
Dat is nog maar de vraag. 1 benchmark met vroege drivers zegt niks. Daarnaast blijft 4gb een bottleneck in de toekomst.
Op het moment dat 4GB een bottleneck gaat vormen, zijn we denk ik al weer zo veel verder dat het voor de huidige kaarten niks uitmaakt

en met DX12 wordt het ook mogelijk geheugen te poolen, dus 2 kaarten met 4GB kunnen dan 8GB gebruiken (game moet er wel op voorbereid zijn)
Dan moet je wel 2 kaarten kopen. Vind ik in dit geval een non argument. 3gb aan texture geheugen op FullHD is nu al niet meer ongewoon.
Klopt. Maar het swappen van textures gaat een stuk sneller. Het enige waarin je verschil merk met 4vs8 fb ddr5 is texture popping als jr bv met een vliegtuig gaat in gta5. Dan ga je te snel om de textures te wisselen. Grote kans dat dit geheugen er geen problemen mee heeft.
In DX12 zal geheugen in niet gemirrored worden, waardoor een crossfire setup 8gb heeft.
En ik denk dat tegen de tijd dat 4gb te weinig is, je deze kaarten voor weinig geld kan krijgen.
Niet helemaal. Dx12 heeft de mogelijkheid tot verdubbeling van het geheugen. Maar dan moet de game dat wel ondersteunen.
Ik weet tussen de 3 a 3.5gb al goed te vullen anders op FullHD. Deze kaarten zitten in een prijsrange zowat van een Geforce 980ti met 6gb. Dus ik zie het wel degelijk als een bottleneck.
Je weet dat drivers in DX12 meer puur driver zijn. Ipv kolosale game detecting en shader recompiling multitreaded gedoe wat nV doet.
En dat nV dus ook al jaar de DX11 en voldoende tijd heeft voor DX12 driver voor deze game heeft kunnen optimaliseren. Al kan men niet veel doen aan lean & mean API.
In een synthetische pure CPU bound scenario behalen ze met 16 treads 95% CPU utalisatie.
Zoals ik al in me vorige post zei waar je ook op reageerde. Dat met die calls is nogal een raar beestje. Want een fors overgeclocked 760 wist opeens een 980 qua call voorbij te streven alleen vanwege een overclock. Dit is natuurlijk niet correct met hoeveel hardware er aan boord is van de kaart, Daarnaast het gaat het niet alleen om hoeveel threads tegelijkertijd maar ook hoe snel de kaart deze afrond. AMD bied ook vaak de meeste cores qua threads op hun cpu;s we weten allemaal hoe het met een CPU is afgelopen :)
Nou nee tenzij je voor 4K gaming gaat en dat in extreme settings wilt doen.
Alleen is een Fury of 980 net te weinig.
Dus SLI en CF lonkt dan sterk.
In DX12 zou AMD en NV ook de mem deels kunnen optellen. Maar dat hangt sterk van de dev's af. En of het mogelijk is voor sort game.

Zelf blijf ik op 1440P. Daar is wel 144hz beschikbaar.
4K gelimiteerd aan 60hz. voor slow pace games geen problem.

Ik zou voor 4K gaan bij de volgende 14 of 16nm generatie die flinke stap vooruit kan zijn.

Voor jaar overbrugging is Fury of nano net iets te veel.
960 custom OC
of GCN1.2 instapper 285?
Crossfire performance van AMD is op DX11 ook beter, met name op 4k.

De GTX980Ti is ook een ander product, die kan je niet in een mini-itx kast doen zonder ingrepen.
Op 4K ben je al snel GPU bound. Dan is de multitreaded drawcall driver overhead issue stuk minder relevant. En kan vaak de duo treads op redelijke CPU het wel aan.
Ik durf niet te spreken over setup van Zanac-ex, maar ik heb zelf een dual CPU bak, dus dan is dual GPU ook wel erg leuk. Het is en blijft een hobby voor me, en zolang ik m'n 21:9 "4K" scherm goed kan aansturen vind ik de kaart goed :) Of het nu op 60fps of op 75fps draait maakt mij weinig uit :P
Off topic, maar welk 21:9 scherm heeft er tegenwoordig al een resolutie in de buurt van 4k? Het hoogste is toch 3440x1440 (dewelke ik zelf ook heb), of niet? Dat is nog een heel groot verschil met 4k.
Die bedoel ik inderdaad ook. Dat is ook de reden dat ik 4K tussen aanhalingstekens heb staan. Het zou wat zijn als er een "echt" 4K 21:9 scherm was, dan heb je het over 5120x2160.
Maar is dat dan niet 5k? :9
Nee, dat heet officieel "4K scope" geloof ik... Maar pin me daar niet op vast :)
Ik zie op de foto geen aansluiting crossfire bridge :/
Tegenwoordig kan je ook gewoon crossfire draaien via je moederbord. Kijk maar naar de 290 of hoger (280x wil het heel sporadisch ook wel eens doen) ;)

[Reactie gewijzigd door RacerBas op 27 augustus 2015 15:25]

Awesome, wist ik niet!
Omdat dat niet nodig is voor Crossfire met deze kaart ;)
Als oud gamer denk ik vooral: waar is die compacte videokaart dan? En waarom staat er een plaatje van zo'n gedrocht bij het artikel? Maar ik begrijp dat de maatvoering voor high end videokaarten nogal veranderd is. Dit ding ziet er echter nog steeds groter uit dan de Voodoo 2...voor de echte oudjes onder ons. En dan vooral in de dikte natuurlijk; "bulkier" in het Engels...
Kan het me wel voorstellen, ik ben iets jonger denk ik, zat zelf met de Geforce MX440 ofso (en daarvoor ben ik me niet bewust wat er in de PC zat), en die kaartjes zijn toch wel wat anders dan tegenwoordig...

Maar de grote is al een paar jaar redelijk stabiel (je hebt natuurlijk idiote dubbele GPU op 1 kaart uitvoeringen die het wel bonter maken), denk dat we al bijna 10 jaar zulke idioot grote kaarten hebben dat die uit dit artikel best compact te noemen is :D

Maarja wat wil je dan ook, een Voodoo 2 gebruikte misschien 10~20 watt, nu zit een kaart op het 10~20 voudige :D Het PCB zelf stelt weinig voor, het is natuurlijk de koeling die het bulkie maakt...
He verdorie, zat te wachten op de review. Nog maar even wachten dan maar.
Dus... custom block erop en je hebt praktisch een Fury X?

Niet dat je de Fury X core clock zou behalen, daar heb je niet genoeg watts voor :-(
Blijft een leuk kaartje om te zien....adviesprijs is even (en nog even) slikken. Ik hoop dat deze kaart met één fan in een kleine behuizing koel en stil genoeg blijft om niet te veel te moeten onderklokken als de GPU temperatuur oploopt tijdens gamen. In potentie nog steeds een hele interessante kaart en ik zie graag de real life benchmarks zodat we de discussies op feiten kunnen baseren. ipv fanboy reacties en speculaties.

Zo'n kleine krachtpatser zou zeker niet misstaan in een ITX game systeempje naast een 65" UHD OLED (eind 2016 of later)
Als die fury prijzen gaan dalen kan het interessant worden met AMD, ze moeten Nvidia eens aan de tand gaan voelen.

[Reactie gewijzigd door A87 op 27 augustus 2015 17:58]

Zou het bv ook een optie zijn met de komst van directx 12 om bv een 970 en 950 te kopen? Dat zou samen goedkoper zijn dan de AMD fury? En dan bv de 950 het media werk laten doen en bij spellen beide gebruiken ? (als ik goed begrepen heb kan dx12 sli tussen verschillende videokaarten aan? ) Dan ben je een stuk goedkoper uit en heb je bij het afspelen van 4k spul toch relatief weinig geluid en de nieuwste hdcp en hdmi ?

[Reactie gewijzigd door AtariXLfanboy op 27 augustus 2015 19:59]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True