Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 114 reacties

AMD verlaagt de prijzen van de AMD Radeon R9 Nano-gpu's. De videokaart is al sinds september 2015 op de markt voor 649 dollar, maar in een bericht laat AMD weten de gesuggereerde prijs te laten zakken naar 499 dollar.

Powercolor R9 NANOIn een bericht laat AMD weten de prijs van de kaart te verlagen. De AMD R9 Nano is bijzonder vanwege zijn kleine formaat. Hierdoor is hij ideaal voor kleine pc's. Het probleem was alleen dat voor de prijs van de kleine videokaart ook kaarten met betere prestaties konden worden gekocht zoals de Fury X. Hierdoor was de Nano niet vaak de eerste keus voor standaard-pc's die plek bieden voor een kaart van normale grootte. Met een hoge prijs en een kleine doelgroep was de Nano niet een snellopend product.

Met de prijsverlaging plaatst AMD de Nano in een gunstiger prijssegment voor wat de kaart biedt. Met zijn kleinere formaat is hij passend voor mitx-behuizingen en in dit gebied is de voornaamste competitie de GTX 970 Mini. Volgens AMD biedt de Nano tot dertig procent betere prestaties, maar ook na de prijsdaling is de Nano nog aanzienlijk duurder. De prijs van de mini-970 ligt namelijk rond de 350 dollar.

De AMD Radeon R9 Nano is de derde kaart van AMD met de Fiji-asic. Tevens heeft de Nano een 28nm-gpu en maakt gebruik van high bandwith memory. De videokaart beschikt over 4096 streamprocessors en heeft 175W-tdp meegekregen. Verder beschikt de Nano over 4GB-hbm en heeft het een kloksnelheid die kan oplopen tot 1000MHz.

Wat de prijsverlaging zal betekenen voor de Nederlandse prijzen is onbekend. In Nederland liggen de prijzen momenteel rond de 600 euro, een bedrag dat al onder de gesuggereerde prijs van AMD zit. Als het kortingsbedrag ondanks dit alsnog mee word gerekend door verkopers zal de prijs dus dalen naar rond de 500 à 550 euro.

Moderatie-faq Wijzig weergave

Reacties (114)

Ik vind het wel mooi om als eigenaar van een Sapphire R9 Nano al deze mooi verzinsels te lezen.

De R9 Nano heeft GEEN coilwhine die buiten de behuizing hoorbaar is.
De R9 Nano is gewoon redelijk goed beschikbaar.
En levert t.o.v, 2x een r9 290 75% van de prestaties op 1440p.

3dmark11 firestrike zakte van 15900 naar 13120 systeem verder het zelfde gebleven.
Stroom verbruik daalde van 850watt uit de muur naar 350watt.

AMD: top videokaart in dat formaat! :) :) :) :) :)

[Reactie gewijzigd door Chris96 op 11 januari 2016 18:17]

Heb mijn fury X gelijk terug gestuurd omdat hij last van coilwhine had. Er zijn dus wel kaarten in omloop die er last van hebben.
Volgens mij hebben alle videokaarten coilwhine, in ieder geval zeker in situaties als een menu op 1000 fps. Tja, mssch is het bij de ene wel veel erger dan de ander, maar ik heb me er nooit ontzettend aan gestoord.
Een factor waar je ook nog rekening mee moet houden is je voeding. Je voeding kan coil whine in je videokaart veroorzaken (denk dat dit met slecht geshielde kabels te maken heeft). Ik heb een gtx 980 overgenomen van een Tweaker die bij hem hoorbare coilwhine vertoonde, maar in mijn pc was hij muisstil, bij precies dezelfde games en settings.
Hm.. Dus een goede voeding is wel essentieel.
Niet alleen voor de Coilwhine dus maar ook vanwege de Constante stroom levering, bijvoorbeeld 80+ gold certificaat.
Zelf heb ik dan een 600wt van CM maar met mijn 970 merk ik niks geks op qua geluid. ( mijn kraken x61 maakt dan het meeste geluid in de pc :P _)
80+ zegt iets over de efficiŽntie van de voeding (Power uit / Power in) en niks over de kwaliteit van de bouw, zowel mechanisch als elektrisch of de kwaliteit van de stroom (power factor, spanning nauwkeurigheid, spanning rimpel, spanning dip/piek bij load step, etc).

Je bedoeld constante spanning levering. Stroom loopt zeer impulsief in computers, vandaar dat gejengel. Stroom wordt gevraagd door de belasting, de GPU bijvoorbeeld. Voedingen leveren een constante spanning net als de spanning op je stopcontact altijd 230 V zou moeten zijn/is onafhankelijk of je je stofzuiger-PC aan zet.

Overigens heeft dit niks met shielding van kabels te maken. Laat ik het zo zeggen: Ik heb nog nooit (echt nooit) een shielded voedingskabel in een PC gezien. Ik heb wel domme-audio-freak-marketing-gerichte shielded 230V voedingskabels gezien (Shuko->IEC) maar dat is echt bullshit.
Misschien dat dit een discussie los trekt, daarom alvast: Een plastic of zelfs metalen sleeve om je kabels is geen shielding. Coax kabel is NIET shielded.
80+ zegt inderdaad in principe niets over de kwaliteit, maar ik denk wel dat je in het hogere segment ook hogere bouwkwaliteit aan treft.
Het schijnt vrij willekeurig te zijn soms. Ik weet bijvoorbeeld dat specifieke modellen van Corsair berucht zijn om hun coil whine, terwijl anderen uit dezelfde serie geen enkel probleem vertonen.
Nu kan ik melden dat ik hier ook van coilwhine last heb gehad toen ik destijds mijn twee nieuwe videokaarten in mijn systeem had geÔnstalleerd. Maar na een maandje ongeveer, was dit totaal verdwenen.
En precies dat laatste blijkt naar het een en ander hierover opgezocht te hebben op internet ook vaker het geval te zijn.
Dat ze er dus in het begin nog wel eens last van kunnen hebben, maar dat dit dus in een relatief korte periode vanzelf weg kan gaan, begrijp me goed "kan" het is dus niet zo dat dit ook bij elke kaart het geval zal zijn.
Maar ik heb er in elk geval geen last meer van, en daar ben ik blij van ook.
Aangezien het een enorm verveld geluid kon zijn zo nu en dan ;)

[Reactie gewijzigd door SSDtje op 12 januari 2016 18:01]

Zou best kunnen, Deze heeft het niet bizar dat je het echt extreem hoort
Mijn persoonlijke voorkeur wat betreft videokaarten ging altijd naar AMD, heb toch besloten om van een 290x (met waterkoeling) over te stappen naar een 980Ti.

Van 12.000 ( 16.000 in crossfire) punten met Firestrike naar 17.000 punten (beidden overgeclocked). De Fury weet een sock Ti niet eens te verslaan, laat staan een Ti op 1550Mhz.

Wat AMD wel heel erg goed doet is driver support, de 290 is tegenwoordig in veel games de 780/780 Ti de baas, en de 290x zit op gelijke hoogte met de 980. Zou me niks verbazen als volgend jaar de Fury de 980Ti de baas is op 2560x1440.

AMD heeft deze ronde ook verloren, er is niks goed te praten. Hoop dat de volgende generatie AMD kaarten weer een topper worden.

[Reactie gewijzigd door Q_7 op 11 januari 2016 22:44]

AMD heeft deze ronde ook verloren, er is niks goed te praten. Hoop dat de volgende generatie AMD kaarten weer een topper worden.
AMD heeft deze ronde gebruikt om een technology neer te zetten waar nVidia de komende jaren nog geen antwoord op heeft. De R9 Fury is helemaal nooit bedoelt geweest om sneller te zijn, hij is bedoelt als POC en is daarin volledig geslaagd. Zolang AMD HBM heeft en nVidia niet zie ik nVidia niet meer op niveau komen.

Daarnaast is AMD nogsteeds heer en meester in de hoge resoluties; wederom iets wat de komende jaren een voorsprong op zal leveren die niet eenvoudig bij te benen is. Op 4K zijn de AMD kaarten sneller dan wat nVidia er tegenover kan stellen en dat is waar de toekomst ligt. Geen serieuze speler is geÔnteresseerd in die 300FPS die op 1080p te halen is, ten opzichte van de "slechts" 150 die AMD er trekt. Het gaat om die 100FPS die AMD op 4K trekt waar nVidia op 70 blijft hangen.
AMD heeft deze ronde gebruikt om een technology neer te zetten waar nVidia de komende jaren nog geen antwoord op heeft. De R9 Fury is helemaal nooit bedoelt geweest om sneller te zijn, hij is bedoelt als POC en is daarin volledig geslaagd. Zolang AMD HBM heeft en nVidia niet zie ik nVidia niet meer op niveau komen.
Zowel AMD (Arctic Islands) als nVidia (Pascal) gebruiken de volgende ronde HBM2.

Dus waar heb je het over?

Wellicht gaat het ondersteunings level van DX12 een verschil opleveren, omdat AMD daarbij nu een voorsprong heeft bij bijvoorbeeld async compute. Anderzijds mag je verwachten dat zowel AMD als nVidia de volgende ronde volledige DX12 ondersteuning bieden.
Daarnaast is AMD nogsteeds heer en meester in de hoge resoluties; wederom iets wat de komende jaren een voorsprong op zal leveren die niet eenvoudig bij te benen is.
Ook dat is afwachten. Wat nVidia normaal gezien doet is wegsnijden/optimaliseren om in de meest voorkomende use-cases zoveel mogelijk performance te hebben terwijl de chip qua kosten binnen de perken blijft. Niemand heeft Pascal (noch Artic Islands) al echt getest. Dus niemand kan met zekerheid stellen dat de ene beter is dan de andere in use-case x of y.

Persoonlijk wacht ik gewoon af. Ik koop wat de beste performance biedt binnen een bepaald budget. Of dat product dan AMD of nVidia is zal me eerlijk gezegd een worst wezen.
Dit is de enige ronde die ze hebben verloren sinds de 8800, en dan alleen op high-end (980ti, eerlijk is eerlijk de Fury X kan er niet aan tippen)

Op elk ander prijspunt heeft AMD gewoon betere producten voor minder geld.
wat lul je allemaal jo
fucking fantasie wereld waar je over praat
real life vriend
in real life mijn vriend amd verslaat nu elk tak elk spel(maakt niet uit welke tak welk kaart als maar concurerende ware zoals 7870/660 - 290/780) nvidia door crimson videodrivers!
kijk bijvoorbeeld die kinderspel,swbattlefront, wel goeie test voor videokaarte wat ze kunne doen wat betekend voor de volgende jaren.
daarin mijn vriend verslaat furyx de ti met 10fps minimaal op elk resolutie elk formaat
en het begind stroomverbruik ook fucking te vermindere, meer fps dan 980ti en gebruikt ook nog eens een veel lager ghz snelhede en ook nog eens minder geheuge en dat allemaal ook nog s begind kouder te blijve AHAHAHAHA! dankzij de laatste videokaart drivers(crimson!).
maak jij grapje met ons?
amd's laatste stap was FUCKING GOEIE videokaart DRIVERS uitbrenge, en dat hebbe ze gedaan mijn vriend, vanaf nu is elk stap om nvidia AF te make.
jij veel succes met je 980ti X

[Reactie gewijzigd door pacpacpacpac op 13 januari 2016 21:04]

Wat voor een taalgebruik is dit nou weer, je hebt je punten erg goed toegelicht moet ik zeggen. En nee, je hebt het mis. Je gaat van 1 game uit, bovendien zeg ik ook dat AMD op de goede weg is met haar drivers.

Dat neem niet weg dat de 980Ti gemiddeld genomen sneller is. Pas bij 4K resolutie begint de Fury X in te lopen. Ik gebruik zelf 2560x1440 voor mij is een Fury X dus zinloos. De 980Ti is sneller, overgeclocked kan geen enkele Fury X tegen een 980Ti opnemen. Dit zijn feiten, in de huidige DX11 games, DX12 moeten we nog zien.

Misschien zit er meer in de Fury X , maar dat zien we pas in de toekomst als AMD d.m.v. betere driver optimalisaties de performance omhoog kan krikken. Crimson is in ieder geval geen "wonder" driver die voor enorme boosts zorgt, maar wel een goede stap vooruit.

http://www.bit-tech.net/h...980-ti-g1-gaming-revie/11
Benchmarks spreken voor zich.

Ik zeg niet dat nVidia heilig is, zo zijn er bugs als 30%stroomverbruik in IDLE modus i.c.m. een G-Sync monitor. Dit zou met de laatste driver opgelost zijn maar is helaas niet het geval.

[Reactie gewijzigd door Q_7 op 14 januari 2016 00:17]

just cause 3 zelfde verhaal en ok sorry hoor vriend ik ben wel 3840x2160 res gamer, bye. (hoop jij later ook dat je op uhd speelt, dat is meer waard dan alles :D hahaha)
EN JA je vergelijkt GIGABYTE 980ti tege EEN NORMALE nano
CHECK GIGABYTE NANO DAN DAT KAART LOOPT AL FUCKING HOGER DAN ELK KAART, DAT IS MIJN KAART, ELK NANO LOOPT OP 1000 500, MAAR ALS JIJ zo wil gaan spele, GIGABYTE nano loopt op 1000 1000, en dan geloof mij maar vriend elk ander gigabyte kaart ookal 980dubbel t i is gekilld
EN WTF WEER(LUL JE MAN) TUSSE JOU BENCHMARKS STAAN ALLEEN MAAR OCD NVIDIAS WAT IS DAT VOOR BULLSHIT!
koopt dus maar van gigabyte nano en geen nvidia en oc die maar eens en je zult zien, elk game op uhd enige kaart die 60fps haalt, en ik zeg nog laatste x IK HOOP DAT JE VOLGEND JAAR UHD GAMED DUS koop nou maar radeon . . . X
en doe nou maar niet zielig met je gsync, dit jaar gaat amd freesync zooo verbetere dat nvidias gsync op niks gaat lijkt, freesync ondersteund nu maar 60hz/fps op uhd . . volgend jaar maat word dat tot 120, ALS JE NIET WEET WAT MEER KICKING ASS IS! en samsung en amd bijv brenge betere adaptive sync scherme uit dan nvidia gamers krijge, en als laatst zeg ik weet, kwaliteit van amd is 10x dubbel, dus als ik een game op MEDIUM speel heb ik niet alleen maar hogere fps dan 980ti op ultra, maar DAN als betere beeldkwaliteit, check maar als je niet geloofs, nvidias UHD is amds FULLHD! so YES,HAHAHAHAHAHAHAHAHA
+ de nano bleef maanden op 650$ dus ik snap niet waarom mensen denken dat de prijs te hoog was. Misschien produceerden ze net genoeg om aan de vraag te voldoen.
Het probleem blijft toch de 4GB aan HBM geheugen. Ik speel zelf nu op 3440 1440 en 4GB is gewoon te weinig voor deze resolutie....
sorry maar die HBM is veel beter voor hogere resoluties dan jij denkt. Het is geen gewone 4 GB VRAM hoor zoals GDDR5...

kijk maar vanaf hier:

http://tweakers.net/revie...ion-en-battlefield-4.html vooral naar 1440p en 4 k

[Reactie gewijzigd door boonpwnz op 11 januari 2016 16:38]

Maar goed, als vervolgens al je render targets, meshs & textures er niet inpassen ...
Tsja. De fury's met hbm staan juist bekend om de relatief hogere snelheden in verhouding met de Nvidia kaarten die juist sneller droppen in prestaties.
Wat er hier door onze medetweakers, terecht, gesteld word is dat snelheid niet kan compenseren voor capaciteit. Als de capaciteit niet toereikend is zal er teruggevallen moeten worden op de volgende laag geheugen. Bij een VRAM is dat afhankelijk van de applicatie je RAM, disk of een weigerende applicatie. Geen van drie zijn in enige zin beter dan een grotere pool iets langzamer VRAM waar wel alles in past.

In een situatie waar alles in het VRAM past is sneller natuurlijk altijd beter.
Ja dat snap ik ook wel, maar waarom geven bijna alle techsites dan juist aan dat de HBM kaarten op hogere resoluties met hoger detail min performanceverlies hebben? Dat zou je namelijk wel verwachten als er minder resources beschikbaar zijn en er geswitched moet worden. Alsof je te weinig RAM zou hebben en een trage hdd gebruikt bv. Dat merk je heel goed
Dat ligt niet aan de HBM. Dat ligt aan het feit dat AMD de hogere resoluties gewoon beter op orde heeft; ook bij de non-HBM kaarten.

Moet je je voorstellen wat de volgende generatie kaarten met 8GB HBM gaat doen......
Alle techsites waaronder tweakers.net en nl.hardware.info stellen na eigen onderzoek dat er momenteel nog geen game is die meer dan 4gb nodig heeft, zelfs op 4k.
Dat is gek... op 3440x1440 met bijv. GTA V heb ik al snel te weinig!
3440x1440*4byte/pixel = 19,0 MB voor de framebuffer

Daarvan zijn er 2 Š 3 nodig afhankelijk van of je double of triple buffering gebruikt.

Conclusie: De resolutie van je desktop heeft weinig invloed op de hoeveelheide videoram die je nodig hebt.
Oh dan kan ik mn TNT 64mb kaart nog wel gebruiken voor de witcher 3 8)7
Als er alleen behoefte zou zijn aan een framebuffer, zeker ja. Het meeste geheugen in je videokaart gaat op aan textures, en de meeste spellen hebben een textures "laag/middel/hoog"-instelling om daar invloed uit te oefenen hoeveel videogeheugen het spel nodig heeft. De desktopresolutie heeft er amper invloed op.
Te weinig?? Ik speel op 5760x 1200 met 3GB aan ram en dat is al meer dan zat!
Lijkt me handig om even na te gaan wat meneer precies speelt. Dan valt er iets beter te vergelijken.
Counter Strike source waarschijnlijk :+
Bedoel je vram of heb je het echt over ram?
Ik speel op 4k (8.29 megapixel) en jij op nog geen 5 megapixel. Ik heb een fury x. En ik heb nooit problemen met een tekort aan geheugen. HBM geheugen werkt zoveel sneller dat je er ook minder van nodig hebt.
Mensen klagen vaak over geheugen terwijl geheugen zelfde de bottleneck is. De GPU kan al lang niet genoeg frames meer renderen om iets speelbaar te maken voordat je geheugen een bottleneck word.
Hangt van de games af. Nieuwere games gaan hoger.
Veel mensen meten hoeveel een kaart met 6 of 12 gb geheugen in gebruik heeft op een bepaalde resolutie bij een bepaalde setting. Stel dat je op een titan x 5.6gb in gebruik hebt. Dan betekent dat niet automatisch dat een amd fury x tekort schiet met 4gb. Er staan namelijk een hoop textures in die helemaal niet nodig zijn. maar omdat er genoeg geheugen beschikbaar is word dit niet gewist maar vanzelf overschreven.
Conclusie: Meer dan 4gb in gebruik. Betekent niet dat 4gb tekort schiet. Als de framerate ineens helemaal ineen klapt terwijl je geheugen vol zit kun je er vanuit gaan dat dit wel het probleem is.
Dat weet ik, maar je gaat er teveel vanuit alsof games niet omhoog schieten qua geheugen gebruik. Dit betekent niet dat de developers stil blijven staan met wat vorig jaar normaal was qua geheugen gebruik is nu al regelmatig weinig. Ik denk neit dat 4GB erg future proof is.
Niuja. De gtx 979 komt prima weg met 3,5GB en daar is het dus ook geen probleem kennelijk.
Er zijn games die op max settings mijn 970gtx vol laten lopen over de 3.5gb en dus de kaart laten haperen.
Ja en dat kom weer doordat de kaart aangeeft 4GB te hebben waardoor dat dus wordt gebruikt, maar dat laatste beetje geheugen is moeilijk traag in verhouding met de rest en daar zit et em in. Andere discussie, maar dat is dus wat er gebeurt als je genoeg geheugen hebt maar niet de benodigde bandbreedte.
Het is precies dezelfde discussie de kaart moet data uit langzaam geheugen halen en moet dus wachten. Wat denk je wat er gebeurd als de 4gb van de fury vol zit? Juist, data uit langzamer geheugen ergens anders halen. 4gb blijft 4gb en als het vol zit, zit het dus vol (en in eht geval van de 970 dus 3.5gb). Ze kunnen alleen bijvoorbeeld geheugen sparen door te gaan comprimeren etc maar geheugen bandwidth zelf heeft daar bar weinig mee te maken.

[Reactie gewijzigd door Rin op 12 januari 2016 10:56]

Niet bij HBM, wat ik ook op DJDAAN zeg:
"Kijk naar de benchmarks, de Fury's lopen juist uit bij hoge resoluties waar je veel geheugen nodig hebt. Ze gaan gewoon anders met geheugen om, waardoor 4 GB zeker nog geen bottleneck is, zelfs niet bij 4K, laat staat 3440x1440. "
Ze gaan niet anders met het geheugen om. De bandwidth is gewoon hoog maar zodra er echt meer dan 4gb nodig is kakt het in alleen dit is destijds onvoldoende getest omdat games gewoon genoeg hadden aan 4gb.
Maar wat dus duidelijk wordt uit al die Benchmarks, is dat 4GB pas veel later een bottleneck wordt dan bandbreedte (wat de limitatie is op de NV kaarten op hogere resoluties). Bovendien kan je wel degelijk voor enige hoeveelheid minder geheugen compenseren door hogere bandbreedte. Uiteindelijk zijn er nog geen games die daadwerkelijk 4GB nodig hebben om alle textures te cachen. Zelfs op UHD. Dat het ooit een limiterende factor gaat worden staat niet ter discussie. Maar dat is het momenteel nog niet.

[Reactie gewijzigd door Darkstriker op 11 januari 2016 22:07]

Assassins creed syndicate met alles op z'n hoogst al gedraaid? DIe gooit die 4gb zo vol namelijk. Zelfde geld voor GTA5. Het is een wonder dat The Witcher 3 het met minder dan 3gb weet te doen maar die gebruikt dan ook relatief weinig verschillende textures.
Dat valt zeker mee. Valt eerder toe te schrijven aan de belachelijk slechte kwaliteit waarmee de post-fx in een gros van het games is geregeld. Voorbeeldjes; AC:Unity die tweemaal een volledige rgba buffer trekt van de render, en maar verbaasd zijn over prestatieproblemen. Dying Light die net na de release hetzelfde had met de bloom- en fxaa filters...
Met 4gb aan HBM moet je een heel eind komen, of je hebt waarschijnlijk gťťn idee waar je (als developer) nou helemaal mee bezig ben.

Bovenstaande gebaseerd op mn eigen ervaringen op 3840*2160 met 3 maal r9-290x
4gb begint gewoon weinig te worden klaar uit. Assassins crees vereist veel maar oogt er ook gewoon zo naar. GTA5 stopt het ook zo vol. Daarnaast denk je dat de programmeurs zelf niet weten wat ze doen? Ze hebben gewoon een target voor de visual gesteld en die vereist een hoop kracht.

[Reactie gewijzigd door Rin op 12 januari 2016 10:51]

Dit kan ook met andere dingen te maken hebben zoals reflectie, andere effecten etc

Ik kan me voorstellen met diverse vram zuigers dat 4 gb niet voldoende is als je alle mogelijkheden op grafisch gebied aan wilt hebben.
Ik speel ook op 3440x1440 en heb nog geen problemen gehad. Ik draai met 2x GTX 980 dus alle settings gaan op de max. Alleen met Star Wars Battlefront merk ik dat ik heel dicht bij de 4GB kom. Bij alle andere spellen kom ik nooit aan de 4GB. Ik moet zeggen dat het wat krap word soms, maar ik heb nog bij geen enkel spel problemen gehad. Tuurlijk zie ik ook liever 6GB, maar om te zeggen dat het echt te weinig is.
Star wars is nu ook wel een beetje de crysis van vroeger moet ik toegeven. Tziet er goed uit, mar de recommended specs... Damn son.
Vergeet niet dat 4096MB in gebruik helemaal niet aangeeft dat er ook daadwerkelijk 4GB wordt benut op dat moment. VRAM wordt gewoon gevuld zolang als het gaat. Verder denk ik dat de Nano en ook de Fury X allang tegen andere limieten aanlopen voordat je VRAM overschrijdingen ziet die echt tot stutter leiden.

[Reactie gewijzigd door Vayra op 11 januari 2016 17:53]

Ik speel op 2560x1440 en verbazingwekkend genoeg pakt The Witcher 3 nog niet eens 2gb, zit rond de ~1600mb.

Ik heb expres na het overlijden van mijn 290x een 390 8gb gekocht, met de gedachte dat een hogere resolutie (ongeveer gelijktijdig aangeschaft) meer vram nodig had.
Speel je ook met hbm geheugen dan? Want dat verwerkt alles veel sneller dus ben je in theorie minder geheugen nodig.
Wat heeft snelheid van het geheugen te maken met de grootte? Als een GB aan textures in je geheugen laadt heb je een GB geheugen nodig.
gddr5 gebruikt een deel van zijn geheugen voor buffer omdat de bandbreedte niet altijd toereikend is. Omdat de bandbreedt bij hbm veel hoger ligt verbruikt het minder geheugen.
Klopt. Maar je heb nooit de volle 4gb nodig gehad. Er blijft altijd een deel vrij waarbij je gpu het er gewoon inhoud omdat het kan. En misschien ooit nog eens nodig heeft. Maar als het te kort komt zal het ruimte vrijmaken. En ja hij zal bij hbm zal het sneller wisselen. Maar hey hij kan ook sneller wisselen.
Dat klopt dus niet. Je gpu zal het sneller uit het geheugen kunnen trekken maar het geheugen moet het alsnog van de harddisk streamen. Zodra het geheugen vol zit er dus nieuwe data je harddisk geladen moet worden maakt de bandwidth nog bar weinig uit omdat een harddisk zelfs slomer is dan oide kaarten.
Kijk naar de benchmarks, de Fury's lopen juist uit bij hoge resoluties waar je veel geheugen nodig hebt. Ze gaan gewoon anders met geheugen om, waardoor 4 GB zeker nog geen bottleneck is, zelfs niet bij 4K, laat staat 3440x1440.
Ik zeg niet dat je meer als 4gb nodig hebt. Ik zeg alleen dat je evenveel geheugen nodig hebt voor dezelfde textures en dergelijke ongeacht de snelheid.
GDDR5 moet echter meer textures in zijn buffer houden omdat die af en toe niet snel genoeg is om textures on-demand te "ontvangen/versturen". HBM kan dit veel sneller en heeft daarom per saldo minder geheugen nodig om alles goed te laden. Het helpt natuurlijk ook dat HBM zeer dicht bij de core is geplaatst en dus veel minder latency heeft, wat door stacking mogelijk is gemaakt. Bij GDDR5 heb je gewoonweg meer fysieke chips nodig als je een bredere bus wil hebben, die moeten toch ergens worden geplaatst. Bij HBM stapel je in feite gewoon nog een paar lagen geheugen en dan heb je hetzelfde effect maar dan met veel minder ruimte, energieverbruik en warmte tot gevolg. HBM 1 kan echter maar 4 stacks huisvesten, het is qua "hoogte" ook beperkt, HBM 2 zal aan deze 2 belangrijke zaken waarschijnlijk een hoop verbeteren.

Ontopic: Ik waag het te betwijfelen of we in Nederland (of Łberhaupt in Europa) iets gaan merken van deze prijsverlaging. Als je in de Pricewatch gaat kijken zie je dat er echt bar weinig leverbaar is, als het al beschikbaar is. Dit is helaas al sinds de release van de HBM kaarten het geval, en komt waarschijnlijk door de lage yield van HBM, door de hoge vraag (minst waarschijnlijk) of ze houden de vraag kunstmatig hoog door de productie te beperken. Jammer, maar wel begrijpelijk voor een nieuwe technologie die AMD vele jaren en moeite gekost heeft.
Ontopic: Ik waag het te betwijfelen of we in Nederland (of Łberhaupt in Europa) iets gaan merken van deze prijsverlaging. Als je in de Pricewatch gaat kijken zie je dat er echt bar weinig leverbaar is, als het al beschikbaar is. Dit is helaas al sinds de release van de HBM kaarten het geval, en komt waarschijnlijk door de lage yield van HBM, door de hoge vraag (minst waarschijnlijk) of ze houden de vraag kunstmatig hoog door de productie te beperken. Jammer, maar wel begrijpelijk voor een nieuwe technologie die AMD vele jaren en moeite gekost heeft.
De bedachte redenen stroken niet zo lekker met een prijsverlaging natuurlijk...
Ik kan je zeggen dat het niet klopt wat je zegt.
Ik heb er sinds 3 dagen een en die was er binnen 24uur.
GDDR5 moet echter meer textures in zijn buffer houden omdat die af en toe niet snel genoeg is om textures on-demand te "ontvangen/versturen". HBM kan dit veel sneller en heeft daarom per saldo minder geheugen nodig om alles goed te laden.
Als in allebei de gevallen de textures in eerste instantie van een HDD of DDR3 bankjes komen lijkt me niet dat de snelheid van GDDR5 het probleem is.
Ddr3 een gddr5 zijn natuurlijk niet direct te vergelijken hea. Kijk de techquickie van Linus maar eens. Bovendien heb je vaak ook wel een redelijk ssdtje in een dergelijk systeem zitten
Totaal niet begrepen wat ik zeg. Alsof ik videokaarten met DDR3 en GDDR5 aan het vergelijken was.
Ik heb het over de HDD of de DDR3 geheugenbankjes die in het moederbord geprikt zitten. De data in je videokaart zal toch ergens vandaan moeten komen.
Zoals Rin hier onder ook aangeeft: GDDR5 of HBM, 4GB blijft 4GB en behalve dat de kaart intern data sneller kan uitwisselen gaat hij niet ineens textures sneller uit je HDD zuigen. snelle SSD of HDD, het blijft traag vergeleken GDDR5 of HBM.
Jawel hoor. Ik snap je heel goed. Je weet ook dat DDR3 een vier maal zo hoge bandbreedte heeft dan GDDR5 om en nabij? Ongeveer

Ja 4GB is 4GB, maar het is onzin dat een kaart die volledig "gebruikt". Het is puur buffer. Net als ram. Het komt bijna nooit voor dat je echt merkbare prestatie verschillen hebt in games. 3-3,5GB is al voldoende voor 4K in principe. Dat andere deel wordt gewoon gebruikt voor "prefetching" en gewoon omdat het kan. Net zoals mijn mac 16GB volpompt binnen 30 minuten na een clean install en wat internet/tekstverwerking dingen. Je hebt het dus gebruik het. 4K werkt immers prima op een GTX970. Geheugen is daar iig niet het issue.

Pas als je GPGPU toepassingen gaat doen is meer dan 4GB echt interessant omdat je het totale geheugen moet delen door het aantal "Cuda cores" 4GB/2000 is dan gewoon erg weinig om berekeningen en data kwijt te kunnen. Daarom is GPU acceleratie in photoshop of premiere maar deels interessant. Je hebt gewoon te weinig geheugen om Łberhaupt wat op te slaan (compleet andere bewerkingen dan wat een videokaart doet en geoptimaliseerde renderengines).

Op het moment dat je geheugen een hogere bandbreedte heeft kan je effectief sneller gegevens doorvoeren. Maakt dan niet uit of je een trage hdd hebt als het alsnog een halve seconde voordat je het nodig hebt in het vrijgemaakte geheugen staat. Er is maar een beperkte hoeveelheid nodig voor het opslaan van textures die binnen dat stuk/frame ook daadwerkelijk gebruikt worden.

Dat 4GB misschien niet helemaal futureproof is kan ik me enigszins in vinden, maar datligt meer aan de belachelijke systeemeisen die developers kennelijk nodig achten. 16gb ram als recommended? Kom op nou. Minimum requirements zijn voor graka's echter nog steeds 2GB en 4GB wordt aangeraden wegens obvious reasons.

Maar goed. Mijn punt is dus dat door de hogere interne verwerkingssnelheden en lagere latency ook van buiten sneller je geheugen kan verversen. Ddr3 heeft een veel hogere bandbreedte, maar richting graka is het wel wat trager ivm latency. Bandbreedte is alleen wel een punt wat gebrek aan geheugen kan verhelpen. 4Gb is echter voorlopig nog wel afdoende.
Onzin verhaal. Het biedt alleen snellere toegang van en naar de GPU dus de GPU kan de textures sneller in laden voor zijn framebuffer en kan dus sneller de beelden verwerken. Zodra het HBM geheugen vol zit en nieuwe textures nodig eheft dan moet deze beroep doen op de hardeschijf/werkgeheugen en zal deze dus net zo hard happeren als elke andere kaart die vol zit betreft het geheugen. Totdat de 4GB vol zit is het natuurlijk een rete snelle kaart. De 4GB van de HBM telt alleen niet magischerwijs als opeens 6gb of meer van een andere kaart omdat eht HBM zou zijn. De bottleneck is niet zijn snelheid maar hoeveel er in past.
GPU's cachen nogal veel in hun geheugen want in verhouding met de GPU zelf is de bandbreedte snelheid van het geheugen enorm langzaam. Door HBM is dit een stuk minder en komt er ineens een vrij groot stuk geheugen vrij.
Daar is het ook HBM voor.
"De videokaart is al sinds september 2015 op de markt voor 649 dollar, maar in een bericht laat AMD weten de gesuggereerde prijs te laten zakken naar 499 dollar."
" In Nederland liggen de prijzen momenteel rond de 600 euro, deze prijs zal dus waarschijnlijk dalen naar rond de 500 ŗ 550 euro."

Dus in USA gaat er ~150 $ vanaf en hier moeten wij het doen met een daling van (verwacht) §50 tot misschien wel §100?

[Reactie gewijzigd door Source90 op 11 januari 2016 19:43]

"De videokaart is al sinds september 2015 op de markt voor 649 dollar, maar in een bericht laat AMD weten de gesuggereerde prijs te laten zakken naar 499 dollar."
" In Nederland liggen de prijzen momenteel rond de 600 euro, deze prijs zal dus waarschijnlijk dalen naar rond de 500 ŗ 550 euro."

Dus in USA gaat er ~150 $ vanaf en hier moeten wij het doen met een daling van (verwacht) §50 tot misschien wel §100?
Dat komt omdat de eerst prijs een advies prijs is (in dollar) en het product nu een nieuwe advies prijs krijgt. De vergelijking in euro is geen advies prijs, maar een vanaf prijs. Op Amazon kwam je de R9 Fury Nano bijvoorbeeld al tegen voor 581.46, 67 dollar onder de advies prijs.
die snap ik ook niet helemaal.

van de andere kant de normaal prijs van 650 dollar zou hier 600 euro + BTW = 722 euro moeten zijn. maar hij ligt hier voor 100 minder te koop.

[Reactie gewijzigd door Countess op 11 januari 2016 20:08]

Ik zie dat veel kaarten, bijvoorbeeld de Sapphire R9 Nano, al de §500 aantikken. Op Newegg is diezelfde kaart nog $599,-
Flinke daling. Toch even een 22% van het totale bedrag eraf. Zal me ook niks verbazen als deze kaart minder goed verkocht dan men gedacht had. Denk dat de meerderheid liever een grotere "brag" pc heeft staan dan een Mini-ITX variant.

Neem dit niet verkeerd; snap dat er zat mensen zijn die liever een kleine pc hebben. Denk alleen dat de meerderheid een gewone tower heeft staan.
Het was en blijft nog steeds een niche-product. In de meeste ITX kasten kan je prima de radiator van de Fury X kwijt en er zijn ook steeds meer ITX kasten waar je een flinke gpu als de R9 Fury kwijt komt.

Door deze prijsdaling wordt de kaart niet alleen voor die niche een stuk interessanter, maar ook voor normale builds waar je niet perse een kleine GPU nodig hebt. Er even vanuit gaande dat de prijs hier 499 euro wordt, zit je ineens een stuk onder de R9 Fury en ook nog net onder de GTX980. Dit met performance beter dan een GTX980 en gelijk aan of net onder de R9 Fury, met een power consumption gelijk aan de GTX980. De R9 Fury heeft dan wat extra ruimte voor overclocking door betere koeling, maar voor mensen die daar geen interesse in hebben of diegenen die een wat lager wattage voeding hebben is de R9 Nano nu ineens heel interessant.
Naast zijn compacte formaat heeft hij nog een prettige eigenschap: Laag verbruik. En dat lage gebruik is in veel situaties van nut waar andere dan mini-ITX-moederborden gebruikt worden. De prijs was echter vooral gericht op de niche van klein formaat (lees: overdreven duur). Nu de overdrijving verdwijnt, wordt de kaart direct een stuk aantrekkelijker voor toepassingen waarbij een laag verbruik wenselijk is.
Word deze build toch weer een stukje goedkoper van: https://www.youtube.com/watch?v=LXOaCkbt4lI
Haha, inderdaad ik dacht ook direct aan dat filmpje.
Maar blijf er toch van stom staan wat de technologie van vandaag allemaal kan.
Ik vind persoonlijk de fury series kaarten zwaar ondergewaardeerd. Zeker op hoge resoluties zijn deze kaarten erg sterk mede dankzij het HBM geheugen. Waar nvidia heer en meester is is op het gebied van tesselation. Schroef je tesselation op amd kaarten wat terug via de driver software naar 8x of 16x en je krijgt vaak een dermate prestatie boost dat de kaarten bij nvidia weglopen.
Ze zijn dan ook lichtelijk overpriced. En dat pakt bij het Bang/Buck imago van AMD wellicht wat minder.
Verder wel met je eens dat Fury het enige technische interessante product van AMD is op het moment (en dan met name de nano, de reguliere schijnen nogal irritant geluid te produceren)
Ik heb ondertussen zoveel kaarten gehad. En allemaal piepen en whinen ze wel een beetje. Zowel amd als nvidia. Heb nu een fury x en die hoor ik ook wel eens. Maar om nou te zeggen dat hij veel geluid maakt.
Leuk nu de rest nog.
Voor een energie slurpende 390 ga ik toch echt geen 360 euro meer betalen.

Hoop dat er snel een nieuwe serie aankomt en dat de euro weer fors omhoog gaat naar de 1,35 a 1,40.
Elektronica is echt veel te duur geworden hier.
het scheelt 70 watt in game (want nvidia cheats/throttled in torture/burn tests) met een GTX 980.

dat is op jaar basis met elke dag 8 uur (!) gamen 45 euro. dat moet je dan meer als 3 jaar doen voor je het prijs verschil met een 980 eruit hebt.

andere tests met games houden het zelfs op 55 watt verschil

[Reactie gewijzigd door Countess op 11 januari 2016 20:50]

Ja, ik heb mijn 4790K nog voor § 300 kunnen kopen maar nu kost het i7 topmodel 6700K al tegen de § 400. Dat is idd. niet meer te betalen.
Ik vraag mij af of dit betekend dat er ook een prijsdaling voor de R9 Fury komt. Die was dacht ik hetzelfde als de Nano, maar in normaal full length dual slot formaat. Als daar geen prijsdaling voor komt, komt de Nano lager geprijst te staan dan zijn grotere broer.
Wat ik me altijd afvraag, waarom zijn die geluidskaarten altijd zulke lawaaibakken? Bouw ze altijd om, dikker koellichaam van cpu erop en een 140mm fan op lekker weinig toeren.

Ze moeten die dingen eens herontwerpen en voorzien van universeel montagesysteem zoals bij cpus.
De Nano staat nog steeds berucht om zijn coil whine. Dat zou nog steeds een belangrijke factor kunnen zijn voor vele potentiŽle kopers om toch voor een andere kaart te kiezen. Als AMD dat nog eens wou oplossen met een revisie...
Dat gaat nooit gebeuren aangezien ze vrijwel zeker de PCB moeten vergroten/verlengen, en laat dat nou net een unique selling point zijn voor deze kaart.
volgens mij kan je met de component keuze bepalen of je coil whine hebt of niet.
Alleen betaal je dan wat meer omdat die wat duurder zijn.

en lang niet alle nano's hebben last van coil whine. maar ls je per see de goedkoopste variant wil dan is de kans op whine groter natuurlijk.
Het gaat niet alleen om de kwaliteit van de componenten, ook de aantal om de load te verdelen en coilwhine tegen te gaan. Kleinere PCB kan minder componenten huizen ;)
kan... maar met 'maar' een TDP van 175 watt moet het prima mogelijk zijn om voldoende componenten te gebruiken.

het is voornamelijk de componenten efficiŽnter neer zetten, dichter op elkaar, en dan voor lief nemen dat je een extra koper laag of 2 nodig hebt voor de routing.

verder is het ook niet zo alsof het PCB van de nano echt helemaal vol staat. hij best leeg eigenlijk voor zo'n kleine kaart. denk dus niet dat ruimte echt het probleem was hier.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True