Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD toont kleine RX Vega Nano-videokaart

Door , 47 reacties, submitter: no_way_today

AMD komt met een kleine RX Vega-videokaart. Net als bij de Fury-generatie krijgt deze de aanduiding Nano en beschikt de kaart over één ventilator. Exacte specificaties of details over de prijs en beschikbaarheid heeft de fabrikant nog niet gegeven.

AMD toonde de RX Vega Nano tijdens een presentatie op het evenement waar ook de RX Vega-videokaarten voor gamers officieel werden gepresenteerd. De Nano-kaart werd pas later getoond en behoorde niet tot de modellen waarvan alle details bekend zijn en die in augustus uitkomen, meldt onder andere ComputerBase.

Het is niet duidelijk wanneer AMD de RX Vega Nano zal uitbrengen en wat de specificaties zijn. Vermoedelijk zal AMD de gpu op de kleine videokaart lager klokken dan op de grotere kaarten, om het verbruik omlaag te dringen. Datzelfde deed de fabrikant bij de R9 Fury Nano.

Foto: ComputerBase

Reacties (47)

Wijzig sortering
Volgens mij was het verschil tussen de R9 Fury en de R9 nano niet zo enorm groot.
( https://tweakers.net/pricewatch/compare/451227;455972/ )

Als we dezelfde informatie kunnen aanhouden voor de Vega Nano, zou dit dus betekenen dat deze, buiten een iets lagere base-clock en overclock, vrijwel dezelfde specificaties mag bieden als de Vega (64, neem ik aan?), met een lager TDP.

Maar goed, dat blijft dan ook bij speculatie O-)
Normaal gezien krijgt deze chip inderdaad hetzelfde aantal cores (4096) maar dan op een (flink?) lagere clocks. Het zal afhangen van de efficiëntie van de chips hoever ze het model moeten terugschroeven om binnen het gestelde TDP te vallen (175W voor de vorige Nano). Je weet natuurlijk nooit hoeveel de clocks moeten zakken voor het verbruik te doen zakken. Dit is geen lineaire verhouding meestal.

Als je een beetje terug telt met de cijfers kom ik uit op Baseclock 1050 en boost 1375.

Vega64 (water)
Base: 1406
Boost: 1677
TDP: 265

Vega64
Base: 1247
Boost: 1546
TDP: 220

Vega64Nano (gokje)
Base: 1050
Boost: 1375
TDP: 175

Wat ze overigens ook kunnen doen, is een deel van de cores uitschakelen, maar dan heb je in feite de Vega56 al.

Edit: als je de review van de R9 Fury Nano erbij haalt, zie je direct wat een verlaging van 175MHz doet. Ik denk dus dat 'mijn' 200MHz voldoende gaat zijn voor de basis clock. Verder zijn er natuurlijk ook nog aanpassingen aan het board waardoor er ook daar stroom wordt bespaard.

http://images.anandtech.com/doci/9621/VFCurve.png

[Reactie gewijzigd door Lambo LP670 SV op 31 juli 2017 12:28]

Effen aangeven dat de TDP nummers dat je quote GPU ENKEL cijfers zijn. Aangezien de Vega nogal een heethoofd is, geeft AMD de nummers van de GPU ENKEL met voorkeur aan, ipv de total board power ( GPU + Power regulators + Memory + Fan ... ) zoals Nvidia.

In de praktijk is het:

Vega 64 ( water ): 345W
Vega 64: 295W -- Nvidia 1080 180W
Vega 56: 210W - - Nvidia 1070 150W

Dat is dezelfde reden waarom je Nvidia hun GPUs in laptops en ITX formaat ziet zonder een grote drop in performance. No way dat we Vegas in ITX of Laptops gaan zien zonder een grote drop in performance / of cutdown.

Voor de Vega 64 om dezelfde TDP als Nvidia te behalen in een laptop, mogen we spreken van potentieel 45% cut in de base/boost. Niet de 15% dat je nu aanhaalde op de GPU TDP enkel cijfers.

De duivel zit in de details... Veel mensen keken waarschijnlijk over de omschrijving, dat AMD nu ineens GPU TDP gebruikt ipv de normale full board TDP. De meeste reviews zullen dit grapje ook wel opmerken en de volledige TDP gebruiken.
Laat je niet misleiden door Nvidia en hun praktijken. De GTX 1080 heeft een opgegeven tdp van 180 watt, maar geloof mij dat haal je alleen met een gimped vbios. Real LIFE gebruik bijvoorbeeld flight sim world op ultra of assetto Corsa op ultra en 4k resolutie,
Laat mijn 1080 gewoon meer als 250watt eruit pompen. ( Hou alles in de gaten met Gpu-z ). Ik heb een alienware 17 R4 met de volledige unlockte GTX 1080 en alle laptop fabrikanten met een GTX 1080 hun systeem hebben problemen met overhittende vrm. Gigabyte moest zelfs nieuwe kaarten geven aan klanten omdat de vrm's niet goed gekoeld werden en zich niet aan de 180watt tdp (wat alleen Nvidia kan bereiken) hield. Stock temperatuur lag rond de 93 graden (gpu) heb een repaste en repad gedaan met Grizzly Conductonaut wat me gpu temperatuur rond de 63 graden bracht. Fans spinnen ook nooit meer als 2300 rpm maar een tdp van 180watt ? Hell no. Mijn max hiervoor was 160watt maar dat kwam door de bios die alienware later had aangepast en vrijgegeven waardoor die nu vrij kan boosten. De tpd ligt aan het spel/applicatie die je op dat moment gebruikt en wat je kamer temperatuur vooral is.
Je verwart reference met custom kaarten. Zie bijvoorbeeld de review van de 1080 Gaming X van MSI. Peak gaming voor reference zit op 184W terwijl de MSI 217W doet. Maximum (waar je dus furmark voor nodig hebt) zit op 186W vs 254W. Typical gaming (gemiddeld tijdens hun suite aan games) zit overigens op 166W voor de founders edition.

In dit stadium de custom kaarten erbij halen heeft gewoon weinig zin omdat de kans groot is dat er voor Vega ook custom kaarten komen. Aangezien we niet echt tastbare resultaten hebben gezien (onafhankelijke reviews?) is het veel te vroeg om ook al te gaan gokken hoeveel de MSI's van deze wereld bovenop Vega kunnen en mogen gooien.

[Reactie gewijzigd door sdk1985 op 31 juli 2017 16:26]

http://www.anandtech.com/...ounders-edition-review/30

Ik begrijp je punt maar als je onderaan mijn comment leest, zie je dat ik erbij schreef dat het afhing van het spel/applicatie die je gebruikt.

Anandtech pusht de FE dus zover dat ie bij elkaar 307 watt trekt. Dat is geen 184watt maar en gewoon getest met crysis 3 op ultra 4k. Een game-scenario en geen die-hard benchmark (alhoewel voor sommigen wel)

Ook moet je niet vergeten dat ik het heb over een GTX 1080 die in een laptop zit. De custom kaarten zullen zoiezo al veel hoger boosten omdat die meer ruimte hebben om warmte te generen, terwijl in een gaminglaptop je heel snel tegen thermal throthling kan lopen. De kaart in mijn laptop is geen custom aib kaart maar een eentje die aan me moederbord vast zit samen met me cpu.

[Reactie gewijzigd door l99030607l op 31 juli 2017 16:13]

http://www.anandtech.com/...ounders-edition-review/30

Ik begrijp je punt maar als je onderaan mijn comment leest, zie je dat ik erbij schreef dat het afhing van het spel/applicatie die je gebruikt.

Anandtech pusht de FE dus zover dat ie bij elkaar 307 watt trekt. Dat is geen 184watt maar en gewoon getest met crysis 3 op ultra 4k. Een game-scenario en geen die-hard benchmark (alhoewel voor sommigen wel)
Kijk eens goed bij dat plaatje, dat is total system power consumption. Een FE krijg je niet boven de 186W (overvolten daargelaten maar dat is ook vrij beperkt).

edit: verduidelijking
total system is dus het hele systeem, inclusief CPU, ram, harde schijf, fans, enz. Daarbij is de kans ook groot dat er buiten de voeding is gemeten. Een 80 Plus silver voeding is gemiddeld 88% efficient bij 50% load dus het 'echte' verbruik is dan nog wat lager.

Uit je bron:
On a relative basis NVIDA’s TDPs have been rather consistent/reliable since Kepler, so it’s safe to attribute a lot of this difference to the increase in the official TDP.

[Reactie gewijzigd door sdk1985 op 31 juli 2017 16:31]

Zoals ik al zei 180watt bereik je nooit zonder een gimped bios, en dat bewijs je me 2 keer door resultaten te sturen die beiden boven de 180watt zitten.
Zoals ik al zei 180watt bereik je nooit zonder een gimped bios, en dat bewijs je me 2 keer door resultaten te sturen die beiden boven de 180watt zitten.
Met 184W ga je die discussie niet winnen. Jij zet in op misleidende praktijken van 250W in plaats van 180W. Dat is niet correct. Je hebt overduidelijk de fout gemaakt een custom kaart aan te schaffen zonder te realiseren dat deze andere specs hebben dan een reference kaart.

Ik weet niet welke variant jij hebt gekozen maar de aangepaste max power draw zal ongetwijfeld ergens op de website vermeld staan. Mijn 1070 EVGA FTW is met zijn 10+2 power phases, dual 8-pins en 215W max power draw ook fundamenteel anders dan de 1x 8-pins, 4+1, 150W van de reference kaart. Maar daar ga ik Nvidia niet op aankijken. Dat heeft EVGA gedaan ;).

[Reactie gewijzigd door sdk1985 op 31 juli 2017 16:38]

Bij overclocken ga je heel veel meer energie verbruiken ten opzichte van de snelheidswinst. Je kan daarom niet overclockte kaarten gebruiken om de daadwerkelijke stroom verbruik te meten.
Als deze qua prijs/warmte/geluid een beetje in de buurt komt van de 3 ITX GTX 1070 die er nu verkrijgbaar zijn komt, dan wordt het wel een interessante videokaart voor in een ITX game systeempje.
Aangezien de prijs van de 1070's nu wel erg hoog is zal het wat prijs betreft wel geen probleem worden, hopelijk zijn de warmte en het geluid ook binnen de perken.

Ben benieuwd naar de modellen van de fabrikanten met hun eigen koeling.
Ik vrees dat dit een groter probleem zal zijn. De Vega heeft een vrij hoge stroomverbruik, wat dan weer resulteert in een hoge warmteontwikkeling. Het probleem met de Vega te verkleinen in zo een klein pakketje, volgens mij zal men moeten inbinden op performance.

Vergelijk eventjes de huidige Nvidia en Vega stroom verbruik:

1080 -- 1070
180W -- 150W

Vega 64 -- Vega 56
295W -- 210W

Dat is de huidige lineup. We weten dat de Vega 64 eigenlijk een onderclockte versie is van de watergekoelde frontier-edition / Vega 64 WC ( dat 350 watt zuipt! ). En ja, de benchmark resultaten zijn iets minder wegens de drivers maar het geeft een goed idee wat je kan verwachten met extra driver fixes. Je ziet het ook hoe AMD hun prijspunt is, waar men de Vega64--1080, Vega56--1070 plaatst.

Disclaimer: Ik heb recent een 1070 ITX gekocht. Dit kan mijn mening best beïnvloeden maar de redenering is dezelfde. De reden dat ik niet gewacht heb op de Vega, is omdat ik hetzelfde patroon zag met AMD, dat ik in de R9's zag.

Ik heb toen mijn AMD 290x buiten gesmeten en vervangen door een Nvidia 970, ondanks dat ik een beetje performance moest inleveren. De reden wat de enorm hoge stroom en hitte wat ervoor zorgde dat de 290x constant zoveel lawaai wat te maken ( wat mij stoorde ).

Toen ik de resultaten zag van de Vega Frontier Edition, wist is dat AMD de exact zelfde route opging. Namelijk agressief opdrijven van de core speed, om competitief te zijn met Nvidia. Met als opoffering stroom en de hogere hitte productie.

M.a.w, de kans dat de Vega Nano de 1070 in stroomverbruik, stilte en performance kan evenaren is sorry dat ik het zeg "No way in hell". Men moet ergens iets opofferen in mijn mening. En aangezien de cooler single fan is en men een TDP target van 150 a 170 maximaal kan uitvoeren ( zonder de Nano in een metalica screamin fan concert te veranderen ), moet men grondig duiken in de mhz en voltage. Waarschijnlijk zal men proberen te compenseren met een 50 a 75 euro lagere prijs tegenover de 1070.

Ik moet je teleur stellen maar in mijn mening was het vrij duidelijk dat AMD een stroom / warmte probleem had met de Vega. En dat men gewoon de 290x/Fury richting weer uitging.

Het andere probleem dat AMD nu heeft is, ja, men kan concurreren met Nvdia hun lineup door warmte/stroomverbruik te traden voor performance. Maar Nvidia hun huidige 1060/1070/1080 is al een jaar op de markt.

Mensen denken te vaak in de strijd AMD vs Intel, waar Intel jaren op hun achterste blijven zitten heeft. Maar Nvidia heeft niet op hun achterste blijven zitten met hun GPUs ( buiten de prijs constant op te drijven ). Daarom dat de Vega ook minder een impact heeft, dan bijvoorbeeld de Ryzen.
Vergelijk je nu TDP nummers wat door de fabrikanten zijn opgegeven of pak je wat ze uiteindelijk gebruiken?

Want ik zie dat je voor AMD andere TDP nummers hebt dan aangegeven, en voor nvidia de TDP die door Nvidia is verteld. Ik durf te wedden dat de 1080 wel meer dan 180w gebruikt bij een potje gamen. Zie de comment van @l99030607l

Je moet wel eerlijk vergelijken.

Verder is de aangegeven TDP geen standaard als ik het goed heb, Nvidia en AMD gebruiken TDP niet op de dezelfde manier.
bron; https://youtu.be/yDWO177BjZY?t=1m12s

Laten we eerst de benchmarks afwachten zodat we objectief een oordeel kunnen geven. Helaas gebruiken intel/amd/nvidia TDP niet op dezelfde manier.

[Reactie gewijzigd door tomaszcs op 31 juli 2017 15:09]

Vergelijk je nu TDP nummers wat door de fabrikanten zijn opgegeven of pak je wat ze uiteindelijk gebruiken?

Want ik zie dat je voor AMD andere TDP nummers hebt dan aangegeven, en voor nvidia de TDP die door Nvidia is verteld. Ik durf te wedden dat de 1080 wel meer dan 180w gebruikt bij een potje gamen. Zie de comment van @l99030607l
Dat valt dus wel mee:

https://img.purch.com/r/6...uZy0zRC1PdmVydmlldy5wbmc=

Bron: http://www.tomshardware.c...-1080-pascal,4572-10.html
Er zijn al reviews uit van de Vega Core ... Je moet enkel kijken naar de Vega Frontier Edition om een idee te hebben wat de verschillen zijn met de normale versie. De GPU is dezelfde in beide versies.

https://www.pcper.com/rev...-Review/Power-Consumption-

Frontier Edition vs Vega64 ( Water Cooling ):
16GB = 8GB
1382 MHz = 1406MHz Core
1600 MHz = 1677MHz
1890 MHz = 1890 MHz
350 watts = 345W

De FF welke bijna dezelfde configuratie is ( licht lagere Core speed maar dubbel geheugen ) doet ... tataaaaa ... de board TDP.

CriticalHit_NL hieronder heeft al de TDP van de 1080 gepost. Wat best in de buurt zit van Nvidia hun waarde. Technische is 210/170 meer accuraat voor de 1080/1070.

Maar dit topic gaat niet over Nvidia hun TDP maar AMD. Het feit dat AMD hun TDP te heet is voor de Vega 64 / 56 om in een Nano / ITX formaat te steken ZONDER de boost / core clock naar beneden te halen. Snap je het probleem.
De R9 Nano was niet wat je noemt stil, maar als hij gebenchmarked werd deed hij niet veel onder voor de Fury. Niet gek voor kaart een dergelijk kleine footprint.
Het zou net zo goed kunnen dat dit helemaal geen Vega 64, maar een 56 kaart wordt. Vega 56's tdp is 150 watt net als een 1070. Lijkt me dus dat als 56 de 1070 bij kan houden dat RX Vega Nano een prima alternatief is voor de 1070 ITX's.
De R9 nano is stil, je moet alleen heel goed je airflow op order hebben. Hitte verdwijnt de kast ook in, deze zuig ik af met de onderste frontfan. Heb persoonlijk nu 1050 op de clock fully loaded. Hiervoor heb ik de vcore -54mv draaien en de powerlimit op 19 staan. Trekt net aan 150 uit het stopcontact en is 1 op 1 met een Fury x stock. Chips zijn iets beter dan de X, de 1x6pins houd een leuke OC tegen. Onder water zonder deze limieten ben ik heel nieuwsgierig.

Snap alleen de vernieuwing nog niet helemaal met deze Vega nano. Als de clock 300 hoger ligt denk ik dat dit een leuke kaart kan zijn voor kleine builds.
Undervolten helpt inderdaad een boel met hitte, net als een uitzuigende fan dichtbij. Welke kast?

Vega zou "een hele nieuwe architectuur zijn" die als ik mij niet vergis clock voor clock gelijk presteert aan Fiji. Hoop dus ook dat de clock hoger komt.
Check m'n advertentie voor de foto. Antec P50
Zal me een lading geluid produceren om dat heethoofd te koelen...
Ik ben benieuwd waar je dat op baseerd. De Vega kaarten zijn over het algemeen geen heethoofden.
Het TDP is aan de hoge kant. DIt moet gekoeld worden. Je kan de natuur wetten niet omzijlen.
Maar wel de techniek perfectioneren zodat de afgifte efficitenter is.
De afgifte zijn al uitmuntend op bijna elke kaart. Kan je alleen beter maken door galium gebasseerde koelpasta te gebruiken. Maar dat is teveel risico.
Uitmuntend zou ik het niet willen noemen. De heatsink met fan is al zo oud als de PC zelf. Op het gebied van koeling kan nog heel veel verbeterd worden. Echter zijn er maar weinig bedrijven echt mee bezig, omdat het niet heel interessant is om hier research in te doen. Bedrijven focussen liever op de TDP te verlagen, dan enorme energie monsters nog meer te kunnen laten verbruiken door deze efficiënter te koelen. Uiteindelijke doel is chips die helemaal geen koeling nodig hebben. Waar vroeger de trend was naar grotere snellere heet hoofden (verbruik was nog helemaal niet ter sprake). Is het al jaar en dag omgekeerd. Zo veel mogelijk power uit zo min mogelijk watt. De hele PC koeling industrie is dan ook behoorlijk aan het terug lopen. We willen geen vooruitgang in PC koeling, we willen er gewoon helemaal vanaf! Perfomance gains mag tegenwoordig alleen nog in combinatie met verbruik vermindering. Een chip die 2 keer zo snel is en 2 keer zoveel verbruikt als zijn voorganger zie je niet meer uitkomen vandaag de dag.

[Reactie gewijzigd door ro8in op 31 juli 2017 11:46]

Er waren enorme vooruitgangen door toepassing van heatpipes. Daarna is er weinig veranderd, en ik denk dat dit wel zo'n beetje het optimum is.
Omdat de koel oplossingen al aardig uitgeevolueerd waren decenia terug. Het koel oppervlak is het belangirjkste in combinatie met hoeveel warmte er wordt utigestoten. Economisch gezien is het nu vrij geoptimaliseerd qua koel technologie.
Inderdaad, ik kan me nog herinneren dat IBM bezig was om nanokanaaltjes mee te laten printen in de CPU zelf waardoor je met behulp van Argon gas je CPU van binnenuit kon koelen.

Helaas zal dat kostentechnisch inderdaad nooit op de markt gekomen zijn als conventionele technieken voldoen.

De CPU van buiten koelen heeft inderdaad lange tijd geen vooruitgang meer gehad.
Klopt, de reacties als het is al uit geëvolueerd van hierboven zijn natuurlijk onzin. Er kan nog van alles gedaan worden, door bijvoorbeeld op nano schaal dingen te doen of met andere materialen te werken etc.
Alleen ja waarom zouden we dat nog verbeteren? We willen er vanaf...
Als dit geen Vega 64, maar 56 wordt dan valt het wel mee. 150 watt kan je wel lozen met een koeler van dit formaat. Het lukt de 1070 ITX kaarten ook.
De Vega kaarten zijn over het algemeen geen heethoofden.
En ik ben benieuwd waar je dat op baseerd. Er is nog maar 1 type Vega kaart in het wild getest, de Vega FE, en de reviews die ik gezien heb geven niet echt het idee dat hij erg koel blijft.
Ik snap niet dat je weg wordt gemod. Dit verwacht ik ook. De R9 Nano stond bekend om het niet halen van zijn maximum core clock door throttle bij max rpm. Het ontwerp van deze koel-oplossing lijkt hetzelfde maar hoop door betere TDP een oplossing voor te heet wordende Nano's.
Zal me een lading geluid produceren om dat heethoofd te koelen...
In het artikel staat een link, nieuws: AMD Vega RX-videokaarten vanaf 14 augustus verkrijgbaar vanaf 399 dollar , waar het TDP van de verschillende Vega kaarten wordt gegeven. Dus ik denk dat er best wel fabrikanten komen met goede koelers, al wordt het met de hogere vermogen natuurlijk steeds lastiger om dat met zo weinig mogelijk geluid voor elkaar te krijgen.
Hoe weet je dat het een heethoofd is, want ik zie nog nergens specs en benches.
Ja maar waar staat dat hey heethoofden zijn?

Bij de RX480 en 580 zou dat ook het geval zijn. Maar merk.er.met mijn RX580 top in OC mode weinig van. 60 graden bij furmark onder load is niet zo warm. Mijn gtx'en werden heter.
Zou goed voor minen
Komt bij mij zeker in de rig :P
Je weet wat voor rep jullie hebben.
als je die Nano watercooled, zou hij dan op de normale Vega 64 snelheid kunnen draaien?
Stroom door 1x6 pins zit alles in de weg :)
Was er ook niet een R9 nano met waterkoeler en ventilator van AMD? Als ze er een releasen met een AIO kunnen ze de TDP wat hoger houden en de chip sneller laten draaien.
Erg leuk dat er meer keuze komt in compacte gpu's. Echter heb ik het vertrouwen verloren dat AMD nog mee kan komen, jammer. Ik root graag voor de underdog, maar Nvidia heeft gewonnen het zei zo.

Op het gebied van cpu's zijn ze dan wel goed bezig. Intel heeft moeten antwoorden, en nu gaat de cpu markt tenminste weer ergens over. Helemaal top!
Nu kunnen de specs nog wijzigen, althans dan staat er bij verveld.

Ik heb zo'n beetje het "complete" internet zitten afzoeken naar meer specs van deze gfx kaart.
En de twee links hieronder is wat ik er zo'n beetje over heb kunnen vinden, en waar ik dus ook wat aan heb, op specs gebied.
één & twee
Dus dacht, ik post ze hier beiden toch even voor de liefhebbers.
Immers beter iets dan niets.

Nu nog hopen dat ze ook enigszins kloppen natuurlijk.
Al blijft dat toch altijd afwachten.
:)

[Reactie gewijzigd door SSDtje op 31 juli 2017 16:58]

Zeer interessant! Mogelijk het kaartje in mijn nieuwe systeem!
Minder ruimte, minder verbruik, en hopelijk niet al te veel inleveren op performance!


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*