Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Micron heeft gddr6 voor videokaarten gereed

Micron heeft het ontwerp en de kwalificatie van gddr6-vram gereed en is bezig samples te produceren. Daarmee ligt de ontwikkeling van het snelle videogeheugen op koers voor een introductie in de eerste helft van 2018.

Micron meldt op zijn blog dat de laatste stappen die nodig zijn voordat gddr6 in productie kan, gereed zijn. In eerste instantie produceert het bedrijf gddr6-chips met bandbreedtes van 12Gbit/s en 14Gbit/s, maar in een later stadium moeten daar 16Gbit/s-chips bijkomen.

Het bedrijf verklaart veel te hebben aan de opgedane kennis met de gddr5x-productie, dat enkele overeenkomsten heeft met gddr6. Gddr5x presteert op maximaal 12Gbit/s; Micron produceert al geheugen met deze snelheid.

Micron liet begin dit jaar weten ernaar te streven om gddr6 eind dit jaar of begin 2018 in productie te nemen. Halverwege het jaar maakte het bedrijf bekend dat dit in de eerste helft van 2018 zou gebeuren. Momenteel staat de status van gddr6 bij Micron op sampling.

Gddr6 heeft niet alleen hogere maximale bandbreedtes dan gddr5 en gddr5x, maar is ook 20 procent zuiniger dan gddr5x.

Door Olaf van Miltenburg

Nieuwscordinator

22-12-2017 • 13:54

84 Linkedin Google+

Reacties (84)

Wijzig sortering
Waarom gaat de discussie ineens over een toekomstige chip van amd?
Wat ik veel interessanter vind,is hoe dit geheugen zich verhoudt tot hbm(2). Ik zie meer toekomst in de ontwikkeling daarvan atm.

[Reactie gewijzigd door G_M_C op 22 december 2017 14:22]

GDDR6 is meer een doorontwikkeing van GDDR5x en heel veel verandert er volgens mij niet. En als de geheugenbus van de GPU breed genoeg is kan je ook de hele hoge doorvooersnelheden van HBM2 halen, 512-768GB/s of meer, als is de latency hoger omdat het GDDRx geheugen om de GPU op het PCB zit waar HBMx geheugen naast de GPU die op de package zit.
Het probleem met HBM2 is dat de databus per stack 1024-bit breed is en dat is best een uitdaging om dit te verbinden met de GPU en ook nog genoeg lijntjes te maken voor de stroomvoorzieing voor de HBM2 stack. Dat is per stack, gezien GPU's met HBM2 al zeker 2 of 3 of 4 van deze stacks gebruiken kan je je voorstellen dat het best een uitdaging is alles met elkaar te verbinden en van stroom te voorzien. Dat is volgens mij de grootste uitdaging met HBM2 op dit moment.

https://www.extremetech.c...gbps-gddr6-2gb-capacities
Vergeet niet dat het stroomverbruik van GDDR veel hoger is dan HBM
Op het geheel van een GPU is dat al bijna een non issue tov GDDR5X en met GDDR6 wordt dat nog minder het geval.
Als dit zo is is dat heel begrijpelijk. Tegelijkertijd maakt het denk ik ook niet echt uit want nu er eenmaal high end producten zijn geweest met HBM2 aan boord zal de target demographic (tweakers en pc gamers) geen genoegen nemen met lagere snelheid. Hoe dat bereikt wordt zal ze natuurlijk een worst wezen, maar als gddr6 echt qua snelheid competitief was met HBM, dan waren de GPU bakkers en Gfx card OEMs destijds natuurlijk niet bereid geweest zoveel moeite en geld erin te steken. Conclusie: HBM is een lang leven beschoren totdat er iets is dat superieur is, in elk geval in high en top end modellen.

Neemt niet weg dat gddr6 een mooie ontwikkeling is natuurlijk: 20% lagere energieconsumptie voor dezelfde prestaties is altijd welkom, hoewel dit natuurlijk een lager percentage is voor een gfx card waar ook nog andere componenten op zitten, dan voor puur het geheugen alleen.
Waarom gaat de discussie ineens over een toekomstige chip van amd?
Wat ik veel interessanter vind,is hoe dit geheugen zich verhoudt tot hbm(2). Ik zie meer toekomst in de ontwikkeling daarvan atm.
De discussie gaat vermoedelijk over Navi omdat Vega het beloofde land had moeten zijn voor AMD fans. Maar de kaart viel tegen in prestaties en heeft meer stroom nodig dan een GTX 1080 Ti zonder in de buurt te komen van de prestaties van die kaart. Wait for Vega is nu Wait for Navi geworden.

Het probleem met HBM is dat het nog te vroeg is voor deze techniek. Er is weinig productie en voorraad. Om in de buurt te komen van videokaarten die GDDR5(X) gebruiken moet een Vega kaart behoorlijk opgejaagd worden. HBM zal nog een generatie (of twee) nodig hebben om meer volwassen te worden.

De lagere bandbreedte van GDDR6 zal dan nu vooral voor de eerste batches zijn. Maar ik vermoed dat Nvidia pas een kaart ermee maakt als we de hogere bandbreedtes hebben. Een GTX 1080 Ti opvolger moet minimaal 14Gbit/s hebben of misschien zelfs 16 Gbit/s. AMD liefhebbers zullen dan zich vooral afvragen of AMD bakzeil haalt en volgende kaarten voorziet van "traditioneel" GDDR geheugen of toch door blijft zetten op HBM2.
Navi high-end krijgt gewoon HBM(2) geheugen.


En waarom moet bv AMD zonodig de 1080TI inhalen? Is het een strijd? Nooit echt begrepen eigenlijk, maar goed.
En waarom moet bv AMD zonodig de 1080TI inhalen? Is het een strijd? Nooit echt begrepen eigenlijk, maar goed.
Je had de sfeer op r/AMD moeten volgen, men wist zeker dat Vega niets heel zou laten van Pascal. Vega was god en Raja zijn profeet. Nadat Vega vooral heet en luid bleek te zijn sloeg de sfeer 180 graden om. Raja was de grootste prutser die er op de planeet ineens.

Ik denk dat je toon een stuk anders was als Vega veel beter had uitgepakt.
En waarom luister je naar hype van fanboys over de prestaties van een kaart.

Als je hetzelfde zou doen voor nv draait een 1070 ook de laatste games 4k ultra settings.

Als je de door amd gepubliceerde resultaten had bekeken was Vega in een paar cherry picked resultaten sneller als de 1080. Meer hebben ze nooit beloofd.

Betrouwbare bron is alles. En wat logisch nadenken over wat een aantal cores mogelijkerwijs kan.
En waarom luister je naar hype van fanboys over de prestaties van een kaart.
Ik heb er niet naar geluisterd, heb zelf een 1080 Ti. O-)

AMD heeft zelf de hypetrain gestart. Bij Ryzen hadden ze een goed punt, maar bij Vega was het pijnlijk uiteindelijk. Vooral de "Poor Volta" opmerkingen waren gnant. Vega had zelfs moeite om de high-end Pascal kaarten te benaderen.
Volgens mij was het AMD (RTG) zelf met de slogan 'Poor Volta'... Met zulke marketing heb je geen vijanden meer nodig. Ze blazen GPU releases zo ver op en blijven de geruchten zo lang voeden dat ze een monster creeren dat ze vervolgens niet meer onder controle hebben. De publieke opinie keert zich elke keer tegen ze, en dat doen ze echt zelf.

Ze willen ook steeds die 'underground' en 'underdog' gedachte aanroepen, daar moeten ze ook eens mee kappen. Geef gewoon gelikte press releases ipv die rare 'in dim light' zaaltjes waar de indruk wordt gewekt dat je hier bij een indie bedrijf staat. Daar staan dan een paar rigs met een anonieme inhoud en je krijgt een stukje game te zien dat 'vermoedelijk draait op Vega'... Compleet kansloos natuurlijk. Ook dit is een voorbeeld van het 'voeden' van de hype train. Het is gewoon smoke and mirrors gebleken, want Vega was ruk.

[Reactie gewijzigd door Vayra op 23 december 2017 12:35]

Undervolten + wachten op geoptimaliseerde drivers gaat al een hoop verschil maken.
Undervolten + wachten op geoptimaliseerde drivers gaat al een hoop verschil maken.
Maar daar zit toch al het probleem. Een product moet goed zijn als je het uit de doos haalt. De Vega kaarten moet je eerst modden voordat ze beter worden. Ik lees genoeg mensen die undervolten en met de BIOS spelen, maar dat ontslaat AMD niet van het feit dat ze een matig product hebben geleverd.
Ik heb mij helemaal dood gelachen om AMD vanwege die Spotprent.jpg ''''a POOR Volta''
Mijn 1080ti is zich ook aan het doodlachen.. op 2ghz 40% sneller dan vega 64.. terrwijl de vega al doodkookt op 350w whahahaha , notabene zonder overclock :D.

Dikke troep is AMD vega. AMD heeft nog nooit zulke bende uitgebracht.. 350w XD en HBM is nog energie zuinig ook! Ik had vroeger de 7970 etc dat waren nog goede zaken!

[Reactie gewijzigd door A87 op 23 december 2017 17:24]

Als Navi HBM krijgt dan kan AMD wel gaan inpakken. Ze gaan die fout toch niet ng een keer maken, zou je denken... Dit is een exacte herhaling van Vega / Pascal.

En er is een hele simpele reden waarom AMD moet inhalen; ze lopen nu achter. Dit is hetzelfde als op CPU ten tijde van Bulldozer; onder de 'top' van de stack zitten doorgaans gewoon de topproducten van afgelopen generatie. Als je de top van je stack dus niet met 20-30% per GPU release kan verbeteren, dan loop je achterstand op want je hebt effectief niets nieuws te bieden. De concurrent doet dat immers wel (zelfs 30-40% bij Maxwell > Pascal) en kan dus elk jaar opnieuw kleinere en dus goedkopere chips produceren met hogere yields, om AMD bij te houden. Alles daarboven wordt dan een monopolie op performance. Dat is ook een van de redenen dat Pascal in verhouding iets duurder is.

Die trend is met Kepler ingezet en vanaf de R9 rebrand heeft AMD daar geen goed antwoord op. Wat een minimaal gaatje was (Fury X > 980ti) is nu een volledige tier van 30-35% geworden. Het is zr onwaarschijnlijk dat AMD nu een Navi kan neerzetten dat ineens 60% sneller is dan Vega. En als het niet sneller is, wat wordt dan het koopargument? Zuiniger? Goedkoper? 'Beter'? Hoe dan...

Een ander groot probleem aan de horizon van Navi is het MCM idee; dat betekent toch een boel verandering, die je eerst weer onder controle moet krijgen. Dus ook hier weer een herhaling van het oude AMD verhaaltje: veel gezeik met drivers bij de launch, en dus een matige launch.

AMD is 'grasping at straws' als het om GPU gaat. Sinds Fury X begint het tekenen van wanhoop te vertonen en met elke release wordt dat erger. Mid range lukt ze prima; Polaris was best ok. High end? Verloren strijd. Ze maken het zichzelf veel te moeilijk met die nieuwe tech, het kost klauwen met geld en levert tot nu toe vrijwel niets op.

[Reactie gewijzigd door Vayra op 23 december 2017 12:37]

De 1080ti is anders de beste PRIJS/performance ratio ;).. zijn grafieken van...

[Reactie gewijzigd door A87 op 23 december 2017 17:30]

Omdat de third party vega kaarten aardig aan de prijs zijn/waren en de prestaties dat niet/reflecteerden. De vega 64 was als referentie uitvoering al duurder dan third party 1080GTX kaarten welke beter presteerden in de meeste gevallen en minder energie slurpten. Dus in dat geval was het gewoon niet slim om voor een vega 64 te gaan. Voor wat meer geld had je gewoon een 1080gtx die fors beter presteerde.
HBM voor de high-end, gddr6 voor de lagere high-end en midrange.
Trager geheugen voor de dingen daaronder.

Ze gaan geen top geld betalen voor chips terwijl deze niet nodig zijn voor de betreffende kaart en ze moeten ook iets behouden om een kaart te handicappen.
Ja dat klopt hoe snel zullen deze geheugen typen zijn je hebt ddr5 en ddr5x,hbm2 en nu dus gddr6.
Zal gddr6 alleen voor amd zijn of zal het een geheel nieuwere interface zijn die nvidia ook zal kunnen gebruiken?
Wie zal het zeggen, of alleen exclusief voor amd?Of een al gestandarizeerde nieuwe interface wat alle videokaarten boeren kunnen gaan gebruiken.Ik vind het een goede ontwikkeling maar echt veel prestatie verbetering zit er niet in.Amd heeft in het verleden de nieuwere kaarten geprezenteerd wat het hbm2 geheugen nu dus ondersteund.De vraag rijst dus nu wat is beter voor nvidia en wat is beter voor amd?Welk type geheugen is het meeste geschikt voor een bepaalde videokaart.?En net als gmc post wie zal sneller zijn hbm2 of gddr6.?Gddr6 zal volgens dit artikel zuiniger zijn en zal de termale en nominale verbruikt van de gehele videokaart minder wattage verstoken wat ten goede komt in de gehele performance per watt berekeningen percentage.

[Reactie gewijzigd door rjmno1 op 22 december 2017 22:56]

AMD Navi GDDR6 op 7nm..... kan niet wachten.
Klinkt een beetje alsof je het walhalla verwacht door GDDR6 terwijl in het artikel staat dat de bandbreedte in eerste instantie gelijk is aan dat van GDDR5x

Hopelijk weet AMD dit keer wel een chip te produceren die zich qua performance / watt kan meten met de Nvidia tegenhanger tegen die tijd. Ik zie tests waarbij n Vega 64 met 300 watt bijna evenveel energie slurpt als een GTX 1080 SLI!

Als dt ze lukt, dan is dat inderdaad wel iets om op te wachten!

/edit
Linkje naar power draw:
http://www.guru3d.com/articles-pages/amd-radeon-rx-vega-64-8gb-review,8.html

Nu weet ik dat je een Vega ook kan undervolten, maar dat kan ik met mijn GTX 1080 ook. Bottom line is dat in reactie op Enchantress ik nog niet bepaald warm loop voor Navi als A) GDDR6 in eerste instantie niet eens sneller is en B ) AMD nu nog kampt met aanzienlijke performance/watt achterstand en het altijd eerst zien dan geloven is hoe dat in de toekomst tegen de dan topmodellen van Nvidia gaat zijn.

[Reactie gewijzigd door Undertaker2 op 22 december 2017 15:57]

Ik zie tests waarbij n Vega 64 met 300 watt bijna evenveel energie slurpt als een GTX 1080 SLI!
He, wat raar, die zie ik niet. Een 1080 die aan 150 watt genoeg heeft? Een bron toevoegen zou handig zijn. Voor zover ik weet kan een 1080 ook prima pieken hebben boven de 300 watt namelijk.

Vega heeft zich ook prima bewezen als energie efficinte architectuur. Je moet ze een beetje undervolten en dan zijn ze zeer competitief, maar ietsje trager dan de 1080. En dat kan je natuurlijk niet verkopen :P dus zijn ze out-of-the-box eigenlijk te hoog geklokt.

Sowieso is die hele performance/watt discussie totaal uit z'n verband getrokken naar mijn mening. Hoeveel uur per week game je op je PC? En wat kost zoiets dan daadwerkelijk op jaarbasis?
Ryzen en Threadripper bieden veel betere performance/watt dan Intels tegenhanger. Maar daar hoor je dan weer niemand over :z
Niet alleen dat, AMD maakt gehakt van Nvidia in dx12 en vulkan. Alleen in dx11 zie je Pascal weglopen. Zelfs de oudere kaarten zijn sneller als sommige Maxwell en Pascal counterparts
Pacal mid range tot de gtx1080 1080 ligt aardig gelijk in DX12 met AMD's vergelijkbare kaarten. Het is ook nog eens om en om met uitlopen in DX12 titels.
ja klopt ook wel ja, ligt eraan welke spel je benchmarked en op welke resolutie. amd kaarten kunnen het nog wel eens verassende resultaten geven op hoge resolutie, zeker na de laatste driver updates.

nog iets leuks wat ik laast tegen kwam :

https://www.youtube.com/watch?v=Dnn0rgDaSro
Lol grappig filmpje maar Aync compute is geen DX12 feature hahahahahahaha, daar gaat de maker van dit filmpje de fout. Async compute is een HW feature die beter zijn werk kan doen met low level API's, dus op Vulcan.
Async computing was een van de pijlers waarom DirectX 12 is ontwikkeld na het gepush van AMD met de revolutionaire Vulcan.

Nvidia is moeilijk aan het doen om dat te ondersteunen.

https://wccftech.com/directx-12-async-compute-nvidia-amd/
Nvidia ondersteund Async compute vanaf Pascal iets wat niet kon met Maxwell. Het neemt allemaal niet weg dat Async compute geen DX12 feature is maar een Hardware feature. Ik snap ook niet waarom ik weer word wegemod, vast weer een fanboy. Waarom en hoe DX12 is ontstaan blijft natuurlijk speculeren.

[Reactie gewijzigd door Gekke Jantje op 23 december 2017 10:53]

Dan is het nog steeds een van de kenmerken van DirectX 12. Dat nvidia die specificaties niet inbakt heeft niks met DX 12 te maken maar met Nvidia zelf
Wat is een kenmerk van DX12 daar gaat het niet over, het gaat er om of het een DX12 feature is wat in het troll filmpje word beweerd, iets wat niet klopt. Async compute is een AMD hardware feature die overal op alle API's zou kunnen werken. Zo heeft Nvidia ook weer hardware features die niet vast zitten aan 1 API of onderdeel van een API is. Daar naast heeft Nvidia ook gewoon Async compute ondersteuning vanaf Pascal en dat werkt ook goed want dat is in veel benchmarks terug te zien. Mensen moeten eens bij de feiten blijven want nu verspreiden ze onzin over het internet wat andere mensen weer overnemen.

[Reactie gewijzigd door Gekke Jantje op 23 december 2017 12:15]

Dus alles wat jij laat zien jongen man zijn feiten, en alles wat een ander laat zien zijn geen feiten?

Async computer werkte niet op DX11 of daaronder, dus is het verbonden met DX12, dit zijn de feiten.

Bij AMD is dit hardwarematig gedaan bij NVIDIA softwarematig, hardwarematig werkt net wat beter wat dat betreft. Dat bv de 1080 net wat beter presteert dan de Vega 56 heeft meer met drivers te maken dan met async compute.
NVIDIA perst net wat meer FPS uit de drivers, AMD’s driver zijn een stuk stabieler met een stuk meer features.
Het steekt me een beetje als men gaat beweren dat Nvidia geen volledige DX12 ondersteuning bid terwijl Nvidia juist alle features heeft tot dx12.1 aan. Volgens mij presteert de GTX 1080 gelijk aan de RX Vega 64 die veel meer rekenkracht heeft.
Vreemd dan wat ik gelezen heb komt een GeForce GTX 1080 Founders Edition niet boven de 185w piek en een MSI GeForce GTX 1080 GAMING Z 8G niet boven de 200w piek.

En een ZOTAC GeForce GTX 1080 Ti AMP Extreme die extreem OC is die gebruikt max piek 315w.

En een ASUS Radeon ROG RX Vega 64 STRIX 8GB gebruikt max piek 320w

En een RX Vega 64 is ongeveer net zo snel als een Geforce GTX 1080, maar gebruikt wel ruim 100w meer stroom, en de goedkoopste RX Vega 64 kost nog 587,50 en niet op voorraad, en een Geforce GTX 1080 heb je al voor 537,- en is dan op voorraad.
Dat is niet zo vreemd, want je baseert je op calculated cijfers. Bij Guru3D meten ze hoeveel stroom de PC uit de muur trekt en verrekenen ze dat met de rest van de componenten. Zeer onbetrouwbaar, de link die ik gaf meet direct de stroom van de PEG-connectors en het PCI-E slot middels een riser.
Ook kom je dan op averages uit. Ja, gemiddeld komt een 1080 nog onder de 200 watt uit. Maar dat is niet de discussie, die ging over pieken.

Dat de Vega's niet op voorraad zijn is bekend, en dat dat invloed heeft op de prijzen is ook duidelijk. Sowieso zijn Vega's veel te duur geworden door HBM2, wat extreem slecht leverbaar is. Nvidia heeft ook erg geluk dat mining slecht gaat op GDDR5X, terwijl HBM juist koning is op dat gebied. Over het energieverbruik heb ik al wat gezegd. Tot slot kan je Freesync nog in de discussie gooien.
Als je het gelezen had was het aardig betrouwbaar hoe ze het deden, je berekent je PSU en de de rest van je computer en whala je hebt een aardig goede berekening wat je GPU verbruikt.
Mind you, the system wattage is measured at the wall socket side and there are other variables like PSU power efficiency. So this is an estimated value, albeit a very good one. Below, a chart of relative power consumption. Again, the Wattage shown is the card with the GPU(s) stressed 100%, showing only the peak GPU power draw, not the power consumption of the entire PC and not the average gaming power consumption.

[Reactie gewijzigd door AmigaWolf op 22 december 2017 17:38]

Grappig hoe je voorbij mijn volledige post fietst en reageert op slechts 1 puntje :+. Tuurlijk zegt Guru3D dat ze het goed doen, dat is nogal uit eigenbelang. Iedereen en zijn schoonmoeder ziet dat dit nattevingerwerk is toch?
Sowieso ging de discussie over pieken en niet over averages, pieken kan je simpelweg niet meten vanuit de muur omdat je voeding die dingen opvangt. Maargoed dan komen we weer terug op het feit dat je feitelijk de helft overslaat en enkel reageert met een nietszeggende quote.
Weet je wat vind het best, ze maken al velen jaren goede reviews waar Tweakers een puntje aan kan zuigen.
In vergelijking met Tweakers is natuurlijk alles prima. Maar Guru3D stelt verder weinig voor ten opzichte van de grotere, bekendere sites. Wat zij doen met energie- en geluidsmetingen is hobbywerk. Oke, frametimes doen ze wel, maar slechts zeer sporadisch in dedicated artikelen. En dan heb ik het alleen nog maar over videokaartenreviews.

Als je graag een Nederlandse bron wilt aanhalen: Hardware.info is enorm veel beter qua testmethodiek.
Inmiddels zijn we de goalposts nog verder aan het verzetten, het ging over het stroomverbruik van Vega en ondertussen heb jij het enkel over de testmethodiek van Guru3D 8)7

Maargoed ik hap wel weer. Waarom ze het zo doen? Niet omdat het 'aardig precies' is, maar omdat degelijke goede testhardware daarvoor in de duizenden euro's loopt. Ik zeg niet dat ze het fout doen of niet weten wat ze doen, dat zijn woorden die je mij nu in m'n mond legt. Ik zeg alleen dat het beter zou kunnen. En gezien onze discussie jst gaat over stroompieken en niet over gemiddeldes, en je pieken niet kan meten op deze wijze omdat ze in de voeding worden opgevangen, kan je je enkel baseren op sites die stroomverbruik van componenten wl juist meten.

Niet iedere site kan een investering van 1000en euro's verantwoorden, zeker met steeds meer adblockers en teruglopende inkomsten. Dat is niet meer dan logisch, en ook helemaal niet erg imho. Ik irriteer me er wel aan als je, zoals Guru3D, een lulverhaal ophangt dat het 'wel goed zo' is.
Tot slot, ja: in grote lijnen is het overduidelijk dat Vega meer stroom verbruikt dan een 1080. Er is ook niemand die dat tegenspreekt.
Nee ze doen het niet allemaal zo:

TechPowerUp:
"A Keithley Integra 2700 digital multimeter with 6.5-digit resolution is used for all measurements. Again, these values only reflect the card's power consumption as measured at its DC inputs, not that of the whole system."
En daar missen ze dan de power uit het PCIe slot. Dus het moet eigenlijk allebei, en het liefst ook los de CPU en alle schijven en dergelijke.
Dan klopt die piek (gaming) 189w wat daar in je link staat toch helemaal aan wat Guru3D zegt in hun review laat zien, daar komen ze ook op die wattage, ik snap jullie echt niet hoor.

Dan klopt Guru3D hun estimated value toch echt goed van piek max 184w (dat is maar 5w minder dan wat zo een dure apparaat zegt keithley integra 2700 digital multimeter bij TechPowerup), en dat ook met een Geforce GTX 1080 Founders Edition.

http://www.guru3d.com/art...ce_gtx_1080_review,8.html

[Reactie gewijzigd door AmigaWolf op 23 december 2017 14:01]

Mij hoor je ook niet zeggen dat de estimates niet (kunnen) kloppen. Maar je bewering dat ze het allemaal hetzelfde doen, is dus niet waar. Je linkt TPU terwijl die juist wl metingen doet ;)

En het klopt, 'in grote lijnen' is het allemaal hetzelfde, maar we gaan hier op detailniveau over GPUs praten, dan is het best goed om dingen bij de naam te noemen; het zijn juist die details die de verschillen maken namelijk.

Goed voorbeeld van het belang van details is dit draadje, waar het gaat om een incidentele piek naar 300w versus een structureel piekverbruik van 300w. Ja, je ziet in beide gevallen in verschillende reviews iets dat over de 300w gaat. Maar het is geen vergelijking van twee gelijk verbruikende kaarten, we vergeten voor het gemak even de factor tijd...

[Reactie gewijzigd door Vayra op 23 december 2017 14:48]

In het land der blinden? Ik zie in je link echt geen 1080 die 300w piekverbruik laat zien. Daarom hier even een echte link met een echte review met chte metingen. Toms heeft een boel leuke data, maar die moet je dan wel goed (kunnen) lezen en vooral interpreteren.

Pieken van een halve seconde zijn niet relevant; die zijn slechts gelimiteerd door de ruimte die er in toevoer zit, en met dynamische boosts worden pieken veroorzaakt omdat de kaart op lage temperatuur meer vraagt want er is headroom. Die nieuwe Vega AIB kaart met 3x6 of 8 pins PCIe gaat daar leuke cijfers geven :) Het is een zinloos stukje data in deze discussie; het gaat dan ook over structureel piekverbruik.

https://www.techpowerup.c..._Ti_Gaming_X_Trio/27.html

Een 1080ti OC zit structureel boven de 300w *verbruik*.
Een 1080 zou incidenteel een paar milliseconden 300w kunnen pieken, maar verbruikt geen 300w; eerder 200-220w (met OC).

Een Vega 64 kan structureel echt wel rond de 300w verbruik zitten, zo uit de doos.
Maar een 1080 kan dat niet. Bij een 1080ti kan het alleen maar met fabriek-af overklok; zie review. We weten ook allang dat Pascal zijn efficientie heel snel verliest als je zelf hogere clocks erop zet. Bij AMD hebben ze die hoge klok er al op stock van gemaakt. MAAR: er is dus geen garantie dat je met een undervolt een stabiele GPU houdt. Die marge zit er niet voor niets op - als AMD minder goede yields haalt en je bent de ongelukkige, dan kan het maar zo dat jij er geen mV vanaf krijgt.

Vega (GCN) heeft een groot probleem en dat is de nog steeds achterlopende implementatie van GPU Boost. Pascal is daar veel beter in, en ook Maxwell is efficienter dankzij dynamisch boosten. Vega boost alleen maar; het is veel minder dynamisch en niet temperatuur+voltage-gelimiteerd. Daardoor kan het ook veel minder accuraat werken.

Wat je zegt over perf/watt kan ik het dus ook moeilijk mee eens zijn: perf/watt is namelijk niet alleen een issue van 'verbruik' tegen een bepaalde prestatie, maar gaat steeds meer synoniem worden voor absolute prestatie. Zeker bij de high-end kaarten; er zit nou eenmaal een limiet aan je TDP budget. Je ziet nu al dat Pascal door het lagere verbruik en dito temperatuur veel hoger kan boosten, en bij Vega is hetzelfde mechanisme in mindere mate aanwezig (de schaling is minder lineair, grilliger).

[Reactie gewijzigd door Vayra op 23 december 2017 14:59]

Ik zit best veel uren per week achter de computer.Maar het gaat erom hoeveel keren per week of tijdsindicatie ben je daadwerkelijk aan het gamen? Alleen dan zal de computer ten volle benut worden als je aan het gamen bent want dan word je videokaart maximaal belast.De rekening die je krijgt is verwaarloosbaar maar ik kan me best voorstellen als je zo een threadripper hebt dat je dat wel gaat voelen in je portemonee.En dat in tegenstelling wat nvidia videokaarten betrefd stoken vaak zeer minder wattage weg.En het heeft allemaal te maken hoeveel geheugen je hebt wat voor een gpu en wat voor een soort geheugen.
Goed idee navi op gddr6 want dan is opeens GNC beter geworden, HMB3 vs GDDR6 = GDDR6 beter?... Zelfs nV gebruikt HMB2 voor highend producten en GDDR5(momenteel) voor consumenten producten. GDDR heeft als grootste voordeel goedkoper te zijn tav HMB (niet alleen puur de modules maar het hele gpu ontwerp), het grootste probleem bij vega was niet het HMB geheugen.
AMD isn’t just using HBM2 because it’s “shiny” and sounds good in marketing, but because Vega architecture is bandwidth starved to a point of HBM being necessary
Dit zal niet veranderen met navi, aangezien het zoals elke andere generatie (tot en met navi) iteraties zijn van GCN en dus de zelfde beperkingen blijft houden (na navi komt er echt een nieuwe architectuur).

[Reactie gewijzigd door D0gtag op 22 december 2017 14:57]

En toch gaat het gerucht dat Navi wel degelijk GDDR6 gaat supporten nieuws: 'AMD werkt aan gddr6 voor videokaarten'

GCN heeft al jaren prima gewerkt met GDDR5, waarom zou het nu opeens per se met HBM moeten? Vega specifiek heeft HBM nodig inderdaad, en dat is daardoor wel degelijk het grootste probleem omdat de productie van HBM maar niet op gang kwam en te duur is.
AMD kan maar zo met Navi weer een andere weg in slaan. Dat zou ik wel logisch vinden na alle HBM2 problemen.

Het is HBM, niet HMB, en het is GCN, niet GNC
''Navi'' ''7nm'' en ''GDDR6''.

Geen problemen met de Vega 64 hier, gamet perfect.
Niemand zei dat je er niet op kan gamen. Maar de powerconsumptie, beschikbaarheid en prijs van Vega vallen zwaar tegen. Hopelijk doen ze alledrie beter met Navi.

[Reactie gewijzigd door Tim2010 op 22 december 2017 14:16]

Navi zal kleiner process zijn (7nm vs14nm dus lagere consumptie) ook zullen er verdere aanpassingen gedaan worden aan GCN (Waarschijnlijk om consumptie te verlagen).
Maar ze zullen ook werken aan een sneller ontwerp met hogere clock potentieel = verhoging van consumptie, navi zal geen enorme jump in prestaties brengen en zeker niet in verbruik, dat geef ik je op papier.
Dit zal het laatste GCN ontwerp worden, de gebreken van GCN zijn pijnlijk duidelijk tav de pascal's waar tegen ze moeten concurreren, AMD weet dit en de volgende kaart zal dit wel verbeteren (als we kijken naar in het verleden behaalde resultaten = trend) maar de vraag is of AMD nog wel interesse heeft in de gaming markt, in de compute markt, waar Gflops beter tot zijn recht komen, zit meer geld dan in gaming.
Ik verwacht geen enorme investering van AMD in de navi en meer geld naar opvolger.
De nieuwe volta kaarten van nV (o.a. duur vanwege de tensor cores, en beoogde zakelijke markt) zijn aanzienlijk lager geklokt (1200) dan 1080's bv. Titan V's halen aanzienlijk betere prestaties en laten zich ook nog is makkelijk overclocken, Titan volta OC presteert beter dan een dual vega 64.
Komt nV met een 1800Mhz (lagere core count) x080 volta kan je Navi wel afschrijven (ik zie dat nog niet snel gebeuren want zelfs de 1080ti is nog een hele kluif).
Ik doe niet negatief, dit is gewoon realistisch en aantoonbaar.
Dat is altijd een probleem geweest met AMD.
Power consumptie en hitte was de voornaamste reden dat ik maar weer terug ben gegaan naar nVidia met de 1080, na de x280 en x290 kaarten die ik had.
Altijd? Misschien als je na het GTX 480 tijdperk geboren bent dat je zo denkt. Maar Nvidia heeft genoeg power-hungry kaarten gehad. Momenteel doen ze het gewoon erg goed.
Ik heb het dus niet alleen over power consumptie.
De hitte was de voornaamste reden dat ik er van weg ben gegaan.
Mijn 1080 Gigabyte kaart is super stil, in vergelijking met de x280 en x290 kaarten die ik had, en kwa hitte is mijn PC kast nu ook stukken kouder.
Mijn videokaarten gingen vaak richting de 100 graden, de 1080, hoeft dat met de meeste spellen die niet op ultra staan niet eens, die zit gezellig rond de 70 a 80 graden.
Over het algemeen zijn de AMD CPU's en AMD GPU's altijd zeer warm in vergelijking met Intel en nVidia.

[Reactie gewijzigd door Power2All op 22 december 2017 16:34]

Wederom onzin. Dat hangt volledig af van de gebruikte koeling en fan curve, het reference ontwerp van AMD, zeker op de 2xx serie was ronduit bagger te noemen. Kaarten van andere vendors waren vele malen stiller en koeler.
Maar goed, de 290 lustte dan ook wel behoorlijk wat power.
Nee, dat hangt volledig af van het TDP, dat zich omzet in af te voeren warmte, en de 290(x) heeft daar een veel hoger cijfertje staan dan een GTX 1080. Verder kan een Nvidia kaart al sinds Kepler efficienter boosten en terugklokken, wat ook weer enorm scheelt in warmte uitstoot.

Power2All noemt misschien niet de juiste termen maar zijn ervaring is plausibel.

[Reactie gewijzigd door Vayra op 23 december 2017 13:15]

Met jouw redenatie zou dus elke gpu met een tdp als de 290x 100 graden worden met veel lawaai ongeacht de koel oplossing?
Lees nog even goed terug waar je op reageert... het klopt namelijk dat de 280 en de 290, zeker reference, slechte koelers hadden. Combineer je dat met een hoog TDP, dan is 100 graden zeker mogelijk en dat vertaalt zich in veel hitte in je kast, en op langere termijn meer warmte in de ruimte waar je bent. Een koeloplossing gaat alleen maar over warmte *afvoeren* en een goede koeler doet dat efficienter. Nu haal je lawaai er ook bij... maar dat is totaal ongerelateerd.

Daarbij heeft een 1080 niet alleen betere warmte afdracht maar is ook het TDP lager. Resultaat is dus een koeler systeem.
Even terzijde maar weet je wel hoe thermodynamica werkt?

Als een component 100 is betekend dat niet meteen dat je pc een winterverwarming is noch dat dat ding meer koeling moet hebben. Als dat component bvb 135 rated is dan is 100 gewoonweg prima.

Ik val je echt niet aan maar ik krijg een hekel aan mensen die een cpu of gpu noemen die wat warm loopt en dan meteen de conclusie maken dat het synoniem staat voor veel hitte ontwikkelen en/of veel vermogen vragen.

Ik kan door het aantal mogelijkheden niet eens beginnen met uitleggen waarom dat denkpatroon fout is, er zijn zo veel verschillende factoren in het spel!

ps: ik heb feitelijk enkel de basis thermodynamica van op school mee + een heel klein beetje extra als intrumentatie/elektro man maar het is verbazingwekkend hoeveel mensen echt niet eens een notie hebben van basiskennis inzake techniek/fysica.
Mijn warmte meter die ik ooit een keer gekocht had, geeft toch heel andere feiten weer.
Er is echt een groot verschil met warmte ontwikkeling rond en in mijn PC kast, met de AMD kaarten, tegenover de 1080 GFX die ik nu heb.

Vooral tijdens de zomertijd wordt mijn hoek een soort van hete sauna.
Met de 1080 die ik er nu in heb zitten, op de een of andere reden heb ik er minder last van.

Omtrent maximum warmte van een videokaart, ligt ook aan de afvoering van de hitte, dus daar ben ik het inderdaad met je eens, maar zet niet zomaar iets opzij omdat jij denkt dat dit anders zit. Fyi.
100 graden is aardig warm toch?
Tis dat het een klein oppervlakte is en je er geen huis mee kan verwarmen. Maar als iets 100graden is is er warmte ontwikkeling toch?

Ik snap je punt over dat er meer bij komt kijken. Maar 100graden is 100graden
Inderdaad, verwacht in eerste instantie alleen de performance per watt die omhoog zal gaan, maar de snelheid zal bij de eerste generatie ongeveer gelijk zijn. Geen verkeerde volgende stap overigens, maar geen walhalla inderdaad.
O dat is mooi, kan Nvidia dit direct adopteren in Q1 18 :) Al zie ik wel op tegen de prijs.
De prijs van de vorige generatie(s) zal daardoor op termijn naar beneden gaan, dus ik zie de toekomst positief in voor de niet zo veeleisende consument! :)
Reken daar maar niet op. Vorige generatie kaarten zullen misschien iets in prijs zakken voor een korte periode, totdat de voorraad op is en dan zijn alleen de nieuwe kaarten nog leverbaar.
Natuurlijk worden oude kaarten dan veel 2e hands aangeboden , dit is een betere manier om een last gen kaart goedkoper te krijgen.
Als voorbeeld de 390x (watercooled), dit was een erg dure kaart bij introductie, maar bij launch van 1xxx Nvidia en 4xx van AMD werden deze kaarten korte tijd gedumpt voor iets meer dan 300 euro.

De stelling dat oude kaarten goedkoper worden door next gen kaarten, klopt dat ook maar vrij kort en meestal (vooral bij Nvidia) gewoon niet.
Neemt niet weg dat een next gen release een uitstekend moment is om een last gen card op een of andere manier goedkoop te scoren.
GDDR6 klaar halverwege 2018, 7nm klaar halverwege 2018 = Navi klaar halverwege 2018? = Release laat q3?

[Reactie gewijzigd door Twanekel op 22 december 2017 14:02]

De ervaring leert dat het inderdaad nog wel eens lang kan duren. Zou zomaar pas december 2018 kunnen worden.
Ik denk toch eerder aan februari, als t amd lukt om zen+ en navi dan klaar te hebben wordt een mooi feest.
We hebben nog helemaal niks gezien van Navi, geen leaks niks, behalve wat slides en een roadmap.

En jij denkt dat Navi over 2 maanden uitkomt
We kunnen hopen maar realistisch is het in ieder geval niet :)
Wel iets maar februari gaat hem echt niet worden. Dan had je nu al lang en breed gelekte benchmarks gehad.
We zullen zien, het zou anders wel heel goed uitkomen samen met zen+, kan je alles bij amd kopen.
Zeker alleen kijk maar hoe het altijd is gegaan. Bedrijven lekken lang van te voren benchmarks omdat ze er alle baat bij hebben om hype rond een product te creren. Dan verkoop je namelijk meer. Je wilt consumenten primen. Een soort van warmmaken.

Ga maar eens terug hoe vroeg we wel niet benchmarks van Vega kregen te zien en Polaris.

[Reactie gewijzigd door Rixos op 23 december 2017 16:38]

GDDR4 2005: 2.8 Gbit/s 2007: 4 Gbit/s
GDDR5 2007: 4.5 Gbit/s 2015: 8 Gbit/s
GDDR5x 2016: 12 Gbit/s
GDDR6 2018: 12 Gbit/s

Bovenstaand een overzichtje van de snelheid per pin van GDDR door de jaren heen. 6 vs 5x is nog niet echt een heel groot verschil.

[Reactie gewijzigd door alfredjodocus op 22 december 2017 15:00]

Die DDR nummers zeggen op zich ook niets over hun prestatie, 't is niet zo dat DDR4 per definitie sneller is dan DDR3, het zijn alleen de specificaties die scherper worden. In het algemeen gaat het I/O voltage omlaag en de maximum frequentie omhoog. De uiteindelijke performance wordt nog steeds bepaald door de RAS/CAS timings en de frequentie. En eventueel komen er nog wat commando's bij zoals power-saving modes.

Doorgaans zit er ook een overgang in de controllers, die meestal een aantal versies aan kunnen, dus nu kun je verwachten dat de memory controllers met DDR4 t/m DDR6 overweg kunnen, en de fabrikant dus kan kiezen wat hij erop zet.

De hogere snelheden in DDR6 gaan we pas later zien, eerst zullen ze gewoon hetzelfde presteren als hun voorgangers omdat de interne geheugen cellen gewoon dezelfde zijn.
Met de nadruk op "nog".

Als je het artikel leest, staat er in dat GDDR6 capaciteit tot groeien heeft, en vermoedelijk de 16 Gbit/s aan moet kunnen met enige ontwikkeling.
GDDR5 zat (zoals je zelf aangeeft) ook niet meteen op 8 Gbit/s!

Ik kijk allesinds met volle teugen uit wat HBM vs GDDR zal worden in de toekomst.
Duurt nog wel even voordat er wat nieuws komt, wellicht een kleine sidegrade meer niet.
Eigenlijk zoals het zou moeten en zoals het vroeger was. Mijn 1080 Ti kan alles aan en heeff zelfs nog headroom voor meer. Enige reden waar ik zou upgraden is hardware ziekte, het is werkelijk niet nodig.
Ben dan waarschijnlijk een van de weinige maar ik heb met mijn 1080ti maar ik kom nooit vram te kort. Weet niet of dit heel erg intressant is voor high end kaarten. Een nieuwe generatie mid range zal hier meer van profiteren. Minder stroom verbruik is natuurlijk wel gunstig. Lagere temps is hogere headroom voor overclocken. Moet ik wel zeggen dat ik de sillicon lottery nog nooit heb mogen winnen😂
Hopelijk zakt de Vega iets, ben al een tijd aan het wachten om mijn videokaart te upgraden (390).

Zal ook mijn minen weer helpen :D

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True