Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD ontwikkelt snel en zuinig hbm-videogeheugen

Door , 108 reacties

Het Amerikaanse technologiebedrijf AMD heeft een methode ontwikkeld om het geheugenknelpunt voor videokaarten het hoofd te bieden. Het zogeheten high bandwidth memory moet niet alleen sneller, maar ook zuiniger zijn dan huidige geheugenstructuren.

De door AMD ontwikkelde high bandwidth memory-technologie, kortweg hbm, zou vooral geschikt zijn voor videokaarten, maar op termijn zouden ook accellerated processing units, ofwel apu's, met de geheugentechniek kunnen worden uitgerust. AMD's hbm-technologie moet de honger van grafische processors naar geheugenbandbreedte stillen; videokaarten gebruiken steeds meer en sneller geheugen om hoge resoluties en dito details op het scherm te renderen. Een eenvoudige oplossing daarvoor is een steeds bredere geheugenbus. Dat vergt echter niet alleen steeds meer fysieke geheugenchips en daarmee een groot oppervlak op het pcb, maar ook steeds zwaardere voedingen op de kaarten en toenemende kosten.

Met de hbm-technologie worden de geheugenchips veel dichter bij de processor geplaatst, waardoor bredere databussen mogelijk zijn. Met een eerste versie van de techniek zou een geheugenbus van duizenden bits mogelijk zijn, waar conventionele bussen op 512bit pieken. Om de geheugenchips zo dicht bij de grafische processor te plaatsen, wordt gebruikgemaakt van een interposer. Dat is een soort printplaatje waarop de processor en het geheugen worden bevestigd en waar zeer korte verbindingen tussen het geheugen en de processor doorheen lopen. Om nog meer ruimte te besparen en hogere snelheden mogelijk te maken, is het geheugen bovendien gestapeld, een techniek die onder meer in hybrid memory cubes wordt toegepast. AMD bouwt geheugentorens van vier chips hoog, die via tsv's aan elkaar gekoppeld worden. Met vier dies per stack en vier stacks rond de processor bedraagt het maximumgeheugen momenteel 4GB. In de toekomst moet dat dankzij acht of zestien lagen meer worden.

Ondanks de veel bredere databus voor het geheugen is de bandbreedte van constructies met HBM-geheugen in de eerste versie niet veel groter dan die van bestaande geheugenarchitecturen. Dat komt doordat de kloksnelheid van het geheugen een stuk lager is, wat de warmteproductie weer ten goede komt. AMD zou op korte termijn al met producten komen waarin de HBM-techniek is verwerkt. Of dat geheel nieuwe videokaarten zullen zijn of nieuwe versies van bestaande modellen is echter nog niet bekend. Wel zouden hbm-videokaarten zuiniger kunnen zijn, en kleinere pcb's en dus compactere kaarten mogelijk maken.

Door Willem de Moor

Redacteur componenten

19-05-2015 • 15:00

108 Linkedin Google+

Reacties (108)

Wijzig sortering
Iets meer achtergrond informatie:
http://www.pcgamer.com/what-to-expect-from-the-next-generation-of-ram/
Micron en Intel hebben dus iets vergelijkbaars (HMC) is sneller maar ook duurder en minder energie efficient (linkje naar bronchure). Hier staat ook wat meer in over de echte energie consumptie.
Een eenvoudige oplossing daarvoor is een steeds bredere geheugenbus. Dat vergt echter niet alleen steeds meer fysieke geheugenchips en daarmee een groot oppervlak op het pcb, maar ook steeds zwaardere voedingen op de kaarten en toenemende kosten.
Niet echt een realistisch punt aangezien bijvoorbeeld de GTX 285 in 2009 als een 512 bit bus had. Tegenwoordig heeft zo ver ik weet alleen de AMD 290X een 512bit bus. Als die verbreding echt een eenvoudige oplossing was dan hadden we onderhand op een 2048 bit bus moeten zitten.

Blijkbaar is het verbreden van deze bus dus geen oplossing, of in ieder geval geen eenvoudige oplossing. Sterker nog; Nvidia is opzettelijk de andere kant op gegaan om zo met zuinigere kaarten te kunnen komen. Dat zal ook vast de insteek van dit model zijn. De bandbreedte kan natuurlijk altijd nog uit andere technieken komen. Denk aan meer L2 cache zodat het minder belangrijk wordt of compressie ('delta collor compression'). Integratie van dit systeem zou een kaart als de R9 290X , die met zijn 512 bit nu 280W zuipt, een stuk interessanter kunnen maken. Moeten ze echter wel opschieten want de achterstand is groot (in verkopen).

edit: Bijvoorbeeld was een voorbeeld, het eerste resultaat op google, niet de eerste kaart met 512bit

[Reactie gewijzigd door sdk1985 op 19 mei 2015 16:58]

[...]
Niet echt een realistisch punt aangezien bijvoorbeeld de GTX 285 in 2009 als een 512 bit bus had. Tegenwoordig heeft zo ver ik weet alleen de AMD 290X een 512bit bus. Als die verbreding echt een eenvoudige oplossing was dan hadden we onderhand op een 2048 bit bus moeten zitten.

Blijkbaar is het verbreden van deze bus dus geen oplossing, of in ieder geval geen eenvoudige oplossing. Sterker nog; Nvidia is opzettelijk de andere kant op gegaan om zo met zuinigere kaarten te kunnen komen.
AMD had al een 512-bit bus in 2007 (oudste die ik kon vinden):
http://www.techpowerup.com/gpudb/192/radeon-hd-2900-xt.html
Matrox had met de Parhelia-512 al een 256-bit bus in 2002!
http://en.wikipedia.org/wiki/Matrox_Parhelia

Hoe groter je de bus maakt, des te groter zijn de chunks aan data die er doorheen kunnen. Hoe sneller je het geheugen maakt, des te sneller kunnen die data chunks verplaatst worden.
Zoals het artikel dus terecht aangeeft: een bredere bus is een eenvoudige oplossing voor "hoge resoluties en dito details". Textures nemen het gros van het geheugen in beslag en moeten ook snel kunnen worden verplaatst. Tegenwoordig krijgen we steeds grotere textures van betere kwaliteit, want we willen immers niet tegen blokjes aankijken als op een 34" 3440x1440 scherm aan het gamen zijn.

Waarom is het wel een realistisch punt? Nou, omdat vroeger, zij het in 2002, 2007 of 2009 mensen gewoon nog niet op zulke grotere schermen met zulke resoluties aan het gamen waren. En daarbij: het ontbrak toen aan rekenkracht om een soepele ervaring te creëren op een dergelijke hogere resolutie met zoveel detail. Laat staan dat het toen uberhaupt goed betaalbaar was om kaart uit te rusten met 4GB of zelfs 8GB aan snelle geheugenchips...

Waarom wordt er juist gekozen voor het verbreden van de bus en niet voor het verhogen van bijvoorbeeld de snelheid van de chips? Omdat je qua pure snelheid ook tegen limieten aan gaat lopen en zeer snelle chips zijn natuurlijk altijd duurder dan wat langzamere chips. Komt dan ook nog eens de extra warmte bij die vrijkomt bij hogere snelheden.
Waarom is het wel een realistisch punt? Nou, omdat vroeger, zij het in 2002, 2007 of 2009 mensen gewoon nog niet op zulke grotere schermen met zulke resoluties aan het gamen waren. En daarbij: het ontbrak toen aan rekenkracht om een soepele ervaring te creëren op een dergelijke hogere resolutie met zoveel detail. Laat staan dat het toen uberhaupt goed betaalbaar was om kaart uit te rusten met 4GB of zelfs 8GB aan snelle geheugenchips...

Waarom wordt er juist gekozen voor het verbreden van de bus en niet voor het verhogen van bijvoorbeeld de snelheid van de chips? Omdat je qua pure snelheid ook tegen limieten aan gaat lopen en zeer snelle chips zijn natuurlijk altijd duurder dan wat langzamere chips. Komt dan ook nog eens de extra warmte bij die vrijkomt bij hogere snelheden.
Klinkt heel logisch maar in werkelijkheid is het verhogen van de resolutie geen significante factor in het geheugenverbruik. In ieder geval niet zo lang je niet met 4xMSAA of 8XMSAA aan de slag gaat. Zo is het verschil tussen 1920x1080 en 3840x2160 slechts 294MB in bijvoorbeeld Skyrim. In GTA V is het verschil tussen 1680x1050 (zeg 2008-2009) en full hd zelfs slechts 33 mb (aldus de ingame tool).

Dat jij met een voorbeeld komt uit 2007 bevestigd mijn punt alleen maar meer. We hebben sinds die tijd juist een omgekeerde revolutie gehad. Van 512bit 8 jaar geleden naar 256-384bit in 2015. Dus ondanks het toenemen van het geheugen op de videokaarten zijn de geheugenbussen smaller geworden de laatste 8 jaar.

Er wordt dus helemaal niet gekozen voor het verbreden van de bus. Er wordt ingezet op andere technieken (zoals gddr5 en de door mij eerder genoemde delta color compressions; AMD en NVidia). Voordeel hiervan is dat de kaarten relatief minder complex en een stuk zuiniger zijn geworden. Buitenbeen R9 290X bevestigd dit met zijn voor deze tijd uitzonderlijk brede bus van 512bit. De link laat de performance per watt zien die gigantisch (42%!) achter loopt op bijvoorbeeld de R9 270X (die gewoon goed scoort).

Het verband dat jij ziet met de hoeveelheid geheugen is overigens ook geen vereiste.
De GTX 970 zit dicht bij de R9 290X qua prestaties en combineert dezelfde 4 GB met een 256bit bus. De HD 2900XT waar jij mee aan kwam had 512MB op 512bit. Bandbreedte staat op 196 GB/s (memory gate...) vs 106 GB/s . Dus met een 50% smallere bus wordt 84% meer bandbreedte behaald terwijl de hoeveelheid geheugen met 800% is gestegen.

Gezien de trend van de laatste 8 jaar en de negatieve gevolgen voor de trend brekende R9 290X is wat mij betreft het punt dus niet reëel...

[Reactie gewijzigd door sdk1985 op 19 mei 2015 16:59]

Met breedere bussen wordt trouwens de snelheid een probleem want bij parallele bussen moeten wel alle bits tegelijk aankomen. Dit is ook waarom de parallel poort van printers verdwenen is het was makkelijker om meer data over minder kabels te sturen met een hogere snelheid.

Over langere afstanden wordt het parallel houden van de bits gewoon lastig door signaal verlies. Omdat alles hier zo kort op de GPU/CPU zit is het makkleijker om deze dingen instant te houden, hierdoor kan de snelheid van het geheugen omlaag met een breedere bus, wat minder warmte oplevert.
Begrijpend lezen is ook een kunst...

Alleen een hogere resolutie doet natuurlijk niet veel voor het geheugen gebruik.
Maar vergelijk dan nu eens 1920x1080 met medium textures en 3840x2160 met ultra textures? Juist ja...
Textures worden ook steeds groter en die moeten dus sneller uit het geheugen gelezen kunnen worden.

Je vergelijkt een kaart uit 2014 met een uit 2007... dat is 7 jaar verschil kerel... en daarnaast faal je hard met je vergelijking...
Een GTX970 haalt 224GB/s (!) aan bandbreedte en doet dit met 256-bit @ 7012Mhz
Een 2900XT haalt 106GB/s aan bandbreedte en doet dit met 512-bit @ 1656Mhz

De snelheid van het geheugen op die 2900XT is 23,6% van dat op de GTX970.
Echter is de bandbreedte bijna de helft. Hoe komt dat? Simpel; de bus is 2x zo groot.
Ohja, en let hierbij op dat de GTX970 GDDR5 geheugen gebruikt en dat dit niet beschikbaar was in 2007 en de 2900XT dus van GDDR3 geheugen gebruik maakt!

Weet jij al een release date van GDDR6? Ik ook niet, behalve dat het vorige jaar verwacht werd... Dus als we niet sneller kunnen dan de limieten van GDDR5 en je wilt toch je bandbreedte vergroten zodat je toch die 4K textures snel genoeg kunt verplaatsen, wat is dan de meest logische aanpak?
Precies, het vergroten van de bus!

Also, ik zie geen verband met de grootte van het geheugen en de prestaties, maar meer dat in 2007 niet genoeg RAM op een kaart zat om uberhaupt te denken aan 4K textures. Kleinere textures = minder bandbreedte nodig!
Pas nu zit er genoeg RAM op videokaarten (omdat het nu ook pas betaalbaar wordt) om daadwerkelijk grotere textures te gebruiken. Dus grotere textures = meer bandbreedte nodig.

Je vergelijking qua verbruik slaat nergens op. Misschien dat een bredere bus meer energie verbruikt, maar sneller geheugen doet dit ook. Een 290X is een stuk sneller dan een 270X, heeft 2x zoveel RAM (wat dus ook extra energie kost), heeft een compleet andere architectuur en extra features (True Audio)!
Kom eerst maar eens met een echte vergelijking wat aantoont dat het verschil in verbruik komt door die bredere bus.
Dit verklaart wel het een en ander waarom een 290X zo veel meer energie verbruikt: http://en.wikipedia.org/wiki/Amdahl%27s_law

TL;DR
Grotere textures = meer bandbreedte nodig = GDDR6 is nog niet uit, dus moet de bus vergroot worden.
Zo moeilijk is dat toch niet om te snappen?
AMD(ATi) loopt al sinds 2005 al achter qua verkoop..
http://i.imgur.com/bNqJYgA.png
Helaas wordt deze achterstand wel slechter..
Het is voor iedereen te hopen dat ze weer een inhaal slag maken..
Zowel op GPU als CPU gebied..

Maar ik denk ook dat voor de meeste mensen de echte high end GPU's niet meer intersant zullen zijn tot dat 4K echt mainstream is.. de betere midrange kaarten zijn prima voor veel games op 1080p..
Naja, dat is maar de vraag. Titan is er al, R390X moet nog komen.

Je kan de betere hebben, maar als je te laat bent, heb je alsnog niets.
Naja, dat is maar de vraag. Titan is er al, R390X moet nog komen.

Je kan de betere hebben, maar als je te laat bent, heb je alsnog niets.
---

Ik vraag me af hoe het de Titan zal vergaan als ik dit lees en de afbeelding erbij bekijk.
---

"The first generation of HBM AMD is using allows for each stack to be clocked up to 500MHz, which after DDR signaling leads to 1Gbps per pin. For a 1024-bit stack this means a single stack can deliver up to 128GB/sec (1024b * 1G / 8b) of memory bandwidth. HBM in turn allows from 2 to 8 stacks to be used, with each stack carrying 1GB of DRAM. AMD’s example diagrams so far (along with NVIDIA’s Pascal test vehicle) have all been drawn with 4 stacks, in which case we’d be looking at 512GB/sec of memory bandwidth. This of course is quite a bit more than the 320GB/sec of memory bandwidth for the R9 290X or 336GB/sec for NVIDIA’s GTX titan X, working out to a 52-60% increase in memory bandwidth."

"What’s perhaps more interesting is what happens to DRAM energy consumption with HBM. As we mentioned before, R9 290X spends 15-20% of its 250W power budget on DRAM, or roughly 38-50W of power on an absolute basis. Meanwhile by AMD’s own reckoning, GDDR5 is good for 10.66GB/sec of bandwidth per watt of power, which works out to 30W+ via that calculation. HBM on the other hand delivers better than 35GB/sec of bandwidth per watt, an immediate 3x gain in energy efficiency per watt."

Plaatje: http://postimg.org/image/54k1smt9d/
Zou je bijna denken, waarom hadden ze dat vorig jaar niet alvast op de 2 consoles kunnen proppen? :P
Omdat Microsoft en Sony een zo goedkoop mogelijk console wilden bouwen.

Bovendienis de ontwikleling van die consoles waarschijnlijk al 3 jaar geleden gestart, dat is een eeuwigheid in de computer industrie.
Ahum de Radeon 2900 XT had ook een 512bit bus in ... 2007 :+

reviews: ATi Radeon HD 2900 XT review
Een bredere bus vereist vooral veel meer complexiteit op je bord, en dan moet je met nog meer lagen werken, wat ongelofelijk ingewikkeld is. Voorlopig zijn grafische kaarten een laagje of 5-8 aan PCBs bovenop elkaar, en het past maar net. Die 512-bit brede bus is echt het maximum, vandaar dat we nu de hoogte ingaan. Het worden meer bitjes, maar het kan nu via een interposer, een stukje silicium in plaats van plastic, waardoor je veel kleiner kunt printen, ergo is de 4096-bit van HBM haalbaar.
Dus met de hbm-technologie worden de geheugenchips veel dichter bij de processor geplaatst en ook nog eens gestapeld. In hoeverre gaat dat problemen opleveren met hitte? klik De videokaart koelers zullen dan ook aangepast moeten worden, om geen artefacts te krijgen. AMD kaarten zijn nu niet bepaald de kaarten met de minste warmteontwikkeling.

Edit: die haat naar nVidia blijft wel grappig: uit de presentatie:
”Nvidia creates PowerPoints and talks in advance like they are the wonderful leader of everything,” Macri said. “While they’re talking, we’re working.”

Ze claimen 1 jaar voor te liggen op nVidia qua technologie hiermee :)

[Reactie gewijzigd door HgnX op 19 mei 2015 15:07]

Toch raar dat Nvidia veel betere cijfers behaald.

Blijkbaar wordt het "working" daar efficienter gedaan.
om even een heel actueel voorbeeld te geven van wat AMD dus al een jaar geleden in dit interview over waarschuwde.

https://www.reddit.com/r/...top_the_nvidia_gameworks/

project cars draait veel langzamer op AMD hardware vanwege nvidia's anti-optimalisaties. en het is voor de developers verboden om broncode aan AMD te laten zien dus het is voor AMD heel moeilijk om om deze anti-optimalisaties heen te werken.

Nvidia kiest er zelfs geregeld voor om zelf een performance hit te incasseren als die op AMD hardware maar groter is.

[Reactie gewijzigd door Countess op 19 mei 2015 21:24]

Oud nieuws.

Blijkbaar lukt nvidia het op deze manier wel.
Meer personeel, meer budget, en meer dan een decennium aan wanpraktijken. Sjah niet moeilijk dat je dat dan zou denken he.
Nvidia heeft ook vast wel iets in de pijpleiding en is in technisch opzicht op dit moment in de markt wel superieur, beetje makkelijke opmerking van AMD. Ik heb overigens zelf een amd GPU (7950).
NVidia heeft inderdaad iets geplanned, maar nog niks expliciets. AMD heeft al heel vroeg ingezet op geheugen, en is gaan samenwerken met Hynix om dit spul goed af te leveren. Eigenlijk was het geplanned om begin dit jaar uit te komen, maar de datum is steeds naar achteren geduwd, vermoedelijk doordat beide partijen problemen hadden (de rest van de 300-serie is een rebrand voorlopig, en er is nog niks anders met HBM opgedoken)...

Overigens kun je er de donder op zeggen dat Intel ook bezig is, en eigenlijk iedereen. De vraag is of het prijstechnisch efficient is, maar voorlopig lijkt het een $100 meer te kosten voor 8 GB, dat is voor high-end videokaarten goed te doen.
Nvidia heeft voor 2016 Pascal geplanned, met daarop HBM 2.0 geheugen.
Zie o.a. http://www.anandtech.com/...cal-architecture-for-2016
Expliciet genoeg voor je? ;)
Nope, helaas. Dat vertelt me alleen dat ze het willen gaan gebruiken, niet welk type, of in welke chips precies. Gaan ze ook voor de 4GB, wachten ze op HBM 2.0, hoeveel chips gebruiken ze precies, welk type interposer? Allemaal vragen waar bij AMD aardige gokjes voor zijn (of keiharde aankondigingen), en bij NVidia... niks.
NVIDIA gaat voor de Pascal 14/16nm kaarten die voor 2016 gepland staan ook de HBM standaard gebruiken, ze noemen het alleen "3D memory".

http://www.jedec.org/standards-documents/docs/jesd235
http://jobsearch.nvidia.c...lick.jsp?count=1&id=10569
http://blogs.nvidia.com/blog/2015/03/17/pascal/

2016 wordt een leuk jaar voor pc gaming.

- Console efficiency door DirectX12
- Dieshrink van 28nm naar 14/16nm. (Theoretische boost van >40%)
- HBM voor meer bandbreedte

Volgend jaar GTX980 performance voor <100W.

[Reactie gewijzigd door Persei84 op 19 mei 2015 17:20]

Waarin is Nvidia dan superieur? Colour compression was AMD ook al eerder mee, enige waarmee Nvidia momenteel voorop loopt, is performance per watt, mag ook wel als je een generatie voor ligt.
Ze lopen een generatie voor, dat alleen is al een antwoord genoeg op je vraag ;)
Ik neem maar aan dat je een grapje maakt?

Een generatie voorlopen zegt niks, eigenlijk is het ook niet de juiste benaming, tenzij je alle generaties gaat tellen, Nvidia heeft nieuwere kaarten, dus dan mogen ze zeker wel beter zijn op gebied van watt/prestatie. Over een maand heeft AMD nieuwere kaarten, is AMD dan automagisch technisch superieur?

De oude R9 280 en 280x maken het Nvidia namelijk ook al jaren moeilijk, die dingen zijn inmiddels ook zeker 2 generaties oud.
Het probleem met AMD is de hitte en een naar man eigen gevoel net wat minder qua software. Daardoor heb ik bij NVIDIA een beter "superieur" gevoel dan bij AMD.
Echter mag je niet vergeten dat het budget van NVDIA 3x groter is ofzo. Ze kunnen dus 3x meer investeren.
Het andere punt is, is dat AMD naar mijn gevoel meer prijsgeeft van wat ze aan het doen zijn. NVIDIA houdt denk ik meer achter dan je denkt. 3x meer budget betekent niet 3x meer inovaties, maar ze moeten toch of meer, of betere functies moeten kunnen uitbrengen met het geld.
Uiteindelijk moet je kiezen tussen hitte = Lawaai of Prijs = AMD goedkoper en of je net die extra % meer power wil = NVIDIA. Ook heb je nog Physix en de keuze tussen G-Sync of Freesync. Dus de keuzes zijn er.
Tuurlijk. Plus de keuze uit een egoïstisch bedrijf of een wat meer down to earth bedrijf, die open standaarden ondersteund. Als het performance verschil klein is, weet ik al wel waar ik voor kies.
Ik weet niet of automagisch een typo is of niet,maar het is wel een vet woord.
Automagisch is een bestaand woord, en zeker geen typo :+

Het is automatisch, maar dan magischer :P
Ik heb ooit 'aanwazig' bedacht :D Dat is fysiek aanwezig, geestelijk wat.. 'minder'

sws krijgen wij -479283402309234 nu :D

[Reactie gewijzigd door Morress op 19 mei 2015 15:29]

@Morress Zwaar offtopic: dit is op Partyflock al jaren een begrip }:O
Wat betreft het hitte probleem: als AMD het slim aan pakt, dan kunnen ze misschien een keoeler maken die met de plaat zowel de GPU als het HBM af dekt. Afhankelijk van de hoeveelheid hitte die de GPU dan produceert. En eventueel met een soort schotten tussen de HBM en de GPU in. Waarna je dan met de koeler HBM en GPU in één keer koelt.

Wat betreft datgene wat ik hier boven aan haal: ik ben wel benieuwd hoe 'hoog' het HBM daadwerkelijk is in vergelijking met de GPU op de videokaart.
De 390X zou dit HBM moeten krijgen, en de geruchten zijn ook dat die kaart standaard een waterkoeler krijgt. 1 plus 1 verhaal ? ;)
Ik weet dat de 390X dit HBM moet krijgen, maar gaat AMD het ook zo implementeren als dat ik hierboven beschrijf? HBM en GPU door eenzelfde koeler laten koelen? Daar heb ik zelf (nog) niets over gelezen.

Dat van de waterkoeler komt me vaag bekend voor, dat zou dan inderdaad zeer goed mogelijk kunnen zijn. :Y


Oh, en 1 plus 1 is 2! :D :9
Waarom zouden ze een r9 390x standard van waterkoeling voorzien?
Lijkt mij een beetje overkill. En kost ook nog eens meer.
Gezien het allemaal zuiniger zou moeten worden, kunnen ze makkelijker alles dichter op elkaar stoppen zonder dat de temperatuur zal stijgen.
waarschijnlijk heeft weinig, met het gebruik van vapor chambers is het een kwestie van de afmeting van de vapor chamber te vergroten. De enige andere warmte bron waar nog rekening mee moet worden gehouden is de VRMs, maar het geheugen zou nu veel makkelijker te koelen moet zijn.
Niet. Je moet alleen je baseplate van de cooler aanpassen maar dat Is bij nieuwere videokaarten wel vaker het geval.

Gddr5 moest ook door heatsinks of airflow gekoeld worden.
Nvidia zal met Pascal HBM in gaan zetten. Ik denk dat dat pas 2016 gaat worden. En hooguit eind 2015. Die chip moet op 16 of 14nm FinFet gemaakt van worden.
Ik zie dit eerder als een goed iets voor AMD APU's. Als ze 512MB, 1GB of zelfs 2GB op een APU zetten, dat heeft veel meer effect dan zo snel mogelijk ram kopen zou ik zo denken, dat doet de prestaties van dit soort processors denk ik goed. Dan heb je dat HBM op de cpu zitten, net als Intel L4 geheugen heeft. Kun je er gewoon extra ram bijplaatsen als je daar behoefte aan heb, anders extra zuinige APU want de ram en bijbehorende controller kun je achterwege laten.
Dus met de hbm-technologie worden de geheugenchips veel dichter bij de processor geplaatst en ook nog eens gestapeld. In hoeverre gaat dat problemen opleveren met hitte?
Dat zal denk ik nog wel meevallen. Ivg met de GPU gebruikt het geheugen niet zoveel en ze clocken het substantieel lager.
De bandbreedte groeit terwijl de overhead ook blijft slinken. Met dit soort efficiëntieslagen staat ons nog veel moois te wachten.

3 juni op Computex worden de nieuwe kaarten van AMD uit de doeken gedaan, ben benieuwd of dit hier al in verwerkt zit.
Volgens de geruchten wel.

Ik acht het best mogelijk dat ze de R9 390X met HBM en de nieuwe Fiji chip uitrusten waardoor ze de concurrentie met de GTX980 en de Titan X weer aan kunnen gaan.

Ik verwacht een kleine updaten qua architectuur naar GCN 1.3 en wat meer shaders dan Hawaii. Of We de 4096 shaders zullen halen durf ik niet te voorspellen aangezien deze generatie nog wel op 28nm zal zijn. Maar onmogelijk om het ook niet.

In Dat geval kan de Titan X het nog zwaar gaan krijgen.

[Reactie gewijzigd door Astennu op 19 mei 2015 15:16]

Ik hoop het. Concurrente (op welke markt dan ook) is goed voor iedereen. Afgezien van de fabrikant zelf misschien. Het zorgt voor innovatie, drive bij de fabrikanten en ga zo maar door.

Zelf denk en hoop ik ontzettend dat wat jij zegt, ook is dat AMD gaat doen. De R9 390X met HBM en een snelle, krachtige GPU waardoor ze de concurrentie met de GTX980(Ti) en TItan X aan kunnen. En ja ik zet bewust het 'Ti' tussen haakjes erachter, want het zal mij echt helemaal niks verbazen, als AMD de R9 390X introduceert waarna blijkt dat deze de GTX980 (met gemak) aan kan en nVidia dan 'gelijk' de 980Ti introduceert. Om maar weer de crown voor snelste single GPU videokaart over te nemen :o.
De crown weet ik niet maar Is zeker mogelijk.
Ik verwacht in ieder geval een veel betere prijs prestatie verhouding tov de Titan X maar verwacht wel dat nvidia nog wel een betere performance per watt zal hebben.

Of ze moeten een grote architectuur updaten doen. Ik verwacht die pas bij de 14nm opvolger (R9 490(X)) als ze de naamgeving voor die tijd niet veranderen.
AMD heeft wat dat betreft inderdaad altijd een (zo lijkt het tenminste) grotere vijand gehad dan nVidia: de hitte. CPU's hebben hier last van, sommige GPU's hebben hier last van. En nog leveren ze niet altijd de prestaties van een nVidia kaart die hetzelfde wattage heeft. Vergeet voor het gemak de prijs even :9 (Niks geen nVidia fanboy hier, just stating the facts.)

Sowieso heeft AMD nog wel een inhaalslag te maken ten opzichte van het groene kamp. Hoe dan ook: ik hoop dat ze die maken. Dat komt de technologie alleen maar ten goede! :)
in mijn optiek vergeet je 1 ding en dat is dat de high-end AMD kaarten het opnemen tegen 2 generaties nvidia. amd heeft deze laatste kaarten nog steeds niet in de verkoop markt doorontwikkeld. de r290(x) en ook de 280(x) zijn kaarten die voor een videokaart al zeer lang mee gaan. de software en ook de concurentie heeft al die tijd niet om nieuwe ontwikkeling gevraagt. nu 4k-gaming en VR zijn intrede doen begint de vraag voor nieuwe videokaart ontwikkeling weer op te laaien.

eigenlijk is alleen de titen x van Nvidia die op 4k gaming op ultra nog respectabele prestaties neerzet.

meestal kies bij de aanschaf voor bang for the buck/prestatie. daarom heb ik nu een 280x die voorlopig nog prima voldoet.
op termijn zouden ook accellerated processing units, ofwel apu's, met de geheugentechniek kunnen worden uitgerust
mijn vermoeden is dat ze hier doelen op eenzelfde filosofie als bij de XBOX one. deze heeft nu een stukje extra snel geheugen voor het langzamere geheugen. als deze filosofie wordt toegepast bij de apu's dan zullen we zien dat we de proc cache krijgen met daarachter HBM waarna nog het systeemgeheugen kan worden toegepast.

[Reactie gewijzigd door dezejongeman op 19 mei 2015 16:04]

Je hebt gelijk met 2 generaties en de vergelijking is daarom eigenlijk ook niet eerlijk... Maar AMD had natuurlijk de keuze gehad om nieuws op de markt te gooien, maar als ze dat niet doen, dan is de vergelijking dus wel gerecht. AMD heeft gewoon een kleiner budget en dat betekent minder geld voor investering. Het is daarom ook niet gek dat NVIDIA alleen daarom al voorloopt omdat ze gewoon 3x meer geld kunnen investeren. AMD mag blij zijn dat ze nu met de PS4 en de One wat kunnen verkopen, want anders ging het wel heel erg achteruit.
NVIDIA heeft nu gewoon de strategie om telkens na AMD een nog net iets snellere kaart op de markt te "dumpen". AMD werkt heel erg hard met weinig geldt en NVIDIA die dumpt eigenlijk met 3x meer budget een kaart op de markt met een verschrikkelijke prijsverhouding. Als de kaarten van AMD niet zo heet werden, dan had ik ook wel een kaart van AMD, maar door de hitte maakt het mij teveel lawaai.

De volgende vraag is Freesync vs G-Sync. Mensen moeten nu dus alweer voor een partij kiezen. Als er betere beeldschermen met G-Sync worden gemaakt, dan zal NVIDIA alsnog winnen. Wordt Freesync beter, dan heeft AMD toch nog iets speciaals.
We zullen het zien.
ik zelf zie het meer dat AMD het dit keer gelukt is om een kaart te produceren die zo lang mee kan. de ontwikkel kosten van deze kaart reeks is dus beter terug verdient dan voorheen. daarnaast vergeet je de coin-mine markt nog waar AMD heer en meester is waar ze de kaarten voor een top prijs konden wegzetten omdat de koper deze aanschaf met gemak terug verdiende. het aanbod van kaarten was sneller dan de benodigde vraag van games e.d.. het uitbrengen van een nieuwe reeks zou alleen meer FPS creëren boven de 120FPS, dat maakt de games niet speelbaarder en dat heeft AMD zich goed gerealiseerd. een nieuwe architectuur zou door 2x zoveel ontwikkeltijd wel eens extreem kunnen verassen.
Op dit moment maar in het verleden Is het ook andersom geweest.

Qua gpgpu kunnen de meeste chips van AMD wat meer dan de huidige nvidia chips dat kost allemaal die space en dus stroomverbruik.

Maar nvidia heeft met maxwell een hele efficiënte architectuur in handen. AMD moet nu inderdaad een vergelijkbare stap gaan maken.
Er is denk ik geen game-kaart te koop met een slechtere prijs-prestatie verhouding dan zo'n Titan X (wel Quadro en Firepro enz., maar die zijn niet voor gaming gemaakt). Ze kunnen die dingen alleen voor dat geld verkopen omdat het "het beste van het beste" is op dit moment.

Wat mij betreft moet AMD met iets komen dat kan concurreren met de GTX 960/70/80, niet alleen op prijs en prestatie (op zich kunnen de huidige kaarten dat ook al prima) maar ook op features en energiezuinigheid.
Klopt. Maar betere prijs prestatie verhouding dan een 980 kan ook makkelijk.

Prijs prestatie staat op 1 dan een cooler die stil genoeg Is. en qua verbruik mogen ze best wat hoger zitten als de prijs er maar naar Is. Het zou wel een voordeel zijn als de performance per watt een stuk beter gaat worden.

Dat Is zeker mogelijk als je kijkt naar Tonga, HBM en eventueel nog andere tweaks die ze in GCN 1.3 kunnen stoppen.
Toevallig was er laatst een ''leak'' die de 390X en 980Ti/Titan X vergeleek, maar alsnog zullen we moeten afwachten hoe het gaat lopen.

http://www.overclock3d.ne...980_ti_performance_leak/1

Alleen die 4Gb VRAM, 3-4GB kan op dit moment nog redelijk, maar er zijn genoeg situaties waar je het nu al passeert en is dus niet erg toekomst zeker meer, als het VRAM vol zit gaat het naar het systeem geheugen, en dan kun je snel VRAM geheugen hebben maar dan zit je bottleneck op je RAM.

Maar in situaties waar het VRAM niet wordt overschreden maar toch op hoge resolutie speelt met intensieve settings kan het snelle VRAM zeker voordeel bieden tegen de huidige GDDR5 kaarten, dus op zich niet zo vreemd als de 980Ti/Titan X in die situaties langzamer zijn.
Ah, Overclock3d, trouwe TinyTomLogan, hehe ^^. Ik had die leak een tijd terug voorbij zien komen inderdaad, maar het er zo snel niet aan gedacht. Laten we in ieder geval hopen dat de benchmarks (grotendeels) waar zijn. Dat zou een 30% increase in performance betekenen en dat is niet mis! :N

We zullen het zien tijdens Computex (hoop ik).

En wat betreft die bottleneck: die zit altijd wel ergens. Is het je CPU niet is het je GPU wel, of andersom, of je (V)RAM etc. Het valt nog niet mee :(.
Ik acht het best mogelijk dat ze de R9 390X met HBM en de nieuwe Fiji chip uitrusten waardoor ze de concurrentie met de GTX980 en de Titan X weer aan kunnen gaan.
In mijn ogen moet AMD/ATI toch wel meer zetten dan een iets snellere videokaart tegen een iets betere prijs/prestatie verhouding voordat ik ze weer overweeg (in de koekomst). Het meeste gelazer kom ik tegen met de video drivers van AMD (het andere gelazer punt zijn de brakke wifi chips), dit zijn meestal budget laptops/pcs dus zou het ook aan de algemene bouw kwaliteit kunnen liggen. Maar de enorme AMD highend videokaart van m'n broertje inspireerde nu ook niet bepaald veel vertrouwen, in ieder geval niet voldoende om af te stappen van m'n Nvidia kaarten.
In mijn ogen moet AMD/ATI toch wel meer zetten dan een iets snellere videokaart tegen een iets betere prijs/prestatie verhouding voordat ik ze weer overweeg (in de koekomst).
en de GEHELE bedrijfsvoering bij nvidia zou compleet om moeten voor ik OOIT ook maar zou overwegen om iets van nvidia te kopen.

het anti-competative praktijken van nvidia zijn een gevaar voor de gehele PC game markt.

hier een klein voorbeeldje,
https://www.reddit.com/r/...top_the_nvidia_gameworks/

Nvidia is gewoon evil. dat mag je overdreven vinden maar ik kan er niks anders van maken. iedereen die nVidia koopt op het moment werkt gewoon mee aan zijn eigen ondergang.

[Reactie gewijzigd door Countess op 19 mei 2015 16:26]

Gaan we echt ook op de Project Cars- bandwagon springen? Ik vind het een beetje zielig. Game is nét uit en de developer heeft zelf ook al een duidelijk statement gegeven met harde data en het feit dat er 20 keys naar AMD devs zijn gegaan RUIM voor de release.

Verder is het ook niet nieuw dat AMD nogal traag is met het uitbrengen van game ready drivers. Laten we daar alsjeblieft niet omheen draaien.

Het gejengel over de 960 die een 780 voorbij gaat is ook wat over de top. We zien eigenlijk gewoon dat behalve de nieuwere big chips en Maxwell alle kaarten veel moeite hebben met die game. Je ziet ook dat de minimum framerates over de gehele linie voor alles ouder dan Maxwell aan de lage kant zijn. Meteen roepen alle gamers die twee keer in een settings-menu zijn gedoken ook dat alle Kepler kaarten nu performance degradaties zien. Het heeft allemaal het niveau van... tja van domme kleine kinderen op een schoolplein, of het buurtcafé op de hoek. Er zit geen echte research achter, het is vooral veel aannames waar men vervolgens een conclusie aan verbindt. Volgens mij heet dat gewoon trollen.

Rustig aan dus. Het is allemaal een storm in een glas water en het halve internet valt over een paar benchmarks van een game die nog niet eens ee game-ready patch heeft van AMD, maar wel van Nvidia. Nogal wiedes dat performance uiteen gaat lopen. Verder is slechte performance kort na release vandaag de dag eerder regel dan uitzondering.

Last but not least;
dat gejank dat Gameworks uiteindelijk de doodsteek zal zijn voor 'gaming' is natuurlijk gewoon bizar en doordrenkt van een enorm gebrek aan economisch perspectief. Ten eerste zal de fallback voor Nvidia gigantisch gaan worden als er échte harde feiten op tafel komen dat dit gebeurt. Dat is vooralsnog niet het geval, er zijn vooral veel aannames en een historie van harde concurrentie tussen de gpu bouwers. Ten tweede hebben weinig developers er zin in om per definitie zo'n 30-35% van de PC gamers uit te sluiten. Dat zijn aardig wat potentiele verkopen.

[Reactie gewijzigd door Vayra op 20 mei 2015 14:15]

je hebt DUIDELIJK niet goed gelezen waar het om gaat.

keys is geen source code. daarbij de game maakt gebruik van de nvidia physics engine als integraal onderdeel van de game engine. alleen nvidia kan een deel van de berekening van die engine offloaden naar de videokaart. dat is voor AMD ONMOGELIJK zonder heel gameworks te reverse engineering, iets wat nvidia actief tegen werkt door code obfuscation. en zelfs als ze het zouden doen zou nvidia ze gaan aanklagen.

AMD KAN DIT DUS NIET FIXEN.

bij elke andere physics engine had AMD met behulp van de broncode gewoon het zelfde kunnen doen als Nvidia en was de performance het zelfde geweest.

De developers wisten overigens 3 JAAR geleden al dat dit een probleem zou worden en ze deden er NIKS mee. of dat is omdat ze er niks om gaven of omdat ze niet anders konden vanwege de gameworks contracten met nvidia is bijna irrelevant. in beide gevallen moet deze game gemeden worden en nvidia ook duidelijk gemaakt worden dat dit soort praktijken niet word gewaardeerd.
Rustig aan dus
echt niet. dit is als de zoveelste streek van nvidia. de maat is gewoon vol. zoals al eerder gezegd ze zijn bereid om de performance van hun klanten te degraderen met gameworks zolang de hit bij AMD maar groter is. als je zo moet winnen dan kan je beter gewoon niet bestaan.

[Reactie gewijzigd door Countess op 20 mei 2015 14:27]

AMD kan het Physx verhaal misschien niet fixen, maar het is helemaal nog niet gezegd dat het alleen PhysX is dat de frames doet kelderen. Feit blijft dat AMD nog geen ready driver heeft voor dit spelletje.

Project Cars is over de gehele linie een betrekkelijk zware game met veel tesselation en andere recente tech erin. Dat zie je ook aan de discrepantie in prestatie tussen Kepler en Maxwell, en aan de lage min. fps over de hele linie. De doemverhalen over Kepler dat 'degradeert' op nieuwe releases is de verkeerde uitleg; Kepler is zo goed als uitontwikkeld en Maxwell is een nieuwere architectuur. We hebben op Kepler al zo'n 20-23% prestatiewinst gezien sinds release van de 600 serie.

Tot nu toe is het dus minimaal voor een deel op aannames gebaseerd, het is eigenlijk alleen maar gebaseerd op een verschil in benchmarks zonder echte technische onderbouwing. En 'Nvidia houdt alles geheim' is geen technische onderbouwing. En ja, ik heb de reddit ook gelezen. Dat de game beter presteert onder Dx12 is evident, en dat AMD grotere performance slagen ging maken op Dx12 dan Nvidia was ook al bekend, want dat is eigen aan GCN en het hebben van meer hardware resources zoals de bredere bus.

[Reactie gewijzigd door Vayra op 20 mei 2015 15:32]

Hoewel je vast gelijk heb over hoe 'Evil' Nvidia is, baseer ik mijn aankopen al heel lang niet meer op basis van idealistische principes. Ik ben er achter gekomen dat als ik alle 'Evil' bedrijven meid ik rondloop in een jutte zak en zelf gebreide geitenwollen sokken... ;-)

Wat betreft de eigen ondergang, daar hebben we Nvidia niet voor nodig.

AMD leeft nog lang genoeg om Nvidia in toom te houden, onderhand is Intel flink aan het inhalen op het gebied van onboard videokaarten. Geef intel nog een aantal generaties en ze zitten in het mid/highend segment met hun onboard videokaarten. En dan mag Nvidia gaan concurreren met Intel...

Ik vermoed dat we met een paar jaar in het zelfde schuitje komen als met CPUs, de videokaarten zijn krachtig genoeg om de meeste games op hoge kwaliteit te spelen met een hoge FPS. Heck, als we pech hebben gebeurd dit al een heel stuk eerder als de game markt crashed. Als in te hoge budgetten voor games, die vaak nodig zijn voor hoge kwaliteit graphics games en niet de verkoop resultaten (aka. winst) behalen die ze verwachten (zie Sega en Square Enix).
Ik ben er achter gekomen dat als ik alle 'Evil' bedrijven meid ik rondloop in een jutte zak en zelf gebreide geitenwollen sokken... ;-)
je wuift het wel heel gemakkelijk weg maar er is altijd een lesser of 2 evil's. en dat is hier ook heel duidelijk het geval.

sterker nog ik zou door AMD's ondersteuning van open standaarden in (bijna?) alles wat ze doen AMD zelfs de 'goed guys' noemen hier.

zowel Intel als nVidia hebben hele vieze spelletjes gespeeld, en spelen die nog steeds. AMD's track record daarin is beduidend schonen.

[Reactie gewijzigd door Countess op 19 mei 2015 17:00]

Je hoeft ze niet helemaal te mijden, maar de kop loper voor 5% betere prestaties. Kan je toch beter gaan voor het bedrijf waar je het ook voor gunt. Voor 25% minder zou ik voor de meer pro gamer merk gaan of je favoriet. Lopen ze te ver achter tja zoals op CPU gebied dan ga je toch maar voor evil knevil iNtel.


En van programmeer stand punt uit,heb ik sowieso beide nodig. Misschien met dx12 beiden in een PC.
Wat je zegt over drivers, inmiddels hoor ik even vaak dat nVidia problemen geeft als AMD, al heeft AMD natuurlijk vanuit het verleden een veel slechtere reputatie..
En ik denk dat het er gewoon vanaf hangt wat voor games je speelt..

Maar jou verhaal over laptops.. AMD laptops zijn vaak low end.. en zelfs in midrange zijn de meeste WiFi kaarten die in die laptops gestopt worden compleet bagger. En helaas ligt dat dan niet aan AMD.. die maakt geen Wifi chips.. Al moet ik zeggen mijn Lenovo, (met AMD APU) heeft een prima Wifi chip gezien de prijs van de laptop.
Maar een videokaart uitzoeken blijft een persoonlijk iets..
Hands on ervaringen. Van gebruikers die regelmatig beide merken gebruiken. Dan eens een keer een issue en dan het merk droppen of mijden.

Zelf heb ik lange tijd meerdere PC gehad. Ben van 3 game rigs naar 2 gegaan. En mijn motto is. Games kunnen merken prefereren maar er ook allergies voor zijn. Met twimtbp en gtig en hun nieuwe benamingen van deze lobby afdelingen.

Dus mijn streven is een AMD en NV bak.
Ik laat mij door brakke nv vista drivers niet afschrikken om nV te gebruiken. Dan heb ik nog altijd de ATI bak die als zonnetje crysis onder vista draaid toen beide vers uitwaren.
Ja als je dat kan veroorloven! Natuurlijk, Tijdje geleden een filmpje op LinusTechTips, waarbij ze een Pc hadden gebouwd met een SLI en Crossfire opstelling. Dus zelfs dat kan.. helaas hangt er ook een aardig prijs kaartje aan beide oplossingen.

Maar zoals iemand hierboven ook zegt... vaak zijn de grote driver problemen veroorzaakt door slechte pc onderhoud.

Een ja day one drivers voor games.. tis net als day one patches.. het is gewoon dat game ontwikkelaars soms niet genoeg tijd nemen om dingen af te maken, en geven nVidia en AMD dus ook de tijd niet of alles af te krijgen..
Daarom pre order ik niet.. en koop ik ook nooit day one.. eerst kijken of de game niet helemaal verrot is.. en zo wel of het gefixt wordt.. of het nou aan drivers of de game zelf ligt..
Ik heb zelf beide gehad. Zowel de R9 290X als de GTX980. Ik heb zelf met beide geen grote problemen gehad.

Dus snap niet zo goed waar mensen dan last van hebben. Problemen komen vaak door corrupte en oude Windows installaties en het niet goed verwijderen van oude drivers. DDU verhelpt dit probleem.

Wifi chips hebben niets met AMD te maken. Dat zijn de notebook fabrikanten die er voor kiezen goedkope chips in te stoppen.
Natuurlijk hebben brakke wifi chips niets te maken met AMD, maar dat zijn de twee probleem punten die ik het meeste tegenkom bij laptops/desktops. Aangezien dat is wat ik voor mijn werk regelmatig langs zie komen. Dat zijn natuurlijk voor een groot deel budget bakken of lowend zakelijke laptops. Het is toch ronduit van de zotte dat je bij bepaalde ranges van Dell de videokaart drivers in een heel specifieke combinatie (en bepaalde versies) moet installeren om het stabiel te laten werken. En dat met virgin W7/W8 installaties.

De laatste ATI die ik in mijn desktop heb gehad is een ATI Radeon 9000 Pro geweest en dat stamt nog uit mijn 'knutsel' periode. En heb sinds die tijd alleen nog maar Nvidia in de desktop gehad en heb een heel stuk minder hoeven te 'knutselen' met mijn videokaart.

Geen grote problemen is voor mij niet genoeg, het moeten niet een heleboel kleine dingetjes zijn, want dan is het einde van de rit nog een hoop werk en irritatie geweest.

Het probleem met de highend AMD kaarten is dat ze nogal warm worden bij intensief gebruik ivm. de concurrentie.
Dat zegt in mijn ogen meer over Dell. AMD desktop drivers werken hier en bij veel andere die ik ken prima.

Een hoger verbruik Is niet ideaal maar hoeft geen probleem te zijn met een goede cooler.
De refferenced coolers hadden beter gekund. Daar hebben ze wel een steekje laten vallen.
Vele mensen hadden ook geen issues met OCZ SSDs, maar het was toch onbetrouwbare meuk. Zelfde geld voor AMD, wellicht dat vele mensen er geen issues mee hebben, maar vele ook wel. En dat zijn er in mijn ervaring meer dan bij Nvidia. Of mijn ervaring een indicatie is voor de rest van Nederland of de Wereld is weer een heel ander verhaal, maar ik deel deze ervaring/mening met anderen. Niet dat het veel impact heeft, want de videokaart producent heeft maar bitter weinig impact bij de keuze van de laptop/desktop in het mkb. het is meestal de prijs en de overige specs die de laptop/desktop verkopen.

Wellicht komt dat door de meuk die Dell, HP en Lenovo produceren. Maar het vreemde is dat ik van dezelfde producenten ook producten in handen krijg met Nvidia er in en die hebben veel minder issues en ben nog niets tegengekomen als zo bizar als heel specifieke versie combinaties en volgorde van installeren.

Wat ik wel moet zeggen dat ik nog nooit videokaart issues onder OSX ben tegengekomen bij Apple hardware die ook AMD kaarten gebruikt. Maar de prijzen zijn daar wel heel anders.
OCZ met AMD vergelijken vind ik een beetje scheef. De vertex2 Was ook een probleem serie. Die hier heeft lang goed gewerkt maar uiteindelijk ook bricked.

Er zijn ook genoeg mensen die problemen hebben met nvidia kaarten. Lees maar eens op fora. Misschien ligt het percentage bij AMD iets hoger maar de verschillen zijn niet gigantisch. Als je jou tekst leest komt het over als een rampen merk en dat Is zeker niet waar. Ik vrees dat je gewoon veel peg gehad hebt. Zoals ik al zij mijn ervaringen zijn heel anders en heb bij AMD en nvidia wel kleine driver issues gehad. Maar geen grote problemen die niet relatief simpel op te lossen waren.
Het is geen bagger merk zoals OCZ, maar voor mij voldoende meer gelazer om meer geld uit te geven aan een Nvidia omdat over de levensduur van de videokaart de zelfs ¤100 duurder minder duur is dan mogelijk meer werk aan drivers besteden. Zelfs 5min/maand extra telt op naar 6 uur per 5 jaar, wat imho het extra geld het waard maakt (zelfs om de kans te verkleinen om issues te hebben).

Daar komt bij dat warmte bij mij een heel groot issue is. Ik zit op een kantoor zolder waarbij het koelen van de kaart zelf niet het issue is, maar dat het in de zomer moeilijk is om de zolder zelf te koelen.
Niet dat het veel impact heeft
Heeft vrij veel impact, want door uitspraken zoals jouwe, denken veel mensen nog steeds dat de drivers van AMD slecht zijn, wat echt al jaren niet meer zo is
Dan vraag ik mij toch af welke driver problemen amd heeft. Ja de gta 5 optimale drivers waren een paar dagen dan gta 5 uit was. Maar buiten dat om heb ik nooit problemen gehad met mijn amd drivers.
Na een decennium ATI/AMD kaarten gebruikt te hebben blijf ik mij toch steeds afvragen wat nu altijd die wonderlijke problemen zijn dat mensen hebben met de ATI/AMD drivers.
Zijn inderdaad nog geruchten maar als ik zie wat alleen OC'en van VRAM aan effect heeft lijkt het mij een longshot om te stellen dat ze daarmee echt een grote slag gaan slaan.
Een verdubbeling zoals een 1 op 1 tussen DDR3 en 5 met dezelfde GPU is moeilijk te doen aangezien dat low tot mid range kaarten zijn met een versmalde bus.

AMD had ook nog wat huiswerk liggen over efficientie/temps/noise zeker nu NV de bijzonder zuinige Haswells heeft. Ben dan ook benieuwd of dat stapelen goed te doen is i.c.m. de temp van die VRAM chips. Het feit dat het al behoorlijk lang duurt zou kunnen duiden op issues. Begrijp ook niet dat ze dit niet eerst uitproberen op een mid range model.
Lijkt mij wat veiliger om zo ook wat meer data overlevensduur/betrouwbaarheid te krijgen.

Hoe dan ook lijkt het een mooie sprong in GPU techniek waarmee bandbreedte van de bottleneck lijst gehaald kan worden.
Stapelen van geheugenchips wordt ook al gebruikt bij ssd's dat gaat daar prima.

Met 4k en hogere resolutie heeft sneller geheugen wel degelijk nut. In die situaties zie je dat de 290X de 980gtx nog wel eens verslaat. En dat geheugen overclocks nut hebben.

Omdat een midrange aanzienlijk minder baat heeft bij veel bandbreedte. En als de techniek bij tests goed werkt waarom dan niet meteen implementeren op een topmodel? Ze weten denk ik wel wat ze aan het doen zijn. In ieder geval beter dan wij ons kunnen bedenken.
Maxwells inderdaad, I stand corrected ;)

Vergelijking van chips met SSD's zie ik niet aangezien die lang niet zo hard lopen.
GDDR5 werd al behoorlijk warmer vs 3, nu nog gestapeld en ik ben benieuwd hoe ze dat op gaan lossen. Persoonlijk heeft de 290 serie mij nooit kunnen boeien om zijn verbruik en herrie. Dat ze rauwe power hebben is zonder meer duidelijk.
Ben geen fan van rood of groen, gewoon de beste performance/prijs t.o.v. mijn criteria waaronder verbruik en noise.

Waarom niet bij een midrange??
Bij een midrange hoeft het allemaal niet zo hard te lopen en kun je de intro van deze nieuwe techniek enigszins terughoudend brengen.
Het zou heel mooi zijn als alle stukjes meteen op de juiste plek vallen maar het verleden leert ons anders. De 480 serie van NV was ook een complete flop.

Ik hoop voor AMD dat ze er wat moois van maken _/-\o_
Niet op midrange vanwege de prijs van HBM, die aanzienlijk hoger ligt en daarmee de marge van zo'n kaart volledig zou wegvagen, of misschien zelfs tot zover de prijs opdrijft dat de kaart niet meer concurrerend is.

Topmodellen hebben meer marge, dus is er meer ruimte om HBM toe te passen tegen een prijs die voor de consument te accepteren valt.
NVidia heeft Maxwells, Haswell is van Intel, hoewel beide redelijk zuinig zijn... Echter heeft kamp Groen z'n nieuwe serie al gelanceerd, en wacht AMD nog even, zodat we straks de 390 met de Maxwells kunnen vergelijken. Aangezien er maar 1 nieuwe chip komt, en die met HBM uitgerust wordt, is het lastig om de effecten los te zien, maar het zou best kunnen dat het verschil blijft. Vind ik niet zo'n probleem, als de kaart maar goeie prestaties heeft, en onder idle netjes terugklokt, zodat ie (bijna) niks verbruikt als ik em niet belast.
Ik verwacht een kaart dat even snel is als de Titan X maar evenveel kost als de 980.
Eeeh ja, tenzij ze de 390 nog langer uitstellen. Dat is sowieso de eerste kaart met HBM, en dat wordt nu lekker gehyped. HBM is al een tijd aangekondigd, ik wacht vooral op de beschikbaarheid, en de real-life tests. Het hele proces moet nog verder uitgewerkt worden met dit 2.5D-RAM.
Die lagere kloksnelheild heeft één maar voor mij: hoe belangrijk is de latency?
dat is de kloksnelheid van de databus, de dram cellen zelf draaien nog steeds op de snelheden waarop ze altijd al gedraaid hebben, wat beteken dat de latency praktische het zelfde blijft.

daarbij is latency bij GPU's nauwelijks van belang (binnen redelijkheid natuurlijk) omdat het heel goed te voorstellen is welke data de GPU nodig gaat hebben.
De latency van videokaarten is altijd al een stuk hoger geweest dan die van een CPU, zeg maar een paar honderd cycles. Het gaat er zoals Countess zegt om dat je kunt voorspellen welke data je nodig hebt, en die in een mini-cache smijt. Zeker voor textures is het goed te doen, en heb je 1x de latency-hit, en daarna gaat het vlot. Daarom werken GPUs ook met DDR5, dat een hele hoge bandbreedte biedt, juist omdat die wel belangrijk is.
Op een gegeven moment zullen ze net als met de processor tegen de lamp lopen met de grootte van de leidingen.
Dat deden ze al, vandaar HBM. Nu gaan de verbindingen via een interposer, niet via je hoofd-bord. Daardoor kan dat kleiner worden... Voor wie zich de oude Pentium II herinnert: die deed ook zoiets, maar dan met z'n cache-geheugen.
Heb je het over de Slot 1/Slot A processors ?
Eeeh ja, Slot 1 alleen. Slot A was van AMD en herbergde de Athlons. De eersten van die serie hadden een aparte chip voor het cache-geheugen, die op halve frequentie werkte, verbonden via een aparte PCB (de SECC). Niet echt een interposer, wel een stukje rare techniek.
Amd deed toch hetzelfde met Slot A http://www.cpu-world.com/...lon%20%28Slot%20A%29.html. Ik moet wel toegeven dat ik fan was van deze CPU insteekprocessors. Voelde een stuk robuuster aan.
Klopt, na wat zoeken blijkt dat AMD exact hetzelfde deed... maar ik heb nooit zo'n turbo-athlon-ding in handen gehad... dus die had ik gemist ;) Het was wel robuust, maar het was zoveel duurder, en een aftermarket-koeler zat er ook niet in. Verder zijn al die contactjes dubbel (eerst van CPU naar package en dan van package naar mobo), je banen worden langer, en het nam bakken plaats in. Wat dat betreft is een HBM-package een stuk makkelijker, die zijn kleiner, en kunnen dus naast je CPU (of GPU). Ruimtebesparing! Ik voorzie over een jaar of 2-3 dat we geen losse DDR4 meer hebben, maar een on-chip pakketje geheugen. Upgraden wordt lastiger, maar de computer kan nog een stap kleiner. Oh en met de nieuwe groottes gaan we weer vooruit, stapelen maar! Ik wil wel 512GB RAM :)
Is het addresseren van geheugen uit een lage stack sneller dan een hoge stack ? Zijn er nu variabele RAS,CAS, .. per stack en houden ze de clock daarom zo laag om niet te hoeven om te gaan met deze bijkomende complexiteit.
Hoe bedoel je? Je krijgt in dit geval per stack een bitje, daardoor ook die absurd grote bus (1024 bits per stack voor 4k bits totaal). Net zoals je bij een gewoon geheugenbankje ook een set bits tegelijk verzamelt, en dan doorstuurt.
Ik ben hier weer wild aan het speculeren. Banen naar de bovenste stacks zijn wat langer, en de signalen lijken eerst door de andere stack te moeten gaan. Natuurlijk is de lichtsnelheid wel erg snel als we het over deze afstanden hebben. Maar zijn er praktische verschillen tussen de stacks op verschillende hoogte ?
Hoe kwetsbaar gaat het gestapelde dram worden als de stapeltjes hoger worden dan de gpu zelf? :)
Lijkt me wel meevallen, toch? Zit toch een dik metalen koelblok op...
Zal AMD rond juni ook een mobile chip uitbrengen op dezelfde performance level van de GTX980m. Voor mijn doeleindes heeft AMD toch mijn voorkeur. Anders wordt het de gtx980m :)
Dan ben ik toch benieuwd wat die doeleinden zijn en waarom je dan toch een NVidia overweegt... Als je inzet op dual-precision of iets dat AMD beter doet, ben je beter af met een oude rooie dan een nieuwe groene kaart... voor games is het gewoon wie het meeste bijgedragen heeft aan de developer, en dat verschilt per stuk.

Performance level is nogal... relatief. Leugens, grove leugens en benchmarks enzo...
Volgens het artikel op Anandtech komt dit neer op een besparing van 15watt op het geheugen gedeelte. Tenzij we met de huidige videokaarten tegen een geheugenbottleneck aan het lopen zijn verwacht ik geen revolutionaire performance verbeteringen bij het gebruik van HBM.
http://www.anandtech.com/show/9266/amd-hbm-deep-dive

Even een linkje naar het artikel.
En interessant om te lezen. Er worden ook al een aantal vragen die hierboven gesteld worden beantwoord.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*