Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties

AMD heeft een glimp op zijn roadmap voor gpu's gegeven tijdens het GDC in San Francisco. Na de Polaris-generatie die dit jaar nog verschijnt, komt de chipgeneratie met codenaam Vega in 2017, gevolgd door Navi in 2018. Vega beschikt over high bandwidth memory 2.

AMD toonde de roadmap kort tijdens zijn Capsaicin-presentatie op GDC voor gameontwikkelaars. Op de roadmap herhaalt de fabrikant dat de komende Polaris-architectuur 2,5 keer de prestaties per watt moet leveren van de vorige generatie. Nieuw op de roadmap is de Vega-architectuur, die al volgend jaar moet verschijnen. Hierbij noemt AMD nadrukkelijk de aanwezigheid van hbm2, wat erop duidt dat de videokaarten met Polaris-gpu nog niet over dit high bandwidth-geheugen van de tweede generatie zullen beschikken.

Vorige week verscheen het gerucht dat een komende kaart van Nvidia met Pascal-gpu met gddr5x in plaats van hbm2 uitgerust wordt. Samsung is de massaproductie van hbm2 begin dit jaar begonnen, maar het lijkt er op dat er dus nog even gewacht moet worden op de eerste kaarten met het snelle geheugen.

Op de roadmap staat Vega overigens vlak bij Polaris. Misschien is Vega een variant van Polaris met hbm2, die AMD relatief snel, mogelijk nog eind 2016 of begin 2017, uit kan brengen. In 2018 moet vervolgens Navi verschijnen, een nieuwe architectuur die AMD als 'schaalbaar' omschrijft en die gecombineerd moet worden met geheugen van een nieuwe generatie. Details over Vega en Navi maakte AMD verder niet bekend.

De roadmap was onderdeel van een presentatie over de moeilijkheden die de, door AMD getitelde, 'immersive era' gaat brengen naar gpu-fabrikanten en gameontwikkelaars. Voor goede weergave van virtual reality en fotorealistische beelden moet de combinatie van gpu en engine aanzienlijk meer megapixels per seconden verwerken, voorziet het bedrijf.

AMD GDC 2016 capsaicinAMD GDC 2016 capsaicinAMD GDC 2016 capsaicinAMD GDC 2016 capsaicinAMD GDC 2016 capsaicinAMD GDC 2016 capsaicinAMD GDC 2016 capsaicinAMD GDC 2016 capsaicinAMD GDC 2016 capsaicin

Moderatie-faq Wijzig weergave

Reacties (109)

Ziet er allemaal wel goed uit. Ik hoop dat AMD zal blijven bestaan om deze visie uit te voeren. De komende generatie GPUs van AMD zullen echt flink beter moeten zijn dan de hitte spuwende rebrands die we nu hebben. Ik zal hoe dan ook voor de beste kaart in die 280-350 euro price range kiezen, en ik hoop echt dat het dit keer eens AMD is.
Hoewel AMD niet de winst van Intel draait, is het geen slecht lopend bedrijf: Vergeet niet dat AMD momenteel de hardware voor 3 consoles levert: Playstation 4, XBox One en Wii U.
AMD levert voor de Wii U alleen de gpu. de cpu is een triple-core IBM PowerPC.
https://en.wikipedia.org/wiki/Wii_U#Hardware
de CPU hebben ze een PowerPC gelaten om backwards-compatibility te houden met de Wii en GCN(ook beiden PowerPC). NXT zal waarschijnlijk overstappen naar een nieuwe soort chip?

[Reactie gewijzigd door BJ_Berg op 15 maart 2016 17:46]

De geruchten gaan inderdaad dat er een semi-custom chip van AMD in de NXT komt.
NX gaat waarschijnlijk ook gebruik maken van een APU/SoC van AMD:
nieuws: AMD heeft na Microsoft en Sony nieuwe klant voor custom apu
Echter, in 2014 wou Nintendo er nog een IBM powerpc CPU in stoppen: nieuws: Details mogelijke nieuwe Nintendo-console en -handheld komen online

Zeer waarschijnlijk dat Nintendo afziet van de PowerPC cpu's, doordat ontwikkelers deze architectuur als een last zien, minder krachtig is (mede door reden 1) en productiekosten verhoogt.
en GBC(ook beiden PowerPC)
Je bedoelt vermoedelijk GC (GameCube). GBC staat voor Gameboy Colour en die draait op een 8-bit Z80 kloon.
Klopt! Aangepast.
http://www.anandtech.com/...cs-sales-hurt-bottom-line

Ik noem AMD nu niet echt een goedlopend bedrijf. Leuk dat ze VEEL hardware kunnen/mogen leveren. Maar ze verdienen geen drol aan die console deals.
als we even meer rekenen dat AMD, omdat niemand ze een 20nm classe process kon leveren, al jaren lang chips moet verkopen die 2 keer zo groot zijn als intel voor de helft van de prijs, valt het verlies heel erg mee.

zelfs al porten ze straks alleen bulldozer rechstreeks naar 14nm dan kunnen ze nog steeds winst maken ivm het verlies van nu. maar in plaats daarvan krijgen we zen die beduidend sneller zou moeten zijn als bulldozer.
Klopt. en zeg ook nergens dat ze het slecht door in hum omstandigheden, Alleen leid AMD al een aantal jaar achter elkaar verlies. En dan kan je het gewoon niet een goedlopend bedrijf noemen.
Ze doen niet meer mee in de race.
Dat wil niet zegge. Dat het minder gaat.
Ook al kenden ze betere tijden
Ze leiden al jaren verlies. Dat zeg ik dat het slecht gaat. En ik hoop zeker dat ze er in 2016/2017 beter uitkomen.
Dat is waar. En ik hoop het ook.
AMD houdt omzet, en dat is goed voor het voortbestaan, maar winst maken zit er nog altijd niet echt in.

Daar moeten ze toch wel naartoe.
het is moeilijk winst maken als jouw chips 2 keer zo groot zijn als die van je concurrent en toch het helft van het geld verkocht moeten worden.

het uitblijven van de werkbaar 22nm process omdat niemand ze dat kon leveren is veruit AMD's grootste probleem.

met 14nm is dat straks opgelost. en dan krijgen we ook nog zen erbij.
Klopt! dat is inderdaad goed. Maar laat ik het zo formuleren: Ik hoop dat AMD nog steeds in deze vorm bestaat over 3 jaar en niet de handoek in de ring gooit qua high performance GPUs onder het motto: We do not see any growth prospects for our company in high en GPUs due to low margin... blablablabla CEO mumbojumbo : lees: We kunnen het niet meer.
dat is misschien wel waar maar die aandelen van AMD stellen mij niet gerust.
Het verschil tussen r9 390/390 en een gtx-970 is HEEL dicht bij elkaar. En schilt per game. Als je zo graag AMD had willen kiezen had je dit prima kunnen doen hoor.
De wattage van de kaart heeft dat weerhouden. In mijn kast zou dat te heet worden. Daarnaast heb ik twijfels over de levensduur van kaarten die zoveel stroom gebruiken, ik vermoed dat de condensatoren het sneller zullen begeven. En noem me een boomknuffelaar maar die bovenstaande reden plus iets beter voelen dat ik minder stroom gebruik heeft me tot die beslissing gebracht.
Ja ze gebruiken iets meer stroom. Over de levensduur heb ik mij nog nooit druk gemaakt. Een 980ti verbruik zit ook aardig in de buurt van een 390. En ook andere oudere kaarten gebruikt rond de r9 390. Maar als je het milieu wil sparen is nvidia inderdaad de betere keuze.
Die gedachte van levensduur kwam voort uit: er is een tier gpu van AMD en Nvidia, die kost bijv 200 euro in de winkel, board partners moeten daarvoor de power delivery op die pcb maken. Laten we zeggen dat de GPU chips ongeveer evenveel kosten. Dan is het voor de nvidia board partners makkelijker om een goede power delivery te maken die het lang uit houd omdat de kaart minder energie nodig heeft en er toch evenveel budget is. Hoe sterk dit effect in het eindproduct bij de gebruiker is, ik denk best significant.

[Reactie gewijzigd door Felix3301 op 15 maart 2016 13:28]

Het ligt er ook weer aan welke power caps ze gebruiken. En hoeveel. Er zijn mobo met 4+2 waar je beter op kan OC als op je 6+2 caps. Maar vermoed dat andere onderelen eerst zullen begeven.
"De wattage Het vermogen van de kaart heeft dat weerhouden."
Tijdens release waren de 290/390 gelijk met een gtx 970. Tegenwoordig is bijna evensnel als de gtx 980 (in Ashes of the Singularity en Hitman zitten de 390 en 390x bijna gelijk met de Fury, Fury X en GTX980ti)
Klopt. Wou dx12 niet in het herhaal betrekken omdat het nog allemaal erg in de kinderschoenen staat. En Nvidia nog erg aan de DX12 drivers knutselt.
De verklaring zit hem in de inzet van asynchronous shaders in dx12. Recente AMD kaarten hebben dit aan de hardware kant, Nvidia kaarten niet.

Als je overigens naar iemand wilt wijzen voor het soort praktijken die je impliceert dan moet je bij Nvidia zijn. Het is alom bekend dat ze in meerdere gameworks titels balachelijk hoge levels van tesselation inzetten (soms wel 64x terwijl je boven 16 al het verschil niet meer ziet). En laat nou net oudere generaties van nvidia en amd kaarten hier slecht mee om kunnen springen.

Het inzetten van async shaders is een logische stap. Het kan leiden tot performance winst. Het inzetten van belachelijk hoge levels tesselation is dat niet.
Om heel eerlijk te zijn dit hebben ze al vanaf 2011 dus niet alleen recentere kaarten hebben dit. Ook de al wat oudere kaarten kunnen hierdoor nog prima mee met DX12
Dat is waar ik ook op doelde met recent. De afgelopen paar jaar. Maar wellicht had ik het wat duidelijker kunnen neerzetten.

[Reactie gewijzigd door Rixos op 15 maart 2016 15:20]

Misschien begreep ik u verkeerd.
Maar zelfs een oudere 7850 die ik nog heb liggen werkt er lekker mee in ieder geval :)
Dan is het AMD die beter met async om kan gaan en het is oke als nvidia het er moeilijker mee heeft.
Kan Nvidia beter met tessellation omgaan en is het niet goed, moord en brand? Talking about double standards. ;)
Verschillende standaarden omdat het om verschillende situaties gaat. Het toepassen van async shaders is een logische stap met een duidelijk doel: mits kaarten ermee overweg kunnen levert het prestatiewinst op.

Het opblazen van tesselation factoren ver voorbij het niveau waarop het grafisch verschil maakt is nutteloos. Het levert grafisch niets op en ook op performance gebied helpt het niet. Tenzij je dus de concurrent wilt benadelen.

[Reactie gewijzigd door Rixos op 15 maart 2016 17:34]

En zo heeft AMD ook ineens 3D mark benaderd om de dx12 demo AMD voordeel te geven?
Je bedoelt standaard DX12 (en vulkan, en metal, en mantle...) features die nvidia gewoon software-side ge´mplementeerd heeft terwijl AMD hier dedicated hardware voor heeft?
dit is geen AMD only hardware feature, gewoon een standaard DX12 feature waar nvidia in hun huidige line-up nog geen dedicated hardware voor heeft, AMD heeft dit wel, doordat AMD met hun huidige/vorige line-up simpelweg op technisch gebied vooruit heeft gedacht. terwijl nvidia dit niet heeft gedaan.
Dit is niet het geval async is open dat Nvidia dit eruit heeft gehaald of nooit er in heeft gest option om zo stroom te besparen kun je amd niet kwalijk nemen. Ook zouden zij allereerst alleen een demo verzorgen voor mantle.

[Reactie gewijzigd door satanas666 op 15 maart 2016 14:31]

je kan nvidia prima kwalijk nemen dat ze een bankje in een spel helemaal de vernieling in tesselaten om zo de prestaties van amd kaarten te drukken.
ik draai zelf nvidia maar dat soort praktijken zijn niet goed voor gamers in het algemeen.
het grote verschil tussen het tesselation verhaal en dit is dat het gebruik van tesselation je game vertraagd, terwijl dit er juist voor zorgt dat je game sneller draait, daarbuiten is AMD alleen trager in tesselation als er een retarded hoeveelheid word gebruikt, zoals bevoorbeeld het geval is als je het 64x gebruikt, dit is het maximum wat DirectX11 toelaat, en totaal niet bedoelt voor gebruik in games, maar voor professionele simulaties. en al helemaal niet op onzichtbare game-objecten.
Doe ik ook zeker niet maar je kunt ook de vraag stellen.
Waarom over tesseleren waar het niet nodig is?
Waar heb je 64x tesselation voor nodig? om water wat onder de grond zit bij crysis extra te tesseleren dat je niet ziet?
Daar zit het grote verschil
Daar ga je wederom de fout in Async word al gebruikt bij consoles.
Console games worden geport naar pc maar op pc kunnen ze niet zo dicht komen bij het metaal als op een console.Een heleboel games maken overigens gebruik van async maar omdat api's op dit moment nog niet zo dichtbih het metaal staan konden ze er niet bij of word er maar rijbaan tegelijkertijd gebruikt.Nu weten ze eindelijk op de pc hoe meerdere rijbanen beschikbaar te stellen waardoor die ene baan niet zo vol meer word.Waarom zou je dat tegenhouden? hoe efficienter het werkt des te beter en zoveel async? dat valt nog reuze mee met de games van nu dat word nog wel meer. Dus als Nvidia daar niet wat aan gaat doen blijven ze of zitten en houden ze pc gaming tegen of ze kunnen mee gaan naar de toekomst.

P.s. daarbij komt ook dat nvidia de hardware ook kan inbouwen.maar amd kan niet in de broncode kijken van nvidia.Hierdoor kan amd geen game ready drivers hebben op dag 1 omdat ze omwegen moeten nemen om het spel voor hun kaarten te optimaliseren.

[Reactie gewijzigd door satanas666 op 15 maart 2016 14:54]

des te meer er Async berekent word, des te beter je game draait. dus ja des te meer async, des te beter de performance.
het is duidelijk dat je totaal geen idee hebt waar je over praat.
games op consoles gebruiken Async al jaren om betere performance te halen, waardoor een console op slechtere hardware toch goede performance kan halen.

fanboy zijn is nooit goed, bekijk dingen eens objectief.
Ashes wordt helemaal niet gesponsort door AMD... Zowel AMD als Nvidia helpen mee bij de ontwikkeling van ashes.. Maar ja, als Nvidia geen hardware matige asynch shaders ondersteund dan ga je dat terug zien in de prestaties bij DX 12 games.
ah ashes heeft wel degelijk een dichtere band met AMD vs Nvidia... Ze zijn echter ook open in het feit dat nvidia veranderingen mag suggereren als ze ergens ontevreden over zijn.
Tevens is meneer aval0ne volgens mij een duidelijke troll aangezien dit iets is waar nvidia berucht door is geworden.
Nvidia was er ook heel vroeg bij met support. Het is dat ACE bij AMD hardware feature is en AMD niet verl hoeft te doen. Maar ja als je hardware het niet heeft dan lig je achter en als het blijkbaar na ruim een jaar ook de game code beschikken dat nog niet kan oplossen blijkt dat je toch hardware voor nodig hebt.
In software is leuk , maar ACE is performance feature als het niet die performance brengt kan eeuwen knutselen aan magic drivers maar is verloren energie.
Maar ja door rook gordijn om deze isue kan je ook weer niet uitsluiten dat nvidia met wonder driver komt.
Maar die kans acht stuk kleiner dan hun fans.
is dat niet wat kort door de bocht?
Kan je net zo goed elke game die nvidia beter voor zichzelf optimised een tech demo gaan noemen? beetje extra tesselation hier en daar, zo, klaar is kees...
Dan begint de gamer in mij toch wat te protesteren.
Nee, zowel Nvidia, Intel als AMD helpen mee met Oxide en DX12. Van augustus
Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD
http://www.overclock.net/...hmarks/1200#post_24356995


Waarom zou Nvidia ook een DX12 game verder gaan ondersteunen (dus meegeven bij GPUs), als ze geen hardware matige Asynch shaders ondersteunen...

[Reactie gewijzigd door Zeara op 15 maart 2016 14:05]

Juist ja... Een medewerker van oxide werkt voor AMD...
Nvidia heeft grote work fource om zich bij dev's aan te dringen. Als zijnde " support" daar kunnen dev teams zonder hoog niveau expertise of productie tijds druk niet omheen. En staan daar gretig open voor. Studio's die de kennis wel hebben zal ook wel open staan voor nvidia " support" maar gaan niet mee in hun naai AMD hard eisen. Maar doen crusiale stuff zelf.
Dus nee, default disable ACE, gaan ze uiteraard niet in mee.
Helaas heeft niet elke dev die luxe of ballen of backspine .
Verrassend dat games met NVIDIA HBAO+ etc het beter doen op NVIDIA kaarten...
omdat je impliceert dat AMD er de zelfde trekken op na houdt als nvidia. wat op geen enkele manier het geval is en wat nergens uit blijkt.

oxide games heeft zelfs zowel AMD als nvidia rechstreeks toegang gegeven tot de broncode van de game en accepteert code checkins van beide fabrikanten.

opener en eerlijker kan je het gewoon niet maken.

dat in schril contrast met nvidia die AMD buiten de deur houdt, strategien bedenkt om AMD's performance te saboteren en smerige spelletjes speelt met nieuwe versies uitbrengen van een van hun technologien net voor de release van een game om AMD er op launch day slecht uit te laten zien.
@avalOne
Hoe kun je als nuchtere Nederlander je zodanig laten inpakken?

Ik zou graag een bronvermelding zien met bewijs dat aantoont dat AMD NVIDIA streken uithaalt.

Natuurlijk bestaat er een redelijk aggressieve mentaliteit waarbij een gezonde, eerlijke en soms ook ongezond en zelfs onsympathieke concurrentie is ontstaan tussen twee concurrerende maatschappijen. Er zijn veel mensen die zich zonder kritisch naar de feiten te kijken zich klakkeloos aansluiten bij het rode of wel het groene kamp, echter is het zo dat dit de markt niet op een positieve manier be´nvloed.

In het bedrijfsleven halen bedrijven eigenlijk over en weer altijd wel een bepaalde mate van streken uit om de anderen voor te blijven of de loef af te steken.

De CPU en de GPU wereld profiteert van gezonde concurrentie en zodoende zouden wij moeten stemmen met onze portomonnees. Daarmee bedoel ik te zeggen dat we ten eerste de gezonde concurrentie in stand moeten houden en ten tweede goede ontwerpen moeten belonen met klandizie.

De twee hierboven genoemde zaken zijn tegelijkertijd ondersteunend en ook potentieel tegenstrijdig en dat besef ik mij ook heel goed, echter is het wel zo dat we het met z'n allen eens moeten zijn over het feit dat zonder tenminste een tweede partij die vergelijkbare prestaties of in ieder geval kwa price/performance aanbied essentieel is voor de vordering in technologische ontwikkelingen en de verlaging van de algemeen geaccepteerde prijzen voor nieuwe technologie door die gezonde concurrentie.

Ik hoop al jaren dat AMD zich weer direct kan vergelijken en meten met Nvidia en dat hun ondersteuning van hardware en drivers ook op gelijke voet komt te staan. Zo heb ik dan ook absoluut geen merk loyaliteit en is het voor mij louter belangrijk hoe het product presteert. Als het rode kamp een product op de markt zet dat sneller is en een lager tdp heeft dan het groene kamp of het blauwe kamp als je aan processoren en intel denkt, dan zal ik het product kopen wanneer het weer tijd is om een nieuwe PC te kopen. En in mijn mening is het zo dat wij als consument allemaal zo zouden moeten denken in plaats van producten te kiezen, kopen en verdedigen op grond van een berg ongegronde fanboy achtige redenen.

Mijn twee centen.

Mike

[Reactie gewijzigd door MNeuwahl op 16 maart 2016 09:40]

@aval0ne

Vragen voor goede support voor een open feature van DX12 is wat anders dan de verborgen mega tesselation velden in Crysis 2 of tesselation (aangetoond) onnodig op 64x zetten voor Hairworks.
Ze hebben de Polaris chips al en ze beweren dat ze in ideale omstandigheden inderdaad 2.5x de performance per watt zien (ideaal zijn games die uitermate goed op de hardware draaien. Als voorbeeld geven ze zelf Star Wars Battlefront). Die verbetering is geen hocus pocus, ze hebben nu een veel zuiniger proces en nieuwe architectuur dus, hoe groot de verbetering ook precies zal zijn, hij zal substantieel zijn :)
Zolang de Polaris GPU's nog altijd HBM hebben met de goede scaling op hogere resoluties, vindt ik het over het algemeen niet zo heel erg om te moeten wachten. Ik hoop alleen dat met de introductie van DX12 nVidia en AMD weer eens goed competatief kunnen zijn.
het nadeel van hbm1 is wel de limiet op de hoeveelheid geheugen. bij de fury was het soms al krap met 4GB.
True, al deed die 4GB het wel nogal goed op hogere resoluties. http://www.computerbase.d...-mit-directx-12-3840-2160
Hoogste tijd voor een nette HTPC kaart met hevc decoder en HDMI 2.0a!!!
hdmi 2.0a zit er op. en hevc hadden de laatste APU's van AMD al (eind) vorige jaar dus dat is ook een zekerheid.
Nou niet bepaald, als je het over 4K hebt heb je het hopelijk over 4K-UHD en op dit moment is er nog geen enkele MB/APU combi leverbaar (ook niet Intel) die 4K-UHD@60Hz uitpoept.
dat had je er niet bij gezegd.

maar de carrizo heeft hevc 4k support. of het ook 60 hz is kan ik zo snel niet vinden.
Waarom heb je perse HDMI2.0a nodig? Heb je al 60hz 4k content in huis?
Ja hoor. Mijn desktop, om mee te beginnen. Een cursor op 30Hz of tekst op minder-dan-4:4:4-chroma is een kwelling om mee te werken, dan kun je beter bij QHD blijven - terwijl juist ook die 40"+ schermen wel erg aantrekkelijk zijn om gewoon productief werk op te doen.
Hij had het over een HTPC..
So? Best fijn als je daar *ook* even wat anders op kunt doen in mijn ervaring.

Ik word er een beetje moe van hoe sommige tweakertjes hun beperkte(re) gebruiksscenario hier telkens weer als het ene geldige model blijven aanvoeren.

Daarnaast, even afgezien van wat ik *nu* meteen aan bronnen klaar heb staan: zeker een HTPC moet verdorie gewoon 4-5 jaar meekunnen. Wel fijn om iets verder te kijken dan je neus lang is dan, lijkt me.
"Tweakertjes" :Y)

Het is meer dat HDMI minder geschikt is voor werkplek werkzaamheden. Displayport kan al jaren 4k op 60hz aan en dus prima geschikt voor desktop / cursor werkzaamheden. Mijn punt is meer .. desktop usage van een 4k TV via HDMI is veel minder van toepassing.

Verder is het onrealistisch om te denken dat een willekeurige computer / kaart 5 jaar mee kan gaan. Je kunt toch ook in die 5 jaar van kaart wisselen / upgraden?

Don't get me wrong, ik zoek zelf ook al jaren naar de "ultieme" HTPC setup, spoiler: Bestaat niet.
ja, al die TV's met displayport ingang - oh, wacht...
Onrealistisch? Waanzin. Je kunt wellicht niet meer het nieuwste van het nieuwste draaien maar zelfs mijn desktop (2500k, gtx680) van begin 2012 gaat vrolijk 6 jaar meegaan; ik zit nu al op vier jaar en de volgende upgrade komt wel rondom cannonlake weer een keer.

Een i7 920 met gtx 580 zit nu al over de vijf jaar heen en kan ook nog prima mee.

Overigens kun je nu met wat meer midrange kaartjes uit die generaties ook nog best een aardig potje spelen.

Leuk voor je dat jij een andere aanpak kiest maar dat eeuwige gezanik hier dat dat de ene juiste weg zou zijn...
2.5x performance per watt verbetering t.o.v. 28nm GPUs?!? (volgens de eerste grafiek)
Refereren ze dan naar 79xx..,2xx, 3xx of Fury X? Zal waarschijnlijk de eerste zijn.

Voor een groot performance verschil met Fury X had ik toch een beetje gehoopt/verwacht dat de komende generatie GPU's (R9 4xx) al voorzien zouden worden van HBM2. Zeker als de opvolger pas weer voor 2017 gepland staat.

[Reactie gewijzigd door ChieluzzB op 15 maart 2016 13:37]

als de bus maar breed genoeg is, is gddr5x ook genoeg. maar een brede bus is wel duur natuurlijk, en minder energie zuinig. (de interposer (die de geheugen stacks met de gpu verbind) van hbm(2) is trouwens ook niet goedkoop)
Maar ze compenseren qua energiezuinigheid wel door de 16nm node en nieuwe architectuur, dus die bredere bus zal dan ook niet zo'n probleem zijn. Had idd mooi geweest als er nu als HBM2 in had gezeten, maar ik denk wel dat ze hierdoor qua prijs wel beter kunnen concureren (aangezien HMB2 nog wel aardig prijzig is) de 1080 van nvidia schijnt het ook nog gewoon met gddr5/gddr5x te doen.
Amd Maakt gebruik van 14 nm ff van Samsung en glofo niet 16nm van tsmc

Edit Bron: http://www.amd.com/en-us/...monstrates-2016jan04.aspx

[Reactie gewijzigd door satanas666 op 15 maart 2016 17:21]

Ah, ik dacht dat ze net als nvidia naar 16 gingen, dan hebben ze op dat punt een stapje voor iig!
Idd met zo'n uitspraak weten we nog niets, 2,5x meer prestaties of een hele zuinige kaart.
Natuurlijk iets er tussenin, maar waar leggen ze de prioriteit?

En dat verhaal over fotorealisties dat hoor je ook al jaren regelmatig maar daar zijn we dus zowiso nog lang niet.
Ik ben van nature een AMD (toendertijd ATI) fan geweest en zal het ook altijd blijven en heb daar ook geen argumenten voor. Vaak wanneer ik voor een mid-end kaart ging, hadden AMD kaarten vaak de gunstige prijs/kwaliteit verhouding. Mijn huidige pc stamt uit 2010, en als ik een nieuwe pc haal, wil ik graag ook de beste van het beste. Dus ik wacht liever nog een jaartje om voor de nieuwe generatie te gaan. Maarja dat blijft ook de eeuwige dilemma. Wanneer ga je nu investeren omdat er altijd wel iets "nieuws" komt en het blijft door ontwikkelen.
De belangrijkste reden om nu te wachten met het kopen van een nieuwe kaart is dat de huidige generatie nog op 28 nm wordt gebakken, terwijl de nieuwe op (ik geloof) 14 nm zit. Alleen dat zou al een enorme winst op moeten leveren, los van verbeterde architectuur. Maar wachten heeft alleen nu zin omdat het een relatief grote sprong is. Normaal gesproken is wachten onzinnig, omdat het allemaal toch steeds net iets beter wordt.
Precies het verschil tussen een hd7970 en een r380x is al aardig klein.
Ik wacht ook tot volgend jaar. Weet nog niet of ik dan voor hbm2 zal gaan. Als er een goed alternatief met 16gb van amd is. Zal het die zeker worden.
Voor mijn gebruik is video geheugen belangrijker dan snelheid
moeilijk praten voor de rest van de kaarten waar AMD mee gaat komen in 2016 maar wat betreft de polaris 10... die gaat denk ik niet veel sneller zijn dan wat er nu is, alleen zuiniger denk ik gezien de demo van AMD gisteren.
De beste reden om over te stappen is dat je jezelf niet in de luren laat leggen door mooi klinkende specificaties, maar dat je kijkt wat het verschil in praktijk is. Klinkt mooi allemaal, 14nm tegenover 28nm, maar in werkelijkheid zal het niet zo zijn dat je direct een mega sprong in snelheid zult zien, dan verspelen de fabrikanten hun hand. Er zit altijd een patroon in de vooruitgang, ongeacht het verschil in specificaties. HBM2 klinkt erg stoer, maar geeft niet de garantie dat het x keer sneller wordt in praktijk. Dit zal gedoseerd gebeuren. Gewoon kijken hoe hij zich verhoudt tot je huidige setup en dan kijken of het geld je waard is of dat je nog een jaar/half jaar wacht. Of twee jaar.

Als ik een persoonlijk (niet AMD) voorbeeld mag noemen, ik had voorheen een GTX 580 van Nvidia. Daarna had ik een tweede in SLI. Toen kwam de 780ti uit, twee generaties verder en top van die lijn. Ik heb gekozen voor de upgrade destijds. Maar het daadwerkelijke verschil in snelheid was er niet. Het enige verschil was de hoeveelheid geheugen die voor een bottleneck kon zorgen. Richt je maar eerder daarop. Maar dat zit bij AMD wel goed, die hebben wat logischere hoeveelheden geheugen. Nu heb ik ook twee 780ti's maar ik zou met ÚÚn 980Ti hetzelfde resultaat behalen. Maar dan is weer het enige voordeel de hoeveelheid geheugen. En wat extra features. Ik wacht nog tot eind dit jaar of misschien zelfs volgend jaar voordat het mij waard is. Er zit altijd ongeveer x procent verschil in snelheid, weliswaar gemiddeld.
Als je AMD fan boy bent in hart en nieren zou ik wachten tot eind dit jaar. Dan komt de ZEN cpu van amd uit. (AM3+) is al EoL en mist een hoop extra's. En dan is polaris natuurlijk ook al binnen. Dan kan je dus je AMD pc bouwen :)

[Reactie gewijzigd door loki504 op 15 maart 2016 18:34]

las ik niet dat zen AM4 word?
Bovendien vraag ik me af of OP wel op polaris zit te wachten of dan liever wacht op VEGA met hbm2.
Ik zie het gerust gebeuren dat polaris niet een grote stap vooruit word qua prestaties maar alleen wat betreft performance / watt
Begin ook t zelfde te vresen voor de 'nieuwe' nvidia kaarten van 2016.

[Reactie gewijzigd door Kenpachi1337 op 15 maart 2016 18:28]

Klopt. Was een . En spatie vergeten. Zen is AM4 ja. Met polaris gaan we zien :)
Ja idd... echt curious hoe zen zal zijn, next PC wordt full AMD lijkt mij.
ik denk dat het wacht spelletje voor velen geld op t moment, ik wil ook iets nieuws (vnl voor VR) maar mijn oude kaart is naar mijn idee nog niet slecht genoeg om hem te vervangen.
Dacht een jaar geleden, oh ik ga wel voor de nieuwe generatie (900 series / 300 series) toendertijd.
Dat was naar mijn smaak echter niet genoeg vooruitgang.
Nu weer uitstellen naar 2017. Lijkt alsof ze mn geld niet willen, of ze hebben een fout gemaakt door te denken dat ik een van de vorige 'nieuwe' kaarten zou nemen.
Als Vega zo kort op Polaris zit en het verschil inderdaad het gebruik is van HMB2, dan moeten die Polaris kaarten toch of vrij snel droppen in prijs of van begin af aan goedkoper op de markt gezet worden of is dit te simpel gedacht?
Ik vermoed dat het voor de games niet direct veel gaat uitmaken polaris met of zonder HMB2.
Tegen de tijd dat games hier echt gebruik van maken zijn we een paar jaar verder.

Daarom komt Nvidia ook niet meteen met HMB2 op de nieuwe kaarten, anders zouden ze hun eigen ruiten ingooien.
Nu kunnen ze in theorie dezelfde kaart nog een keer uitbrengen maar dan met HMB2 geheugen :P.
Waar Polaris Bonaire TM Tahiti en misschien Hawaii moet vervangen is Vega denk ik de opvolger van de Fiji gpu gewoon nog wat groter en sneller. Die oppervlakte is belangrijk voor de hbm interconnects.
Op de roadmap staat Vega overigens vlak bij Polaris. Misschien is Vega een variant van Polaris met hbm2, die AMD relatief snel, mogelijk nog eind 2016 of begin 2017, uit kan brengen.
8)7 nou als je de roadmap ziet, dan zie je duidelijk Polaris juist aan het einde van 2016 begin 2017 en Vega pas midden 2017... Geen idee hoe je der dan voor de vega 'eind 2016 of begin 2017' van kunt maken... mag het aub een stukje professioneler?
Volgens mij komen 2016 en 2017 op de as overeen met 1 januari van dat jaar. Als je het zo bekijkt klopt de tekst wel ongeveer.
Ik denk dat ze bewust een beetje vaag doen over de precieze data.
Dat hangt er van af. Als de jaartallen het begin van het jaar weergeven en je trekt een lijn naar boven naar de rode vierkanten?
iets snellere uitrol van gpus kunnen we wel gebruiken.
we willen immers 4k gamen en games woren er niet lichter op.

[Reactie gewijzigd door computerjunky op 15 maart 2016 20:13]

Wil je echt gamen op 4K? Zit je tijdens het gamen dan zo dicht op je monitor?

Ik heb een 4K-scherm en dat is heerlijk tijdens het werken omdat ik dan lekker kleine letters op mijn scherm kan nemen en alles toch scherp houden, dus er past veel meer op mijn scherm. Tijdens gamen schakel ik terug naar FHD, dat is meer dan voldoende. Of je moet echt met bizar grote schermen gaan werken (30''+ ofzo).

Anyway, ontwikkelingen zijn altijd prettig natuurlijk, en nvidia kan wel wat meer concurrentie gebruiken, maar ik heb liever betere prestaties op gelijke resolutie dan gelijke prestaties op hogere resolutie. Gelukkig sluit het een het ander niet uit.
Ik game zelf op een 4K scherm van 28", en ik wil niet meer terug. Het verschil is echt wel te zien. Ook als ik mn racestuur gebruik en dus relatief ver van mn scherm zit tov het spelen van bijvoorbeeld shooters.
JA en dat heeft niets met dicht op mijn monitor zitten te maken.
ten eerste wil ik niet groter dan een 24 inch hebben.
Ten tweede blijf je zeer irritant aliassing zien op 2560x1440
4k maakt dir veel minder en het is gewoon een genot om naar te kijken.

En dan heb ik het nog niet eens over hoe game engines textures scalen met resolutie.

Probeer games maar eens op ultra met en zonder virtual super resolutie en je zal zien dat de textures en games in het geheel gewoon veel mooier zijn op hogere resolutie zelfs op monitoren die het niet weer kunnen geven.

Heb toevallig een testje gemaakt met the witcher 3.
Bij de 1080p screenshot waren de wieken van de moten geblockt en miste details en bij de 1440p was het scherp en ook rieten daken werden mooier met veel details.

Heb even geprobeerd de 2 files te uploaden maar helaas is de 1440p te groot op geupload te worden...

Als je ze wil zien stuur dan even een pm met je mail dan mail ik ze maar het is makkelijk zelf te testen.
DM ;)

Ik ben wel benieuwd naar de screenshots. Toch ligt het probleem wat je ziet denk ik ergens anders dan puur in de resolutie. Ik zie ook wel eens lelijke aliasing in games op wat voor resolutie dan ook, laten we het op FHD houden. Echter, als ik dan actiefilms op FHD bekijken dan zie ik dat soort effecten niet. Het lijkt me dus dat dat meer met de game engine of de rendering op de GPU te maken heeft dan met de gebruikte resolutie. FSAA werkt in mijn ervaring vrij goed, maar dat komt natuurlijk feitelijk neer op het renderen naar een hogere resolutie en middelen / scalen naar de daadwerkelijk benodigde resolutie.
Ik game nu anderhalf jaar op 4k op ultra settings
Zolang ik aa maar uit zet wil dat prima op een crosfire setup. Ik hoef ook niet meer dan 60fps.
En dat op 28" , het verschil met hd is enorm. Maar ik denk dat dat ook komt omdat mijn monitor daar niet voor geschikt is
Bedankt voor de screenshots. De 1440p is inderdaad wat scherper maar niet significant; ik moest echt zoeken naar de verschillen. Er is wat mij betreft veel meer te winnen in 1080p door de grafisch gewoon beter te maken. Het haar van die kerel ziet er bijvoorbeeld behoorlijk nep uit, en de takjes van de struiken en de bomen is ook nog veel te winnen. Eigenlijk alles wat niet man-made is op die screenshots ;) Maar de gebouwen en hekjes zien er wel vrij slick uit.

Het is natuurlijk een easy win voor de developers om op een hogere resolutie te renderen.

Wel leuk als je videokaart het trekt natuurlijk, maar ik zou de prioriteiten wel anders leggen. Bovendien wil mijn scherm niet boven de 48Hz op 4K-resolutie en ik heb liever 60Hz dan 4K in games.
Ik denk dat er een hoop te winnen is in de engine zelf.
Het is merkwaardig dat 1440p er beter uit ziet als 1080p op een 1080p monitor puur en alleen omdat de engine textures downscaled bij lagere resolutie.

En ja het haar ziet er niet goed uit maar met nvidia hairworks of een nieuwere videokaart ka je dat wel verbeteren dus dat zit al wel in de game alleen mijn videokaart trekt het niet of ondersteund het niet.

Ik heb ook nog een vga aansluiting op mijn monitor en VSR lijkt dat ook niet leuk te vinden dus mijn systeem is nogal een limiet op het moment maar wil nog geen 4k kopen zonder dat ik weet wat 1080p gamen op het 4k scherm die ik wil doet (dell) .

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True