Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 101 reacties

AMD zou in de tweede helft van 2014 met Volcanic Island 2.0-gpu's komen die gebruikmaken van stacked dram, dat meer geheugenbandbreedte moet opleveren en een lager energieverbruik heeft. Dat blijkt uit een presentatie van AMD, die onlangs online kwam.

Een gebruiker van het forum van overclock.net heeft onlangs enkele pagina's uit een presentatie gepubliceerd, waaruit blijkt dat AMD high bandwidth memory wil toepassen op toekomstige videokaarten. De presentatie komt uit december 2013, maar lijkt nog niet eerder gepubliceerd te zijn.

Gestapeld geheugen moet leiden tot een lager energiegebruik, terwijl er meer bandbreedte beschikbaar komt. Per dram-chip zouden er twee 128bit-kanalen aanwezig zijn, waardoor de totale busbreedte bij vier gestapelde dram-chips op 1024bit uitkomt. In een grafiek in de presentatie is het energiegebruik uitgedrukt in 'bandbreedte per watt' en daaruit blijkt dat hbm bijna drie keer zo efficiënt is als gddr5-geheugen op een 512bit-bus. Volgens de gebruiker gaat AMD bij de Volcanic Islands 2.0-gpu's gebruikmaken van de nieuwe geheugenconfiguratie en worden de nieuwe videokaarten eind 2014 uitgebracht.

Voor het eind van het jaar komt er ook een snellere versie van de R9 290X, laat videocardz weten. Een van de partners van AMD, die videokaarten bouwt, heeft tegenover de website laten weten dat AMD's R9 290X 'binnenkort' wordt vervangen door een snellere videokaart. De nieuwe AMD-kaart zou sneller zijn dan Nvidia's GTX 780 Ti.

AMD Radeon R9

Moderatie-faq Wijzig weergave

Reacties (101)

Ter verduidelijking, gezien dit niet duidelijk wordt uit het artikel:

Stacked DRAM is een techniek waarbij de DRAM die's op de package van de GPU worden geÔntegreerd. Hierdoor krijg je een SiP (System in Package) ontwerp zoals bijvoorbeeld Intel z'n huidige 'Iris' oplossing. Nieuw is echter dat er meerdere DRAM die's gestapeld worden om de afmetingen van de package beperkt te houden met de benodigde hoeveelheid geheugen van een videokaart.

Dit heeft een drietal voordelen:
1 - Bandbreedte. De package, hoewel vaak ook "printplaat achtig materiaal" word met een andere techniek gemaakt dan de rest van de printplaat. Deze laat veel dunnere sporen toe waardoor er makkelijk meer lijnen gerout kunnen worden en je dus bijvoorbeeld een 1024 bits geheugenbus kan implementeren.

2 - Energieverbruik. De verlaging in energieverbruik komt dus door de kortere afstanden naar het DRAM en door het feit dat je niet over een printplaat en twee printplaat-IC overgangen heen hoeft.

3 - Kosten. Iets duurdere package maar minder onderdelen en een kleinere printplaat. Zou een kleine kostprijsverlaging kunnen betekenen op de lange duur. Eerste generatie zal echter duurder zijn vanwege de nieuwe technologie.

[Reactie gewijzigd door knirfie244 op 12 mei 2014 12:39]

Het zou best mee kunnen vallen met de kosten. Het artikel noemt ook niet dat deze techniek al lang gebruikt wordt. Al in 2003 (!) had Samsung een SoC met daarin niet alleen een CPU en RAM, maar ook nog eens Flash. Dat is dus drie soorten dies, in plaats van de 2 hier, en 11 jaar geleden.

Nu heeft een SoC iets minder bandbreedte nodig, dus kun je met iets minder verbindingen toe, maar de techniek heeft niet stilgestaan in die 11 jaar. Dit ontwep is bepaald niet de "eerste generatie".
Drie voordelen... en een mogelijk nadeel:
De onderdelen van een videokaart willen nog wel eens flink warm worden; ik kan me voorstellen dat een paar extra lagen chips de warmtegeleiding (van de GPU naar de heatsink) niet bepaald ten goede komt, waardoor het afdoende koelen van de hele package (GPU + RAM) lastiger wordt.
Die snellere R9290X moet dus een hele nieuwe chip gaan worden, lijkt mij een beetje zonde geld om dat te ontwikkelen, kunnen ze zich beter volledig op de nieuwe pirate islands richten :P
De GPU is redelijk modulair opgebouwd, dus als het goed is hoeven ze alleen de geheugen controller aan te passen / vervangen. :)

Die geheugen controller kunnen ze dan ook weer in Pirate Island's gebruiken ;)

[Reactie gewijzigd door Toettoetdaan op 12 mei 2014 11:56]

Gewoon een 290X pakken met de nieuwe geheugen controllers is niet genoeg om een 780ti te verslaan. Ze zullen dan de rekeneenheden moeten versnellen/in aantal vergroten, aangezien de 512 bit bus niet de beperkende factor is op de 290x.

Verhogen gaat flink wat meer stroomverbruik en warmte genereren, ze zullen toch wel over de 1100MHz moeten om de 780ti eruit te trekken. Of ze moeten gebruik maken van binned chips die op lagere voltage kunnen draaien, dat komt de prijs van de kaart echter niet ten goede.

Om meer shaderunits en TMU's te gebruiken zullen ze een nieuwe nog grotere chips moeten ontwerpen, de Hawaii chip heeft maximaal 2816 shaders, ze zullen dus een nieuwe chip moeten ontwerpen met meer units. Hier gaat wel degelijk behoorlijk wat aan research inzitten, en de chip wordt dan erg groot wat het stroomverbruik niet ten goede komt.
Is niet zomaar even geheugencontroller upgrade die wat efficiŽnter te werk gaat en paar procent scheelt, het is verdubbeling(100% erbovenop dus) in bandbreedte. Dat kan zich wellicht vertalen naar behoorlijke bump.

780ti kost ook +-200 euro meer, dat is 50% extra kosten, dat vertaal zich niet naar 50% extra prestatie, 290x kan je ook alle spelen die je met de 780ti ook kan, vaak komt het aardig in buurt van 780ti of wint de 290x het zelfs van de 780ti. 780ti is namelijk niet eens altijd de snelst, als je bepaalde spellen speelt kan je wel eens beter af zijn met 290x dan met 780ti. ;)

Edit/
Lees artikel (nog) eens, gaat juist stoom besparen, zal dus juist minder stroom verbruiken en minder warmte generen dan huidige constructie, aldus AMD.

De 290x is zo goedkoop dat als het iets duurder zou worden, wat niet eens zeker is, dan nog zit de 290x prijs heel ver onder die van de 780ti. ;)

[Reactie gewijzigd door mad_max234 op 12 mei 2014 12:32]

Volgens mij is zelfs de 290X dus nog gewoon te traag om van de extra bandbreedte gebruikt te maken. De chip is niet krachtig genoeg om een tekort te hebben aan 320GB/s. Je bespaart er zeker stroom mee maar extra prestaties gaat een 290x er niet van krijgen*.

De enige manier is de Core ofwel te versnellen of er extra shaders bijzetten(=research). Je hebt wel een punt dat als ze de chips binnen(ga ik vanuit) de prijs nog steeds (ruim)onder de 780ti kunnen houden

*Op 4k kan het wel een (flink) voordeel hebben ;)
Dat kan dus wel, volgens Tweakers.net is de 780Ti slechts 2,5% sneller dan de 290X.
Stacked dram zou bijna drie maal efficiŽnter zijn dan GDDR5, wat op de 290X waarschijnlijk rond 24watt zit, met stacked dram zou dat dus teruggebracht worden naar 8watt.
Een bespaaring van 16watt is 6,4% meer ruimte voor een hogere clock bij de huidige 290X, ruim genoeg dus om de 780Ti weer af te troeven.

Neem daarbij mee dat ze waarschijnlijk het huidige design nog een beetje extra optimaliseren voor het 28nm procede en dat het 28nm procede nog een beetje beter is geworden en je kunt zo in de buurt van de 10% sneller komen tegenover de huidige 290X :D

[Reactie gewijzigd door Toettoetdaan op 12 mei 2014 12:31]

Gewoon een 290X pakken met de nieuwe geheugen controllers is niet genoeg om een 780ti te verslaan
Waarom niet? de 780TI is maar marginaal sneller als de 290x, als ze dus een marginale snelheids winst kunnen boeken, zijn ze al sneller als de 780ti
Bij de gemiddelde framerates op 1920x1080 pixels, scoort de 780 Ti over alle zes benchmarks 2,2 procent hoger dan de 290X. Bij 2560x1440 pixels is dat verschil 2,7 procent.
edit: oeps, was al gemeld

[Reactie gewijzigd door Sinester op 12 mei 2014 14:51]

Ja, dat is heel leuk, maar lang niet alle games ondersteunen Mantle. En zeker wanneer je geen BF4 speelt, zie ik de meerwaarde nog niet heel erg. Het aantal titels met ondersteuning is nog veel te beperkt om het tot een koopmotief aan te merken vind ik.

Verder: DX12.

[Reactie gewijzigd door Vayra op 12 mei 2014 13:02]

Ja, dat is inderdaad waar

het is maar wat je gamed en ja ik speel Battlefield dus voor mij is het echt gunstig met DX 12 in aantocht ((zelfde ontwikkeling als Mantle)) kan ik dit alleen maar toejuichen scheelt ons een hoop centen

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 13:54]

Mantle werkt alleen als je CPU slecht is. Zelf heeft het bij mij geen enkele effect. DX11 geeft zelfs 5fps meer.
Nee, daar heb je geen gelijk in want als ik mantle uitzet kan ik met 1 290 kaart echt geen Bf4 max out draaien ik heb echt mantle nodig en ja dan draait het echt perfect en ik haal dan ook zwaar boven de 60 fps dan dat ik in de 60 zit of der onder zonder mantle (map Siege of shanghai) het scheelt natuurlijk ook per kaart juist met de 200 serie (290 290x merk je dat Mantle echt nut heeft der onder willen nog wel eens microstutters hebben of net zoals wat u zegt zelfs minder fps halen dan DX ))

ik zelf beschik over een aantal benchmark resultaten van Thief met een 3930 + een 290 van Sapphire die zal ik eventueel na je kunnen sturen zowel max,avarge als min fps is flink verbeterd

mensen die me gedownmod hebben laat al weer zien dat jullie geen kennis hebben zowel met Mantle(290,290x) ik nodig jullie dan ook uit om bij mij langs te komen en laat ik je het bewijs zien !!! en dat noemt men zich hier een tweaker niet testen maar lezen maar toch overpraten welkom bij tweakers... test eerst zelf uit voordat je downmod THNX

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 16:51]

Over de 290 en 290x kan ik het inderdaad niet weten nee.
Maar haal je serieus geen 60fps met mantle uit?
Ik heb hier een i7 3820 + 7970 en ik draai op dx11 toch makkelijk 100fps met maxed settings. Dit is op 1920x1080. Met mantle zit ik rond de 90. Beide droppen ongeveer naar 70-80 fps bij hevige explosies etc.
Ik dacht dat we de tijd van cheat drivers toch wel een beetje gehad hadden. Ow en toen was het trouwens Nvidia die "bijzondere" drivers had (bij 3d mark het pad herkennen en alles wat niet in zicht is niet renderen).
cheat drivers of niet als ik beter fps krijgt dan een 780 met 1 290 kaart op Bf4 wat ik voor 210 euro hebt aangeschaft dan tegen over een 780 voor 350 euro 2dehands hoor je mij echt niet klagen of het een cheat is of niet

dankje wel AMD !!
'cheat-drivers' voor een game? dat is gewoon een driver.

cheat drivers kon je maken omdat de benchmarks vooraf bekend was wat er gerenderd ding worden en wat daarvan op het scherm te zien is. bij een game gaat dat niet.
Nee dat is niet zo, zeker niet nu nvidia driver R-337 heeft uitgebracht. Er voor was het misschien wel zo? Zoals de 770 doet nu ook +60 fps minimaal op 1920x1080.

[Reactie gewijzigd door Magherb82 op 12 mei 2014 18:11]

Dan zal het daarmee te maken moeten hebben
Dat weet ik wel zeker ;) want voor deze drivers had ik minimaal soms 35fps in Sieg of Shanghai en dat loopt niet geweldig.

Neemt natuurlijk niet weg dat je kaart een veel betere prijs prestatie heeft en de betere keuze is voor BF4.

[Reactie gewijzigd door Magherb82 op 12 mei 2014 18:14]

Ze zeggen dat mantle de plaatjes lelijker maakt?

Dat mantle de kwaliteit van plaatje reduced?
2 games die het ondersteunen, en zo geweldig werkt dat Mantle niet in BF4 als ik je boven zo hoor
klopt inderdaad 2 games maar we zijn in een begin fase... zijn vast wel meerdere mensen die werken en af en toe een potje Battlefield 4 gamen dan is dit zeer gunstig voor ons

hier een voorbeeld van de 290x met Mantle tegen een 780 TI Direct X

http://www.youtube.com/watch?v=ImSandbiJAs
https://www.flickr.com/ph...7/sets/72157641248149174/

290,290x en de GTX780 Ti met DX dus GEEN mantle

http://www.youtube.com/watch?v=u2Bs_bGpdpM

nou mark veel kijk plezier !!! neem anders een kijkje op google of youtube 290x vs GTX 780ti Mantle Batlefield 4 (( als zoek opdracht ))

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 14:42]

Vergeet niet dat BF4 sowieso al geoptimaliseerd is voor AMD.
Maar goed drop met mijn GTX780 nooit onder de 60fps op 1440p Ultra zonder AA. Misschien zijn die tests zonder de nieuwste 337,50 drivers van Nvidia, ik heb er gewoon 20% bij op de minimum FPS t.o.v. 335,23.

Maar goed we nu wel heel erg off topic :P
tja het is een win win voor AMD gebruikers dus als je alleen Batlefield 4 gamed ik zou zeggen kies voor AMD (290,290x voor Mantle niet lager gaan)scheelt je in de pokket en je bent evensnel dan niet sneller dan een 780 dan een 780ti maar ging me meer om dat je zei dat de 780ti niet verslaanbaar was tegen over de 290x wat dus wel zo is
Als je alle benchmark middelt is de 780ti sneller(daar ging het me ook om). Dacht wel dat het meer was dan ~5% maar goed
ja dat klopt met DX is de 780 ti sneller geef ik je gelijk in maar kwa prijs/ performance dan is mijn keuze nog steeds snel gemaakt na een AMDtje neem sommige driver problemen tot me daar betaal ik wel 100 euro minder voor ;) (tuurlijk mening/smaken verschillen) Maar met MAntle maakt de 290 en 290x echt een hele goede kans

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 15:16]

Meer prestige project kijk ons de snelste produceren ;)
Yup, en de jonge gamer met te grote portemonnee holt er met grote ogen achteraan, zie boven :)
Blijft altijd toch wat zuur dat aan de ene kant de videokaarten het erg netjes doen, maar de CPU's nog de nodige problemen hebben (CPU-afhankelijke games zijn bijna per default beter op een intel). CPU en GPU sturen via catalyst bevalt me enorm, on the fly wat settings veranderen en weer gaan.
niets of niemand houd je tegen om een i7 en een r9 290X te gebruiken.
doe ik ook, wel met oudere AMD kaart maar soit.
Primair ook zeker niet, maar waar ik bij AMD nog binnen de socket kon upgraden (dus geen nieuwe OS activatie), is dat bij Intel 99% van de generaties niet het geval. En zoals ik zei, beide instellen via hetzelfde programma heeft toch m'n voorkeur.
Aan de andere kant, gpu power heb je nooit te veel, je kan het altijd nog opbranden door op 4x de schermresolutie te renderen en te downscalen voor ultieme scherpte.
Singlecore prestatie's zijn bij intel ook iets beter. Dus juist spellen die slecht multicore geoptimaliseerd zijn kunnen daar van profiteren.
Dat is het hem juist: CPU's zijn goed zat. Ook die van AMD.

Het is de vertaalslag (DirectX) waarin het obstakel zit voor het 'unlocken' van de cpu kracht. En juist op GPU gebied zie je dat dit niet alleen wordt opgelost door die vertaalslag efficienter te maken, maar door het uitbesteden van CPU werk aan de GPU (die in veel gevallen daar ook beter in is, zoals ihgv Physics).

Nog steeds zien we talloze games met framedrops bij een gpu utilization van minder dan 60%. Ook bij de snelste cpu's zien we ťťn dikke thread voor de game en een paar lichte threads op de andere cores, daar sta je dan met je 8 core beest. Kortom, CPU is krachtig genoeg, maar wordt niet goed benut, en een groot deel van die problemen zitten in DirectX, een ander deel in de nog steeds achterblijvende multithreaded geschreven games.
Hoe kun je dat oplossen? Zal dat over aantal jaren nog steeds blijven? Dat de vertaal probleem van direct x de probleem is?

Ze zeggen dat mantle de kwaliteit van de plaatjes downscaled als het ware? Hoe denk jij erover?


Hoe zie jii de toekomst over de kaarten? Zal het altijd nog de probleem zijn dat " direct x vertaal" werk?
Dankzij Mantle is de focus terug gekomen op het (beter) benutten van de beschikbare performance. Als reactie van Nvidia zagen we de 337.50 patch die het eea verbetert voor een aantal games. Microsoft kondigt kort na een redelijke Mantle-launch DirectX 12 aan met allerlei cpu-gerelateerde verbeteringen.

Mantle is dus achteraf echt wel een duw in de juiste richting geweest. Dat het allemaal veel beter en efficienter kan is in het verleden bewezen door Glide. Ditmaal lijkt men de fragmentatie die Glide veroorzaakte te willen voorkomen, want daardoor stierf het een vroege dood.

http://en.wikipedia.org/wiki/Glide_API
Maar mantel ondersteunt maar aantal games? Waarom kan het niet random /globaal voor alle of meerdere games ondersteunt worden?
Omdat games voor DirectX gemaakt werden, voornamelijk. Het beschikbaar maken voor Mantle en er ook daadwerkelijk voor zorgen dat Mantle een winst biedt kost nogal wat.
Huh, hoebedoel je dat Mantle een winst biedt kost nogal wat?

Wil het nu betekenen dat alle games die NU worden gemaakt ook Mantle ondersteunt? Of zijn er bepaalde partijen die dat aanbieden?
Misschien moet je gewoon eens wat googlen over Mantle en over API's.

[Reactie gewijzigd door Vayra op 13 mei 2014 12:49]

Graag hoor ik het van jou.
Lager energieverbuik. Daar zou AMD nog wel eens goed naar kunnen kijken inderdaad. Dan is dram toch wel een vooruitgang voor hun. Ben best wel fan geworden van AMD de laatste tijd, misschien ooit een keer geen Nvidia meer :)
hier het zelfde vooral nu met de mantle ontwikkeling (( zeer goed over te spreken de laatste tijd ))

ik zelf beschik over een r9 290 kaart van sappire die minder goed zn werk doet tegen over een GTX 780 maar met mantle aan verslaat de r9 290 kaart met gemak de GTX780 en laat gewoon prestaties van een GTX 780ti zien (( scheelt me wel ffe honderden euro's )) en dus met 1x r9 290 kaart op stock settings dus niet overclocked kan ik Battlefield 4 op max settings afdraaien (( boven de 60+FPS tuurlijk met een zware explosie met je neus der boven op een drop na 50 fps Multiplayer))

AMD ZET HEM OP !!!

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 12:11]

Speel zelfde met de GTX 780 en alles op max zit ik stabiel op 70 fps (ik cap mijn FPS daarop, zonder cap zit die zo rond de 100, daarbij kan ik hem ook in 3D spelen via 3D vision en zit dan stabiel op 40FPS).
Misschien speel jij op 1080p en hij op 1200p of 1440p? who knows.
Dat zou kunnen maar ik gok eerder op CPU verschil.
Dat zou inderdaad ook nog kunnen, helemaal niet aan gedacht aangezien mijn oude i7 930 op 3.5ghz nog steeds nooit tot meer dan 70% benut is geweest.

7970 doet het op dit moment ook nog prima, ik prik er wel eentje bij zodra een game die ik graag speel onder de 50fps valt (op 1440p zonder AA en anisotropic filtering. Dat verschil zie ik alleen op mijn oudere 1200p scherm)
ja Singleplayer neem ik aan ?.. ja dan haal ik ook vaak een zware peak

maar ik bedoel te zeggen dat je met 1 r9 290 kaart op 1080p makkelijk Battlefield 4 zowel Singleplayer als Mulitplayer voluit kan draaien ((MET MANTLE)) en de GTX 780 opeet

hier een voorbeeld van de 290x met Mantle tegen een 780 TI Direct X

http://www.youtube.com/watch?v=ImSandbiJAs
https://www.flickr.com/ph...7/sets/72157641248149174/

290,290x en de GTX780 Ti met DX dus GEEN mantle

http://www.youtube.com/watch?v=u2Bs_bGpdpM

laat staan 290 met mantle tegen de gtx 780

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 14:19]

Nee multiplayer. Oke 3d vision aan heeft dan af en toe drops tot onder de 30fps maar hoofdzakelijk blijft het speelbaar. Zal vanavond nog wel wat testjes draaien en wat screenshots maken.
Drop hier met een GTX780 ook nooit onder de 60fps, Ultra settings @ 1440p zonder AA
Wat doe jij wel verkeerd dat je maar 60FPS krijgt met drops naar 50 o.0?

Ik heb een MSI R9 290 Gaming 4G en haal zonder Mantle een minimum van 67FPS met een average van 105FPS met mantle aan, met alles op ultra.
bf4 is redelijk CPU heavy, kan een groot verschil maken
dat is waar, een overclock van 0.5Ghz maakte al een redelijk verschil in performance op m'n i5 3570K
stock 290 Zonder mantle dus GEEN DX gaat u niet Battlefield 4 max out gamen op de map shiege of shanghai geheid niet (maar ook bij meerdere maps Conquest dan))m aar idd met Mantle krijg je een flinke FPS boost en dan haal ik ongeveer de zelfde resultaat als u

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 14:30]

is een R9 290 Gaming 4G, geen stock dus, maar met betere cooling => betere performance. Ik speel atm zonder Mantle. Alle maps op rush, domination en conquest getest, geven allen ongeveer dezelfde resultaten tegenwoordig. Blijft mooi op max settings aan die vermelde FPS werken.

Werk jij toevallig met een minder goeie CPU die in dit geval een bottleneck kan vormen?
hmm dat is apart ik beschik over de r9 290 van sapphire met een custom koeler gelid v2 dus een throttle zit der niet in samen in werking met een i7 3930 k op stock settings met een boost van 4ghz uit ze eigen en als ram 2x4 GB Cosair vengeance 1600 cl9 1.5volt

op conquest 64 man siege of shanghai als ik over de bruggen heen loop gelijk onder de 60 fps dus ik heb last van lag en als ik boven op een gebouw sta en kijk over de map heen (zwaarste map wat der is) geheid onder de 60 FPS als ik met een tank door de map heen sjees heb ik vaak een drop onder de 60 en over de bruggen is het echt niet te doen

god thank Mantle nergens meer last van

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 14:53]

Dat is raar, want jou systeem zou technisch gezien een verwaarloosbaar verschil moeten zien tussen mantle en directx, met zo'n zware CPU ...
nee juist niet.. want de grapics worden direct aangesproken op de videokaart en met Direct x is dat niet het geval dus het heeft niet alleen met een CPU te maken ik zelf had nog een 8120fx liggen als mantle test dat is geheid een bottleneck met mantle ja het is een flinke verbetering maar de bottleneck was nog steeds aanwezig de partikels in het beeld zorgen nog voor enige drops wat met de 3930k helemaal niet het geval was of je nou echt met een slome cpu nog veel kans maakt NEE niet echt (max fps dat geheid....min fps / drops blijft gewoon aanwezig terwijl de kaart het kan verwerken..)

[Reactie gewijzigd door Jeroentjeeuh op 12 mei 2014 15:33]

als jullie nu eens definieren wat de 'max settings' zijn, we weten allemaal dat 16x AA je naar een diashow laat kijken met bf 4, ik vermoed dan ook dat jullie andere anti aliassing gebruiken en het allemaal max settings noemen. Met mijn gtx 770 lightning kom ik tot 80 fps @ ultra met dips richting de 55-60, maar wel maar 4x msaa.

dus, op welke settings spelen jullie nu werkelijk?
Multiplayer (siege of shanghai 64man conquest) voorname bij de stukken als je over die bruggen heen gaat

specs
3930k stock boost tot 4 ghz
r9 290 Sapphire 949mhz (dus gewoon stock)
2x4 gb 1600 cl9 1.5volt

1080p (1920x1080 op 4xAA alles ultra hbao aan)
dude, welke anti aliassing setting? FXAA, MSAA, SSAA, post AA, en resolution scaling?
zoals ik het zeg gewoon normaal ms 4xaa 1080p 1920x1080 scaling is gewoon stock zoals bf4 het aan geeft verschil zie ik niet alleen als die op 200 staat maar dan heb ik flinke drops(toegevoegde waarde NEE)
Hier met 1 titan op 2560x1440 minimaal 48 fps avg 63 fps max zo'n 75 fps ultra 4xMSAA in Sieg of Shanhai.als de flat om is met max 64 players (titan is wat langzamer dan de gtx780ti) Dit was voorheen niet zo goed omdat de nieuwere nvidia drivers R-337 flinke boost geeft in bf4, met name in Sieg of Sanghai, is dat nu wel zo.
Mooi Mooi Mooi!

Ik kan deze ontwikkelingen vanuit het AMD kamp enkel toejuichen!
Al zal ik waarschijnlijk nooit een AMD kaart kopen (zeg nooit nooit) het forceert Nvidia wel om van hun luie reet vandaan te komen, waar ik uiteraard weer baat bij heb. :)

Als AMD nou ook nog ff serieus met Intel aan de haal gaat kan ik ook (eindelijk) vernieuwende Intel CPU's verwachten. :+
Wow... Wat ik me dan afvraag is mantle moeilijk om aan te zetten dan?

Edit:

Hoe zit het dan met de physics? AMD heeft toch geen physics?

[Reactie gewijzigd door aygul12345 op 13 mei 2014 07:54]

Ik juist Nvidia gezien de superieure performance per watt en dan ook nog eens high-end Maxwell in het verschiet hebben die vermoedelijk een significante bump in performance per watt gaat geven (getuige de 750ti) op een vlak waar Nvidia in de huidige generatie al heer en meester is.
Vraag me af of de 'rumored gtx880' met slechts 256bit bus ook stacked ram heeft en deze voorheen beperkte bus nu dus niet echt meer een beperking is.

offtopic:
Draai zelf nog op een 6850, maar die wil ik graag vervangen voor een zuinige UHD/4K capabele gpu (want ITX) ongeacht welk merk, UHD capabel met max 200/210 watt verbruik.
Enige performance per watt interessante amd is de 270x

[Reactie gewijzigd door eL_Jay op 12 mei 2014 12:10]

Maxwell heeft wel (veel) meer L2 cache wat de geheugenbus voor een gedeelte ontlast
Nee Maxwell zal geen stacked ram krijgen, dat krijgt de volgende generatie (Pascal)
Als dat de prijs van de huidige kaarten omlaag gooit dan verwelkom ik de 'nieuwe r9 290X' met open armen :P
Helemaal mee eens. Wellicht in crossfire??
AMD moet eerst zorgen dat ze de koeler fixen want om dezelfde chip nu sneller te laten lopen dan de 780TI is geen makkelijke klus. De AMD's zijn nu voornamelijk heel heet en dat werkt in het nadeel want ze klokken zichzelf terug om Throttling tegen te gaan.

[Reactie gewijzigd door ShittyNL op 12 mei 2014 11:57]

Daarom hebben we aftermarket koelers
Noem is bijvb een site waar ze kunt kopen?
Sapphire, Gibabyte, Asus en Msi hebben allemaal modellen met hun eigen koelers.
Kun je gewoon bij vrijwel elke webshop kopen
Oh, je bedoelt een eigen brand kaarten.

Dacht namelijk de koeler zelf los.
Bedoel je niet dat ze zichzelf terug klokken ( thermal throttling ) om niet (verder) te overhitten.
En weer kunnen de prestaties verder omhoog! Ik vind het helemaal niet erg, zorgt ervoor dat de iets minder nieuwe dingen mijn budgetruimte binnenkomen.
Um, stond dit voor Nvidia niet op een roadmap voor 2015-2016 met Volta?
Vraag me af of ze dit zullen proberen te vervroegen hierdoor.
Eindelijk vol gas AA open zonder vertragingen... denk aan Uber Sampling op 8X.
Nu loopt dat nog helemaal de soep in op hoger dan 2x. Bijv. Metro Last Light en dan Uber op 3/4x...

512mb/1gbps bandbreedte is wel lekker voor AA etc...

[Reactie gewijzigd door A87 op 12 mei 2014 14:19]

Yes! Maxwell zou eerst stacked dram krijgen; toen weer niet. Jammer Nvidia; nu pakt AMD het voortouw. Laatst al dat bericht over de r9 390X, dat zag er heel 4k capabel uit. Nu dit bericht; it's gonna be awesome. 1024bit @ 6Ghz GDDR5 = 768 Gb/sec memory bandwith.

Misschien stap ik wel over naar het rode kamp eind 2014.
Meer geheugen bandbreedte heeft pas echt zin als geheugenbandbreedte ook de bottleneck is. Nu is dat in de meeste gevallen nog niet zo. Wat betreft prestatie's verwacht ik er dan nu ook nog niks schokkends van. Het opent wel de weg vor betere prestatie's als de cores veel sneller worden. En wat betreft energieverbruik zou het iets in de orde van grootte van een 15 wat schelen. Kijk je naar het verbruik van een hele kaart dan is die 15 watt ook niet zo veel.

Zowel wat betreft energieverbruik als wat betreft prestatie's valt er met verbeteringen van de core veel meer te winnen.
Nu nog wel ja, op 1080p, maar op 4k, de route waar we naar toe gaan, is een (veel) grotere geheugenbandbreedte een MUST. Dan moet je niet alleen veel Vram hebben, maar moet het ook heel snel zijn.

Dit is dus mooi nieuws voor de toekomst van 4k gaming.
De bandbreedte is geen bottleneck omdat de ontwikkelaars algoritmes gebruiken die bottlenecks ontwijken.

Er is genoeg geheugen om meerdere samples per pixel te gebruiken voor AA en kwa shaders is het ook geen probleem ... ipv hebben we dingen als FXAA ... dit is puur om de bandbreedte. Tiled deferred shading is ook typisch zo'n algoritmische oplossing om bandbreedte bottlenecks te omzeilen.

Geef de ontwikkelaars meer bandbreedte en ze kunnen het vullen ...
Jammer Nvidia; nu pakt AMD het voortouw.
Ik zou die uitspraak niet baseren op een gelekte powerpoint gepost door een gebruiker van overclock.net

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True