Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties

AMD brengt mogelijk eind juni zijn eerste videokaarten met Polaris-gpu op de markt. Het zou gaan om de R9 490X en R9 490. Volgens het gerucht worden de nieuwe videokaarten tijdens techbeurs Computex eind mei voor het eerst getoond.

Waarschijnlijk krijgen de videokaarten in de Radeon R9 400-serie gddr5x-geheugen. Micron gaf eerder al aan dat de eerste gpu's die van dat geheugen gebruik maken in de lente van 2016 zullen verschijnen. Het gerucht dat de kaarten eind juni verschijnen is afkomstig van HardwareBattle, schrijft VideoCardz. Eerder bracht die site het gerucht naar buiten dat de nieuwe gpu's van AMD de naam Polaris krijgen en dat bleek te kloppen.

De videokaarten zouden AMD Radeon R9 490X en R9 490 gaan heten en maken gebruik van de Polaris 10-gpu, die bedoeld is voor high-end videokaarten. Polaris 11, voor lager gepositioneerde kaarten, zou pas later uitgebracht worden.

De fabrikant maakte onlangs zelf bekend dat Polaris-kaarten medio dit jaar zouden verschijnen door een roadmap te tonen tijdens het Capsaicin-evenement op de Game Developer Conference half maart.

AMD heeft zelf echter nog geen details gegeven over de naamgeving van de nieuwe kaarten. Ook is niet zeker welk geheugentype de kaarten krijgen. De roadmap maakt echter wel duidelijk dat hbm2 pas met de volgende generatie Vega-gpu's zal verschijnen, begin 2017.

De AMD Radeon R9 490X en 490 worden waarschijnlijk de tegenhangers van de Nvidia GeForce GTX 1080 en GTX 1070. Dat zijn eveneens modellen die officieel nog niet bestaan, maar volgens geruchten in mei worden aangekondigd.

Nvidia presenteerde dinsdag zijn GP100-gpu. Hoewel de fabrikant alleen een variant voor gpgpu-rekenwerk in servers heeft getoond, zal deze Pascal-chip ook de basis vormen voor de GeForce-kaarten voor gamers. Vermoedelijk gaat het echter om een aangepaste chip die gddr5x-geheugen gebruikt in plaats van hbm2.

Op 31 mei gaat in Taiwan de Computex van start. Waarschijnlijk zal deze beurs het toneel vormen voor de introductie van nieuwe videokaarten uit het rode en groene kamp. De daadwerkelijke marktintroductie volgt meestal later; volgens het gerucht zijn de AMD-kaarten een maand later te koop.

Moderatie-faq Wijzig weergave

Reacties (77)

Lachen, want hele volksstammen roepen al maanden 'dat ze alleen upgraden naar HBM2' - zonder daar echt een onderbouwing bij te hebben.

Terwijl dat totaal niet nodig is en blijkt. Polaris en ook Pascal gaan gewoon over op GDDR5X, zoveel is nu wel duidelijk.

[Reactie gewijzigd door Vayra op 7 april 2016 12:57]

Ik ben wel benieuwd naar de verschillen tussen HBM2 en GDDR5X. Stel dat je prestatiewinst van 15-20% te behalen valt, is het overwegen waard om nog even te wachten tot 2017. Stel dat het allemaal wat uit de lucht gegrepen is en maar 5% sneller is, dan is het niet waard. Maar goed, ik heb ook ballen verstand van hoe de geheugen werkt. Ik heb meer interesse in de praktijkresultaat
De bottleneck ligt helemaal niet op VRAM. Dat is alleen zo met GDDR5, maar met GDDR5X is er al bijna twee keer zoveel performance uit te halen. En het is echt niet zo dat de '1080ti' of de 'Fury 2' (whatever) nu 100% performance winst gaan bieden tov de voorgangers. Als het 30% is, dan is dat denk ik al héél erg optimistisch.

Dus wederom: het nut van HBM2 is er gewoon nog niet. Komt nog bij dat HBM1 aantoonbaar slecht overklokbaar is, dus dat biedt qua marketing en qua winstmaximalisatie ook niet echt interessante mogelijkheden; HBM is wat het is, de AIB partners kunnen er niet veel mee doen. Met GDDR5(x) wel.

Een GPU staat of valt uiteindelijk met de core, niet met het VRAM.
Ik hoop toch dat we een wat grotere sprong zien. We gaan nu immers eindelijk na 3 generaties van 28nm naar 16nm.

Het eerste dat ik op 16nm heb gezien is de gp100. Deze is 1.5% groter met 20% meer tdp. Vervolgens zie je een clocksnelheid toename van 40% en 91% meer transistoren. Dat is nogal wat. In ieder geval een stuk meer dan van Kepler naar Maxwell (beide 28nm). Daar werd de "reken" kaart 9% groter en nam het aantal transistoren slechts met 12% toe, de clocksnelheid bleef op 27% hangen. In potentie is deze sprong dus in ieder geval 2x groter dan van Kepler naar Maxwell. Hierbij ga ik er dan even vanuit dat Nvidia in beide gevallen "sweet spot" heeft gepakt tussen voltage en clocksnelheid waardoor je dus goed ziet wat de techniek kan. Beter dan bij consumentenkaarten waarbij ook vooral goed naar elkaar wordt gekeken wat de ander kan.

AMD heeft natuurlijk gelijkwaardige voordelen van 16nm op gebied van stroomverbruik en aantal transistoren. Wie het beste ontwerp heeft is altijd even afwachten.

Maar goed we hebben voor zowel Nvidia als AMD straks een nieuwe architectuur, een berg meer transistoren, betere performance per watt, flink hogere clocksnelheid en een grote toename in geheugenbandbreedte. Het potentie om een kaart te maken die minstens 50% sneller is dan een kaart als de stock GTX 980 is er dus zeker. Veel zal afhangen van hoe goed er naar elkaar wordt gekeken. Immers als een simpel kaartje door kan gaan voor een GTX 1080 dan zullen ze dat zeker doen. Omgekeerd is het voor AMD ook verstandig een dergelijke streek uit te halen op het moment dat Nvidia faalt. Levert immers meer centjes op, wat op de lange termijn weer in R&D kan worden gestoken.

Persoonlijk ben ik vooral benieuwd naar de opvolger en concurrent van de GTX 970. Dat moet onderhand Nvidia's meest succesvolle videokaart ooit zijn. Ondanks zijn forse prijs is het de meest populaire videokaart op steam. Hij staat zelfs boven de HD4000. Mirror. Blijkbaar is het nu de norm om 350 euro aan je videokaart uit te geven. Daar heb je dus een succesvol product nodig.

[Reactie gewijzigd door sdk1985 op 7 april 2016 14:12]

GP100 zoals die voor deep learning is gepresenteerd is natuurlijk totaal geen maatstaf. Het is in elk geval een totaal ander verhaal dan de 'Titan' van voorheen.

De GP100 die gebruikt gaat worden voor de consumenten GPU's zal zeer zeker niet dezelfde faciliteiten kennen, zoals NVlink bijvoorbeeld, en ik acht de kans ook zeer klein dat er HBM op zal zitten. GDDR5X is toereikend en daarmee is dat eigenlijk al zo goed als zeker.

Het is natuurlijk heel leuk om te dromen over de komende GPU's maar de ervaring leert dat er altijd een minimaal acceptabele performance slag wordt gemaakt. Er moet namelijk over een jaar ook een update release komen, net zoals we dat bij Kepler zagen. Dat de performance slag theoretisch mogelijk is, zegt niets over de daadwerkelijke producten. Het biedt Nvidia/AMD gewoon meer ruimte om elkaar af te troeven en zoals gebruikelijk gaan ze elkaar stapsgewijs de loef afsteken. Daar gaat tijd overheen, dus de eerste gen zal zeker niet het maximale eruit gaan persen.

Daarom denk ik nog steeds dat als we 30% winnen op de top GPU, dat heel realistisch is. Als het echt een grote stap wordt zoals gedroomd, dan misschien 40%. Meer dan dat zit er niet in...

[Reactie gewijzigd door Vayra op 7 april 2016 15:49]

De vergelijking die ik heb gemaakt zijn tussen Tesla kaarten. De titan komt er niet aan te pas. Ik zie de Tesla kaarten als maatstaf van de techniek. Immers speelt bij de Tesla kaarten kosten een ondergeschikte rol en gaat het vooral om performance (per watt). Het is daarbij niet zinnig om performance kunstmatig tegen te houden. Dat maakt Tesla een betere maatstaf voor techniek dan consumenten kaarten.

Vervolgens zien we binnen Tesla een grote sprong. Op basis daarvan voorspel ik dat de potentie voor een grotere verbetering er is. Net als dat de GTX 750 Ti een veelbelovende voorspeller voor de komende Maxwell generatie leek (en uiteindelijk ook was), geeft deze GP100 ook reden tot een positieve insteek. Het is het eerste product op basis van de nieuwe architectuur en het stelt niet teleur.

Zoals uit mijn reactie al blijkt is het vervolgens nog wel de vraag of dat potentie daadwerkelijk wordt benut, of dat één van de twee vooral zijn winstmarge laat toenemen.

Die 30% is historisch gezien inderdaad niet gek. De 980 was 33% sneller dan de 780. De 780 15% sneller dan de GTX 680 (zelfde architectuur). De 680 was 33% sneller dan de GTX 580. De GTX 580 was 17% sneller dan de GTX 480 (zelfde architectuur). De GTX 480 was 35% sneller dan de GTX 280. Daar komt inderdaad een redelijk stabiel patroon van +- 33% naar voren. Dus dat is een hele veilige, maar goede voorspelling.

Ik hoop achter op wat meer. De sprong in procedé is deze keer namelijk zo groot dat dit best eens een nieuwe 'sandy bridge' kan worden. Of dit zo is zal nog moeten blijken. Traditioneel zijn de refreshes niet spectaculair dus daar hoeven ze het niet voor te laten.

Voor AMD zal het vooral een keuze zijn tussen marktaandeel terug veroveren en marges verbeteren. Gezien het huidige marktaandeel lijkt mij de eerste optie bedrijfskundig de meest zinnige. Uit een grotere schaal volgt immers vanzelf meer winst.

Ook Nvidia heeft weinig te verliezen met een goede introductie. De marges zijn er nu al. Meer geld is altijd beter, echter een klap op de neus krijgen omdat je AMD onderschat is een risico. Het is voor Nvidia dan ook verstandiger om in eerste instantie dezelfde marges aan te houden. Ga je namelijk bij voorbaat een "el-cheapo" inzetten als GTX 1080 dan neem je een behoorlijk risico.

[Reactie gewijzigd door sdk1985 op 7 april 2016 16:22]

Interessant wordt het in elk geval!
GP 100 wordt gewoon titan en de 980TI equivalent,
zal wss niet meeteen uitkomen (eerst de gtx1080 of hoe hij ook gaat heten
en dan mogelijk een 1080TI of
een nieuwe 11x0 serie waar de andere een stapje omlaag doen en de 1180 GP100 is.

maar meer dan 30% is zeker wel te verwachten, we krijgen 2 die shrinks tegelijkertijd, zelfs met dezelfde architectuur en een 40% clockboost zou ik al zo'n 30% performance increase verwachten, maar we krijgen ook nog eens 91% meer transistoren, en een efficientere architectuur (tenminste daar mogen we vanuitgaan)

een verdubbeling in performance lijkt me zeer zeker niet onmogelijk.
dat is zeldzaam, maar 5 jaar lang op het zelfde verouderde process blijven hangen is ook zeldzaam. dit is een uitzonderlijke situatie, en als we "maar" 30% krijgen, dan zou ik bitter teleurgesteld zijn.
Ik ben vooral benieuwd naar de GTX 1070 en of dat weer zo'n knaller wordt als de 970, die was ong even snel als de GTX 780 TI, een
GTX 1070 die net zo snel is als de 980 TI? Doe mij die maar. 8-)
Vergeet niet dat AMD(RTG) hoe je het ook noemen wil vandaag de dag naar 14nm ff gaat
We gaan eigenlijk niet echt naar 16 (of 14) nm. Het procedé is 20nm, maar dan met FinFET.
30% winst gaan ze echt niet doen ze smeren dat uit op de langere termijn, zodat mensen blijven kopen.

Als ze nu kaarten zouden uitbrengen met 8gig hbm2 schieten ze zichzelf in de voet.
30% is heel gebruikelijk, zie ook de berekening en uiteenzetting van sdk1985 hierboven.

[Reactie gewijzigd door Vayra op 7 april 2016 18:42]

Grotendeels mee eens, maar HBM2 biedt wel degelijk een meerwaarde op HBM: HBM van de eerste generatie was voorzien van max 4gb geheugen, HBM2 gaat in ieder geval 8gb mogelijk maken. Met de opkomst van 4k resoluties e.d. staat dit toch wel garant voor betere prestaties. Wat het verschil gaat zijn tussen bijvoorbeeld 8gb GDDR5X en 8gb HBM2 is wel een interessante vraag die overblijft.
de 4gb van de eerste generatie is genoeg omdat de gpu de beperkende factor was niet het geheugen. Dus tenzij de nieuwe generatie gpus echt veel sneller is zal hbm1 waarschijnlijk genoeg zijn, helemaal als ze de snelheden weten te verbeteren aangezien die nu aardig beperkt zijn.
Eens. Mensen staren zich blind op theoretische (maximale) prestatieverbeteringen, maar vergeten dat het voor de fabrikant (en consument) nooit loont om zo snel vooruit te gaan in snelheid. Als bij iedere launch een product twee keer zo snel is dan gaat de techniek gewoon veel te snel vooruit. Zeker als de software daarin mee gaat. Wordt voor iedereen gewoon te duur. Laat staan de beperking waar je dan al snel tegenaan loopt dat de ontwikkelingen blijven steken op een gegeven moment.

En inderdaad, 30% is een realistischer getal. En meestal relatief aan dezelfde klasse van een vorige serie. Dus misschien niet eens ten opzichte van bv de 980ti, maar ten opzichte van de 980. Net als de 980 dat was voor de 780, terwijl het misschien net een kleine 10% sneller was dan de 780ti.
Huidige gddr5x modules halen nog geen dubbele snelheden. De eerste zullen ongeveer 50% sneller zijn. In combinatie met een 384bit bus heb je nog steeds voldoende bandbreedte.

Ik denk dat de gpu's nog wat sneller moeten worden voordat je hbm2.0 volledig kan benutten.
Veel sneller dan de concurrentie heeft onwijs marketingvoordeel! Daarnaast kan je dus ook goedkoper produceren en dan heb je meer marge. Met meer marge kan je meer geld verdienen of je concurrent uit de markt drukken.

Reken er maar op dat de fabrikanten maximale prestaties binnen de gestelde limieten willen (budget, warmteontwikkeling, techniek).

Dat intel de prestaties niet maximaliseert is dan een stuk meer voor de hand liggend.
Marketingvoordeel is vluchtig en tijdelijk en uiteindelijk heeft het alleen zin als je 100% zeker weet dat de concurrent niet een nóg snellere GPU kan uitbrengen. Want als dat zo is, sta je mooi voor lul met je 'snelste GPU' met een torenhoog prijskaartje en heel dure componenten. Zie de Fury X die aangemerkt werd als overklokwonder en dat toch niet helemaal bleek te zijn. Daar scoort men geen punten mee en uiteindelijk kocht bijna iedereen een 980ti die gewoon op goedkoop GDDR5 liep en voor de courante resoluties ook het beste presteert, én beter overklokbaar is. Tja...

Natuurlijk lijkt het allemaal altijd enorm spannend zo aan de vooravond van nieuwe GPU releases, maar de praktijk is helaas heel erg economisch verantwoord :)

Verder moeten we nog maar eens zien hoeveel Intel daadwerkelijk 'stagneert' want zolang er niemand is die het beter kan, is dat helemaal niet bewezen. Dat het een populaire mening is begrijp ik, maar de waarheid hoeft het niet te zijn. Want ook Intel zit in zwaar vaarwater met de opkomst van ARM - hebben ze echt zoveel belang bij stagnatie? Ik denk het toch niet...

[Reactie gewijzigd door Vayra op 7 april 2016 18:55]

ARM kan jammer genoeg niet op tegen x86 processors in het desktop leven.
Dus intel heeft niet veel te vrezen in de desktop of laptop markt.
Intel zal alleen concurrentie van arm in de tablet, mobiele en server markt hebben. Maar de enige waar intel al een voet aan stuk heeft(server markt) word zwaar gedomineerd door intel. ARM server zijn alleen concurrerend voor kleine servers die weinig stroom verbruiken.
Dus het is de vraag of ARM ook wel een geduchte tegenstander is.
Thanks voor de info! :)
Das nou net wat ik ook wilde zeggen, moet je nagaan hoe gevoellig mensen zijn voor de geheugen marketing.
Waar de bottleneck ligt hangt af van de settings die je gebruikt. Voor FHD in max setting , is ouwe type genoeg.
Maar voor VR en 4K gaming haald HBM2 de bandbreedte bottleneck weg meer dan die tussen oplossing met X er achter op.
zo te zien heb je gelijk, of ze gaan weer hetzelfde flikken als met de huidige generatie.

Zo van de 2 topmodellen krijgen dan HBM2, de rest krijgt dan GDDR5x
GDDR5X is ontwikkeld met het GDDR5-productieproces als basis en kan daardoor goedkoop geproduceerd worden. Het valt eventueel te verwachten dat de topkaarten (Pascal Titan/Polaris Fury?) met HBM2 uitgerust zullen worden.
Dat was nu ook al de strategie van AMD. Alleen de topmodellen krijgen HBM, de rest gddr5.

Gezien het nieuwe procedé en het eventueel niet noodzakelijk zijn voor mid- of low end kaarten kan ik wel begrijpen dat HBM alleen op top kaarten gebruikt gaat worden. HBM is duurder te implementeren dan gddr5, dus gezien de toch al hoge prijzen van het topsegment kun je qua prijsstelling die prijzen beter verantwoorden dan dat low-mid end kaarten plotseling 50-100 euro duurder worden.

Ik denk dat alleen de Vega en de Navi producten een geheel nieuw ontworpen architectuur hebben en de mid-low end nog voortborduren op het oude ontwerp.
Ik twijfel over de naamgeving van de modellen. Geruchten zijn er dat Polaris 10 rond het niveau van de 390/390X presteerd. Als Polaris 10 kaarten dan daadwerkelijk 490 en 490X zullen gaan heten, betekent dat, dat we al drie generaties aan y90(X) kaarten hebben die rond hetzelfde prestatieniveau zitten.

Het lijkt me dat AMD toch ook wel inziet dat dat geen goede marketing is?

Polaris 10 gaat volgens mij de 480(X) serie zijn en ik hoop ten zeerste dat er een derde Polaris chip zal zijn die een stuk beter presteerd.
Die derde chip is dan de VEGA die HBM 2 gaat krijgen, helaas komt die dan pas aan het einde van dit jaar.

De naamgeving blijft natuurlijk interessant. Als we de fury serie ff achterwege laten aangezien die buiten de normale naamgeving valt dan is het aannemelijk dat de aankomende GPUs dan de 480 gaan heten (polaris 10), de tragere polaris 11 wordt dan de 470 serie en de Vega (polaris 12?) zou dan de 490 worden.

Gezien de rumoeren dat de aankomende polaris 10 de 490 serie gaat worden dan gaat deze logica niet op. Wordt de vega dan weer een fury achtige kaart met een aparte naam? Stappen ze over op de 5xx serie? Who knows..
Polaris 10 presteerd op het niveau van een 980ti en zal hoogstwaarschijnlijk de 490x worden. dan de 490 wordt een cut down versie met 10% minder stream processors. Dit is een grote prestatie winst en zal vrij goed in de markt vallen. maak je daar maar geen zorgen over.
Interessant dat jij al exacte performance cijfers weet? Afaik zijn er nog geen onafhankelijke benchmarks getoont. Als de 490x echt op niveau van de 980 ti zit ben ik heel blij, maar ik ga er absoluut niet van uit
Dit hoeft geen probleem te zijn dat hangt ook van het gebruik af.
Waar de huidige 390(x) rond de 300 watt kan gebruiken en deze straks misschien rond de 100 of 150 watt of misschien onder de 100 zit scheeld dat toch weer een hoop.
Welk gerucht zegt dat Polaris 10 als een 390(X) presteert? AMD heeft alleen Hitman laten zien (1440p, 60fps) maar dat betekent niet dat Polaris 10 ook daadwerkelijk zo presteert. Dat was meer een "dit kan hij" presentatie, niet iets waar je dit soort conclusies uit kan trekken.
Ik heb sowieso het gevoel dat de uiteindelijke performance, niet zozeer de technologische ontwikkelingen zelf, voor eindgebruikers van zowel CPU als GPU over de jaren heen per tijdseenheid steeds langzamer wordt verbeterd. Vroeger zat je 2x per jaar te springen met bijzonder merkbare snelheidsincreases, nu is het sinds de 2500k bij intel (bijvoorbeeld) en de 79xx serie bij ait/amd (bijvoorbeeld) steeds maar in heel geringe stapjes gegaan.

Ik kocht ooit een 7950 Boost ... die wordt ondertussen door de driver als een R9 280 gezien en omdat die dingen zo leuk clocken heb ik bijna 380X (!) performance en daar zit meer dan 2 jaar tussen ... dezelfde kaart 2 jaar en niets inleveren op mainstream performance. Bleh, voor tweakers heel boring ;) .
Het gaat idd trager, maar dat komt voornamelijk in CPU-land door enerzijds ene gebrek aan concurrentie, en anderzijds een gebrek aan vraag: voor bijna alle gebruikers is een 2500k nog steeds meer dan snel genoeg.

Dat laatste zie je ook in de richting die Intel inslaat op vlak van R&D: niet de high-performance m monsters met 10 cores op 3+GHz zetten ze in de schijnwerpers, maar de ultra-zuinig, passief gekoelde Core M is waarmee Intel pronkt naar consumenten toe: een dual core die standaard op amper 800MHz draait.

De gewone consument heeft hier namelijk genoeg aan in dagelijks gebruik.

Daarnaast hoor ik ook vaak dat de 2500K nog even snel is als de nieuwste chips, maar ook dat blijkt niet uit de praktijkbenchmarks: voor high-end games win je in veel situaties meer dan 10 fps met een 6600K vs een 2500K.
In die test was de 2500k ook niet overgeklokt, juist dat maakt het verschil gezien ze enorm goed overklokken en dan prima de nieuwe chips kunnen bijhouden ( iets wat ook geld voor de oudere 6 core xeon 56** series)
Als we dan de 2500k overklokken moet je dat natuurlijk ook met de 6600k doen. ;) Die klokt ook goed over.
Ja maar Dan is de CPU in eens niet of minder de bottleneck en maakt het op dat gebied ook weer minder uit.
maar als je kijkt wat je tegenwoordig betaald voor een 2e hands 2500k, en bv een 2e hands Radeon 7950, heb je voor een kwart van de prijs een systeem wat maar 15% langzamer is dan een 1151 i5 en een R9 390.
Het loont gewoon bijna niet meer om nieuw spul te kopen.
Je betaald de hoofdprijs voor 10-15% meer frames, en iets minder stroomverbruik.

ik heb net een Xeon E5-2670 gekocht, 2e hands. 8 cores, 16 treaths, 20 MB cache, 3,3 Ghz, voor 60 euro.
Ik heb het wel gehad als early adopter. Je bent dief van je eigen portemonee.

[Reactie gewijzigd door toeschouwer op 7 april 2016 13:47]

Je kan tegenwoordig enorm goede deals doen op de server hardware markt ( als het extra energie gebruik je niet deert ).

Heb zelf een dual x5675 ( 12 cores / 24 threads ) draaien en je kan ermee leuke stoten uithalen ( mega veel vm's, multi thread compile en andere toestanden terwijl je zit te gamen ). 100¤ voor een Server MB met 7 maal 8x full PCIe slotten en dan een 200¤ voor beide cpu's.

Ja, in theorie zal een 4790 of andere meer ticks / mhz halen en bij single core performance zal hem zeker voorbij zo een setup vliegen maar op gebied van multicore ( zeker voor wat ik ermee uithaal ). Het duurste was gewoon het geheugen en de kwaliteit PSU ( dat dual core cpu's aankon )...

Early adapter is gewoon geld uit je zaken halen deze dagen. Ik haal meer nut uit multi-core dan uit sneller performance per core, gewoon omdat er bijna niets is dat echt een single core nog taxeert dat je het ondervind. Men oude 4770 voor de meeste games was vaak op de single core games maar 70% in gebruik. Nu doen die zelfde games op de "oude" x5675 rond de 90% op single core en ik lever geen fps in. Daartegen staan er nu zoveel cores andere zaken te doen.

Nu ja ... dat is een workstation en geen puur gaming pc. Kan me nu al verwachten aan een hoop volk dat gaat zagen ja maar, je hebt beter af met een sneller ( en dure ) 4770 of hogere cpu, dan zoveel cores. Andere mensen, andere noden.

En sommige games gebruiken het wel degelijk ...

http://s11.postimg.org/yrkb6gkyr/jjidcedc.png

Bijvoorbeeld World of Warships zuipt multi-core cpu kracht alsof het niets is.
Oppassen, dat zijn een hoop bedreigingen aan de hand van die processor.

verder...
Ik heb het wel gehad als early adopter. Je bent dief van je eigen portemonee.
Laten we wel wezen, 10 - 15% is wat weinig. Dat wordt zeker 50% maar je hebt gelijk early adopters betalen altijd de hoofdprijs.

[Reactie gewijzigd door dezwarteziel op 7 april 2016 20:49]

Ik denk ook dat de consument zijn aandacht in de loop der tijd over veel andere dingen is gaan verdelen.

Waar we eerst nog allemaal een computer hadden met losse videokaart, hebben we nu on board GPU's die in de CPU gebakken zitten (weg huis-tuin-keuken klantjes = melkkoe).
Daarbij kregen we eerder ook nog de (i)Pad-rage (wie heeft er niet minsten 3 in huis??) en das weer een melkkoe minder.
Daarna werden we ook nog eens milieubewust als tweakers en toen wilden we hoge performance lage TDP, dus R&D geld moest ergens anders heen.

Kortom, er heeft in de loop der jaren een hoop bijgedragen aan de manier waarop de videokaart voor het echt grote publiek niet langer de rol vervult die het eerder wel deed.
Dit betekent lagere R&D, minder concurrentie door het wegvallen van fabrikanten, etc.

Zet daar nog wat economische malaise naast en we komen tot het besef dat we al die nieuwe spullen dan niet nodig hebben en er valt nog meer geld weg bij de bedrijven die steeds maar weer moeten innoveren.

[Edit] En dan heb ik het natuurlijk nog niet eens gehad over gamen op je mobiel en laptops e.d. De sprongen worden gewoon simpelweg geleidelijker, omdat de kosten over een langere periode terugverdiend moeten worden.

[Reactie gewijzigd door Zapcheeser op 7 april 2016 14:27]

Ik wil de eerste nog zien die fall out 4 op hoge waarden op zn onboard kaartje speelt!! 8)7
Dat denk ik nou juist niet. Als de technologische vooruitgang bewust word afgeremd zou je mogen verwachten dat bijv. AMD dichter bij Intel in de buurt zou komen qua performance; wat niet is gebeurd. Daarom denk ik dat de verbeteringen vooral worden afgeremd door de techniek.
Produceren op een nog kleiner procede word steeds lastiger, daar zit de grootste angel.
Als ik het dus goed begrijp komen er 3 waves bij AMD straks, de eerste Polaris met gddr5x, dan de kaarten met Polaris en HBM1, en dan Polaris met HBM2.
Of laten ze die tweede stap zitten? Of is er tussen gddr5x en HBM weinig verschil in prestaties?

Ik ben aan het wachten met het kopen van een nieuwe GPU, dus ik vraag me af of het zonde is om bijvoorbeeld de 490X te kopen deze zomer.

[Reactie gewijzigd door Kiwi op 7 april 2016 13:02]

gddr5x is al een verbetering, het is niet zo zuinig als HBM en ook is de bandbrede wat minder, maar in ieder geval een verbetering ten opzichte van normaal gddr5 vram, Ik vind het ook jammer maar goed.

De architecture word veranderd, dit worden als het goed is de eerste serie GCN 1.3 kaarten, en zullen op 16 of 14nm gemaakt worden, dit zorgt voor een flinke stroom besparing :) Ook kunnen we er van uitgaan dat deze kaarten 99% Directx 12 support zullen kregen. Verder zou het mij niks verbazen als er een paar kaarten met HBM1 uitgerust zullen worden, al denk ik eerder dat er dan een soort NANO kaart zal gaan, de opvolger van de fury nano maar dan op 14/16 nm, want die kaart is enkel en alleen zo klein vanwege de HMB opstelling en het daarop afgestemde PCB ontwerp.
HBM2 blijkt gewoon beschikbaar en in productie te zijn. Eerder werd hier regelmatig gesuggereerd dat dit niet zo was. Bijvoorbeeld op deze manier:
Vooral mass-marketing. Een multinational versie op de 'first' post op forums.
Echter uit de GP100 presentatie blijkt dat HBM2 inderdaad in productie is en wordt toegepast.
De chip is momenteel in massaproductie en Nvidia zegt de eerste exemplaren zo snel mogelijk te leveren aan grote bedrijven voor gebruik in hun hyperscale-datacenters. Later zullen oem's zoals Dell, HP en IBM de beschikking krijgen over de accelerators, zodat ze deze in kunnen bouwen in servers. Die servers met Tesla P100 komen in het eerste kwartaal van 2017 op de markt volgens Nvidia.
In dat geval is het niet logisch om in de toekomst terug te vallen op HBM1. Een keuze tussen GDDR5X (kosten) en HBM2 lijkt me dan zinniger.
Met de komst van VR en 4K heb ik het gevoel dat we in een totaal nieuwe tijdperk komen mbt videokaarten. Toch zie ik door het bomen het bos niet meer. Zo zie ik dat de 980TI alweer bijna één jaar oud is, maar totaal nog niet in prijs gezakt is. Ik ben dan ook echt benieuwd of het koopadvies van de videokaarten in deze periode anders zijn dan een jaar geleden?
Ja het advies is nu te wachten tot de volgende generatie :P
Die prijs stagnering heeft ermee te maken dat we in 2015 een heuse prijsstijging hebben doorgemaakt in Europa ivm de zwakkere Euro tov de Dollar, en dat op alle geimporteerde producten die een adviesprijs in dollar meekrijgen.

De prijs is dus wel wat gedaald, als je naar de dollarprijzen op newegg en Amazon.com kijkt, maar in Euro zie je dat niet terug.

[Reactie gewijzigd door kiang op 7 april 2016 13:16]

Ai, eind juni, dan kan het wel eens zijn dat Nvidia de show steelt.
Dat is niet te hopen, ik gun het AMD dat ze weer eens een goede indruk maken, ook op de noobs.
Hoezo dat? Zijn er al release dates bekend voor de Nvidia tegenhangers? Ook dan hebben we weer kans op een paperlaunch (iets waar beide fabrikanten zich wel eens schuldig aan hebben gemaakt)
Nee geen officiële release, maar reken erop dat het nu een race is.
http://www.kitguru.net/co...t-pascal-gtx-1080-in-may/
Geloof er weinig van, de CEO van Nvidia struikeld over zijn woorden tijdens de presentatie toen er over de levertijd werd gepraat. Dit betrof dan wel de p100 die niet voor consumenten bedoelt is.

Het zou een eerste zijn dat Nvidia sneller op een nieuwe process node zit dan AMD.
Levertijd is wel het laatste dat je wilt prijsgeven als serieus beursgenoteerd bedrijf. 'Ja investeerders we verkopen even een paar maanden niets totdat de nieuwe GPU's er zijn?' :+
AMD zal het anders doen, door veel info door te laten schemeren dat er binnen afzienbare tijd tech komt die de moeite waard is trekken zij eventuele investeerders aan.
Komt er in juni dus een set kaarten uit (Polaris) en begin volgend jaar alweer een andere (Vega)?
Yes, maar de verwachting is dat Polaris vooral low- en mid(high)-end is, en Vega pas de echte High-end met HBM 2.

[EDIT]
Ik moet echt eerst het artikel gaan lezen voordat ik reageer. :X

[Reactie gewijzigd door LongBowNL op 7 april 2016 13:52]

Hoe zit het met de opmerking dat AMD HBM gen1 nog zou hergebruiken. IIRC werd er iets in de strekking gezegd dat ze de development costs van HBM 1 nog wouden terugverdienen door deze opnieuw te gebruiken in de producten. In Polaris 11 lijkt mij vreemd aangezien HBM altijd als relatief duur gezien werd, maar als polaris 11 GDDR5x krijgt blijft er nog geen andere gen over. Aan de andere kant: Polaris 11 zou wel een killer qua perf/watt worden. HBM is zuiniger dan GDDR5, en het limiet van 4 GB is minder erg bij de polaris 11 .Polaris 10 zal wss 8 GB Vram zijn, anders is de keuze van AMD om 8 GB op de 390 te plakken extra absurd te noemen

(i could be wrong)
In 1x een stap van de huidige performance naar 250% performance verbetering per watt. Dat is nogal wat.
Het zal wel niet allemaal ten goede komen van de feitelijke performance, maar ook komen door toepassen van zuinigere componenten.
Misschien worden dan ITX kastjes met high end performance mogelijk, zonder dat het gelijk een broodrooster wordt of een open air opstelling.

Of verwacht AMD dat ze hiermee dan ook maar gelijk haasje overgaan doen met NVidia?

Het zou ook wel zuur zijn als je dan nu nog een high end kaartje koopt, eind van dit jaar is die voorbij gegaloppeerd, volgens de roadmap.
Exact zoals je 'm omschrijft.

De performance per watt zal omhoog knallen.

De performance in haar totaliteit per prijsrange ten opzichte van de huidige gen kaarten zal wellicht met 5-10% toenemen.
Ben benieuwd. Als AMD de energie gebruik/hitte onder controle hebben en ze beter presteren dan de Fury X met nu wel met een grotere hoeveelheid videogeheugen kan dit best wel een hitje worden.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True