Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 186 reacties

Nvidia kondigt in mei de GeForce GTX 1080 aan, beweert een Taiwanese site. De fabrikant zou de kaart van een op de Pascal-architectuur gebaseerde GP104-gpu voorzien. Nvidia zou nog geen HBM2 gebruiken, maar voor gddr5x kiezen.

De precieze datum die Benchlife voor de aankondiging noemt is 27 mei en dat is vier dagen voor de Taiwanese technologiebeurs Computex van start gaat. Benchlife brengt regelmatig correcte informatie over Intel- en AMD-producten vroegtijdig naar buiten; of de site ook authentieke bronnen binnen Nvidia heeft is niet bekend. Videocardz gelooft overigens dat de kaart eerder als GeForce GTX 1080 door het leven zal gaan.

De GTX 1080 zou over een 256bits geheugeninterface beschikken. De kaart krijgt volgens de informatie een enkele 8pins voedingsconnector en voor de output zijn dvi, hdmi en twee displayports aanwezig. De gpu van de kaart zou de GP104 zijn. Dit is de eerste gpu van Nvidia die op de nieuwe Pascal-architectuur gebaseerd zal zijn en tevens de eerste gpu van het bedrijf die op een 16nm finfet-procedé van TSMC geproduceerd gaat worden. Nvidia zou begin april tijdens zijn GPU Technology Conference meer details over de Pascal-architectuur vrijgeven.

De kaart zou volgens het huidige gerucht over gddr5x beschikken en niet over hbm2. Bij voorgaande presentaties over Pascal liet Nvidia doorschemeren dat voor deze generatie hbm2 ingezet zou worden. Dat zal dan misschien bij latere kaarten gebeuren maar het is wel opvallend. Nvidia zou van Samsung-geheugen gebruik gaan maken en dat concern kondigde in januari aan de massaproductie van hbm2 gestart te zijn. Daartegenover staat dat Micron liet weten de productie van gddr5x pas in de zomer te gaan beginnen.

Hbm2 biedt een hogere bandbreedte dan hbm en gddr5 en daarnaast neemt het gestapelde geheugen minder ruimte in. Gddr5x biedt een verdubbeling van de bandbreedte ten opzichte van gddr5. Dit type videogeheugen moet het nog wel afleggen tegenover hbm en hbm2, maar is goedkoper te produceren.

Nvidia Pascal

Moderatie-faq Wijzig weergave

Reacties (186)

Dat is goed te horen. Ik wil ook naar Pascal of AMD 14nm GPU. Heb nu bijna 3 jaar oude Radeon R9 290 4GB. De 1080 is dus nVidia's instap High End? Of meer een midrange? Ik wil een High End dit keer.
nVidia zal hem misschien eerst wel als high-end GPU uitbrengen, maar het is niet de high-end Pascal dat kun je zien aan de GPU naam. GP104 is de opvolger van de GM204 welke je vindt in de GTX 970 en GTX 980.

De echte high-end GPU zal de naam GP100, GP110, GP200 of GP210 dragen en zal de opvolger worden van de GM200 welke je vindt in de GTX 980 Ti en Titan X.

Is overigens niet het eerste maal dat nVidia dat doet, de GTX 680 was ook niet de high-end GPU dat was een GK104, daarna kwam de GTX 690 en dat was een dubbele GK104.

Pas toen de volgende generatie kwam en de GTX 680 werd gerebrand naar GTX 770 en kwam ook eindelijk de high-end GPU in de GTX 780 en GTX 780 Ti.

Kan nu ook zo zijn als nVidia weer problemen krijgt met de nieuwe GPU. De high-end GPU komt sowieso niet eerder dan het einde van het jaar en als het niet lukt wordt het begin volgend jaar.

[Reactie gewijzigd door -The_Mask- op 11 maart 2016 23:43]

Hoe vroeg is de 970 uitgekomen bij de vorige generatie kaarten? Ik ben al 'n tijdje aan 't wachten om een nieuwe GPU te kopen, en had graag een pascal kaart in de prijsklasse van de 970 gehad...
Met een 256-bit geheugenbus en GDDR5x lijkt mij deze GP104 niet een échte high end kaart zoals de Titan X / GTX980Ti dat is. Ik gok dat er boven deze GP104 GPU een grotere GPU gaat komen met HBM2 als opvolger van de Titan X.
512 eigenlijk, want je hebt dubbele bandbreedte ;-)
Dubbele bandbreedte betekent niet dubbele bitjes. Bij een 256-bit bus krijg je per request 256 bits aan data binnen (vandaar de naam ook ;) ), en dat betekent ook dat je chips dat moeten leveren. Voor een 512-bit bus zouden ze 2x het aantal geheugenchips moeten leveren.

Overigens zijn de geruchten dat HBM2 pas ergens in de herfst in volume beschikbaar komt, dus ofwel ze moeten HBM1 gaan gebruiken, ofwel het wordt GDDR5, in beide gevallen een flinke setback in bandbreedte. Juist vanwege die beperking vermoed ik dat ze nog niet met hun topmodellen willen komen, die zouden een chronisch gebrek aan bandbreedte krijgen.
De bandbreedte is berekend naar aanleiding van de bus breedte. Daarnaast bijvoorbeeld 128 bit op 1000mhz is net zo snel als 256bit opf 500mhz. Deze rekensom maakt de bandbreedte uiteindelijk. Daarnaast is compressie erg belangrijk. Nvidia heeft traditioneel een zeer sterk algoritme die letterlijk data van een image verplaatste als deze beweegd in de volgende frame in plaats van een heel nieuw plaatje opnieuw inladen. Een groot deel van een frame blijft hetzelfde alleen zit de data op een andere locatie.

Dat gddr5x geheugen lijkt hetzelfde truukje te doen als wat destijds oorspronkelijk met sdram naar ddrram gebeurde.

[Reactie gewijzigd door Rin op 11 maart 2016 15:30]

Maar het is toch wel zo dat bij dubbele geheugenbandbreedte twee keer zo veel door de zelfde hoeveelheid bits kan worden verwerkt? Anders is die kaart bij voorbaat geflopt. 8GB met 256 bits geheugenbus.
GDDR is inmiddels al een jaar of 15 oud uit m'n hoofd, en elke kaart die je nu in de winkel ziet heeft dus die 'dubbele bits' zoals jij ze noemt. Let wel, dat maakt de kaart nog niet geflopt, want behalve de hoeveelheid bits zijn er nog 2 factoren die de bandbreedte bepalen van een kaart.
Als eerste is er de frequentie, en hoewel GDDR5 oud spul is, hebben ze hier GDDR5x op geplakt, en dat kan weer net iets hogere frequenties aan. Effectief gaat dat tot 8 Gbit/s per pin, voor een effectieve snelheid van 32 GB/chip. Doen we dan x 8 chips op een 256-bit-kaart, dan kom je op een 256 GB/s uit. Ter vergelijking: de 980 Ti doet 336 GB/s...

Als optie 2 heb je compressie, en hoewel het een beetje valsspelen is, is NVidia daar best goed in. Als je al je data met een factor 2 comprimeert, en dan pas verhuist naar het geheugen, heb je schijnbaar 2x zoveel bandbreedte.

Deze '1080 GTX' gaat niet het snelste op de markt worden, zoveel is zeker, maar ik denk dat ie tegen de 970 een beste kans maakt.
Het huidige DDR is natuurlijk niet meer hetzelfde als die van 15 jaar geleden.
GDDR5 heeft een verdubbeling van de voorgaande GDDR3 techniek.
GDDR5x is weer een verdubbeling tov het huidige GDDR5.
Als eerste is er de frequentie, en hoewel GDDR5 oud spul is, hebben ze hier GDDR5x op geplakt, en dat kan weer net iets hogere frequenties aan. Effectief gaat dat tot 8 Gbit/s per pin, voor een effectieve snelheid van 32 GB/chip. Doen we dan x 8 chips op een 256-bit-kaart, dan kom je op een 256 GB/s uit. Ter vergelijking: de 980 Ti doet 336 GB/s...
Moet je die 8Gbit even aanpassen naar iets tussen de 10 en 16Gbit.
Het is dus niet alleen iets hogere frequentie zoals jij stelt.
Zoek maar eens naar de evolutie van de (G)DDR techniek.

Hier heb je alvast een overzichtje:
http://media.bestofmicro..../gallery/gddr5x_w_600.png
Of je leest het artikel nog een x en komt onderaan een link tegen:
nieuws: Jedec legt gddr5x-geheugenstandaard vast
Deze '1080 GTX' gaat niet het snelste op de markt worden, zoveel is zeker, maar ik denk dat ie tegen de 970 een beste kans maakt.
Een beste kans tegen de 970???
Dus Nvidia zou een nieuwe serie in hun hoogste lijn uit gaan brengen met 150/200% hogere bandbreedte en nieuwe GPU die trager zou zijn dan de voorgaande en een stap lager x70 vs xx80? Hoop niet dat je veel gokt want deze ga je echt niet winnen.

[Reactie gewijzigd door Double-X-L op 11 maart 2016 12:25]

ik denk eerder de opvolger van de 980 (non-Ti). (Ook gebaseerd op de chip die gebruikt wordt, GP104. Waar de 980 de GM204 gebruikte. Het laatste nummer is cruciaal. GM210 is Titan X en 980Ti (en respectievelijk quadro varianten))

Uiteindelijk maakt het toch niet echt uit welke specificaties het heeft, er zit een bepaald patroon in de snelheidstoename van iedere nieuwe lijn. Gemiddeld genomen dan.
Waar ik me zelf wel aan stoor bij Nvidia is dat ze zo zuinig zijn met de hoeveelheid geheugen tov AMD. Vroeger 1,5 en 3 gb, waar AMD al 2 en 4 gb had. Ook hierin zit misschien wel een stukje marketing. Je hebt bij lancering genoeg voor de nieuwste spellen. Na een paar jaar heb je weer te weinig (wanneer je bij AMD nog wel genoeg geheugen hebt, alleen is daar de snelheid niet meer zo hoog). Te weinig geheugen hebben heeft een flinke impact op je snelheid. Wat je dan nog rest is de settings omlaag halen, waardoor je het gevoel krijgt dat je niet meer goed mee komt met de top. Meestal moet je dan je textures omlaag schalen en AA technieken laten zitten. Dan kom je qua snelheid nog wel mee, maar je verliest er psychologisch gezien meer mee dan de AMD tegenhanger die weliswaar 5-10 fps minder heeft, maar nog wel gewoon met scherpe textures kan spelen.
Naar mijn mening had de 980Ti al 8 gb moeten hebben.

Ik zit nog met mijn 780Ti, die alweer bijna niet mee kan omdat ie maar 3 gb heeft. Terwijl de theoretisch langzamere 970 met zijn 3,5+0,5 wel redelijk meekomt.
Ookal heb je er twee in SLI, je geheugen wordt niet verdubbeld.

Ze pakken het wel slim aan. En ik trap er iedere keer in ;).
Deze ga ik overigens overslaan. Ik wacht op het najaar. Het moet toch minstens een flink stuk meer dan 2x zo snel zijn wil ik overstappen.

Overigens was de 980 slechts 10% sneller dan de 780Ti. Maar dat was dan ook eigenlijk de opvolger van de gewone 780 (35-40% winst). Zo gaat het spelletje ieder jaar en ik snap niet waarom men nog verwacht dat er drastische dingen gaan veranderen in andere jaren. Het gaat er nu om dat mensen die net een 980Ti hebben gekocht niet het idee hebben dat ze genaaid worden als er een half jaar later een veel snellere kaart uit komt.

[Reactie gewijzigd door TJRef op 13 maart 2016 06:21]

Overigens was de 980 slechts 10% sneller dan de 780Ti. Maar dat was dan ook eigenlijk de opvolger van de gewone 780 (35-40% winst). Zo gaat het spelletje ieder jaar en ik snap niet waarom men nog verwacht dat er drastische dingen gaan veranderen in andere jaren. Het gaat er nu om dat mensen die net een 980Ti hebben gekocht niet het idee hebben dat ze genaaid worden als er een half jaar later een veel snellere kaart uit komt.
De 1080 gaat anders zijn omdat deze sinds de introductie van de 600-series op een kleiner procede gebakken gaat worden. De 600, 700 en 900-series waren alledrie 28nm, terwijl in het verleden eens in de 1 a 2 generaties overgegaan werd op een beter productieprocess.

Ik heb het even opgezocht omdat ik zelf wel benieuwd was hoe het precies zat:
4 series 150nm
FX series 130nm
6 series 130-110nm
7 series 90nm
8 series 80-65nm
9 series 65-55nm
200 series 65-55nm
400 series 40nm
500 series 40nm
600 series 28nm
700 series 28nm
900 series 28nm

(bron: Wikipedia)

En dan zie je dat de schaalverkleining per serie toch echt wel afvlakt. Het probleem is dat ook TSMC/GloFo last heeft van problemen met schaalverkleining, net zoals Intel zijn tick-tock strategie heeft moeten aanpassen, zie je dat ook bij GPUs gebeuren.

Maar de volgende stap lijkt intussen bijna bereikt. Wellicht dat ze met de yields nog niet 100% goed uitkomen bij de eerste modellen, maar die flinke performanceverbetering zit eraan te komen. Echter is het dan de vraag hoe lang het dan weer duurt.

[Reactie gewijzigd door A Lurker op 16 maart 2016 12:46]

Lijkt me een stuk logischer idd, tegenover de 970.

Had die niet ook afwijkend geheugen tegenover de rest van de line-up? Sorry kon het niet laten hihi
HBM2 wordt momenteel door 1 partij geproduceerd, en die productie is niet voor Nvidia.
''HBM2 wordt momenteel door 1 partij geproduceerd, en die productie is niet voor Nvidia.''

Het wordt door meerdere partijen geproduceerd voor nvidia door Samsung. De productie voor Nvidia is momenteel al gestart, die voor AMD nog niet.

It is stated that Samsung is in direct cooperation with NVIDIA on deployment of HBM2 memory for their cards and have already begun production as of early 2016. SK Hynix on the other hand is directly cooperating with AMD for the development of the new HBM2 memory dies for their Polaris GPUs however SK Hynix has stated to commence mass production in Q3 2016.

http://wccftech.com/nvidi...force-gtx-1080-gp104-gpu/

[Reactie gewijzigd door Nature op 12 maart 2016 00:49]

Doen ze dat niet al sinds de eerste Titan?

Eerst de xx80, daarna de Titan, en dan pas de xx80 Ti.
edit: zag pas te laat dat het een reactie was, en geen eerste post.

Maar dat doen ze inderdaad sinds de eerste TITAN, wat me nu vooral gaat benieuwen is hoe groot het verschil is tussen de GP104 en GP100. Gok er op dat die relatief groter gaat zijn dan tussen de GTX980 en TITAN X.

[Reactie gewijzigd door Case_C op 11 maart 2016 11:12]

ach we zien gewoon steeds hetzelfde:
Kepler:
GTX 680 (104)
GTX TITAN (100)
GTX780 (100)
(en later 780TI )

Maxwell:
GTX 980 (gm104)
GTX Titan X (gm110)
GTX980 TI

nu met pascal zien we wss:
GTX 1080 (GK104)
en dan later pas de GK110 wss eerst als een titan,
en dan mogelijk als nieuwe serie bijv GTX1180 (GK110)
Zucht, nog langer wachten dus, want ik ga niet een nieuwe Nvidia kopen met de 'verouderde' technologie zoals in het artikel beschreven nadat ze me eerst lekker gemaakt hebben met die grafiekjes over de nieuwe technologie. Eerst de 'nep' nieuwe GTX, dan de Titan, dan mijn nieuwe kaart. Poeh, dit kan nog wel even duren.
Dan mogen ze deze kaart wel een stuk goedkoper gaan maken. Nu heb je in ieder geval nog de 970 als redelijke optie (en is de gewone 980 high-end, de 980Ti top-end en de Titans voor mensen met teveel geld - of die het voor hun werk gebruiken). Als een "mainstream" kaart al ¤500 gaat kosten, dan ga ik toch wat serieuzer kijken naar AMD.
GP104 is dan ook niet bedoelt als de high end serie. De GK104 (GTX 670, 680) en GM104 (GTX 970, 980) waren dit ook niet. De echte high end bestaat normaal uit de 100 serie kaarten: GK100/Big Kepler (Titan, GTX 780ti) en GM100/Big Maxwell (Titan X, GTX980ti)
Bij Nvidia is de 104 altijd de kleinere broer van de 110 versie
Er zal dus nog een GP110 gebaseerde chip komen. Wellicht komt deze later door beperkte yields wat we eerder hebben gezien met de GTX 680. Toen kwam er later een Titan op basis van de GK110 terwijl de GTX 680 op de GK104 gebaseerd was.
1080 is misschien wel de logische naam na de 980, maar ik kan me voorstellen dat het voor verwarring gaat zorgen. Deze kaarten worden de volgende stap naar gamen in 4k toch? Zul je zien dat mensen die er niet helemaal in thuis zijn denken dat je met de GTX 1080 in 1080p kan spelen :)
Mee eens, al is de vraag of je scenario veel gaat voorkomen. Iedereen die een videokaart los gaat kopen weet al enigszins meer af dan dat de 1080 voor de resolutie staat. Daarnaast zullen er ook 1060 en 1070 kaarten zijn, dat geeft ook al beter weer dat het nummer niet voor de resolutie staat.

Daarnaast denk ik dat de 80 serie, de duurde en snellere varianten niet gekocht gaan worden door leken die niets van computers en grafische kaarten snappen.

Ik snap je punt, maar denk dat het wel meevalt.
Zou ook wel leuk zijn als ze voor een andere, gebruikersvriendelijk naamgeving kiezen. Stel ze doen ipv de serienummers een echte naam net als de AMD Fury kaarten. Misschien een naamgeving wat de tier waarin de GPU gebruikt wordt aanduidt. (Gamer, Performance, Economy, Ecology). Zou veel beginnende PC enthousiasten en misschien ook wel je average joe beter helpen bij het kiezen van het juiste systeem.
Ik vind de naamgeving bij Nvidia veel logischer en duidelijker dan bij AMD moet ik zeggen. Bij AMD moet ik me echt verdiepen in wat elk naampje nou betekent terwijl het bij Nvidia in een oogopslag duidelijk is over welke generatie we het hebben en op welk niveau de chip/kaart in die generatie ingeschaald is.
Ikzelf vindt de naamgeving al duidelijk van AMD. Zelfs met de laatste 2 generaties zijn die kaarten kwa naamgeving gelijk met de Nvidia kaarten.

De eerste cijfer van de model geeft aan dat het gaat om de generatie en de laatste 2 de type van de videokaart (hoe hoger des te krachtiger). Alleen heeft AMD op sommige types een X geplakt. Dat wil zeggen dat die type overgeklokt is door de fabrikant. Maar Nvidia heeft bij sommige kaarten een "ti" geplakt met daarbij het verhaal voor een tussenstap tussen 2 type kaarten.

Echter een naam zoals "AMD Fury 2 gamer FHD en AMD Fury Dev 4K" zou voor iedere consument helder zijn wat die kaart kan en waarvoor die bedoelt is. Maar als Nvidia het ook zal doen net zo handig. Maar ik denk dat het niet zo snel zou gebeuren.

Bijgewerkt omdat ik de reactie helemaal verkeerd las excuses.
offtopic:
Ik moet maar weekend gaan houden denk ik.. :/

[Reactie gewijzigd door MarcRvB op 11 maart 2016 15:29]

Sorry maar volgens mij klopt je vergelijking niet echt. Een R9 380 bv maakt echt geen schijn van kans tegen een gtx 970. Niet om er nou weer een AMD vs Nvidia flamewar van te maken, maar wat ik daarmee vooral wil aangeven is dat de Fury en Fury x tegen de Titans zetten ook niet echt correct is. De Titan is eigenlijk een buitenbeentje en niet echt bedoeld voor het grote publiek. De topkaarten van Nvidia zijn de 980 en 980 Ti die gewoon de reguliere naamgeving volgen. De topkaarten van AMD zijn de Fury en Fury x, wat volgens mij niet zoals de Titan niche producten zijn maar gewoon echt bedoeld voor de gamer die topprestaties zoekt.

AMD is dus net (vorige generatie) met een nieuw naamsysteem gekomen en heeft daar nu alweer courante uitzonderingen op. Zet dat af tegen het naamsysteem van Nvidia die consequent zijn sinds 2008 met als enige uitzondering de Titan die eigenlijk toch meer bedoeld is als een goedkope Quadro, dan heeft dat gewoon mijn voorkeur.

Daarnaast reageerde ik op Luuk.vanRiel die nou net argumenteerde dat hij liever namen zoals de Fury zou willen zien. Ik geef aan dat ik het daar niet mee eens ben. Dat jij vervolgens komt zeggen dat AMD ook kaarten heeft die geen apart naampje hebben heeft eigenlijk gewoon helemaal niks met de lopende discussie te maken.
Echter een naam zoals "AMD Fury 2 gamer FHD en AMD Fury Dev 4K" zou voor iedere consument helder zijn wat die kaart kan en waarvoor die bedoelt is.
Gemiddelde consument heeft geen idee waar die namen opslaan.
Ik denk dat je een beetje in de war bent, misschien is de vrijdag middag borrel wat vroeg.
Er klopt geen kant van, hoe kom je er eigenlijk aan ben ik benieuwd. Ik kan wel wat benchmarks linken maar het is zo volstrekt belachelijk waardoor ik de moeite niet eens wil doen. :P
Ik denk dat die tier namen alleen maar meer verwarring zullen scheppen.
1. Is een performance kaart beter dan een gamer kaart? (Is er überhaupt een niet-gamer kaart?)
3. Wie bepaalt welke kaart geschikt is voor welk gebruik?

Speel je CS:GO dan zul je minder kracht nodig hebben dan iemand die AAA titles speelt, toch ben je beide een gamer. De één wil alles op max settings spelen, de ander is tevreden als het draait.

Als je zelf je videokaart wilt uitzoeken, moet je gewoon research doen. Als je daar geen zin in hebt, moet je het door iemand anders laten doen. Het huidige systeem werkt prima: hoe hoger het getal, hoe beter. Exact hoe alle consumenten elektronica verkocht wordt.

Overigens vind ik een 'tier rating' wel een goed idee, maar niet als vervanging voor productnamen.
Wut? met een GTX 1060 speel je toch in 1884 * 1060p? 8)7
Pakt rekenmachine...

1920/1080*1060 = 1884

Nice, hahaha
Nee man, 1060 x 795 x 16bit natuurlijk :?
Er staat dan ook GTX 1800, dus ik gok dat dat het gaat worden, nieuwe serie met een nulletje er achter.. GTX 1800, GTX 1700, GTX 1600 Ti etc..
Daar twijfel ik aan, dan gaan ze meer richting de nummering die AMD ook gebruikt. Dát zou pas echt verwarrend worden.
nvidia en amd hebben al eerder gelijkende nummers gehad. Niet op het zelfde moment uiteraard

amd
5.13 Radeon HD 6xxx Series
5.14 Radeon HD 7xxx Series
5.15 Radeon HD 8xxx Series

nvidia
2.7 GeForce 6 (6xxx) Series
2.8 GeForce 7 (7xxx) Series
2.9 GeForce 8 (8xxx) Series
Wat natuurlijk ook gewoon kan :)
Nvidia zal er dan ook van profiteren lijkt me. Maar ik kan me wel voorstellen dat er klachten over zullen komen.
Aan de andere kant: iemand die een high end kaart als een 1080 zal kopen zal dit toch weten? :)

OT: Ik zou het echt bijzonder vinden als ze nu DDR5x gaan gebruiken i.p.v. HBM2. Tenzij een nieuwe strategie van Nvidia is dat ze de high end kaarten goedkoper op de markt gaan brengen (vanwege het feit dat DDR5x goedkoper is dan HBM2).
Maar we moeten eerst maar eens kijken hoe de benches gaan worden.

Vind het ook wel opvallend dat Nvidia al in mei komt met nieuwe kaarten aangezien er nog niks verder gemeld is. Maar we zullen zien.

Ik hoop op een mooi jaar in GPU-land :)
Ik zou het echt bijzonder vinden als ze nu DDR5x gaan gebruiken i.p.v. HBM2. Tenzij een nieuwe strategie van Nvidia is dat ze de high end kaarten goedkoper op de markt gaan brengen (vanwege het feit dat DDR5x goedkoper is dan HBM2).
Zeker omdat de x(x)80-reeks toch eigenlijk hun vlaggenschip is (buiten de Ti gerekend), en hiervoor toch premium-prijzen voor moeten worden neergelegd. Ik had dan ook eerder verwacht dat ze een dergelijke strategie zouden toepassen op de x60 of x70 reeks om net meer te kunnen concurreren op prijs met AMD.
Nou ja, het kan in ieder geval wel, dus incorrect is die gedachte niet. Wel incompleet ;)
Zelf heb ik allang al de logica van de naamgevingen in de techindustrie opgegeven. Ieder bedrijf doet het weer op een andere manier, en dat naamgevingsbeleid veranderen ze ook elke 4 jaar weer. Hopeloze zaak 8)7
Helemaal mee eens! Ik heb niet veel verstand van hardware maar e logica van namen maakt het helemaal moeilijk! Je hebt een i3 i5 en i7... waar zijn 1, 2 en 6 dan gebleven??? 8)7 8)7

Zo zijn er zoveel soortgelijke dingen. De amd serie van gpu's kan ik ook totaal niet volgen. |:(
Zou deels blijkbaar geweest zijn omdat mensen een i2 / i4 / i6 met het aantal cores in verband brachten. Dus dat een i2 een dual core zou zijn, een i4 een quad core en dergelijke. Terwijl dat helemaal het geval niet is. Al zal de analyse / marketing erachter wel wat uitgebreider zijn dan dit.

[Reactie gewijzigd door SmokingCrop op 11 maart 2016 14:37]

Als je zo'n high-end kaart gaat kopen mag ik wel aannemen dat je weet wat je aanschaft. Degene die dat toch doen en het niet begrijpen hebben geld teveel dus dan maakt het ook niet meer uit.
Tja, op zich, 4k is 4x 1080p, dus als 4k kan, moet 1080p geen probleem zijn toch? ;) Al verwacht ik eerder full DX12_1 of misschien zelfs DX12.1 support. En natuurlijk Vulkan.

Wellicht koopt iemand zo'n kaart op de toekomst, nu een 1080p scherm, maar over paar maanden wellicht 4k? :)
Zul je zien dat mensen die er niet helemaal in thuis zijn denken dat je met de GTX 1080 in 1080p kan spelen :)
De meeste consumenten weten niet eens het verschil tussen 720p of 1080p. Full HD is net zo'n maketing term als Ultra HD en er zijn verschillende resoluties die onder 4K vallen. GTX 1080 vind ik juist wel een logisch naam. De 10XX-serie geeft aan dat we echt een flinke stap vooruit maken.
Nee, doe mij dan maar direct de GTX 4k :+

Maar wat serieuzer. GTX 1080 klinkt mij wel prima en vooral met de functies er bij. Ik ben benieuwd hoe AMD denkt Nvidia nog duidelijk te verslaan. Nvidia heeft op het moment al een voorsprong met de prestaties en ik denk dat de GTX 1000 serie dat verschil nog groter gaat maken. Vooral als de GTX 1080 tegenover de Fury X komt te staan qua prijs.

Dus in dit geval denk ik dat AMD het wederom lastig zal krijgen. Maar dat geeft mij geen problemen, want ik geruik zelf een GTX 970 :P
AMD gaat natuurlijk ook met nieuwe kaarten komen. We hebben jaren stil gestaan qua productieproces, en als Nvidia naar de 14nm/16nm kan, gaat AMD ook. Net wanneer TSMC/GloFo er klaar voor zijn.

AMD heeft de afgelopen jaren het lastig gekregen omdat zij veel slechtere drivers hebben dan Nvidia. Een AMD kaart heeft een stuk meer Tflops te bieden dan een gelijkwaardige Nvidia-kaart, maar door slechtere drivers komen ze gelijk uit.
Door de opkomst van DX12 zie je opeens dat AMD een stuk beter presteert: drivers zijn minder relevant en daardoor maakt AMD nu al een opmars.
Is het niet zo dat de ontwikkeling voor de machines die de gpu's produceren ongeveer hetzelfde zijn bij amd als bij nvidia? Ik neem aan dat het veel te duur is om aparte apparatuur te ontwikkelen voor beide partijen.
Ik weet dat het in de chipwereld heel gebruikelijk is dat Apple en Samsung aan dezelfde chip-machine financieel bijdragen en uiteindelijk hun eigen chips daarmee produceren. Zo hebben samsung en apple beide beschikking tot dezelfde instrumentage.
Beide bedrijven laten de boel produceren door ofwel GlobalFoundries danwel TSMC. Samsung heeft zo ook z'n samenwerking met GloFo, als ik me niet vergis. Apple laat z'n chips daar vervolgens maken.

Intel is de enige die z'n eigen productie doet, dat is ook de reden waarom zij zo voorlopen (of AMD achterloopt, tis maar hoe je het bekijkt). AMD kan onmogelijk een 28nm chip maken die een 14nm Intel chip bij kan houden, AMD is volledig afhankelijk van andere partijen om weer in de buurt te komen bij Intel.
Veel slechtere drivers dan nVidia? A. Kom dan even met feiten die deze lege bewering staven. B. Vergeet niet de invloed die nVidia's GameWorks-programma heeft op de concurrentie, AMD kon simpelweg pas vlak voor of na de release gaan optimaliseren. Daar is door Mantle en Vulkan nu een einde aan het komen, gelukkig. Iets met klokken en klepels.

[Reactie gewijzigd door Racing_Reporter op 11 maart 2016 13:07]

A. Check hoeveel tflop een R9 290 doet en hoeveel een GTX 970 doet. Die kaarten presteren gelijk, wat eigenlijk gewoon heel gek is, de 290 is technisch een veeel geavanceerde GPU, vergelijkbaar met een 980.
B. Dit is ook het geval in non-gameworks games, maar het is natuurlijk zeker iets wat ook meetelt.
Laten we niet vergeten dat AMD er niks aan kan doen. Het budget wat RTG beschikbaar heeft is gewoon gigantisch klein vergeleken met Nvidia. Ook daar kunnen ze niks aan doen, maar het is wel zo.
Sorry maar dit is klets, het aantal FLOPS zegt niets maar dan ook helemaal niets over de daadwerkelijke kracht van de kaart. Nvidia heeft op andere zaken ingezet en een flink deel van GPGPU eruit gesloopt, waardoor het niet te vergelijken is.
@ B: je spreekt jezelf hard tegen, daarnaast geef je nog steeds geen voorbeelden. Over de linie presteren de drivers van beide bedrijven behoorlijk goed, er zijn nog wel wat wensen die openstaan aan beide kanten, maar er wordt ook zeer veel werk in gestoken. Ga maar eens kijken online naar het werk van beide fabrikanten in communities, en ervaringen hier op ons eigen forum (CJ AMD-topic, nVidia-topic). Dat zie ik in jouw niet-onderbouwde uithaal naar AMD niet terug.
Het aantal flops zegt wel degelijk wat. Geen idee waarom ik mezelf tegenspreek als ik toegeef dat Gameworks ook een gedeelte van het probleem is.

Ik heb zelf twee AMD kaarten in mijn pc, zie mijn inventaris. Uithaal naar AMD? Niet van mij hoor. Ik sta vooraan om een nieuwe AMD GPU te halen, waarschijnlijk nog liever dan Nvidia.
Aantal theoretische peak flops zegt echt helemaal niks. Dat is namelijk niet meer dan het aantal stream processors maal frequentie maal aantal berekeningen per kloktik. Is dus totaal afhankelijk van hoeveel kracht één stream processor heeft.

Dat is gewoon totaal afhankelijk van de architectuur, zelf verschillende architecturen van AMD of nVidia onderling kun je dus totaal niet vergelijken.

Zie je bij AMD dus ook terug in de verschillen tussen beide TeraScale architectuurs, de VLIW4 (TeraScale 2) en VLIW5 (TeraScale 3) en daarna met de huidige architectuur GCN ook weer. Totaal verschillende prestaties per stream processor.

Zelfde geld ook bij nVidia Fermi, Kepler, Maxwell en Pascal zullen ook niet dezelfde prestatie per stream processor hebben.

En het verschil tussen de onderlingen merken is helemaal groot.
/amd fanboy modus on

Wacht maar af, AMD heeft nog geen enkele nieuwe kaart aangekondigd van die nieuwe serie.
De furyx2 zit er wel aan te komen maar die zit in een andere prijs klase en die maakt poeder van je GTX 970.

/amd fanboy modus off
Daar wil ik wel even op inspringen, want AMD heeft op zich al problemen met de Concurrentie. Intel op de processormarkt en Nvidia op de markt voor videokaarten.

/AMD irritatie modus on

Zelf heb ik meerdere keren met AMD kaarten gewerkt, maar ik ben er niet echt van. Ik weet niet wát AMD aan het doen is, maar als de Fury X tegenover de GTX 980 wordt gezet, wordt deze nu al ingemaakt. Niet dat het een slechte videokaart is, alleen de concurrentie is gewoon beter op dit moment.

Nu zou DirectX 12 hier verandering in moeten brengen, maar ik denk dat dit verschil miniem is. Niet te vergeten dat AMD ook de Catalyst heeft ontworpen. Een stuk software waar ik zelf echt geen ene meter mee verder kom.

Ook heeft een vriend van mij een lange tijd een HD6950 gehad en hij vond Eyefinity helemaal geweldig. Nu is hij een jaar of twee geleden op Nvidia overgestapt en hij kan de software nu honderden keren gemakkelijker instellen.

Ik zeg trouwens ook niet dat mijn GTX 970 beter is dan een Fury X. Zelf heb ik veel liever een Fury X dan een GTX 970, want hij is:
1. Beter
2. Meer "future proof"
3. Waterkoeling...

Maar goed, ik ben hier ook niet om een hogere klasse videokaart met een lagere te vergelijken, ik ben hier om eerlijke vergelijkingen te maken. Vergelijkingen tussen de GTX 970 en de Fury X zijn namelijk oneerlijk.

Ik denk wel dat als er iets komt als de Fury X2, dat deze dan ook weer ergens tussen de GTX 1070 en de 1080 komt. Zelf snap ik dat niet helemaal. Waarom maken ze niet gewoon iets als de R9 295X2? Die kaart was zo enorm krachtig, hij verslaat nu nog een Titan X. Vervolgens brengen ze geen opvolger uit en komt er alleen een R9 390X, welke de opvolger is van de R9 290X. De R9 290X was concurrentie met de GTX 770 en GTX 970.

Dus kortgezegd wat mij irriteert aan AMD:

- Slechte producten die met Nvidia of Intel moeten concurreren
- Sechte software
- Weinig high-end videokaarten
- Waterkoeling om de GTX 980 Ti proberen te verslaan? Waarom?

/AMD irritatie modus uit

Nu wil ik niet zeggen dat AMD een slecht merk is, maar mijn persoonlijke voorkeur gaat naar Nvidia. AMD levert erg fraaie videokaarten als je gewoon zo naar ze kijkt, maar vergelijken met Nvidia is lastig en ze hebben amper iets dat fatsoenlijke concurrentie kan leveren met de GTX 980, GTX 980 Ti of Titan X op de R9 295X2 na en die videokaart is nu al weer een generatie ouder geworden...

Maar goed, Nvidia is en zal altijd mijn favoriet blijven om niet veel meer dan kleur...
GROEN, want ik vind groen een mooiere kleur dan rood }>

Oh ja, en mijn ik vind de GeForce experience erg fijn :P
Gast, als nog steeds denkt dat de Fury X de 980 niet verslaat, loop je wel erg achter.

Dit klopt voor geen meter. Het verslaat de 980 Ti idd niet altijd(alleen op 4k), maar de 980 heeft geen kans. De Fury, een luchtgekoelde variant, verslaat de 980 al.

Je hele comment is een grote puinzooi, en vreemd genoeg heeft het niets te maken met je mening over AMD. Je bent gewoon slecht geinformeerd.

Als je wil, kan ik je haarfijn uitleggen waarom bijna alles wat je zegt niet klopt.

[Reactie gewijzigd door DMZ op 11 maart 2016 23:23]

Fury X ingemaakt door een GTX 980?
Dan zul je toch echt wat beter naar de juiste benchmarks moeten kijken: https://www.techpowerup.c...hire/R9_390_Nitro/23.html

AMD heeft er alleen wat meer tijd voor nodig om de drivers te optimaliseren, waardoor de reviews die uitgebracht worden vlak na het uitkomen van een nieuwe kaart, wat misleidend zijn.
Ik mis mijn GPU, de 670 in die vergelijking :(

Ik snap dat ie wat ouder is maar qua prestaties nog steeds relevant. Niet in de vergelijking met een R9 390 of 980Ti vs FuryX, maar toch.
De GTX 670 zit tussen de GTX 760 en 960 (dichter bij 960 dan 760).
Geen zorgen, ik heb ook nog een GTX 660 liggen ;)
Die doet het ook prima hoor, in mijn oude AMD computer.

Haha, die oude tijd van mij waar ik een FX 4100 met een GTX 660 gebruikte en ik klaagte over de FPS in World of Tanks.

Toen kocht ik mijn huidige PC en ik moet zeggen dat ik er nog steeds erg tevreden mee ben, zowel met de oude als met de nieuwe.
Ik heb ook nog een GTX460 en 750Ti liggen, maar dan is de 670 toch wel even wat krachtiger.
De Fury X was toch gebaseerd op de R9 200 series kaarten? Waarom hebben ze dat platform gekozen in plaats van de R9 300 series als die vlak daarna uitgekomen was?
uhm nee
een Fury X heeft een Fiji chip Deze heeft significant meer cores als de Tonga chip die je in de R9 2xx kaarten vindt

http://nl.hardware.info/r...-een-core-tje-meer-zijnnn

De Tonga nieuwere GCN architectuur die wel DX 12 volledig ondersteund. Deze chip zelf was niet beschikbaar in de HD 7xxx generatie. En is dus ook geen opgevoerde HD7xxx series kaart.

Er zijn wel een aantal rebrands in AMD's lijn die erg ver terug gaan
Zo is bijvoorbeeld de R7 370 een afgevoerde 7870
Je hebt gelijk, mijn excuses
Maakt niet uit,

Amd heeft 3 verschillende architecturen van verschillende leeftijden in 1 Gpu lijn zitten(GCN 1.0, GCN 1.1 GCN 1.2)

Soms zie je gewoon tussen de bomen het bos niet meer.
Haha, ik ook. Excuses :+
Mijn r9 390 whooped jouw 970 reet. Steeds meer games die de 4gb vram aantikken of er over heen gaan.
Veel plezier met de settings terug draaien, ga ik me lekker ergeren aan slechte driver support 8)7

Het gaat al de goeie kant op iig, single-card support is uitmuntend tot nu toe. Crossfire kan tegenwoordig ook zonder micro-stutter.

Maar nog even over het fanboïsm. Elke vorm van concurrentie zorgt voor ook betere producten van je favoriete merk. Je zou dus zowel Nvidia als AMD moeten aanmoedigen. Zonder concurrentie krijg je monopolie met decennia lang slappe rebrands voor belachelijk veel geld.
Ik heb echt geen haat aan AMD, maar ik zou gewoon willen dat de concurrentie die het leverde gewoon wat sterker was. Het voelt voor mij niet aan als een titanenstrijd. Hoe ik het zie op dit moment is dat Nvidia de titaan is en AMD probeert deze naar de beneden te halen met steentjes. Ze proberen het heus, maar ik weet niet hoe ver dat lukt.

Over mijn GTX 970, nog geen problemen mee gehad. Ik wou gewoon een videokaart waarmee ik de games die ik nu speel de komende 6 jaar nog mee kon spelen. Hier de spellen die ik speel:

- Civilization V
- GTA V
- Minecraft
- Terraria
- War Thunder
- World of Tanks
- Portal 2
- Company of Heroes
- Simcity (Origin versie, de nieuwe van een paar jaar geleden)

Hierom heb ik geen GTX 980 gehaald in de tijd, want met deze spellen was dat gewoon niet nodig. De kaart doet wat ie moet doen (al hoe wel af en toe met Coil Whine) en ik wil gewoon dat ik dat de komende 6 jaar nóg kan.
Sorry Andinias maar je lult echt slap man.

In deze benchmark's staat de 970 er niet tussen maar de 980 wel. De 290/390/390x zijn allen goedkoper en presteren aanzienlijk beter dan de 980. De 970 is een klasse lager als de 980, dus het ziet er naar uit dat AMD wel degelijk goeie concurrentie bied. De minimale framerate van de 390 is al hoger dan de gemiddelde framerate van de 980.
http://www.pcgameshardwar...2-Benchmark-Test-1188758/

Sterker nog, op dit moment heeft AMD de beste bang-for-buck kaartje op de markt. Maar goed, je probeert je aankoop te rechtvaardigen natuurlijk.

[Reactie gewijzigd door echtwaarisdatzo op 11 maart 2016 13:51]

Over slap lullen gesproken. Je hele betoog is gebaseerd op de review van 1 spel dat officieel nog niet uit is. Iedereen weet daarnaast dat de ene x AMD sneller is, de andere x nvidia. Daarnaast houdt je in je betoog geen rekening met de eventuele resolutie waarop gespeeld wordt.
Je mist het punt compleet. Andinias zegt: AMD bied geen concurrentie tegenover Nvidia.
Ik weerleg dat, met één vrij actuele benchmark als voorbeeld.

En wat heeft de resolutie er mee te maken. De benchmark van hitman is 1080p in DX12. Het verschil tussen de 970 en 390 word alleen maar groter naarmate de resolutie omhoog gaat.

Ja je kunt elke nvidia en amd gpu naast elkaar leggen. De 380x en de 970 bijvoorbeeld. In dx12 bieden ze ongeveer dezelfde performance, de 380x is echter 100 euro goedkoper dan de 970.
En mijn r9 390 is 190 euro goedkoper dan de 980, en bied betere performance in DX12!

Nvidia maakt echt top gpu's. Maar in DX12 heeft AMD ineens een dikke voorsprong.
Edit: Zelfs het hoge segment zie ik nu. De fury kost ongeveer 560 tot 600 euro. De 980ti kost 650 tot 750 euro. Nagenoeg zelfde performance.

Gun onze inferieure AMD gpu eigenaren ook hun dag. Nu kunnen wij een keer shinen.. laat ons lekker.

[Reactie gewijzigd door echtwaarisdatzo op 12 maart 2016 09:27]

Precies, en ik game op 1080p en 9 van de 10 gamers gamen op 1080p. Maar ik ben het met je eens, want sommige games worden voor AMD kaarten geoptimaliseerd. Ook het feit dat de Fury X zijn naam nog na moet komen en dat gaat waarschijnlijk met DirectX 12 een grote vooruitgang leveren.

@echtwaarisdatzo

De GTX 970 en de R9 290X waren in de tijd vergelijkbaar, maar de 390X is intussen wel duurder, tenzij je de R9 390 pakt. Maar ik heb het idee dat de AMD kaarten nét iets te duur zijn voor de sweetspot en dat vind ik nou erg jammer. Het prijsverschil van iets van 20 á 30 euro minder dan nu kan al zo'n enorm verschil in de concurrentie maken.

Oh en ik wilde inderdaad mijn GTX 970 rechtvaardigen, maar die kaart heeft ook zijn nadelen. Coil whine zoals ik namelijk al zei en ook omdat ik een Intel-Nvidia build logischer vind dan een Intel-AMD build. Stel dat ik nu een AMD kaart zou nemen, dan zou ik een complete AMD PC willen bouwen, met AMD processor en Videokaart, maar daarvoor wacht ik nog even tot AMD een mobo met DDR4 ondersteuning uitbrengt.

Als laatste moet ik zeggen dat hoe jij ook kunt zeggen dat jouw AMD kaarten beter zijn, mijn GTX 970 is gewoon genoeg. Ik zou hem voorlopig nog niet vervangen en de coil whine overleef ik wel. Stuur mij anders over een jaartje een DM, kijken hoe het met de videokaarten gaat, dan vertel ik wel over de mijne. Ik wil zo gauw niets bewijzen, maar ik ben gewoon benieuwd hoe het over een jaar met jouw R9 390 gaat, want mijn GTX 970 heb ik intussen al een jaar en hij doet zijn werk nog steeds braaf.
Je 970 is prima. Erg efficient vergeleken met nagenoeg elke gpu van AMD, zo ook de 390. Als ik de r9 390 in crossfire wil, is zelfs een 850watt voeding erg krap aan.
En van de andere benchmarks die ik gezien heb, zit de 970 vrij dicht in de buurt van de 390. Het is vooral de 980 (niet ti) in de line-up van nvidia die een ontzettend slechte prijs-performance verhouding heeft. Nog steeds over de 500 euro, en presteert amper beter dan jouw 970.

Géén AMD cpu's overigens. Hoeft niet hetzelfde merk te zijn een gpu en cpu, ook niet omdat het leuk staat. Je wilt echt geen cpu van AMD hebben. Framedrops en stuttering nee dank u.

[Reactie gewijzigd door echtwaarisdatzo op 12 maart 2016 09:00]

Ik speel met mijn vriendin Dying Light. Dit is mijn systeem:

AMD FX 8350 cpu op 4,3 ghz overclock
GeForce 770 GTX 2 GB van Gigabyte

Haar pc:

AMD FX 6300 cpu op 4 ghz overclock
AMD R9 280 3 GB van Club3D

Resultaat: Allebei alles op hoogste, behalve view distance. Alle NVIDIA opties uit: 60 fps bijna constant

MAAR:
Mijn systeem heeft vaak het videogeheugen vol en hapert dan, ik krijg hele korte freezes van een halve seconde. (Ik heb gekeken met een overlay van NZXT CAM: bij de haperingen is het videogeheugen 100% vol, en buiten dat is het ook bijna altijd vol, zo rond de 80-90%)

Mijn kaart zou krachtiger moeten zijn dan de R9 280, maar heeft toch moeite. Ik speel nu met shadows op medium en view distance helemaal op het laagste, dan heb ik bijna geen freezes meer.

Ik ben bang dat als ik een 970 had gehaald, dat ik dit probleem weer ging krijgen dit jaar of volgend jaar. NVIDIA staat in de high end misschien wel beter er voor dan AMD, het is erg jammer dat ze (volgens dit gerucht) niet met HBM komen. Ik wilde over 2 maanden een Geforce 980 halen, maar ik ga nu denk ik voor de R9 Nano (Fury verbruikt extreem veel stroom).

[Reactie gewijzigd door Ulas op 11 maart 2016 23:21]

Fanboïsm is like sooo 1999!
dat is wel een leuke om de pc - console fanatiekelingen tegen elkaar te laten opspelen.
Mensen die er niet helemaal in thuis zijn zullen zeer waarschijnlijk ook niet zoveel geld uitgeven aan een videokaart. Een echt probleem zal het dus niet zijn vermoed ik.
Nja ik neem aan dat je geen videokaart gaat kopen indien je er geen verstand van hebt..
Het zijn toch wel meer de kenners die een GPU van 400-700 euro kopen ( weet zo even de prijs niet.. ).

Althans is een aannamen hoor maar ik denk niet dat iemand die er 0,0 verstand van heeft een kaart van 100e euro's links laat liggen omdat die denkt dat die alleen maar 1080p kan afspelen. Meestal iemand die er 0,0 vanaf weet vraag informatie in de winkel / webshop.
Dat is precies de link die ik legde ooh een kaart voor de 1080 P gamers. Ooh nee het is gewoon de volgende generatie!
Best logisch, heb ook een 2e videokaartje voor een 2e scherm aan te sturen
Iemand die niet helemaal thuis is over GTX kaarten gaat sowieso niet zoveel geld uitgeven aan een kaart.
Of natuurlijk als volgt:

'waarom zou ik de geforce 1080 willen hebben als ik hier al een 5200 heb liggen?"
Volgens mij moeten mensen die zo denken misschien maar bij de pre-built pc's houden ;)
Op zich niet verkeerd dat ze HBM2 voor de eerste kaarten laten voor wat het is, en toch Pascal kaarten eerder uitbrengen. GDDR5x is toch ook al een upgrade vanaf de oude GDDR5, dus beter word het toch wel.

Maar gaat het verschil in geheugen nog veel FPS uitmaken? Of is dit voornamelijk een verschil in het verbruik van de kaarten? Wellicht gaat dat een interessant punt zijn om te onderzoeken met deze nieuwe generatie kaarten.

Vraag me ook af of AMD wel volledig doorgaat op HBM1 en 2, en GDDR5x voor de high-end kaarten links laat liggen. (Hoewel 8gb eigenlijk de nieuwe standaard word.)
Ik vind het apart dat Nvidia HBM2 nu links zou laten liggen voor hun high-end kaarten. Zeker als AMD dadelijk wel met HBM2 kaarten komt, dan zou dat voor het eerst sinds lange tijd zijn dat AMD een flinke voorsprong heeft op Nvidia en ik denk eerlijk gezegd niet dat Nvidia dat laat gebeuren.
GP104 is dan ook technisch gezien niet hun high-end ;)

Even los van wat ik denk van dit gerucht (*kuch*), is GP104 een mid-class GPU. Die hoort in het rijtje van G84/GF104/GF114/GK104/GM204 (8600/460/560/680(770)/980 in die volgorde). Dat GK104 en GM204 in eerste instantie als "high" end in zijn gezet doet er niets aan af dat het toch de mid-range chips in hun generaties zijn. Boven al die chips zitten grotere chips (G80, GF100, GF110, GK110 en GM200) die de daadwerkelijke high-end zijn. En van die grote chips zijn de laatste paar jaar dan ook nog eens "hebbedingetje" versies uitgekomen in de vorm van de Titans.; de eerste Titan en de Black hadden de volledige DP rate, terwijl de Titan X stiekem gewoon een 980 Ti met twee extra clusters is (die staat qua specs dus tot een 980 Ti als een 980 tot een 970).
Net zoals de voorsprong die de Fury heeft op de 980Ti door het gebruik van HBM?

Hmmmm....

Misschien puur op specs, maar als je dat niet kunt inzetten in real-world prestaties.
Wat vooral neerkomt op DX11 prestaties, als we kijken naar DX12 prestaties dan zien we dat AMD al beter begint te presteren dan Nvidia. Ook is het zo dat een hoop mensen graag nieuwe technieken willen gebruiken, als Nvidia dan bij Gddr5x blijft steken terwijl AMD naar HBM2 gaat dan ga ik er van uit dat de enthousiastelingen naar AMD overstappen. Als AMD dan ook nog is alles opengooit voor overklokkers dan hebben ze in mijn ogen een winnaar te pakken.
Wat vooral neerkomt op DX11 prestaties, als we kijken naar DX12 prestaties dan zien we dat AMD al beter begint te presteren dan Nvidia. Ook is het zo dat een hoop mensen graag nieuwe technieken willen gebruiken, als Nvidia dan bij Gddr5x blijft steken terwijl AMD naar HBM2 gaat dan ga ik er van uit dat de enthousiastelingen naar AMD overstappen. Als AMD dan ook nog is alles opengooit voor overklokkers dan hebben ze in mijn ogen een winnaar te pakken.
Op basis van wat trek jij DX12 conclusies? Toch niet die ene benchmark van een game in alfa fase. Representatief is dat allemaal niet.
Bovendien zijn er vrij weinig DX12 games dit jaar dus aan een sterke DX11 kaart heb je momenteel meer.
Niet alleen daarop, ondertussen is ook Hitman uitgekomen met DX12 opties. Benchmark is hier te vinden: http://www.pcgameshardwar...2-Benchmark-Test-1188758/
Vertel me waar Nvidia het dan zo geweldig doet in die benchmark? Ik zie een non-x Fury het al haast winnen van een stevige factory OC GTX980TI in DX12. Een 390x is al sneller dan de Titan X/12G (zelfde chip als de GTX980TI). De 290 non-x (met OC) is sneller dan een GTX980.

Zover ik kan zien wordt Nvidia in alle gevallen voorbij gelopen.
Maar misschien zie ik spoken en moet ik een leesbril kopen :+.

Iedereen kan DX12 wel lopen downplayen maar het is gewoon de volgende stap en op het moment (Hitman, AoTS) doet AMD het gewoon veel beter. Dit zullen niet de laatste titels zijn met Async Compute erin, als het op de consoles wordt gebruikt dan is het een logische stap om het ook op de pc te gebruiken.

Wil je huidige games goed spelen dan kan je prima af met een Nvidia of AMD kaart (afhankelijk van je prijsklasse en voorkeur). Wil je een kaart die het in DX12 beter doet dan ben je op het moment beter af met AMD; hoewel ik "op moment" zeg heb ik nog geen enkel bewijs gezien dat dit gaat veranderen.

Wat mij betreft prima dat bij AMD in DX12 de handrem er in feite afligt, geeft ze de kans om weer wat terug te krabbelen en dat zorgt voor een gezonde markt (waar iedereen blij van wordt).
Ik heb nooit gezegd dat AMD beter is dan Nvidia. Om het duidelijk te maken: ik bedoel dat AMD beter begint te presteren in DX12 situaties waar Nvidia vrijwel nog geen voortgang laat zien.
Features die DX12 meebrengt lijkt op wat AMD al in de Api van mantle had verwerkt.

De architectuur sluitte er gewoon beter op aan. Ik zelf ga er niet van uit dat dit van toepassing is op de nieuwe architectuur Pascal.

Eindelijk een die shrink dat is een tijd geleden ben benieuwd waar beide concurrenten mee gaan komen en wat de verhoudingen worden.
Hoe dit zo? de gti is zwaar overgeklocked op die benchmark tegen stock clocks dat moet ook even mee genomen worden.Daarbij ook nog dat die kaarten iets duurder zijn. Als je goed bekijkt zijn er op dit moment nog maar 2 kaarten die er toe doen en dat is 980 TI of 390(x).
Ja maar die prestatie boost ligt niet echt aan HBM2. Niet dingen door elkaar halen :)

DX12 'prestaties' zijn er nog helemaal niet zoveel. We hebben Ashes, maar dat is een AMD-gestuurde benchmark en meer niet. De resultaten gaan daar letterlijk 'back and forth' tussen Nvidia en AMD, maar de architectuur van AMD lijkt al wat beter ingericht te zijn voor bepaalde features van DX12 ja. Maar dat is allemaal leuk en aardig, het heeft nul komma nul met HBM te maken. Verder zijn letterlijk alle games op de markt nu nog DX11. De DX12 adoption rate is nog heel laag, vergis je niet, en daarmee is er dus ook nog geen markt. De vraag is dus vooral hoe nuttig de huidige voorsprong van AMD nou echt is. Synthetisch =/= in game.

HBM2 kun je heel leuk gaan toepassen en vervolgens krijg je een GPU die peperduur is en bijvoorbeeld niet meer lekker kan overklokken. Dat zie je nu bij Fury X bijvoorbeeld, en dat is ook de reden dat de kaart op 1080p merkbaar minder snel is dan een 980ti.

En dan is er nu de '1080'. Heel simpel gezegd: HBM2 op deze kaart is zinloos. De GPU is lang niet krachtig genoeg om daar meerwaarde uit te halen, zelfs de 980ti is momenteel op 384bit GDDR5 niet eens bandwidth limited, laat staan met GDDR5x op een (misschien!) marginaal sterkere GPU.

Kortom als je koopmotief staat of valt met het hebben van HBM, heb je het niet helemaal begrepen.

[Reactie gewijzigd door Vayra op 11 maart 2016 11:26]

Wat wel is is dat HBM zorgt dat hogere resoluties beter speelbaar zijn. Kijk maar naar de fury x

Ok je hebt ook prestaties nodig maar als je ziet dat de fury x voorloopt bij hogere dan lagere resoluties. Dus is zeker wel merkbaar, neemt niet weg dat het overklokken En dergelijke erg moeilijk word.

Ik weet natuurlijk niet of dit voor VR nodig is dat hbm maar voor 4k Gaming is het echt wel een aangeraden toevoeging.

[Reactie gewijzigd door boonpwnz op 11 maart 2016 12:20]

GDDR5x lost het bandbreedte probleem voorlopig prima op, en je hebt niets aan HBM als de GPU erachter niet genoeg power heeft. Bovendien is HBM duurder om te implementeren en moet de productie nog op gang komen.

[Reactie gewijzigd door Vayra op 11 maart 2016 12:19]

Daar heb je gelijk in.

Ik vind het enerzijds wel jammer dat HBM voor normale gamers en die gewoon. Aan de andere kant zoals jij zegt zal gddr5x waarschijnlijk de standaard worden voor de momenteel gewone gtx 900 series maar dan de opvolgers?

Want gddr5x loopt niet veel achter op HBM gen 1

Maargoed we zullen zien.

[Reactie gewijzigd door boonpwnz op 11 maart 2016 12:27]

Ik denk dat HBM2 op de grotere chip (GP110) nog wel enigszins realistisch is, ook omdat die later uit gaat komen.
Een voorsprong op wat? De huidige kaarten van Nvidia zijn al sneller dan die van AMD.

Op dit moment zet Nvidia in op 16nm procedé en het duurt altijd even voordat de techniek verfijnd is en de yields op maximaal niveau. Je gaat je als bedrijf voorlopig daarop focussen en zet daar een groot deel van je middelen op in.
Zo gauw het proces onder controle is verschuif je je middelen (in de zin van kapitaal maar ook ontwikkelaars) en kun je de volgende stap maken door ander soort geheugen te gebruiken. HBM wordt op een andere manier verbonden waardoor er meer risico's aan zijn verbonden.


Als je een topkaart uitbrengt is het laatste wat je nodig hebt een haperende kaart die extra patches nodig heeft om te functioneren. Het uitbrengen van een nieuwe archichectuur brengt al genoeg risico's met zich mee.
Ik zou geen fps boost verwachten(tenzij ze er te weinig van opzetten). Maar minder textuur popping. En dat is wel prettig.
Momenteel heb ik daar met mijn GTX770 met 2gb erg veel last van. Maar of dat verschil gaat maken wanneer je 8gb GDDR5x of 8gb HBM2 hebt moet ik nog gaan zien :) .

Maar ik zit nu wel erg om een nieuwe kaart te springen dus ik denk dan niet dat ik ga wachten op de GP100 chip, of HBM2. 8gb moet toch wel genoeg zijn voor de komende 4 jaar zou je zeggen :+ .

edit:
Daarnaast is het ook prettig om met slechts 1 8pin toe te komen voor het kabelmanagement. Maar ongetwijfeld komen de aftermarket kaarten wel met een extra 6 pin voor voldoende prik voor een stevige OC.

[Reactie gewijzigd door Case_C op 11 maart 2016 12:33]

ik ben nu al sinds ik 'm heb ... heel blij met m'n xfx 290x met 8 gb :)
Een soort van crossover kaart dus om de mensen die op een nieuwe kaart wachten alvast te pakken? Ik wacht zelf nog even op de hbm2 kaarten, anders krijg je er denk ik spijt van.
HBM2 is niet de holy grail en het biedt ook geen garanties, kijk maar naar de AMD kaarten met HBM, die zijn ondanks de HBM momenteel niet de prestatie-kroon houders.
Dit ligt ook aan de architectuur die gebruikt word bij amd waar fiji behoorlijke faald is hawai nog steeds een hele goede chip. Ook is hbm1 waar je het over hebt beperkt tot maar 4GB waar hbm2 dit probleem niet heeft en ook sneller is.Wel hebben zij samen iets compleet nieuws neer gezet waar ik om heel eerlijk te zijn nvidia nog niet heb mee zien komen (correct me if i'm wrong)

[Reactie gewijzigd door satanas666 op 11 maart 2016 15:17]

Dan nog; het valt me op dat veel Tweakers zich blind staren op HBM en HBM2, want het beloofd zoveel goeds. Er zijn meer zaken in een GPU dan het gebruik van de soort geheugenchips. En HBM bij AMD laat dat imo goed zien.

Dan kan HBM2 nog zoveel beter zijn, er zijn echter veel meer factoren die een GPU maken of kraken. Memorybandwidth is daar vooralsnog niet een van. Een GPU kopen op basis van het feit of het HBM of HBM2 heeft, is gewoon niet slim, dat heeft AMD tot nu toe bewezen met HBM te gebruiken, waarom zou dat zoveel anders zijn met HBM2? :?
Inderdaad dat zei ik dus ook al in me vorige reactie. Fiji chip is niet echt 1 van de meest geweldige chips.Ik zou me meer afvragen wat als het op de hawai chip zat.
Of zelfs wat als nvidia hier mee was gekomen op de huidige maxwell chip hoe het dan gelopen zou zijn.
HBM is inderdaad niet de holygrai, maar het biedt verdomme heel veel voordelen zoals sneller geheugen, meer geheugen, beter stroomverbruik. HBM heeft ook als voordeel dat er veel ruimte bespaart kan worden op de die, deze ruimte kan goed gebruikt worden om meer streamprocessor op de die kwijt te kunnen. Verder wordt de GPU en de connecties naar de geheugen veel minder complexer, wat de GPU minder complex maakt en daardoor sneller kan worden ontworpen. HBM heeft 1 nadeel dat het heel erg duur is op dit moment.
het is inderdaad uitmelkerij, tuurlijk hadden ze al kaarten kunnen op de markt zetten met hbm maar waarom zouden ze zo snel gaan, de mensen kopen toch
Mei is een stuk sneller dan verwacht. Ik ging uit van oktober of later zelfs voor de eerste pascals. Het zou mooi zijn als er al zo'n vroege release plaatsvindt vanwege de benchmarks. Zo weet iedereen al snel het verschil tussen een 980/980Ti en een 1080 pascal. Voorlopig denk ik dat mn 980TI nog wel even vooruit kan.

[Reactie gewijzigd door Rabbitto op 11 maart 2016 10:57]

Aankondiging is niet hetzelfde als release he. ;)

Ik hoop dat met deze kaarten een grote stap in prestaties en zuinigheid gezet wordt. De 1x8pins power connector belooft in ieder geval veel goeds voor het verbruik (verbruik zal dan sowieso onder de 225w (150w + 75w pci-e slot) liggen).

[Reactie gewijzigd door adamvansanten op 11 maart 2016 11:32]

wacht maar tot de Titan XZ uitkomt, die zal wel stroom vreten ;)
Het is ook nog maar een gerucht, weet iemand wat dit doorgaans met de prijzen van de oude kaarten doet?
Weinig, die zakken langzaam, en sterven gewoon uit in de winkel. Gewoonlijk betaal je per performance, en ik verwacht dat tot aan mei er een beetje geknipt gaat worden (lees: 10% eraf wellicht), en dat de nieuwe aanvullingen dan mooi in de pas lopen. Zo lang NVidia niet op 14 nm gaat leveren (hun laatste 14nm-chips waren dat niet, en de gok is dat de chips ook pas rond/na de zomer beschikbaar zijn) zullen de kosten per chip niet gek ver zakken, dus hun eind-prijs ook niet. Verwacht de grote daling rond de Kerst....
Erg weinig omdat die kaarten gewoon in prestatie dalen, relatief gezien. De nieuwere kaarten zitten vaak gewoon 'een tier hoger' waardoor de oudere kaarten een stapje lager zitten qua performance niveau met elke nieuwe release. De terugval in waarde is eigenlijk wel gelijkwaardig aan de mate waarin je sowieso in prijs zal zakken als je iets tweedehands verkoopt, omdat het gebruikt is. Het eindresultaat is dat je met één keer instappen en tijdig doorverkopen steeds voor de halve prijs kan upgraden. Kijk voor de grap eens op de V&A naar de prijsverschillen tussen de onderstaande kaarten, die zullen rond hetzelfde niveau liggen. De prestaties ook :)

780/780ti > 970
770 > 960

[Reactie gewijzigd door Vayra op 11 maart 2016 11:41]

leuk, heb van de week een gtx 970 gekocht :D
Same here, vorige week een GTX 970 gekocht in combi met The Division. Maar wel bewust gedaan met het Pascal verhaal in m'n achterhoofd. Dit is natuurlijk nog maar de aankondiging (gerucht zelfs) van één enkele kaart. Dus het duurt nog wel wat langer voordat er echt een breder aanbod komt + de prijzen zullen er vast ook niet om liegen ;)

Ik ben eerst wel zeer content met deze upgrade en verwacht dat ik hier zeker de komende jaren nog wel mee uit de voeten kan! En anders nog een extra GTX 970 er bij in SLI :9
Mee eens. Dit komt nog eerst uit in kinderschoenen. Zelf koop ik nooit direct iets "nieuws" per direct. Ik wacht altijd even op de reviews of een nieuwe versie van het product met de fouten er uit ;)

Ik ga later ook nog een 2de 970 aanschaffen. Maar, zolang mijn games allemaal boven de 60FPS blijft, is het voorlopig nog niet nodig. (BF4, Borderlands TPS, GTA5)
Uitkijken met 970 sli. De vram kan dan wél een probleem worden, vooral op hogere resoluties. Teleurstelling die je wilt vermijden.
Ja ik ook. Maar, ik verwacht geen grote veranderingen de komende tijd in gaming wereld. Je zit zeker nog wel goed de komende tijd met de 970.
Nog niet van VR gehoord misschien?
VR is nog lang niet klaar voor massa consumptie.

Je kunt nu voor een fortuin early adopten, dat maakt het nog niet bruikbaar. Het is nog maar af te wachten wat er voor werkelijk goed speelbare content zal zijn. Als ik nu zie hoe men loopt te stunten met optimalisatie? Een beetje game op 60 fps houden is al veel te lastig, laat staan 90 fps per oog.

Edit: oh, dit is een flamebait? Grappig :)

[Reactie gewijzigd door Vayra op 11 maart 2016 13:06]

Ja ik denk dat een gtx 970 dan ook geen vr doel heeft

Ik vind dat voor full hd te gamen de GTX 970 nog jaren zal meekunnen in vergelijking met een 960 en ik bedoel dan op ultra of very high instellingen :)
De content is er wel, de hardware dadelijk ook (rift en vive). Maar inderdaad de performance is er nog lang niet.

Ik zag dat ze voor AMD een r9 390 aanraden, die ik in mn pc heb. Je maakt mij niet wijs dat mijn systeem zo twee keer 1080P op 90 fps trekt, zonder alles op low te zetten.
Low settings die nog lelijker worden omdat je ogen letterlijk tegen het beeld aanzitten.
Vandaar dat het zo belangrijk is dat deze kaart 'dra verschijnt.
Die verandert daar niets aan. De 1080 zal niet veel anders zijn als de 980ti.

Verder lopen we nog tegen CPU bottlenecks aan op 90 fps. GPU's lukt het wel als de game er maar simpel genoeg uitziet. Maar een beetje CPU physics, bijvoorbeeld, of een wat complexere game, is veel eerder CPU limited dan GPU.
Wel, maar ik zie mezelf op korte termijn niet met VR.
Ik denk dat VR net zn stille dood gaat sterven als 3D
Je kan ze vast nog wel redelijk verkopen, en minimaal hetzelfde bedrag bijlappen voor een '1080'... ;)
Ik weet niet of het sarcastisch bedoelt is of niet maar het is al tijden bekend dat de Pascal kaarten er aan zaten te komen. Ook in de GoT topics wordt aangeraden om nu geen kaart te kopen tenzij het echt nodig is.
Ik had een R9 290 die ik voor een mooie prijsje heb kunnen verkopen. Wou er vanaf wegens het feit dat het voor vastlopers zorgde in Counterstrike (faceit), schijnt een bekend amd probleem te zijn. tevens wordt dat ding nogal heet. heb er 80 euro extra voor bijgeteld en heb nu een 970.
je krijgt die kaarten altijd wel weg met minimaal verlies dus zo een slechte aankoop is het niet,

had zelfs winst gemaakt met mijn r9 290 na 1.5 jaar :D
Ja alleen je 970 kost omg 330-370 euro. De 1080 zal eerder richting de 550-600. Of meer. Tevens hadden we je het op het CAA forum ook al kunnen vertellen. Tevens wil AMD nog steeds polaris voor de back to school promotion in de schappen leggen. En dit was prima via google te vinden :)
Ga je nog lang plezier van hebben, don't worry :)
Dit lijkt mij dan gewone gddr5 en niet de gddr5x want ergens anders lazen we dat dat pas in de zomer in massa productie zal gaan http://www.bit-tech.net/n...016/02/11/micron-gddr5x/1.
Juist wel, de kaart wordt in mei aangekondigd. Voordat deze op de markt komt ben je een aantal maanden verder.
Tot zover enkel samples het laatste nieuws is ook dat ze willen massaproduceren in de zomer maar dan ben je er nog niet.
Slimme zet om voor GDDR5 te gaan, kan je later dezelfde hardware met HBM2 uitbrengen en zeggen dat het een upgrade is.
Al ben ik Nvidia "fan", ik hoop dat AMD ze uit het water blaast met hun nieuwe kaarten.
GDDR5 heeft een andere geheugencontroller als HBM nodig, dus dat is niet 1-op-1 om te zetten.
Geforce X80 is ook nog een optie, om resolutie gerelateerde verwarring te voorkomen.
Dat gaat natuurlijk nooit gebeuren. Dan lijken ze te veel op AMD.

Nee, gewoon de lijn doortrekken en 1070/1080 gebruiken.
Geforce X80 vs R9 390X. Zoveel lijkt dat nou ook weer niet op elkaar.

Op dit item kan niet meer gereageerd worden.



Samsung Galaxy S7 edge Athom Homey Apple iPhone SE Raspberry Pi 3 Apple iPad Pro Wi-Fi (2016) HTC 10 Hitman (2016) LG G5

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True