Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 114 reacties

Nvidia werkt volgens een nieuw gerucht aan een gpu die het vermoedelijk zal presenteren als GTX 1080. De kaart voor consumenten zal gemaakt worden met hbm2-geheugen en zou gemaakt worden op een 16nm-proces met Nvidia's nieuwe Pascal-architectuur.

De informatie over de vermoedelijke GTX 1080 komt van hardwaresite Tweaktown. De site spreekt van twee nieuwe kaarten, waarvan een bedoeld voor consumenten. Die beschikt over een 4096-bits geheugenbus. Bovendien heeft het de tweede generatie gestapelde hbm-geheugen aan boord, dat zou zijn geklokt op 1GHz. Dit zogenoemde '3d-geheugen' maakt het mogelijk om meer geheugen op een kleiner oppervlak te krijgen, wat ruimte scheelt en moet schelen bij stroomverbruik. Onder meer de AMD Fury en Fury X maken gebruik van de eerste generatie hbm-geheugen.

De gpu's zijn gemaakt op basis van Nvidia's nieuwe Pascal-architectuur. Dat ligt voor de hand, omdat het bedrijf al langer daarover spreekt en op de planning heeft staan voor release in 2016. De op Pascal gebaseerde gpu's zullen worden gemaakt op een 16nm-procedé van TSMC. Volgens Tweaktown ligt het voor de hand dat de nieuwe kaart, met 4-Hi gestapeld geheugen, de naam GTX 1080 zal krijgen. Er komt ook een tweede variant voor de professionele markt.

Moderatie-faq Wijzig weergave

Reacties (114)

Wie zijn nu beetje de bedenkers achter HBM? Zal wel een logisch technisch gevolg zijn, maar net als met bv PhysX en Cuda, iemand moet er toch het idee hebben om dit opeens op grote schaal te gaan inzetten?
Hbm is samen met hynix ontwikkelt. AMD is er al sinds 2008 onderzoek naar aan t doen.
https://en.m.wikipedia.org/wiki/High_Bandwidth_Memory

[Reactie gewijzigd door Vegettokai op 22 juli 2015 19:00]

Geheugenfabrikant Hynix zit erachter.
in combinatie met AMD, dat de aanzet heeft gegeven tot de ontwikkeling. Dat is imho niet onbelangrijk. En ook direct de reden dat AMD voorrang krijgt bij leveringen van HBM geheugen.
Hoe kom je erbij dat AMD voorrang zou krijgen?
Hynix heeft duidelijk aangegeven dat HBM voor iedereen beschikbaar zal zijn: http://www.amd.com/Documents/TFE2011_006HYN.pdf
Hynix will be ready to support the full Graphics solution portfolio for each Customer tomorrow as like today.
Omdat HBM1 in feite het 'protoype' is, is Hynix een partnerschap aangegaan met AMD (ze zullen vast ook nVidia benaderd hebben). Je hebt bij een nieuwe geheugeninterface een beetje een kip-en-ei-probleem, dus is het wel handig om nauw samen te werken met de fabrikant van de GPU met de geheugencontroller.
Er is op dit moment ook geen vraag naar HBM vanuit andere fabrikanten, omdat die nog geen chips hebben die het ondersteunen. Dus van 'voorrang' kun je nu niet spreken.
Maar als straks nVidia ook HBM gaat gebruiken, zal Hynix wel gek zijn om AMD voorrang te geven. nVidia is een veel grotere klant dan AMD.
Ik heb me al een paar keer afgevraagd wat de verhouding tussen AMD en Hynix nu precies is. Wat blijkt; AMD heeft patenten op HBM, na wat Googlelen op fora kom ik op deze patenten uit:
US20130159812 A1
US20130346695 A1
US20140040532 A1

Los van de voorrang zal nVidia dus geld gaan betalen aan AMD zou ze het geheugen gaan gebruiken. Dit is dus prima voor AMD en Hynix.

En zelfs al zou nVidia iets kunnen bereiken met het HMC geheugen (Hybrid memory Cube) dan heeft deze techniek nog altijd achterstand op de HBM oplossing. En bovendien, ook bij HMC is nVidia geen shareholder.

nVidia staat in dit proces op achterstand, of ze vertraagt bij het kiezen (en gaat bijdragen aan) de HMC oplossing, of ze moet gaan betalen voor de HBM oplossing.
Los van de voorrang zal nVidia dus geld gaan betalen aan AMD zou ze het geheugen gaan gebruiken.
Dat lijkt me niet.
nVidia heeft namelijk zelf ook enorm veel patenten (wat dacht je bv van deze: http://www.google.com/patents/US8860741), en er zal tussen AMD en nVidia wel een cross-licensing agreement zijn.

[Reactie gewijzigd door Scalibq op 22 juli 2015 23:29]

Er stond zelfs artikel over bij Tweakers dat AMD voorrang krijg omdat ze hebben samen Hynix ontwikkeld HBM.
nieuws: Gerucht: AMD heeft voorrang bij afname HBM2 van Hynix

Op dit gebied is het dus zeer waarschijnlijk dan Nvidia zou moeten aan Hynix en AMD betalen voor HBM2....

[Reactie gewijzigd door umbrella1982 op 23 juli 2015 06:30]

Er staat dat het een gerucht is ja.
Ik vraag me af waar dat gerucht vandaan komt, en of het waar is.

Daarnaast, zoals ik al zeg, het hebben van patenten op een technologie is nog geen garantie dat anderen daarvoor moeten betalen. nVidia en AMD hebben een cross-license overeenkomst. Zonder de patenten van nVidia kan AMD namelijk ook geen GPUs bouwen.

[Reactie gewijzigd door Scalibq op 23 juli 2015 08:57]

Dat is inderdaad een gerucht, maar waar haal jij het dan vandaag dan AMD en nVidia een cross-license overeenkomst hebben? na een snelle google search kom ik daar niks over tegen.
Zonder de patenten van nVidia kan AMD namelijk ook geen GPUs bouwen.
Dat hoeft niet perse zo te zijn, ze kunnen allebei vergelijkende technieken hebben die anders toegepast zijn
Weet je hoeveel patenten nVidia en AMD hebben op het gebied van GPUs, memory controllers etc?
Het is voor beiden onmogelijk om bij het ontwerpen van GPUs alle patenten van de ander uit de weg te gaan.
Ik dacht dat dat algemeen bekend was.
nVidia heeft nota bene destijds 3dfx overgenomen puur en alleen vanwege de portfolio aan IP.
Assumption is the mother of all fuck-ups

Maar oke duidelijk, zo leer je weer wat bij, toch valt er maar bar weinig te vinden over licenties die AMD en Nvidia delen
Hier kun je iig wel zien dat Intel en nVidia een deal hebben gesloten: http://arstechnica.com/bu...u-on-intel-processor-die/
Hierbij moet Intel(!) nVidia 1.5 miljard betalen.
Dus dan kun je wel ongeveer nagaan hoe goed nVidia in de patenten zit.
Hoewel er niet direct een nieuwsitem van AMD te vinden is, kun je ervanuitgaan dat AMD ook een deal met nVidia moet hebben, als Intel die heeft. Beiden maken immers GPUs en x86 CPUs.

Hier staat het wel genoemd trouwens:
http://www.anandtech.com/...ney-fewer-problems-no-x86
The state of the United States patent system is such that it’s difficult if not impossible to design and build a high-tech product without infringing on someone’s patent. Snark about patent trolls aside, there are often only a handful of good methods to implement a given technology, and all of those methods are patented by someone. For these reasons there are a number of broad cross-licensing agreements in the GPU and CPU markets so that all the major manufacturers can design and build products without running afoul of another’s patent portfolio. AMD and Intel cross-license, AMD and NVIDIA cross-license, Intel and VIA cross-license, etc. Most of these cross-licensing agreements have the participants as peers, with each side getting access to the patents they need to make their agreements equal in value.
Ik dacht dat dat algemeen bekend was.

[Reactie gewijzigd door Scalibq op 23 juli 2015 13:23]

betalen is geen probleem voor nvidea, amd krijgt voorang op de hbm productie en aangezien amd nu al problemen heeft om hbm1 op grote schaal op kaarten geprikt te krijgen lijkt het me sterk dat nvidea een soepele massaproductie voor elkaar gaat krijgen.
Zouden ze ook een patent op overdrijven hebben?

Ik zie elke keer die 'Pascall 10x Maxwell' sheet voorbij komen waarvan we nu al kunnen stellen dat het onzin is. Heb nog nooit meegemaakt dat de perfomance x10 ging over 1 generatie en dat ga ik ook niet meemaken volgens mij.

Daarbij lijkt het mij ook een risico dat als je zoiets waar zou maken, je de oude voorraad per direct kunt afschrijven na intro. De low end/entry kaarten zouden dan al veel beter zijn t.o.v. de actuele high ends. Mij lijkt het vooral onverstandig/overmoedig maar het zal mij benieuwen wat van deze claim over zal blijven.
Zover ik begrepen had slaat die sheet op pure compute achtige berekeningen voor de cuda omgeving. Dus niet op grafische pracht gericht maar op massaal berekeningen uitvoeren. Daarbij zou de winst veel groter zijn dan uiteindelijk in spellen bijvoorbeeld. Een groot deel daarvan zou samenhangen met ondersteuning voor FP16 berekeningen die minder precies zouden zijn, maar voor veel toepassingen wel voldoende.

Meer uitleg bijvoorbeeld hier

[Reactie gewijzigd door Totalmind op 23 juli 2015 11:21]

Een groot deel daarvan zou samenhangen met ondersteuning voor FP16 berekeningen die minder precies zouden zijn, maar voor veel toepassingen wel voldoende.
Klopt. In de GeForce FX had men destijds al support voor FP16 en FP32 (de Radeon 9x00-serie had FP24 destijds).
In mainstream GPUs is uiteindelijk FP32 de standaard geworden, en wegens compute is FP64 erbij gekomen.
In de mobiele wereld is FP16 juist opgekomen.
En blijkbaar komt dat nu ook weer terug in op de desktop. Het voordeel voor nVidia is waarschijnlijk dat ze op deze manier maar 1 soort ALUs hoeven te ontwikkelen, en niet apart voor de mobiele markt en desktop/workstation.
Voor ontwikkelaars komt er dan ook iets meer ruimte vrij voor optimalisatie.
Als je even het lemma op wikipedia zou bekijken dan merk je direct dat AMD reeds in 2008 begonnen is met de ontwikkeling van HBM en dat het dus meer dan waarschijnlijk AMD is dat hynix erbij betrokken heeft.

Dat AMD voorrang krijgt is uiteraard door niemand bevestigd (en dus maar een gerucht, check de gerelateerde artikellen hier op t.net) maar is imho wel zeer aannemelijk gezien het ontwikkeltraject van HBM
De gekleurde reacties van sommigen zijn op zn minst opmerkelijk te noemen. Met de Fury reeks heeft AMD immers laten zien een zeer competente kaart te kunnen maken, die vrijwel niets onderdoet voor Nvidia en zeker op hoge resoluties zijn waarde bewijst.

Wat een ander ook al zei, Als Nvidia 100% marktaandeel zou hebben (of AMD for that matter) zouden dingen zoals HBM pas een stuk later worden bedacht. Je hoeft immers dan geen concurrentiedrang uit te oefenen.

Verbaast het mij dat Nvidia ook op HBM over gaat? Nee, want dat was al jaren bekend. Wel is het aannemelijk dat zij HBM 2 als eerste zullen gebruiken - Pascal is immers niet voor niks uitgesteld.

Enig echt nadeel is dat Nvidia zijn PR bragging guns alvast klaar heeft staan: ''10x better than Maxwell!'' en in de praktijk valt het reuze mee.
Ik kan me gerust voorstellen dat Hynix AMD wat voordelen geeft voor het gebruik van HBM. Of prioriteit een van die voordelen is valt nog te zien. Misschien krijgen ze gewoon een goedkopere prijs van Hynix, en hoeft Hynix in ruil niks af te dragen voor patentkosten.

[Reactie gewijzigd door graverobber2 op 23 juli 2015 11:13]

Dat is inderdaad aannemelijk. Misschien dat de deal wel bestaat uit:
- Nvidia mag als eerste HBM2 gebruiken. Daarvoor betalen ze wel de premium prijs + afdragen eventuele patentkosten aan Hynix/AMD.
- AMD blijft bij HBM1, maar zal een stuk goedkoper voor ze uitvallen (Soort korting) + hoeft geen patentkosten af te dragen.

Uiteraard speculatief, maar dat lijkt mij wel aannemelijk. Dan hebben beide partijen een voordeel uit het gebruik van HBM geheugen. Uiteraard zullen beide kaartenbakkers ook gewoon nog kaarten met GDDR5 maken, HBM zal natuurlijk niet in 1 keer de hele markt overspoelen :)
Artic Island GPUs gaan sowieso gebruik maken van HBM2 (de high-end tenminste, low-end kunnen ze misschien nog HBM1 of GDDR5 gebuiken). AMD heeft dat al een paar keer vermeld.
Zo ingelicht ben ik helaas niet, maar als jij het zegt, dan geloof ik dat. Dan zal het misschien zo zijn dat AMD HBM2 voor een goedkopere prijs kan krijgen. (Sowieso eigenlijk wel, want ze hoeven geen patentkosten neer te leggen) Bedankt voor de opmerking! Weer iets geleerd.
Het is vrij algemeen dat alle high-end kaarten van zowel AMD als Nvidia HBM zullen gebruiken. De snelheidswinst van HBM is zo groot dat geen van beide het zich kan permitteren om met een GDDR5 kaart af te komen als de concurrentie met HBM werkt in die prijsklasse.

Bij de HBM2 kaarten zal het geheugen ook op 1ghz geklokt zijn. Bij de huidige kaarten van AMD is dit maar 512mhz.
Dat AMD voorrang krijgt is uiteraard door niemand bevestigd (en dus maar een gerucht, check de gerelateerde artikellen hier op t.net) maar is imho wel zeer aannemelijk gezien het ontwikkeltraject van HBM
Zoals ik al zei, vind ik het niet zo aannemelijk gezien het feit dat Hynix de geheugenmodules levert, en dat zij een klant die 3 keer zo groot is niet willen gaan dwarsbomen, ook al heeft AMD samen met Hynix de eerste generatie HBM ontwikkeld.

Voor Hynix is dit namelijk DE kans om de concurrerende geheugenfabrikanten op achterstand te zetten, en een monopolie te krijgen op de GPU-markt. En daar hebben ze dus nVidia harder bij nodig dan AMD.

[Reactie gewijzigd door Scalibq op 22 juli 2015 23:39]

Ik betwijfel dat je rond AMD rond kan voor HBM.
AMD bezit namelijk het essentiŽle patent voor hbm dat zorgt voor de interconnectie tussen de verschillende geheugenchips.
Zoals al gezegd, nVidia heeft ook genoeg patenten waar AMD niet omheen kan. Dat heft elkaar op.
Behalve met het verschil dat HBM geen essentieel onderdeel van een GPU is, nVidia heeft HBM niet nodig om een GPU in elkaar te zetten, neem aan dat dit voor de andere patenten die ze delen wel het geval is
HBM levert zoveel voordelen op dat je er niet omheen kan.

En voor iemand HMC zegt: die technologie is niet bedoeld voor grafische kaarten maar voor high-end servers
Ligt eraan hoe je het bekijkt.
Over een paar jaar zal een GPU zonder HBM ondenkbaar zijn, omdat die qua prestaties en stroomverbruik totaal niet meer mee kan komen.
Zo kun je in theorie vast ook wel een GPU ontwikkelen zonder aan de patenten te raken, maar alle technologie die je dan niet kunt gebruiken, zorgt ervoor dat dat een kansloze missie is.
AMD/Hynix heeft een patent op HBM, Nvidia niet. Willen ze HBM gebruiken, dan zullen ze dat hoogstwaarschijnlijk moeten afdragen aan AMD/Hynix.

Dat Nvidia patenten heeft op andere dingen BEHALVE HBM verandert niets aan het feit dat Nvidia geen HBM patent heeft en dus waarschijnlijk een zak met geld moet neerleggen om het te mogen gebruiken in licentie.
Dan begrijp je niet wat cross-licensing is.
Het idee is dat men elkaars licenties kan gebruiken, zonder voor ieder afzonderlijk patent apart te gaan onderhandelen. Want dat zou niet werken.
Het is nogal vanzelfsprekend dat nVidia geen HBM-patenten heeft. Het idee van patenten is juist dat iemand het alleenrecht op een technologie behoudt. Dus er kan er altijd maar 1 zijn die de patenten op iets heeft.
nVidia is weer de enige die patenten heeft op andere dingen, die AMD/Hynix nodig hebben. Vandaar dat je cross-licensing moet doen.
Het zou best kunnen dat in ruil voor het HBM patent, AMD een aantal andere voordelen kan krijgen (Goedkopere licenties, betere samenwerking, geen idee). Feit blijft wel dat Nvidia voor wat betreft het gebruik van HBM technologie een deal moeten sluiten.

En misschien hebben ze dat wel al gedaan, wie weet. Vanzelfsprekend zullen beide partijen ons geen kijkje gunnen in de licentie keuken :)
Het zou best kunnen dat in ruil voor het HBM patent, AMD een aantal andere voordelen kan krijgen (Goedkopere licenties, betere samenwerking, geen idee). Feit blijft wel dat Nvidia voor wat betreft het gebruik van HBM technologie een deal moeten sluiten.
Over het algemeen sluiten ze dergelijke overeenkomsten voor meerdere jaren af, waarbij dus van tevoren al vast staat dat ze ook toegang krijgen tot nieuwe patenten. Anders blijf je alsnog aan de gang.
Het lijkt mij ook wel dat Nvidia sinds 2008 al iets heeft geregeld, anders staat het best wel stom als je al 7-8 jaar geen afspraken hierover hebt gemaakt.

Maar ja, dergelijke details zullen wij uiteraard nooit weten, dus blijft het afwachten hoe dit zich zal ontwikkelen.
Denk dat je belangrijke patenten wel aan de gang wilt gaan en je niet al je troeven in shared potje doet. Dat wat AMD met intel heeft hoeft niet zo alles omvattend te zijn met nVidia.
Dan wat vragen ze ervoor een zak met geld een zakje met geld of toch onder cfross licence.
Mocht nV er toch voor moeten betalen dan zou nV mogelijk HBM tot de hogere klasse producten beperken. Waar AMD het vanaf lowbudged kan toepassen.

Zou AMD productlijnen voor HBM2 breder worden toegepast dan nV dan is dat grote hint. Als AMD dat niet doet en beide beperkt dan is HBM sowieso een duurdere implementatie. Al is het geen harde bevestiging het versterkt alleen vermoedens.
Persoonlijk zou ik dan wel er voor zorgen dat AMD voorrang krijgt, zodat AMD de kans krijgt om zich te bewijzen. Als AMD die kans niet krijgt, dan kan Hynix nog altijd verder gaan met nvidia, als Hynix wilt. Daar Intel 80% van de markt in handen heeft, zou het financieel verstandig zijn om AMD voorrang te geven, zodat AMD financieel sterker kan geraken als het echt werkt. Voor de moment is het nog niet echt bewezen met de Fury X als je kijkt naar allerlei uitgebreide benchmarks. Juist hier en daar is de Fury X bijna beter of net ietsje beter als de GTX 980 ~ 980Ti.

Als nVidia echt wilt, dan heeft nVidia 100% marktaandeel, is AMD failliet en levert nVidia geen innovatieve CPU's en GPU's want er is namelijk geen concurrentie in dat opzicht. Dan zullen de prijzen van Intel onderdelen nog duurder worden. Tenzij er een nieuwe "concurrentie" om te hoek komt piepen ergens Q4 2015 ~ Q1 2016. Time will tell.
Hoe het met AMD gaat is voor Hynix toch helemaal niet interessant?
Voor Hynix is het vrij simpel: nVidia heeft ongeveer 3 keer zo veel marktaandeel als AMD, dus de vraag naar HBM vanuit nVidia kan ongeveer 3 keer zo groot zijn.
AMD krijgt nu al de kans om zich te bewijzen, ze hebben nu het alleenrecht op HBM. Helaas voor AMD is de huidige generatie van HBM nog niet dermate overtuigend dat nVidia zich zorgen moet maken.
Heb je de reviews al bekeken? De furies presteren uitermate goed bij gehuegen intensieve taken zoals rendering op 4K vergelijk je ze met nvidia kaarten dan zie je duidelijk het verschil in geheugen technieken. kijk de review van Tweakers maar eens na.
Ja, ik heb de reviews bekeken, mijn conclusie staat hierboven dus: "Helaas voor AMD is de huidige generatie van HBM nog niet dermate overtuigend dat nVidia zich zorgen moet maken."
Ik heb deze link van Tweakers ook eerder bij andere reactie neergezet maar daar staat ook dat AMD zijn best doet om zo veel mogelijk HBM2 kopen om Nvidia lastig maken.
nieuws: Gerucht: AMD heeft voorrang bij afname HBM2 van Hynix
De furyX doet het niet slecht eerder volgens verwachting.
Het is iets kleinere chip. Behoort daar mee indien gelijkwaardige IPC iets minder te presteren als je van transistor count of diespace van uitgaat.
HBM bied stuk meer bandbreedte, maar de bottleneck is niet zo extreem dat furyX in 4 K nv flink voorbij gaat.
Dat houd in of furyX gpu is stuk minder of de bandbreedte bottleneck van nV zware GDDR5 implementatie is maar subtiel afknijpertje.

Het is dat met de veel zwaardere 14 nm en 16nm chips met grof mogelijk dubbele of meer performance voor 4K GDDR5 stuk meer problematischer wordt en je dan HBM2 moet hebben.

Ook geeft nV betere drawcall multitreading in DX11 in 1080P een vertekend beeld. Dat met DX12 mogelijk grotendeels verdwijnt gezien ze daar beide goed doorschalen.

Het is dat nvidia er nog goed mee weg komt met hoog geklokte GDDR5. Maar dat zal met HBM2 niet het geval meer zijn. En met de dan zwaardere GPU ook veel meer bottleneck worden.
Ehmm, ik denk dat Nvidia deze ronde voorbij heeft laten gaan omdat niet meer dan 4GB mogelijk was, en omdat ze met hun huidige architectuur al zeer zuinig zijn en de extra stroom besparing dus niet direct nodig hebben. Daarbij is de werkelijke impact van meer geheugen bandbreedte tov DDR5 momenteel twijfelachtig (de limiet lijkt voorlopig toch de GPU te zijn, en niet zo zeer het geheugen).

Tevens is het gewoon een internationale standaard van JEDEC (dus ga ik er vanuit dat andere bedrijven het ook kunnen maken, uiteraard na betaling van royalties). En is het in het voordeel van zowel AMD als Hynix als zo veel mogelijk bedrijven er gebruik van maken want meer = goedkoper.

Ik denk niet dat Hynix zich als producent kan veroorloven om voorlopig alleen aan AMD te leveren, dan blijft het volume laag en duurt het langer om de ontwikkelings kosten terug te verdienen.

Dat AMD wellicht eerst een batch krijgt en dan pas Nvidia, dat zou kunnen. Maar dat AMD alles krijgt, en dat daarna pas Nvidia wat krijgt, dat lijkt mij wat ver gezocht (edoch natuurlijk niet 100% onmogelijk)...
Er was al eerder het gerucht dat AMD wel voorrang zou krijgen op HBM-2. Daarbij is de geheugenbusgrootte maar een deel van de pluspunten. Zo bied het ook een lager energieverbruik en zijn kleinere PCBs mogelijk.

Nvidia heeft deze ronde voorbij laten gaan omdat ze waarschijnlijk het gewoon niet konden kopen of niet aandurfden. Het is verreweg superieur in iedere vorm in vergelijking met GDDR5 zeker omdat de 4GB limiet nog ver weg lijkt te zijn.

Extra stroombesparing niet nodig lijken te hebben? Nvidea en AMD ontlopen elkaar nu niet veel meer. Op Idle zijn ze al gelijk en onder load is het verschil nog aanwezig maar niet zo groot meer. Als hun topkaarten weer 50W minder zouden verbruiken en het een makkelijke oplossing zou zijn dan was Nvidia daar direct opgesprongen om nog een groter gat te slaan.

Het is een harde markt en AMD en Nvidia zijn beiden zeker niet van gisteren. Een kans voorbij laten gaan omdat het 'niet nodig is' is een fout die je geen twee keer kan maken, dan is het bedrijf al failliet ;).
Ja maar het punt is juist om het niet zo ver te laten komen dat het geheugen de bottleneck wordt.

Voordat je die bottleneck bereikt moet er al een oplossing zijn.
Ik denk niet dat Hynix zich als producent kan veroorloven om voorlopig alleen aan AMD te leveren
Volgens mij was het gerucht dat AMD voorrang zou krijgen

Voorrang staat niet gelijk aan alleenrecht
Meer geheugenbandbreedte is echt wel nodig om naar 4K capabele videokaarten te gaan. Het feit dat een R9 Fury X zo kort bij de GTX 980 Ti komt bij 4K resoluties ondanks het kleinere geheugen, terwijl het verschil groter is bij bv 1080p, duidt er toch duidelijk op dat de GTX 980 Ti baat zou hebben bij meer geheugenbandbreedte. Er is dus niks twijfelachtig aan dat meer geheugenbandbreedte geen nut zou hebben. Dat die 4GB limiet het voordeel voor een stuk teniet doet, is wel een spijtige waarheid.

De Maxwell 2 reeks zit momenteel al voorbij de 7000MT/s, dat is lange tijd het theoretische maximum geweest van GDDR5 en veel meer zit er niet meer in. Kijk meer eens in de Pricewatch naar welke geheugensnelheden factory OC'd GTX 900 kaarten halen, dat zijn de reference snelheden of maximum 7,2GHz. Jij kunt als eindgebruiker nog wat verder proberen overklokken, maar voor de fabrikanten is dit echt op de limiet.

De enige manier om nu nog meer bandbreedte te halen is met een bredere bus, maar dat betekent ook een extra kost. Nvidia heeft dan wel wat foefjes om in de meeste omstandigheden met een smallere bus toe te komen, maar die maken weinig verschil voor heel hoge resoluties.
geheugen op elkaar stappelen deden ze zelfs al in de jaren 80's , zo nieuw is dat niet.
Ja met geheugen dat geen warmteontwikkeling kent is dat natuurlijk simpel.

Maar als jij geheugen stapelt waarbij de frequentie zo hoog is dat de afstanden niet te groot mogen zijn en de warmteontwikkeling een probleem is is dat wel een uitdaging.
Volgens de geruchten heeft het met op grote schaal inzetten van High Bandwith Memory vooral de interposer een grote invloed op maken van grote hoeveelheden. Het samen voegen van 5 chips is volgens de geruchten,lastig en dit wordt doof Hynix gedaan.
Denk niet dat GTX 1080 de meest handige naam zou zijn. Dat klinkt meer als full HD/1080p, terwijl deze kaart daar juist niet op gericht is.
Volgens mij zijn de mensen die dergelijke kaarten kopen zodanig geinformeerd dat het niks uitmaakt hoe je zo een kaart noemt.
Daar kan je als Marketings team natuurlijk niet mee aan komen zetten
ach de mensen die dit kopen snappen het wel, en de rest? who cares

Denk dat deze serie kaarten weer een hele nieuwe naam krijgen
Ik gok dat Nvidia met een nieuwe benaming komt voor deze serie videokaarten, we zijn ook niet van de 9xxx serie naar de 10xxx serie gegaan.
Ben wel blij als ze 10xx of 10xxx gaan gebruiken, houdt de benaming van de volgende serie lekker simple voor de komende paar jaren.
Ik denk dat iemand die in de war is met 1080 wel de prijs begrijpt. Het zal duur zijn dus high-end en snel. Dat haal je al uit de prijs. Wie king is een cijfer geleuter om paar % wat je amper in game merk op wat extreme gevallen na.
AMD Fury 4K was dan weer wel leuk geweest, ook om het aantal rekenkernen en het aantal MB ;)
Had AMD geen voorang op HBM2 geheugen? Kan NVIDIA dan nog wel aan de vraag voldoen?

[Reactie gewijzigd door seapip op 22 juli 2015 18:54]

AMD komt nu met kaarten die dit geheugen gebruiken. Nvidia pas volgend jaar.

Tegen die tijd zal de productie neem ik aan een stuk hoger liggen.
Niet helemaal dit is ''gewoon'' hbm geen hbm2. Verschil is dat hbm2 ervoor zorgt dat er 2x zoveel geheugen op de kaart kan t.o.v. hbm.
AMD gaat ook naar 14nm of 16nm En dus komt er ook een nieuwe GPU met ook nextgen HBM. Zou gek zijn als ze dat niet deden. En erbij ook nog voorang hebben kwa HBM en HBM2.
En blijkbaar komt Nvidia eerst met een HBM 2 videokaart, dan vrag ik mij af welke voorrang?
Voorrang is ook maar aannemelijk gerucht. Ook dat is het maar de vraag of nV eerste is met HBM2. Het is nog vroeg en release ver weg. nV kan te vroeg met hun toekomst plannen zijn. Houd niet in dat AMD niks doet. Maar zal eens ook hun plannen kwa nextgen GPU publiekelijk maken of de nodige rumors opduiken.
Ja dat is volgens de geruchten correct. Deze voorrang is mede mogelijke doordat AMD de mede-onwikkelaar van deze Jedec standaard.
Bij Hynix wel ja. Het is alleen even afwachten tot andere fabrikanten ook instappen zoals nu bij GDDR5 het geval is
AMD krijgt voorrang bij Hynix, maar het kan zijn dat de productiecapaciteit voldoende groot zal zijn tegen dat nVidia met deze kaart zal komen, of dat nVidia een andere fabrikant heeft gevonden die ook HBM2 zal produceren.
Dus Nvidia slaat gewoon HBM1 over (max 4gb) en gaat dus gelijk over naar HBM2.

AMD gaat het naar mijn idee wel moeilijk krijgen. Erg jammer dat de Fury x meer is tegen gevallen
dan ge-hypt is.
Je doet net of AMD op 28nm blijft en NV alleen 16nm gaat doen. Nou dat zou dramatisch nieuws zijn. Maar dat verwacht ik niet. AMD gaat samen met de CPU handel met de tijd zodra Goblab foundery daarmee op gang komt ook over. En dan kan je voor Zen CPU aan R9-590X allemaal op 14nm. Maar ja of dat soepeltjes gaat.

Het is mischien ook procede strijd tussen Global foundries die meer met AMD hebben vs TSMC die NV heeft en ATI had. Misschien dat AMD beide foundries blijft gebruiken.
Die Fury X viel mede zo tegen vanwege de 980 Ti. Als die er niet was geweest, was de Fury X veel enthousiaster ontvangen. nVidia heeft gewoon een goede zet gemaakt met die 980 Ti. In tegenstelling tot de 780 Ti die net wat later was dan de 290x.
Als je het nieuws goed hebt gevolgd, dan zou je toch zweren dat Nvidia het moeilijk krijgt.

AMD volgende generatie GPU: 14nm GlobalFoundries/Samsung/IBM proces waarvan al werkende processor worden geleverd door Samsung, 2x performance per watt vs vorige Fury generatie, FURY beschikt nu al over HBM, mede ontwikkelaar van HBM en interposer ervaring.

Nvidia volgende generatie GPU: 16 TSMC (in geen velden of wegen heeft TSMC 16 nm producten geproduceerd, geen HBM en interposer ervaring. Bovendien had Nvidia hoog ingezet op HMC, maar dat blijk dus ze zullen zowiezo vertraging oplopen.

Only time will tell us.
Daarentegen is de Fury (zonder X) een veel betere keuze qua bang for the buck :).
Dat gaat pijn doen als het klopt dat alleen de respectievelijke GTX 1080 HBM geheugen gaat krijgen terwijl AMD bij de volgende generatie HBM (2.0) breder gaat inzetten.

Ook zou AMD naar 14nm gaan i.p.v. de hier genoemde 16nm voor nVidia. nVidia zou volgens de geruchten bij TSMC blijven en die bieden v.z.i.w. geen 14nm. Terwijl AMD voor GlobalFoundries/Samsung kiest en die hebben geen 16nm, maar wel 14nm.

Plus puntjes voor AMD als het klopt.

[Reactie gewijzigd door madmaxnl op 23 juli 2015 04:19]

Het blijkt dat wat de een fabrikant 16 nm noemt en de ander 14 nm niet dezelfde maat staven gebruikt. Dus kan goed zijn dat verschil groter is of juist gelijk. Procedes tussen foundries zijn dus niet zomaar te vergelijken.
Nvidia gaat misschien ook naar Samsung toe voor 2 14nm finfet nodes.
nou zo'n verrassing zou dit niet moeten zijn toch? gezien de overduidelijke voordelen. Ik dacht zelfs dat het al wel bevestigd was.
Is het ook niet. Nvidia heeft pakweg een jaar geleden al bevestigd dat Pascal gebruik zou maken van HBM.
Als je een beetje zoekt zul je een roadmap vinden van Nvidia met daarin wat PR zooi inclusief bevestigingen welke nieuwe tech er in Pascal gaat zitten zoals HBM.


Echt alles wat in dit artikel staat heb ik maanden geleden al gelezen. Ik vind het vrij matig van Tweakers dat ze het een gerucht noemen en dan doen alsof het nieuwe info is.
Niet iedereen zit dagelijks Wccftech of Videocardz te lezen 😊.
nieuws: Nvidia's Pascal-gpu gaat 32GB geheugen ondersteunen
Staat allemaal op Tweakers te lezen in een artikel van 18 maart :P
God, dat Tweakers het zelf al eens gebracht heeft maakt het eigenlijk een beetje triest.
Info die ze maanden geleden als feit gebracht hebben brengen ze nu als gerucht

[Reactie gewijzigd door Deadsy op 22 juli 2015 19:15]

Hoef je ook niet dagelijks te doen. Deze info is al zo vaak langs gekomen inclusief bevestigingen van Nvidia op vrij veel sites.
Als je eens in de zoveel tijd een van de bekende sites bezoekt ben je zekerweten een van de artikelen tegen gekomen.
het is bevestigd door Nvidia's CEO tijdens de GTC
http://www.anandtech.com/...cal-architecture-for-2016

zel;fs een foto hier van een test videokaart met pascal en HBM2
er wordt gesproken over 32 GB:
http://images.anandtech.com/doci/7900/PascalBoard_575px.jpg

hier is de volledige presentatie:
http://www.ustream.tv/recorded/60025825

begint interessant te worden bij 1:10m

[Reactie gewijzigd door freaq op 22 juli 2015 19:14]

Gerucht?

Dat Pascal gebruik zou maken van HBM is al pakweg een jaar bekend. Vrijwel alles in dit artikel is oud nieuws, het enige dat je nieuw zou kunnen noemen is het gerucht over de naam GTX 1080.
Inderdaad.. Moest het nu concrete informatie zijn die ze hebben..
Dit is al in 2014 als gerucht bekend.

Zelf de naam is nog een gerucht. Dat die GTX 1080 zou kunnen heten, dat vroegen mensen zich al af voordat de 900 series uitkwam.. (zeker omdat ze de 800 series overgeslagen hadden wegens rebrands bij mobile 800 series)

[Reactie gewijzigd door SmokingCrop op 22 juli 2015 19:01]

Niet als gerucht maar als feit.
Vorig jaar liet Nvidia bij een presentatie een nieuwe roadmap zien. Op de roadmap was Volta weg en was vervangen door Pascal en in deze presentatie lieten ze ook zien dat Pascal gebruik gaat maken van 3D memory en om precies te zijn van de HBM standard.

4096bit heb ik ook al maanden geleden gelezen als gerucht. Het enige echt nieuwe is de naamgeving GTX 1080.
Het zal op zich wel een groot voordeel zijn voor mITX pc's, kleinere kaartjes met hopelijk betere airflow.. Mijn GTX970 zit toch wel aardig krap in m'n Corsair 250D kast..
Uiteraard, maar full sized is beter voor overclocks.
Maar je zegt net dat zo'n grote kaart niet goed is voor de airflow. Zonder goede airflow kun je ook niet goed overklokken :)
Het is het een of het ander.
Ja maar er zijn altijd nog de leuke bedrijven die een andere soort koeling kunnen ontwikkelen die efficienter om kunnen gaan met deze architectuur :)
Het eerste waar ik aan moest denken bij het zien van de foto is Deep Learning, specifiek een Convolutional Neural Network. Wie weet kan er iets moois gedaan worden met deze specifieke geheugenlayout :D

http://image.slidesharecd...g-4-638.jpg?cb=1389718191
Ik dacht er ook gelijk aan, maar om een andere reden. Voor deep learning is memory bandwidth de limiterende factor op dit moment (bron). Als de memory bus van een breedte van 384 bit (980 TI, titan) naar 4096 bit gaat, heeft dat hele leuke gevolgen voor de training tijd. :D

[Reactie gewijzigd door Eomer op 22 juli 2015 22:40]

Ik geloof er geen reet van dat dit op 1Ghz zal draaien. Bij de Fury (x) draait het op 500mhz en levert het al meer dan genoeg bandbreedte. Verder niet meer dan logisch natuurlijk.
Het zijn geruchten en veel is nog niet bevestigd. Maar zoals ik het zie hebben de GPU mits ze gebruik maken van een high-end HBM geheugen implementatie iig voldoende bandbreedte. Dus wat zullen de GPU doen doen?
We gaan mogelijk al aardig richting de 10000 shader core GPU's
Misschien dat de 14nm of 16nm Refresh dat gaat halen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True