Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 103 reacties

AMD heeft naar verluidt een overeenkomst met geheugenfabrikant Hynix gesloten om bij de afname van HBM2 voorrang te krijgen. De initiŽle aanvoer van de tweede generatie HBM zou beperkt zijn en AMD zou zo voorkomen dat concurrenten erover kunnen beschikken.

Het gerucht is afkomstig van WccfTech, dat een gemengd track record heeft op gebied van geruchten. De site claimt op basis van onbekende bronnen dat AMD zoveel mogelijk HBM2 in handen wil krijgen om Nvidia te dwarsbomen. Nvidia gaat namelijk bij videokaarten met de Pascal-gpu, die in 2016 moet verschijnen, van '3d-geheugen' gebruikmaken.

Het is onbekend of dat HBM van Hynix gaat betreffen, maar tot nu toe is die chipfabrikant de enige partij die 3d-geheugen voor videokaarten heeft aangekondigd. AMD maakt van het high bandwith memory gebruik bij zijn Fury- en Fury X-kaarten. Het voordeel is dat er op oppervlak en verbruik kan worden bespaard, maar het nadeel is dat het huidige HBM een maximale capaciteit van 4GB heeft.

Dat verandert bij HBM2, dat ook een hogere bandbreedte biedt. WccfTech claimt verder dat AMD veel meer kaarten met het gestapelde geheugen op de planning heeft, waaronder videokaarten voor laptops.

HMB2 HynixHMB2 Hynix

AMD HBM roadmap 2015

Moderatie-faq Wijzig weergave

Reacties (103)

Lijkt mij dat hiermee een oneerlijke concurrentie positie wordt gecreŽerd! ;(

[Reactie gewijzigd door Vidra op 14 juli 2015 17:49]

Hoop dat je wel beseft dat HBM ontwikkeld is door AMD en Hynix. Dus technisch gezien hadden ze ook een patent erop kunnen nemen en dan had niemand het kunnen gebruiken behalve AMD en Hynix. Dus beetje logisch dat als je geld steekt in de ontwikkeling van een product dat je ook voorrang krijgt bij het gebruik ervan ...
Hoop dat je wel beseft dat HBM ontwikkeld is door AMD en Hynix. Dus technisch gezien hadden ze ook een patent erop kunnen nemen en dan had niemand het kunnen gebruiken behalve AMD en Hynix. Dus beetje logisch dat als je geld steekt in de ontwikkeling van een product dat je ook voorrang krijgt bij het gebruik ervan ...
Dat is waar. AMD's input in de ontwikkeling van HBM is absoluut zeer groot geweest. Ze hebben het echter niet alleen gedaan (of gekund waarschijnlijk). SK Hynix en United Microelectronics hebben ook een zeer grote rol gespeeld.

Het zou inderdaad fair zijn als AMD als een van de ontwikkelaars van HBM in eerste instantie voorrang heeft bij de implementatie er van.

Als AMD, Hynix, UMC, etc, echter kiezen voor dat pad dan wordt het voor de betrokken bedrijven echter wel een double edged sword. De concurrentie van Hynix zit namelijk ook niet stil. Die ontwikkelen ook vergelijkbare technologie, bijvoorbeeld: HMC in een groot consortium waar o.a. Micron, Samsung, ARM, Microsoft, etc, aan deelnemen.

Het is voor Hynix ťn AMD interessant als zo veel mogelijk bedrijven voor HBM kiezen in plaats van in zee te gaan met andere technologie zoals bijvoorbeeld HMC.
Zelfs (of vooral) als directe concurrenten zoals nVidia HBM zouden gebruiken. Dat betekent voor het consortium achter HBM namelijk meer omzet en winst uit HBM en het ontneemt een concurrerende ontwikkeling zoals HMC evenredige omzet en winst. Tevens betekent het dat zo'n concurrent minder geneigd zal zijn research en geld te investeren in een concurrerende technologie.

Als HBM2 met voorrang voor Arctic Islands gebruikt zal worden, dan wordt nVidia voor het blok gezet.
Ofwel zit nVidia in dat geval met Pascal (en mogelijke opvolgers) met een mogelijk tekort aan HBM te kampen, ofwel kiest nVidia het pad van concurrerende technologie zoals HMC. Het is waarschijnlijk op de langere termijn voor AMD en Hynix interessanter om een concurrent zoals nVidia uit het kamp van Samsung, Micron, ARM, etc, te houden. Dat kamp is namelijk al met afstand kapitaalkrachtig genoeg.
Is HMC niet eerder een opvolger voor DDR4? Ik lees nergens dat het gebruikt zou kunnen worden voor GPU's. Het kan natuurlijk zijn dat dit wel zou kunnen mits de nodige aanpassingen, maar dat zou dan ook betekenen dat dit nog enkele jaren zou duren.
Volgens mij heb jij helemaal gelijk HMC is dacht ik helemaal niet geschikt voor videokaarten. Volgens mij is er helemaal niets wat HBM kan vervangen.
Het gebruik van HMC is puur als gewoon werkgeheugen.
Mede omdat HBM dus erg duur is en uiteraard niet voor niets.
Ook hier zie ik weer terug komen dat er problemen zijn met meer dan 4 Gb. Dus het lijkt er duidelijk op dat deze eerste versie van HBM mogelijk problemen ondervind met vergroting boven de 4 Gb.
Het grappige is wel dat er nu veel kaarten zullen worden uitgebracht met heel veel geheugen ouder geheugen waar we voorlopig helemaal niets mee kunnen.
Ik herinner nog de nvidia kaartjes met heel veel ddr2 geheugen, terwijl de meeste videokaarten nog onder de 3 Gb geheugen hadden.
De grap was dat het ding niet eens in staat was het echt aan te spreken.
Gen1 HMB is beperkt tot 4gb

De volgende generatie (die in Artic island & Pascal GPU gebruikt zal worden) kan tot 8gb gaan.
Mee eens tot op zekere hoogte.
Ten eerste beweerde ik ook niet dat AMD het alleen gedaan heeft (lees dat stukje wat je quote je ziet daar toch echt AMD en Hynix staan)
Ten tweede HMC is .... DUUUUUUURRRRR. Dat zou dus betekenen dat als Nvidia HMC dropt op de Pascal dat de kosten voor de kaart ook flink omhoog gaan VS de kosten van een kaart met HBM.
HMC is slechts een voorbeeld van een mogelijke concurrerende technologie.

Je mag overigens verwachten dat naar mate de ontwikkeling van die technologie vordert en productie processen/technologie uitgekristalliseerd worden de kostprijs zal dalen.
HMC is vooralsnog verre van dat stadium en dus vooralsnog relatief duur, maar geen van de in dat ontwikkelingsconsortium betrokken partijen zit te wachten op een relatief dure technologie. Dan wordt het namelijk een stuk minder gemakkelijk voor de betrokken partijen om HMC te implementeren in verkoopbare producten.

Het is overigens wel precies een van de mogelijke redenen voor AMD om nVidia uit dat kamp te willen houden. Dat betekent in ieder geval dat niet ook nVidia geld en research in die technologie investeert. Zodat de concurrent in deze niet bijdraagt aan het succes van een concurrerende technologie in deze.
Bovendien is het op de langere termijn lucratiever om je concurrent geld en research te laten investeren in de implementatie van jouw technologie. Dat komt jouw technologie ten bate en je kunt via licentie overeenkomsten en chip afname een deel van de omzet van je concurrent afromen.

[Reactie gewijzigd door houseparty op 14 juli 2015 21:00]

Nogmaals ja en nee :P

Ze ontzeggen Nvidia HBM 2 niet. Ze willen alleen voorrang. Als je namelijk je eigen producten niet genoeg onderdelen voor hebt omdat je je concurent voor laat gaan dan ben je ook niet handig bezig. Kan Nvidia lekker een nieuwe kaart uitbrengen en bakken geld verdienen met al het werk dat AMD en partner (Hynix) hebben gedaan en geld hebben in gestoken en Nvidia alleen maar later erbij instapt.

Kun je hopelijk ook wel snappen dat dat geen snuggere move was geweest.
En nogmaals ze zeggen nog steeds niet "Nvidia je krijgt het helemaal niet", alleen maar "eh wij eerst want wij hebben er in geinvesteerd".
Vind ik nogal logisch eerlijk gezegd
Sorry, je begrijpt me niet.

Voor elke videokaart de NVidia verkoopt met HBM2 krijgt AMD in potentie een deel van de opbrengst. En elke investering die nVidia doet in het gebruik van die techniek is er een in een techniek die mede van AMD is.

Als echter de hoeveelheid HBM die beschikbaar is voor nVidia dusdanig beperkt is dat het hun productie en verkopen remt. Dan zal nVidia geen andere optie hebben dan voor een andere vergelijkbare techniek te opteren.

Op de korte termijn kan AMD iets winnen door een handrem te zetten op nVidia's productie en verkopen door voorrang te nemen in de beschikbaarheid van HBM2, op de lange termijn jaagt dat pad echter enkel nVidia weg van de techniek.
Ik snap je prima.

Ik leg je alleen uit dat A: Het voor AMD meer opleverd om zelf genoeg HBM 2 te hebben dan zichzelf in de vingers te snijden en Nvidia eerst te geven en dan zelf te weinig te hebben.
B: Nvidia neemt alleen maar af, dus investeren in HBM (2) doen ze niet.
C: Nogmaals als ze zelf zonder komen te zitten omdat Nvidia dezelfde prioriteit heeft, wie denk je dat daar de meeste verlies meet heeft? Niet Nvidia. Die is namelijk kapitaal krachtig genoeg om dan te zeggen: we kopen genoeg zodat AMD lekker niks meer heeft en alles bij hun vertraagd. En geloof me als ze kunnen doen ze dat.

Dus AMD die ervoor kiest eerst zelf genoeg te hebben is gewoonweg finiancieel beter voor AMD. puur omdat ze dan zelf per nieuwe kaart meer krijgen dan HBM 2 af te laten nemen door Nvidia, zelf zonder te komen zitten en maar hopen dat ze kunnen teren op wat Nvidia wil betalen voor HBM 2.

En als dat Nvidia wegjaagt? Nah ja gaan zelf lekker maar maar miljoenen steken in eigen geheugen of veel duurder ander geheugen kopen.

Sorry maar als AMD zelf zonder HBM 2 komt te zitten voor eigen projecten heeft dat VEEL grotere nadelen voor AMD
Natuurlijk moet NVidia als ze HBM willen gebruiken er wel in investeren. Of denk je dat voor NVidia de implementatie er van uit de lucht komt vallen? Dat ze zomaar een geschikte controller en interposer uit lucht ontwerpen?

Je kunt ze beter dergelijke investeringen voor jouw techniek laten doen dan voor een andere techniek. Als ze er in investeren, zullen ze het namelijk willen gaan gebruiken. Dat geeft de ontwikkelaars van HBM per verkochte nVidia GPU revenue uit licentie gelden en aangekochte chips.

Als nVidia min of meer gedwongen wordt een andere techniek te kiezen heb je een tijdelijk voordeel dat ze geen HBM zullen gebruiken, of met een tekort kampen dat hun verkoop afremt. Op langere termijn mis je echter wel over een paar generaties GPU's uitgespreid inkomsten op elke afzonderlijke verkochte nVidia GPU,. Omdat nVidia door die situatie genoodzaakt zal worden om een ander pad te kiezen.

AMD Is ook niet de enige belanghebbende in deze. Hynix en UMC hebben er op langere termijn nog veel minder belang bij dat nVidia min of meer wordt gedwongen om voor een andere techniek te opteren.

[Reactie gewijzigd door houseparty op 15 juli 2015 10:22]

En als AMD zonder komt te zitten? Hmm? Ik zie je wel heel leuk iedere keer de Nvidia kant belichten maar als AMD zonder komt te zitten wat dan? Want je blijft doorgaan over licentie gelden of dat zo veel is dat het op kan wegen tegen de hoeveelheid die AMD verliest als ze zelf niet genoeg HBM 2 hebben voor hun eigen producten.

Remt hun verkoop + releases af. En dat kost meer (voor AMD) dan dat AMD zou krijgen. Hynix boeit het niet wie er koopt, als wat ze hebben maar verkocht wordt. of dat nou door AMD is of Nvida is niet interessant. En aangezien ze gelimiteerde hoeveelheden hebben gaat dat helemaal op. Als het maar verkocht wordt period.

En basically investeerd Nvidia in hun GPU daarmee. En niet in het HBM zelf. Nvidia maakt voor zichzelf die aanpassingen zodat ze het kunnen gebruiken. Dus rondweg geen investering op die manier in het ontwikkelen van HBM zelf. Ze nemen alleen maar het HBM af en daarna bouwen ze iets voor zichzelf.

Oftewel nog even duidelijk uitgelegd:
AMD heeft een deel van hun R&D budget gebruikt zodat het HBM bestaat en door hun en anderen gebruikt kan worden.
Nvidia neemt de chip af en spendeerd daarna geld om de HBM voor zichzelf te laten werken. Dus hun R&D kosten gaan niet naar Hynix en AMD voor verdere doorontwikkeling van het geheugen zelf alleen maar de implementaie voor Nvidia's eigen gebruik

[Reactie gewijzigd door Rhylian op 15 juli 2015 10:54]

Ik ben het met Rhylian helemaal eens, de royalties waar je over praat is centen en dubbeltjes werk, natuurlijk veel dubbeltjes is ook veel.
Maar ik sluit mij helemaal aan bij zijn goede onderbouwing.
AMD heeft door schade en schande al geleerd dat je moeilijk iets kan verkopen als anderen jouw benodigde producten voor je neus wegkapen. Ik kan je echt verzekeren dat als nividia vrij kan bestellen dat er zeker te weten een tekort voor AMD ontstaat. volgens mij is dat namelijk al eerder voorgekomen. Waardoor AMD amper aan de vraag kon voldoen, waar nivia dus uiteraard weer heel blij mee was.
Nvidia kennende zullen ze nooit investeren in iets wat AMD ook kan gebruiken.

Als ze HBM gaan gebruiken en ze stoppen er research in en ze verbeteren het, kan je er vergif op innemen dat die research alleen voordeel gaat bieden op hun eigen kaarten
Daar zal ik niet snel vergif op innemen hoor.

Het enige waar ze eventueel een verschil mee zouden kunnen maken is het ontwerp van een interposer. Of het ontwerp van de in de GPU ingebakken geheugen controller.
Maar dat zal effectief net zo veel verschil maken als de verschillende ontwerp keuzes van de geheugen bus en geheugen controller bij GDDR; niet bijster veel als je de gewenste bandbreedte en latency maar haalt.

Het HBM an sich verbeteren zal nVidia niet zomaar kunnen. Dat is vooral de winkel van Hynix.
Op de korte termijn kan AMD iets winnen door een handrem te zetten op nVidia's productie en verkopen door voorrang te nemen in de beschikbaarheid van HBM2, op de lange termijn jaagt dat pad echter enkel nVidia weg van de techniek.
Ik betwijfel dat nVidia geen HBM zal gebruiken. Dat zou betekenen dat ze eerst nog een eigen techniek moeten ontwikkelen en dat geheugen dan laten produceren voor hun grafische kaarten. Pascal is op dit moment ontworpen voor HBM (de highend kaarten, tenminste).

[Reactie gewijzigd door graverobber2 op 15 juli 2015 10:01]

Behalve dan dat HMC nog nergens te bekennen is en de genoemde bandbreedte niet in verhouding staat tot HBM. SK Hynix is trouwens geen kleintje. In 2014 een netto winst van meer dan drie miljard dollar.
Onder HBM2 'High Density' lijkt een verdubbeling van de capaciteit te worden weergegeven voor HBM2 t.o.v. HBM1? Dus straks 8GB ipv 4GB?
HBM2 heeft veel flexibelere specs, dus het laat stapeling van 2x zoveel dies toe, en grotere bandbreedtes, dus 16 GB of zelfs 32 GB zijn mogelijk.
HBM zoals het nu is, is alleen in dies van 2 Gb te krijgen, en 4 hoog gestapeld. Het geheel is net niet meer experimenteel, maar de technologie is volop in ontwikkeling, dus dit was het maximum dat ze konden garanderen, en dat is ook nog maar kort geleden (AMD had de Fury graag eerder uitgebracht natuurlijk ;) ). Zie ook Softpedia voor een mooi overzichtje.

HBM2 gaat voor 8 laagjes van 8 Gbit, dus 8 GB per stack. Daarbij komt een verdubbeling in data-snelheid, dus geloof maar dat AMD al staat te trappelen om het toe te passen.
Als klap op de vuurpijl kunnen ze natuurlijk ook nog meer stacks op een kaart plakken, de huidige 4 is vooral omdat de interposer ook nieuwe tech is. Als je daar naar de 8 kunt (wederom een verdubbeling van totale bandbreedte) wordt het echt interessant, en is geheugen de eerstkomende jaren geen limiet meer.
yup gaat idd 8GB worden :). Maar ok de rest vergroot daardoor. En dan gaan we hopelijk erg leuke 4K (eyefinity) performance zien
Nee, als ze het gepatenteerd hadden en er is niet om heen te werken worden ze door RAND wetgeving verplicht een licentie af te staan. Hou ook rekening dat een patent dus openbaart hoe je iets doet en daardoor alles vrijgeeft. Vindt iemand een andere methode voor dezelfde situatie, zijn ze om het patent heen.

Heb je dus iets bijzonders wat niet makkelijk met reverse engineering is uit te vogelen of simpelweg niet lang genoeg een voorsprong kan bieden, dan is een patent niet interessant. In het geval van HBM is het zo dat het patenteren weinig zal brengen gezien de snelheid van ontwikkelen, er meerdere wegen zijn tot 3D en het vooral 'niet wijzer maken van de concurrent' nu belangrijker is dan een methode afschermen. Hadden ze het 3D stapel geheugen als methode gepatenteerd had Nvidia (en elke andere maker van enige SoC combinatie) recht gehad op een eerlijke licentie met uitleg van hoe aan de slag te gaan. Nu moet Nvidia afnemen om iets te hebben en kost eigen HBM tijd en geld voordat het op hetzelfde niveau zal zitten.

Patenten zijn zeker niet de heilige graal ;)

[Reactie gewijzigd door Freaky_Angelus op 15 juli 2015 10:22]

Nah zijn ze ook niet, maar patenten maken dingen wel duurder of beperkter voor de oppositie.
Oneerlijke concurrentie?

Laten we AMD ook een kans op overleven geven. Ze dienen heel snel hun positie veilig te stellen, anders is AMD er over een paar maanden/jaren niet meer.

En dan mag je klagen over het feit dat er geen concurrentie meer is, zowel op GPU gebied als op CPU gebied.
Voorrang geven om de concurrentiepositie te verbeteren is raar. De concurrentiepositie moet verkregen worden door de juiste producten voor de juiste prijs te leveren. Iemand die een marathon wint doordat hij 10 minuten eerder mocht starten dan de rest is ook raar.
Nee dat is niet raar nvidia werkt AMD op alle vlakken tegen en doet er alles aan om in open projecten AMD zoveel mogelijk tegen te werken. De laatste pogingen van AMD om tot open standaarden te komen zijn ze niet eens komen opdagen. Verder zou iedereen moeten weten dat nvidia een hele dikke vinger in de ontwikkeling van nieuwe spellen heeft en daardoor AMD ook helemaal kapot probeert te maken.
nvidia is heel erg bang voor de dwerg AMD, want nogmaals AMD maakt amper enige noemenswaardige inkomens en heeft een budget per jaar wat voor nvidia per maand kan worden besteed aan ontwikkeling, intel is zelfs nog veel rijker. Dus die hebben hun enorme vermogen aangesproken om dat lastige AMD uit te schakelen als concurrent. En ja ze hebben heel veel schade aangericht door de prijsafspraken. Hierdoor hebben alle grote pc fabrikanten AMD van hun lijstje geschrapt en ik vrees dat we uiteindelijk opgescheept gaan zitten zonder echte concurrentie.
Het feit dat AMD deze giganten meerdere keren echt te pakken heeft genomen mag op zich al een wonder heten. Het heeft ons de echte 64 bit cpu's dus ook gebracht. en vooral heerlijk snelle videokaarten.
Of er nog zo een klapper zal komen is denk ik niet aan de orde, want bus verbreding bij de huidige cpu's hebben helemaal geen zin. Zelfs op server gebied hebben de experimenten met 128 en 256 bit geen noemenswaardige performance gebracht. Sterker nog ze waren trager dan de 32 bit machines in de meeste situaties.
Op GPU gebied tsja de 2 grootmachten willen AMD uitschakelen en ik vrees dat ze dat gaat lukken.
Dus geniet er nog maar even van tot de 2 giganten het is gelukt om de enige concurrent te vernietigen

Als AMD kapot gaat weet ik wel wie er over de resten gaan vechten, en ik denk dat almachtig en super rijk intel dat dan wel wint.

[Reactie gewijzigd door TEB_Webbie op 15 juli 2015 04:01]

Een betere concurrentiepositie verkrijgen is juist het hele idee van concurrentie; bedrijven proberen zo goed mogelijk te presteren om de concurrentie voor te zijn. Dat is ook wat hier gebeurt; de juiste contacten/contracten worden ingezet om een competitive advantage te verkrijgen. Als dit op een eerlijke manier gegaan is dan is er geen probleem.

Jullie zijn volgens mij in de war met het misbruik maken van een economische machtspositie.
ze hebben samen de technologie ontwikkeld, dat is eerder een privileged partnership te noemen.
Vergelijk het eerder met de zwemmers die indertijd de waterafstotende pakken met ultrahoog drijfvermogen hadden van een welbepaald merk.
Dus als je iets ontwikkeld als HBM dan hoef je de investering die je daar in gedaan hebt niet terug te verdienen? AMD moet maar tegen nVidia zeggen: "Hť, kijk eens wat wij hebben gemaakt. Koop maar zo veel als je wilt."
Zo slecht gaat het toch niet met AMD? Ze maken mooie GPUs en ze doen het echt niet slechter dan Nvidia.

Uiteraard geen woorden voor de CPUs...

[Reactie gewijzigd door Gamebuster op 14 juli 2015 18:59]

Het gaat heel slecht met AMD.

De GPU tak is het enige dat een beetje waarde heeft op het moment. Maar zelfs daar kunnen ze nvidia moeilijk bijhouden.

Nu met de nieuwe productrelease hebben ze een beetje grond terug gewonnen, en dat is maar een heel klein beetje.

Ze spelen ongeveer gelijk met nvidia kwa prestaties en prijs. dat is een goed punt, maar als ze bijna een jaar later dan nvidia pas komen met die producten, dan is dat niet voldoende. dan is er namelijk geen reden voor mensen om over te stappen naar het AMD kamp.

Dit word deels bevestigd door de aandelenkoers.

Bij het op de beurs komen was AMD ongeveer $3,- waard. (1978) Ze hebben een piek gehad van $92,- in 2000. Inmiddels zit AMD nu op een waarde van $2,01.
Dat is geen gezonde waarde. Het gaat dus zeker wel slecht!
ATI had zich nooit moeten laten inlijven door AMD, ATI bood weerstand tegen Nvidia. en ipv dat ATI nu geld heeft om nvidia in te halen, gaat al dat geld dat ze verdienen nu naar de rest van AMD in leven houden.
Ja het gaat slecht met AMD. Goed of slecht in welke context. Commercieel gaat het slecht.
CPU zijn duidelijk ondermaats kwa performance. Maar commercieel brengt het nauwelijks wat op kwa marge.
Toen iNtel met hun Netburst fiasco zat bleven ze capitaal binnen harken door overheersing in de OEM markt.

Maar Fury zijn high-end kaarten. Dus ze hebben ook de top kaarten.
Maar commercieel goed bezig zijn is grote volume sales met gezonde ASP.
Voor mij een consument is Fury ( X ) toch goede alternatieven voor 980 ( Ti ).

8350 is niet slecht voor de prijs maar als je meer te besteden hebt blijft alleen iNtel over.

Ja ATI houd AMD boven water en haald de slagkracht uit de GPU devisie.
Maar als ik een 980(ti) nu heb, is er voor mij geen reden om over te stappen naar een Fury (X)
Alleen heeft AMD het op de CPU markt volledig verknald. Toen ze Intel konden inaken hadden ze een tekort aan pruductiecapaciteit. Nadat Intel netburst liet vallen hebben ze de aansluiting verloren en zijn ze zich gaan richten op de low-end markt waar de marges net heel klein zijn. Dat resulteert in minder winst, minder omzet en dus minder geld voor R&D waardoor het alsmaar slechter gaat met hen.

Spijtig, heb meer dan 10 jar gebruik gemaakt van AMD en zelfs mijn 286 destijds bleek een AMD cpu te hebben, maar mijn nieuwe PC heeft een core i5 gekregen.
Toen iNtel met hun Netburst fiasco zat bleven ze capitaal binnen harken door overheersing in de OEM markt.
Dat is het halve verhaal. Intel heeft OEM's zitten omkopen. Hier is een rechtzaak over geweest die ze hebben verloren. Het schadebedrag die betaalt moest worden is een lachertje als je kijkt wat voor een effect het heeft gehad.
Hmm oke, dat is vreemd. Ik heb altijd het idee dat AMD altijd net iets krachtigere GPUs weet neer te leggen voor minder geld dan de nvidia GPUs, maar wel ten koste van extra hitte en stroomverbruik.
Is ook zo (als we de afgelopen 5 jaar als gemiddelde nemen.).
Sinds AMD's HD 4xxx serie uit ~2008, geloof ik.
dat is inderdaad ook wel waar, totdat nVidia met de 9xx serie aankwam...
een stuk meer performance, en heel wat efficiŽnter met stroom (was nVidia oorspronkelijk ook niet)
ik vind dat AMD ondanks de Fury en Fury X (en verdere Rx 3xx serie) nogsteeds geen goed antwoord heeft.
had daar wel op gehoopt aangezien ik sinds jaar en dag AMD/ATI draai in mijn PC. Dus ik blijf geduldig wachten tot ik mijn 290x 8gb ga vervangen (390x 8gb is me te weinig verschil en de fury's hebben niet genoed vram voor mijn smaak)
Ik denk dat AMD best kan overleven. Al zal het overgekocht kunnen worden door bv Microsoft.
Maar dat zit er voorlopig nog niet in.
Samsung wordt ook vaak genoemd.
En tevens hoorde ik laatst ergens HiSilicon (Huawei) ook de mogelijkheden aan het verkennen is voor een overname of samenwerking. (t lijkt me niet heel waarschijnlijk, maar Huawei zit ook niet stil op het gebied van uitbreiden, dus uitsluiten doe ik het ook niet)
AMD is momenteel denk ik een hele makkelijke prooi aan het worden voor kapitaalkrachtige bedrijven. De kennis hebben ze wel, en licenties hebben ze wel, alleen het geld om flink te investeren helaas niet. De vraag is niet of, maar wanneer er een partij mee aan de haal gaat. Hopelijk wel een partij die nog geld wil/kan investeren in de X86 tak, anders dan zie ik het somber in voor de consument.

.
Want dat doet Nvidia nou nooit O-) *kuch* Gameworks laten implementeren in games en deals sluiten zodat AMD de code van een game niet in kan zien *kuch*

[Reactie gewijzigd door SomerenV op 14 juli 2015 17:57]

Dat gameworks niet lekker werkt op AMD kaarten heeft meer met de slechte tesselation performance van AMD kaarten te maken....sad but true.
Of misschien heeft het iets te maken met een onzichtbare tesselation sea die vooral gemaakt lijkt te zijn om concurrenten dwars te zitten? Ik heb liever een degelijke technische ontwikkeling dan kleuterachtige grappen zodat fanboys kunnen roepen dat in spel X hun kaart echt sneller is...
Dat is alleen een kwestie bij Crysis 2 en dat heeft niks met videokaart fabriekanten te maken maar met Crytek die gewoon erg weinig de boel optimaliseerd. Waar heb jij recente games gezien die een grote tesselation layer onder de map hadden?

(voor de mods, deze post krijgt 2 punten maar de mijne een -1? Het is gewoon een feit hoor dat de voorgaande AMD generaties minder sterk betreft tesselation waren).
het feit dat die zee er was was idd aan de developers van crysis 2. maar de 64x tesselation is er door nvidia gameworks in gezet.

en er zijn heel veel andere voorbeelden te vinden:
vlakke betonnen muren waar ineens 64x tesslation op geforceerd is. de haren van witcher 3 waar ook 64x tesselation of geforceerd zit (terwijl er grafische geen enkel verschil is tussen 16 of 64). de shader op de vacht hond van COD ghost die belachelijk lang is. de cape van Batman met 64x tesselation (opnieuw geen verschil tussen 64 of 16) ect. bijna elke gameworks game heeft zulke markt verziekende trucjes.

het gaat er niet om dat AMD minder sterk is met hoge tesselation hoeveelheden (bij 8x zijn ze veel sneller als nvidia. omslag punt ligt ronde de 11x). het gaat erom dat nvidia die hoger tesselation levels forceert zonder dat dat iets toevoegt grapische gezien, en er dus geen een reden voor aan te wijzen is BEHALVE om AMD dwars te zitten. Hun eigen prestaties gaan er ook van naar beneden dus ze dwarsbomen hun eigen klanten ook, maar zolang de performance bij AMD maar daalt, vind nVidia dat blijkbaar geen probleem.

dat is gewoon markt verziekend gedrag.

als tesselation rationeel word ingezet is er geen enkel probleem met de hardwarematige implementatie van tesselation bij AMD. enkel en alleen als het word opgeschoeft tot belachelijke hoeveelheden op objecten die dat totaal niet nodig hebben word het lastig.

[Reactie gewijzigd door Countess op 14 juli 2015 23:12]

Zoals mijn vorige reply zeg ik ook hierbij speculatie.

Dus om het nou af te gaan schepen op dat Nvidia bezig is met AMD zieken vind ik in dit geval niet correct. Tuurlijk gaan de prestaties omlaag. Het details niveau is veel hoger. Gelukkig is er een switch dat je het op lager kan zetten. De tesselation settings zijn wel erg hoog en in het geval van The Witcher moeilijk te zien.

Erg kort door d ebocht om 16 vs 64 als niet te zien af te schepen. Want als je de wireframes naast elkaar zou leggen val je zowat van je stoel af.
Het details niveau is veel hoger
is het dus niet. er is NIKS van te zien. in geen een van de gevallen die ik noemen levert het ook maar IETS op. behalve lagere framerates dus.
Gelukkig is er een switch dat je het op lager kan zetten.
is er ook niet! niet in game tenminste. dat moet je buiten de game om in de CCC forceren.
Want als je de wireframes naast elkaar zou leggen val je zowat van je stoel af.
irrelevant! je ziet er NIKS van. dat bedoelde ik dus met rationeel toepassen. 64x op het haar bij de witcher is NIET rationeel

het gaat om haar! het is praktische 1 dimensionaal. hoe veel extra pologons zou je in haartje willen stoppen? op een gegeven moment voegt het echt niks meer toe. dat niveau is bereikt op 16x.

als je wel verschil ziet mag je het me aanwijzen.

https://forums.geforce.co...-3-hairworks-reduces-fps/
Een plat vlak met 64◊ zoveel triangles voegt inderdaad veel toe aan de game. ;(
nvidia kan natuurlijk wel ervoor zorgen dat e.e.a zo soepel mogelijk draait op andere kaarten, dus ze zijn beiden "schuldig"
Daarom kan AMD een driver een paar weken later uitbrengen die beter presteren. Een goed punt bij Nvidia is gewoon dat zij vaker en sneller gameready drivers uitbrengen.

Beiden hebben zo hun eigen libraries. TressFX voor bij AMD kaarten iemand?
TressFX voor bij AMD kaarten iemand
wat een open standaard is en nu even goed draait op AMD als op nvidia hardware.
Een goed punt bij Nvidia is gewoon dat zij vaker en sneller gameready drivers uitbrengen.
de manier waarop ze dat voor elkaar krijgen is anders alles behalve goed. ze sluiten een contract af met markteing, geven die een grote zak geld, en dan zegt marketing dat de developers gameworks moeten gebruiken, en dan mag AMD op geen enkele manier bij de ontwikkeling van de game betrokken zijn en pas op het aller laatste moment mogen ze de game hebben om er drivers voor te maken, terwijl nvidia al maanden heeft gehad voor optimalisaties. en natuurlijk heeft AMD geen toegang tot de broncode van gameworks wat hun optimalisatie werkt vele malen moeilijker maakt.

of nog erger, na maanden van optimalisaties bij AMD tijdens de ontwikkeling gooit nvidia er ineens een andere gameworks versie in, met allemaal nieuwe dingen waardoor de performance bij AMD ineens compleet instort en AMD weer opnieuw kan beginnen een paar weken voor de launch.
Dit is allemaal speculatie voor zover ik weet. Ik zou hier wel harde data van willen zien. Dat AMD en Nvidia game developers sponsoren tot zekere hoogte gebeurt al jaren. Square Enix games bijvoorbeeld met optimalisaties voor AMD kaarten en andere weer voor Nvidia. Maar de meeste problemen betreft AMD kaarten wijt ik toch echt aan de drivers. Ze zijn er nou eenmaal minder snel mee. Wat jammer is. Ik had liever een sterkere concurrentie gezien namelijk.
sorry maar de feiten tegen nvidia stapelen zicht op, waar rook is is vuur.

bij door AMD gesponsorde games zijn nog nooit van dit soort vieze trucs ontdekt. als AMD its maakt , zoals bijvoorbeeld tressFX dan maken ze daar een open standaard van waar ook nvidia gebruik van kan maken en het resultaat is altijd dat de performance tussen beiden elkaar met AMD's technologieŽn niet veel ontlopen.

dit in schril contrast met nvidia technologie die vaak wel specifiek lijken te zijn ontworpen om AMD dwars te zitten.
Square Enix games bijvoorbeeld met optimalisaties voor AMD kaarten
maar geen anti-optimalisaties voor nvidia. in tegenstelling tot de nvidia gesponsoorde games.
Wat jammer is. Ik had liever een sterkere concurrentie gezien namelijk.
protesteer dan tegen het marktverziekende gedrag van nvidia, want anders komt er nooit een eerlijke markt.

als AMD's driver team exact even goed was als dat van nvidia, maar alleen AMD continue bezig moest zijn om blokkades in nvidia games te omzeilen dan zou het LIJKEN alsof AMD slechtere drivers had. of dat nu op dit moment het geval is is irrelevant. door het gedrag van nvidia krijgt AMD niet eens de kans om te laten zien wat ze kunnen omdat nvidia ze overal waar het kan ze dwarsboomt. alle tijd die daaraan verloren gaat kan niet worden besteed aan nieuwe technieken zoals tressFX of betere optimalisaties voor games.
Feiten? Die zou ik graag willen zien.

Na wat research en artikelen lezen erover lijkt het mij helemaal niet zo zwart wit.

Zie dan bijvoorbeeld ook dit artikel. http://www.extremetech.co...the-gameworks-controversy

In mijn optiek is AMD vooral zijn positie gaan verliezen door ongebalanceerde kaarten zoals de 290x uit te brengen die veel meer vermogen nodig hebben dan in dit geval de concurrentie om hetzelfde te kunnen bieden en dat in combinatie met een luier release schema van drivers.
In mijn optiek is AMD vooral zijn positie gaan verliezen door ongebalanceerde kaarten zoals de 290x uit te brengen die veel meer vermogen nodig hebben dan in dit geval de concurrentie om hetzelfde te kunnen bieden en dat in combinatie met een luier release schema van drivers.
4 generaties lang (h4xxx tot hd7xxx) was AMD niet alleen elke keer de eerste met een nieuwe kaart. deze kaarten waren een stuk goedkoper. zuiniger EN nagenoeg de zelfde prestaties als die van nvidia. en toch konden ze niet door nvidia ijzeren griep op de markt breken omdat nvidia elke keer weer wel een AAA title kon omkopen om de performance bij AMD te verzieken.

je artiekel gaat over driver ontwikkeling dat staat helemaal los van de manier waarop nvidia gameworks misbruikt.

hier is een voorbeeld.

http://techgage.com/news/...llation_becomes_overkill/
the DirectX 11 patch tends to raise the tessellation effect to overkill levels, when there’s simply no justification for it. In one example, a simple concrete road barrier is the most tessellated object in the entire scene, despite being one of the most simple.
As Scott found in his look, when the water takes up most of the scene, the water is tessellated as you’d expect. However, if you are in a level where a tessellated ocean exists, it still renders underneath the level. That means that even if you are inside of the city and the only thing around you are buildings and rubble, the ocean will continue to be rendered under the level, impacting GPU performance.
en hier batman

http://www.extremetech.co...opers-end-users-and-amd/2

die cape bestaat uit vele malen meer polygons dan dat hij pixels in het scherm een neemt. opnieuw een heel duidelijk voorbeeld van compleet irrationeel tessellation gebruik.

en dat ijs het zelfde verhaal. het bestaat voor het grootste deel uit grote vlakken stukken. er is GEEN ENKELE rationele reden te bedenken waarom je daar 64x tesselation op zou willen hebben.

en om het nog erger te maken
AMD attempted to provide Warner Bros. Montreal with code to improve Arkham Origins performance in tessellation, as well as to fix certain multi-GPU problems with the game. The studio turned down both.
In the long run, no one benefits from this kind of bifurcated market — especially not end users.

[Reactie gewijzigd door Countess op 14 juli 2015 23:49]

Crysis 2 is geen eens een gameworks titel en gewoon slecht geoptimaliseerd. Was notabene een DX11 patch om de PC gamers tevreden te stellen en Crysis 2 diezelfde status als Crysis 1 als heavyweight game te geven.

Betreft Arkham knight. Die game draait op niks optimaal. Maar jij mag het een waste of resources vinden. Dat stukje cape ziet er fenominaal uit. Aangezien je het constant in beeld hebt is het niet zo onbelangrik als jij zegt. Het heeft niks met het aantal pixels te maken. Het oogt gewoon alsof het echt is inclusief de beweging. Er is fors meer nuance mogelijk met 64x. Je ziet het niet direct in een screenshot. Maar zie het als een staaf die buigt op beweging. Mrt 4x tesselation buigt deze op beweging constant op 4 dezelfde plekken en met 54x dus op 64 plekken waardoor het organischer gaat ogen.
Crysis 2 is geen eens een gameworks titel
nee, omdat deze uit kwam voor ze het gameworks noemde. hier heten het nog "the way its ment to be p(l)ayed".

feit blijft, nvidia was nouw betrokken bij de ontwikkeling en AMD werd buiten de deur gehouden.
Betreft Arkham knight
het ging daar om arkhem Origins, van 2 jaar geleden.
Mrt 4x tesselation buigt deze op beweging constant op 4 dezelfde plekken en met 54x dus op 64 plekken waardoor het organischer gaat ogen.
ja met 4 vs 64 is er verschil ja. maar met 16x vs 64x is het niet of nauwelijks verschil. je had het verschil echt niet gezien als hij maar 1/4 of zelfs 1/8 van het aantal polygons had gehad.

en je negeert compleet de sneeuw. 8x zou daar RUIM voldoende zijn geweest.
Deze argumenten zouden nog enizins ergens lucht hebben als het niet zo zou zijn dat AMD een maand later vaak wel opeens met een driver komt die het beter doet.
ja, omdat ze de default tessellation op 16x zetten ipv 64x. omdat ze dus om de trucken van nvidia heen konden werken of anderzijds onschadelijk konden maken.

[Reactie gewijzigd door Countess op 16 juli 2015 02:23]

Crysis heeft de ment to be played titel maar geen aparte libraries. Oftewel iets waar beide kaarten mee kunnen werken. Dat is gewoon een feit dat tesselation in hoger detail niveau minder is op een AMD kaart. Net zoals dat AMD kaarten sterker zijn in het algemeen op hgoere resoluties vanwege de geheugen bandbreedte. In dit geval was een AMD kaart in het nadeel. Net zoals dat een Nvidia kaart in het nadeel is op 4K resolutie. HIer kan je gewoon objectief naar kijken. Dat het tesselation water onder de gehele map onnodig was ben ik met je eens. Maar daar heeft Nvidia of AMD niks mee te maken maar puur het haast werk van Crytek die de game sowieso gerushed had vanwege de console varianten die uitgebracht werden.

16 vs 64 zie je wel degelijk zodra het in beweging is. en de bewegingen veel ronder zijn. Dat is hetzelfde als met bump mapping. Dit zie je alleen wanneer je beweegt en erom heen kan draaien. Als elke programmeur zoals jij zou denken wanneer iets voldoende is zou de grafische vooruitgang van de afgelopen 10 jaar niet gebeurd zijn. Developers zoeken het uiterste op, Misschien niet altijd het meest efficiente maar proberen de realiteit zoveel mogelijk te benaderen. Denk aan meerdere shader lagen voor de huid van een personage zodat je echt oneffenheden kan zien. Dit zie je alleen bij close ups bijvoorbeeld en kost vrij veel resources terwijl je het meestal niet ziet door de uitgezoomde camera. Met jou beredenering is dat dus nutteloos. AL die kleine details vormen uiteindelijk 1 grote experience. AMD moet gewoon zijn tesselation performance zien op te krikken net zoals dat Nvidia zijn memory bandwidth issues eens moet gaan verbeteren. Niks fanboy acchtig, het is wat het is en dit is ook de general consensus onder developers in de industrie. Zou ik maar eens een praatje mee gaan maken en eens meekijken me thoe de tools daadwerkelijk werken in plaats van wat op onderbuik gevoelens meningen van internet na te praten ;)

[Reactie gewijzigd door Rin op 16 juli 2015 10:44]

Het heeft geen nut meer triangles dan pixels te berekenen omdat je het resultaat niet terug kan zien.
Ga maar eens naar demo's kijken waar het in beweging is.
Ook daar geldt hetzelfde. Wanneer je zoveel triangles hebt dat deze niet eens allemaal getoond kunnen worden heeft het geen nut, immers, je kunt het niet terug zien.

20 pixels aan vertex data op 1 pixel laten zien is nutteloos omdat je 19◊ voor niets rekent.
Je wil het gewoon niet snappen, in iedere post die je op dit artikel hebt gemaakt ben je extreem pro-Nvidia wat me an-sich nog geen bal uitmaakt, maar je blijft volhouden terwijl iemand je net heel veel moeite doet om je "lulkoek" te ontkrachten.

Je voorbeeld klopt niet, je zegt 4x, wij hebben het over 8 of 12x. Ik geloof je best dat een cape er nťt wat beter uitziet met 64 samples dan met 16 samples, maar een muur (vlak object) zou nog geen 2x moeten krijgen.

Zoals in de artikelen uitgelegd is het compleet idioot hoe de tesselation berekend word, objecten die het nodig "zouden kunnen hebben" krijgen 16x en een enorm gebied als een oceaan krijgt 64x en blijft ook nog renderen als je er ver vanaf bent.

Dan kun je nog zo hoog op je poten staan, het klopt simpelweg NIET wat je zegt, klaar.

Ik vind het sowieso belachelijk hoe Batman draait, maar buiten dat: wil je een cape die wellicht op 1 pixel meer of minder te zien is of wil je 30 fps ipv 20? Ik wist het wel...

Buiten dat hoop ik ten zeerste dat dit gerucht gewoon waarheid is, het zou werkelijk van de zotte zijn als nVidia hier even tussendoor kon karren en AMD zijn harde werk afpakken. Laat ze zelf maar eens innoveren, en hoewel het erg ongunstig zou zijn voor Hynix en AMD zou ik persoonlijk ook gewoon een patent hebben aangevraagd: lekker zoals nVidia dat altijd doet met hun zooi en maar lekker harken van de license inkomens die ze van nVidia krijgen omdat andere fabrikanten gewoon nog geen stacked memory hebben.

De keus is voor hen dan simpel:
-ofwel op GDDR5 blijven en 3 dubbel ingemaakt worden
-ofwel hun hoge marges eens wat inkorten door een licentie van AMD af te nemen.
Ik geef prima tegen artikelen waarbij door allerlei partijen in de industrie dat gameworks niet is wat er hier beweerd wordt. Een middel om AMD dwars te zitten.

Dan blijf jij en Countess hameren op Crysis 2 en daar de gigantische hoeveelheid tesselation in. What the hell heeft Crysis 2 met deze discussie te maken? Developers gaven zelfs aan dat ze de game gerushed hebben uitgebracht, het is niet eens een gameworks titel oftewel kortom een game die slecht geoptimaliseerd is. Mijn lulkoek ontkrachten? 2x dus met een artikel over Crysis 2 komen wat totaal niks met deze kaarten en de posities onderling AMD & Nvidia te maken heeft.

Betreft Batman, de game draait prima op alle hardware ware het niet dat de world streaming gewoon gigantisch buggy is en voor lag en happeringen zorgt. Dat stukje cape in beweging vanwege tesselation x64 is daarbij echt niet het probleem. Betreft die The Witcher 3 voorbeelden. DIe zeggen weinig omdat het niet in beweging is. Je kan het als excuus zien maar tesselation op dat niveau is nog alleen goed voor de details van objecten in beweging hoe natuurlijk dit kan ogen. Dat het voor wat haar krankzinnig is om zoveel resources er in te stoppen ben ik het mee eens. Maar het is een game die het mooiste van het mooiste probeerd te tonen op elk niveau. Deze argumenten zouden nog enizins ergens lucht hebben als het niet zo zou zijn dat AMD een maand later vaak wel opeens met een driver komt die het beter doet. Artkelen wijzen dit ook aan dat Nvidia meer met drivers doet qua optimalisatie terwijl AMD meer van de source code afhankelijk is. Dit zijn mensen uit de industrie die dit verkondigen en een stuk meer credibiliteit hebben dan jij en ik samen.

Oh en het toe te schrijven in dit geval aan een Nvidia fanboy? Heb gewoon beide brands in mijn PC's hoor. Ik costateer dit gewoon en ik pas mijn koop gedrag erop aan. Als AMD weer een echt goede kaart op de markt brengt in een prijs categorie die ik acceptabel vind krijgen zijn weer mijn zak met geld.
En twee weken later was het opeens wel goed speelbaar met de nieuwe driver...
Dit lijkt mij juist goed voor amd, zo kunnen ze weer op voorsprong komen en dat is goed voor de consument. Dan moet nvidia wel naar beneden met zijn prijzen.
Gezien de huidige performance van de nvidia 980ti lijkt mij dat HBM voor nvidia nog gewoonweg niet nodig is.
Het is wel een marketing term die amd kan gebruiken straks en nvidia niet, als hbm straks 'de shit' wordt is nvidia wel een beetje in het nadeel. ;)
Een gebruiker kan kiezen tussen HBM en 8GB RAM ipv 4. Ik weet wat die zal kiezen.
Er staat nou juist in de tekst dat 8 gigabyte een mogelijkheid wordt bij hbm2. Tenzij nvidia dan met 16 gigabyte komt ofzo (is wel super overkill) is er geen nadeel meer voor amd qua geheugen grootte.
Misschien maar uit het verlleden blijkt dat daar weinig kracht ligt voor AMD.
Geloof maar dat ze het graag toepassen, 12 geheugenchips op een GPU is heel krap, en vereist een gigantische hoop PCB-layers om alles in goede banen te leiden. Een interposer en een paar HBM-stacks is nu al ongeveer even duur (voor meer bandbreedte) en gaat straks hard in prijs dalen.
Dat valt wel mee, ten 1e gaat het hier over geruchten. ten 2e weten we nog niet zeker wat dat '3D' geheugen mag gaan zijn.

Daarnaast moet ik nog maar zien of NVIDIA voldoende research in HBM heeft zitten om dit op relatief korte termijn op de markt te kunnen zetten.
Het is al vrij lang bekend en het staat ook in het artikel dat Nvidia pas volgend jaar met HBM geheugen komt.

En je mag er vanuit gaan dat Nvidia intern al lang werkende kaarten heeft met HBM.
Nou het is hun eerste avond tuur op een dan verse dieshrink met alle risiko's. Dus of dat soepeltjes gaat verlopen. Als Pascal al meteen een Godzilla chip is voor die procede is een GTX480 of nV40 fiasco iig goed mogelijk. Maar ja in contex wat de concurrent brengt. Als die nog grotere problemen hebben wordt de mindere fiasco een top prestatie. Totdat ze Jaren later uit dezlefde procede een twee maal krachtig iets tevoor schijn halen op ietje grotere Die.
Dieshrink klopt niet helemaal.
Want met een dieshrink geef je aan dat iets eerst op een groter procede gemaakt word en dan op een kleiner procede.
En dat dezelfde chip kleiner gemaakt word.

Er zijn geruchten dat Nvidia al werkende 16nm modellen heeft.

Het kan een fiasco zijn maar wanneer het dat niet is kan het ook een flinke klap zijn richting AMD. Want het is een nieuwe arch, HBM2, Unified memory en NVlink.

Mocht het een succes zijn dan zal dit ook slecht zijn voor ons want dan zal de high-end zeer duur zijn.

[Reactie gewijzigd door Deadsy op 14 juli 2015 20:25]

Lijkt mij niet, AMD heeft al eerder HBM geheugen afgenomen van Hynix. Als bestaande klant kun je gewoon voorrang krijgen op nieuwe klanten. Als dat toevallig je grootste concurrent is, is dat mooi meegenomen. Overigens heeft AMD natuurlijk ook resources e.d. in HBM geheugen gezonken samen met Hynix lijkt mij dus niet meer dan logisch dan AMD voorrang krijgt ten opzichte van andere afnemers.
Lijkt mij dat dit een gerucht is en we hier dus nog geen uitspraken over kunnen doen..
Uhm ja want AMD is duidelijk een markt leider op GPU gebeid.. en de FuryX loopt ook rondjes om de 980Ti..

Je moet wel even onthouden dat AMD hier een hoop geld en tijd in HBM gestopt. Dus vindt ik het begrijpelijk dat ze in het begin zeggen van wij gaan voor.
En dan nog als AMD niet genoeg verkoopt en dus niet veel nodig heeft blijft er zat over..
AMD is langer in de zee gegaan met HBM, Nvidia gaat hier gebruik van maken terwijl hij al door ontwikkeld is, terwijl AMD & Hynix samen gewerkt hebben om deze product te maken zoals hij nu is, Dus ze hebben recht op de voorrang.
Ze hebben meegeholpen aan de ontwikkeling wat gewoon geld heeft gekost.
Ze zijn gewoon eerste in de rij, het is niet zo dat er helemaal niet geleverd word aan Nvidia.
Het lijkt me ook sterk dat AMD de finianciele middelen heeft om Hynix te kunnen betalen voor een exclusieve toegang.
Wees blij dat nvidia uberhaupt HBM2 mag gebruiken. Als ze het net zo hadden gespeeld zoals nvidia dat altijd al doet hadden ze lekker alles voor hunzelf gehouden. Het is immers ontwikkeld door AMD en Hynix.
Raar dat je -1 wordt gemod, redelijk ontopic, je hebt nog gelijk ook, ware het niet dat amd er wel recht op heeft:)
Dus stel jij bent een pannenfabrikant en ik vraag je om een bepaald soort pan te produceren en dan de eerste 100 aan mij te leveren is dat oneerlijke concurrentie? Back to school met jou, zou ik zeggen.
Nvidia mag het kopen neem ik aan, alleen wel voor een meerprijs? Als het zo is vind ik het terecht want Nvidia houd ook altijd veel voor zich zelf.
Dat is nou eens mooi nieuws :)
Voor de mensen die lopen te klagen over oneerlijke concurrentie, neem als voorbeeld The Witcher 3 en Project Cars, deze games zijn gewoon geoptimaliseerd voor Nvidia en draaien duidelijk minder goed op AMD kaarten. Hoe zou dit komen en is dit een eerlijke manier om AMD te beconcurreren? In samenwerking met de developers, AMD gebruikers toch uiteindelijk de dupe laten zijn.
Ze hebben al genoeg tegenslagen gehad, Intel kan er ook wat van op het gebied van oneerlijke concurrentie.
AMD heeft bovendien ook niet echt een andere keuze dan gebruik te maken van dit soort kansen, anders krijgen ze het straks nog moeilijker..
Voor de duidelijkheid, ik ben geen AMD fanboy maar ik wil wel een eerlijke markt en vooral geen monopolie op de markt hebben. Toevallig is dit niet geheel eerlijk maar de concurrentie is ook niet helemaal eerlijk geweest

[Reactie gewijzigd door ToxicCharged op 14 juli 2015 21:28]

Roerend met je eens. Als er maar 1 GPU of CPU vendor op de markt over blijft zijn wij de consumenten gewoon weg het haasje. Zo'n scenario zie ik echt volledig niet zitten.
Krijg je CPU's die 2 keer zoveel kosten met misschien 5 of 10% meer performance dan de generatie ervoor, gewoon omdat ze het kunnen doen.

Geen van allen zijn het liefdadigheids instelling die het het beste voor hebben met de consument. En in geval van een monopolie gaan ze echt wel leuk de prijzen op krikken.
Als Nvidia de underdog was geweest had ik net zo hard gehoopt dat ze met iets kwamen dat de big boy een toontje lager laat zitten.

Waarom? MIJN portomonee is gebaat bij lagere prijzen. En met 1 vendor kan je dat wel vergeten.
Ik hoop echt van harte dat AMD op een of ander manier goed op hun benen komen te staan, be it GPU
or CPU.
Want het kan namelijk de kant op gaan zoals het nu met CPU is voor AMD, en dat zou echt een ramp zijn.
Het is echt triest wat we nu hebben op gebied van CPUs,

Wil je Performance dan is de keuze makelijk, namelijk: Intel
maar daarbij moet je wel je ouders huis verkopen. (yes yes you can buy cheap cpu, ik praat met mensen die begrijpen wat ik hiermee bedoel.)

Ik hoop dat AMD weer wat kan bieden zodat wij als consument van kunnen genieten.
Hbm of niet Nvidia lijkt het nog niet nodig te hebben gezien de performance van hun kaarten.
Nou als het niet nodig was dan zouden ze toch op 4K duidelijk beter moeten scoren zoals in lijn met lagere resoluties. Blijkbaar is mem toch te langzaam en gaat Fury de 980 voorbij.

Maar ja wat gaan deze concurenten met dX12 doen.
Misschien dat de industrie even prioriteit kan geven aan 14nm/16nm FinFet ipv elkaar op deze manier uit de race te drukken. Ik begrijp het wel en ergens is het zeer strategisch van AMD om Nvdia op deze manier voor probeert te zijn maar het 28nm drama begint een beetje kansloos te worden. Ik kan namelijk niet wachten totdat er zwaardere GPU's in ultrabooks worden gepropt zoals bij bijv de Asus UX303LB/LN waar nu al een GT 840m in hangt.

[Reactie gewijzigd door AlainSki op 14 juli 2015 18:17]

Welk drama. De huidige perfomance liegt er niet om en op welke produktie techniek die behaald word is irrelevant.
Ik doel dan dan ook op notebooks/gaming-to-go, ik begrijp dat TDP/hitte ontwikkeling voor desktops van minder belang is.
Op een andere node moeten we dat maar weer afwachten, het bied zeker op dat vlak geen garanties. Het word eerder steeds moeilijker het goed te krijgen.
Eeeehh just so you know it, die FinFETs wordt heel hard aan gewerkt, en het is niet AMD's, noch NVidias schuld dat TSMC loopt te knoeien met nieuwe processen... GloFo en Samsung zijn druk bezig om 14 nm werkend te krijgen, Intel is er al lang mee bezig, maar dat staat totaal los van HBM. Overigens hebben alle spelers aangekondigd de volgende serie op 14 nm te maken, dus je punt valt een beetje in het water...
Volgende generatie wordt dan eindelijk weer een grote stap vooruit (van 28nm naar 14nm, van gddr5/hbm naar hbm2). Zeer interessant voor mini-itx game PC's of Steamboxen. Hopelijk maakt nintendo hier gebruik van bij zijn Nintendo NX.. Dan lopen ze voor de verandering tenminste voor op de concurentie.
Ah, zelf als het zo is dan maakt dat niet zo heel veel uit. Met de Fury series is het wel duidelijk dat er niet veel performance voordeel aan is..

edit: @hieronder, natuurlijk is het een goede verbetering, maar belange niet zo belangrijk als de 14/16nm verkleining..
Geheugen verbruikt al nauwelijks iets, het kleiner worden van de PCB is voor mij persoonlijk niet belangrijk en het geheugen is niet bepaald een grote bottleneck..

[Reactie gewijzigd door SmokingCrop op 14 juli 2015 19:54]

Alhoewel de daadwerkelijke benchmarks inderdaad niet uitwijzen dat er een significant voordeel in zit, moet je wel beseffen dat de Fury kaart de 1e in zijn soort is. Zie het als een "consumer prototype". Met de genoemde vooruitgang lijkt het zo te zijn dat de memory bandbreedte en capaciteit verdubbelt zonder significante nadelen in andere eigenschappen, zoals kosten en stroomverbruik.

Ik vermoed daarom dat de Fury slechts het begin is van een nieuwe generatie aan grafische kaarten.
Niet veel performance verschil?
-het is zuiniger
-het is compacter
-het is sneller
Het is letterlijk op ieder punt een vooruitgang..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True