Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: AMD-videokaarten met Navi-gpu op 7nm komen rond augustus 2018

Door , 129 reacties

AMD zou tussen juli en augustus volgend jaar zijn Navi-gpu gereed hebben. De opvolger van Vega wordt gemaakt op 7nm. Tijdens Siggraph 2018, dat halverwege augustus plaatsvindt, zou AMD een professionele videokaart met Navi-gpu aankondigen.

Website TweakTown claimt de informatie over de komst van Navi in handen te hebben. De website noemt geen bron, maar wist ruim voor de release van Vega ook al te melden dat de videokaarten met die gpu's schaars zouden zijn. Dat bleek in de praktijk ook het geval.

AMD heeft zelf al bekendgemaakt dat de Navi-gpu's op 7nm gemaakt zullen worden. Op een officiële roadmap van het bedrijf staat de opvolger van Vega op de planning ergens tussen 2017 en 2020, zonder dat een specifieke datum wordt aangegeven. GlobalFoundries, de chipfabrikant waar AMD zijn cpu's en gpu's laat maken, zei in juni op schema te liggen met de 7nm-productie. Halverwege volgend jaar moeten de eerste chips gereed zijn en in de tweede helft komt de massaproductie op gang volgens het bedrijf.

Een introductie op Siggraph 2018 zou niet onverwacht zijn. AMD greep diezelfde beurs dit jaar aan voor de introductie van de RX Vega-videokaarten. TweakTown meldt echter dat op die beurs voor grafische professionals een professionele kaart wordt aangekondigd en dat Navi tussen juli en augustus gereed is. Misschien worden kaarten voor gamers al eerder aangekondigd.

AMD stapt begin volgend jaar over op het 12nm-procedé van GlobalFoundries voor zowel Ryzen als Vega. Momenteel worden de cpu's en gpu's gemaakt op 14nm. De stap naar het iets kleinere procedé levert waarschijnlijk een kleine winst op wat efficiëntie en kloksnelheden betreft. De stap naar 7nm voor de Navi-gpu, in combinatie met een nieuw ontwerp, zal waarschijnlijk een grotere winst opleveren.

Door Julian Huijbregts

Nieuwsredacteur

09-10-2017 • 10:31

129 Linkedin Google+

Reacties (129)

Wijzig sortering
hopelijk kunnen ze met deze navi chips wel de weg vinden naar lagere energie consumptie en een hogere performance per watt

want Vega... so far... not impressed tuurlijk het draaid een boel dingen goed.. maar wel met een slobber slurp gehalte van een kolkje in je tank
Navi zou, voor zover bij mij bekend, net als Ryzen een modulaire chip moeten worden. Dat zorgt hopelijk voor veel leuks in gpu land.
NVIDIA werkt ook aan modulaire chips want met de huidige groei in transistor counts wordt het vrij lastig om werkende GPU's uit 1 stuk te produceren. Want de kans op fouten op een large scale device is natuurlijk groter en zorgen voor een lagere yield. Als de chip opgedeeld kan worden in meerdere kleinere losse componenten die aan elkaar "geplakt" worden voor het bouwen van de eindproducten dan kan de yield veel hoger liggen.

Zie ook: http://research.nvidia.co...3A-Multi-Chip-Module-GPUs

--- fixed typo ---

[Reactie gewijzigd door CrazyJoe op 9 oktober 2017 11:17]

Ik neem aan dat AMD hiervoor ook zijn Infinity Fabric gaat gebruiken. Hebben ze eindelijk ergens mee een voorsprong op Nvidia. Laten we hopen dat dat goed uitpakt.
Waarom denk je dat dit een voorsprong op NVIDIA zou betekenen gezien NVIDIA iets gelijkaardigs heeft?
omdat amd al meerdere producten op de markt heeft (gehad) die gebruik maken van geavanceerde interposers.
Producten die vooralsnog niet bewezen hebben van beter te zijn dan NVIDIA.
De Ryzen/Threadripper CPUs zijn lastig te vergelijken met nVidia GPU's.
We kunnen het over de Terga SOCs hebben...
Als het om capability gaat zou ik me geen zorgen maken. Zie de laatste innovatie:
Our new DRIVE PX Pegasus AI computer — roughly the size of a license plate — can replace the entire trunk full of computing equipment used in today’s Level 5 autonomous prototypes. Delivering 320 trillion operations per second of computing power, DRIVE PX Pegasus has the AI performance of a 100-server data center, Huang explained.
Dat is iets van 2x Tegra en 2x Pascal. Best indrukwekkend.

Momenteel lijkt alles wat NVidia doet vooral te lukken.

[Reactie gewijzigd door sdk1985 op 10 oktober 2017 18:59]

Ben erg benieuwd hoe dat zal gaan werken voor games.
In het geval van cpu's(ryzen) hield het vooral in extra performance voor productie applicaties maar niet voor games of zelfs iets slechter in verhouding.

Naja misschien zal modulaire GPU net zo werken als GPU's van vroeger die 2 chips in 1 kaart hadden. Die waren vele malen beter in performance gain dan crossfire.
Wat moet ik me hierbij voorstellen? Even een beetje VRAM erbij aan pluggen?
Zie het als 2 of 4 aparte GPU's op 1 kaart die via een zeer snelle verbinding met elkaar samenwerken. Hierbij zal je PC het als 1 geheel zien ipv een dual/quad GPU setup. Uiteindelijk zal je er als gebruikers niks van merken.

Hoe het allemaal precies gaat werken is nog afwachten ;)
Het voordeel zou vooral moeten zijn dat de R&D en productiekosten (veel hogere yields) flink omlaag zouden kunnen waardoor de kostprijs uiteindelijk een stuk lager wordt. Als het goed is :P
Ik hoop dat het stroomverbruik niet extreem hoog is...
Het word hoog tijd dat de berekeningen gewoon op een centrale plaats gebeuren in de cloud zodat het stroomverbruik van home computers drastisch omlaag kan..


Denk een beetje om het klimaat mensen !
Tja, maar die servers moeten dan ook weer bakken aan stroom kreigen, lijkt het dat om vergelijkbare performance je meer energie kwijtraakt door dingen zoals latency.
Cloud comptuting is alleen efficienter als het gaat om berekeingen die een thuiscomputer parallel aan een ander zou moeten doen. Dus iedere pc exact dezelfde berekening met hetzelfde resultaat. Dan kon je die resultaten cachen en heb je dus minder resources nodig. Echter is de kans op DoS vectoren dan veel groter omdat scripkiddos dan lange berekeningen op je backend gaan doen waar ze helemaal niets van gaan gebruiken.
Het is is simpeler, grote bedrijven kunnen de nieuwste en beste grafische kaarten aanschaffen met de beste prestatie vs watt alleen daarom al is het altijd energiezuiniger en goedkoper om zulke dingen in de cloud te doen.
Euhm nee. Want je vergeet rekening te houden met de extra kosten die dat meebrengt voor koeling, huisvesting, loadbalancing, networking, beheer, rackkosten opslag redundancy en spare parts. Allerlei dingen waar je als consument helemaal nul rekening mee houd. Je vergeet namelijk dat professionele apparatuur bijna exponentieel veel duurder is om in te zetten.

Om even een rekeningvoorbeeldje te geven. Met coloaction kun je bij XS4ALL een 1U servertje plaatsen wat je per jaar §1200+ kost aan huur en dan nog eens §150 setupkosten. Dan mag je continu 220W verbruiken met 175Kwh per maand. Daar komt het verbruik van de koelinstallatie (wat veel meer is dan de 5W die een ventilatortje gebruikt) nog weer bij en dan zit je dus al met een veel hoger gebruik dan wat een desktop PC normaal zou doen met dezelfde belasting maar dan kortstondig.

Edit: een 2U servertje kost je 5 tientjes meer per maand, maar dan nog zit je met die 220V 1A continu dus kun je feitelijk alsnog niks aangezien een beetje GPU dat in zijn eentje al makkelijk verbruikt.

[Reactie gewijzigd door supersnathan94 op 9 oktober 2017 22:53]

Ben je bekend met Nvidia grid ?
"up to 48 HD-quality game streams from a single server using NVIDIA's on-chip video encoder technology."

https://www.nvidia.com/object/cloud-gaming.html
Oeh wauw. 720P.

Sorry maar dat is voor een serieuze gamer echt totaal niet interessant. En ook voor andere partijen niet 1,2,3. Zo kan je met colocation nog steeds niets beginnen aangezien deze kaart al meer trekt dan het totaal toegestane verbruik.

Qua kosten is het ook echt niet het goedkoopste.
Je hebt nu al diensten die gebruik maken van Nvidia grid , wel nog met beperkte catalogus aan games.

voor 10 euro per maand en je kunt zelfs op je smart tv spelen ...

https://www.gamefly.com/#!/streaming

[Reactie gewijzigd door tunnelforce1 op 12 oktober 2017 00:41]

Nog meer onduidelijkheden over welke je dan moet pakken.
Zullen ze wel eerst het probleem van de latency moeten gaan oplossen. Dat valt misschien minder op of kun je misschien nog verbloemen bij een workhorse CPU, maar bij een GPU toch echt niet lijkt me.
Juist wel. Een GPU doet toch alles al parallel dus als je dan de pipelines uit elkaar trekt en op losse chips gooit met minder bij elkaar dan kun je dat doorschalen zover je maar wil. Moet je alleen wel voldoende ram en controllers toevoegen.
Je moet wel meerekenen dat AMD voor het geld heeft gekozen met Vega omdat dit gericht is op de server markt. Ze konden net zo goed voor een grotere Polaris chip kiezen en tegen de GTX series van nvidia proberen op te boksen. Dit hebben ze niet gedaan omdat het uiteindelijk voor hun veel lucratievere beslissing was om vega op een markt te plaatsen waar nvidia niet direct een antwoordt op heeft.

(zie de GTX 1070TI die eraan komt als antwoord op Vega 56, ze kunnen gewoon niks beters maken omdat nvidia altijd een antwoord klaar heeft liggen.) :/
Nvidia is anders ook best groot in de server / datacenter markt, zie bijv. de Tesla producten en zaken als de DGX / HGX oplossingen of de NGC stack. Ook daar concurreren AMD en Nvidia gewoon hard :)

Ik zit niet bij een partij die hier vaak mee te maken heeft, daarvoor zijn onze klanten in de regel net te klein. Maar als wij servers leveren met GPU Compute is de vraag naar Nvidia van de klant in de regel groter dan de vraag naar AMD.

[Reactie gewijzigd door Dennism op 9 oktober 2017 11:48]

Leuk om eens te horen van iemand die zelf erg in de server markt bezig is! :P

Ik moest er eigenlijk bij vertellen dat AMD in de servermarkt nu erg klein is tot bijna niks, daarom is er voor hun op dat gebied niet veel te is te verliezen. Bestellingen voor grote server parken zijn tegenwoordig echt reusachtig en als daarin een redelijke deal kunnen krijgen dan is het niet gek dat ze veel winst pakken. Op server GPU's zitten meestal flink wat marge dus als daar redelijk veel van verkocht worden zijn ze al blij bij AMD.

Ik kan er blindelings op vertrouwen dat u er vele malen meer verstand van heeft dan ik ooit op dat vakgebied zal krijgen, daarom ben ik ook blij dat er iemand met meer verstand op mij simpele post reageert. ;)
Het is zeker waar dat AMD er goed aan doet om ook in deze markt de concurrentie vol aan te gaan. De marges kunnen inderdaad groot zijn en het is een markt die de komende jaren alleen maar gaan groeien.
Nvidia heeft een aparte chip, met ook echt andere cores, voor de server markt.
Nvidia wel inderdaad, dat zijn de Tesla producten zoals benoemd in mijn vorige post gebaseerd op o.a. de GP100 (Pascal generatie) en de GV100 (Volta generatie, deze laatste heeft ook de Tensor cores). AMD niet, die doen het momenteel met een chip voor alle segmenten.
yep, voor vdi toepassingen is amd's aanbod niet heel indrukwekkend. En die markt is door moderne kantoor toepassingen best aanzienlijk.
Zoals Dennism aangeeft IS Nvidia al groot in de server en AI markt (cloud computing, automotive...); Cuda is algemeen aanvaard.

AMD moest dringen bijbenen in een aantal markten.
Marktpotentieel.

Als je oude markten afkalven (PC's tout court en dedicated video kaarten in het bijzonder; dat laatste heeft AMD zelf heeft versneld met de APU) en je betreedt niet tijdig nieuwe markten die wťl geld in het laatje brengen, dan laat je de markt aan de concurrenten die het wel doen. En er ervaring, een verworven klantenbestand en mogelijk zelfs een gans eco-systeem in uitbouwen waar jij naderhand tegen moet opboksen. (GameWorks, CUDA...)

In automotive was AMD bijvoorbeeld DOA. Gelukkig wil Tesla eigen chips gaan bouwen met de hulp van AMD.

Ja, AMD had weinig geld voor R&D. Maar AMD had tot voor kort ook enorm slecht management dat veel kansen heeft laten schieten en heeft gedraaid als een windhaan (o.a. ARM-chips). Gelukkig lijkt hun game-console verhaal wel goed uit te draaien, al zullen ze initieel de broek wel heel ver hebben laten zakken.

Je kan veel zeggen van Nvidia, maar niet dat ze onkundig zijn wat betreft een markt ontginnen.
Als je oude markten afkalven (PC's tout court en dedicated video kaarten in het bijzonder; dat laatste heeft AMD zelf heeft versneld met de APU) en je betreedt niet tijdig nieuwe markten die wťl geld in het laatje brengen, dan laat je de markt aan de concurrenten die het wel doen
Ben het an sich niet met je oneens maar de realiteit is dat Nvidia ondertussen een miljard omzet per kwartaal haalt uit het gaming segment. Dus juist die dedicated video kaarten lopen beter dan ooit te voren. Dus ook binnen de dedicated gpu markt liggen nog altijd voldoende kansen, dat bewijst Nvidia met pascal.
Klopt dat Nvidia veel geld haalt uit high-end videokaarten. Daar is de markt verschoven. En AMD is maar net min of meer present in het top-segment (dat steeds beter verkoopt).

Los daarvan, vroeger kwam er ook gewoon gigantisch veel geld uit low-end losstaande graka's. Die markt is volledig verdwenen doordat de iGPU's van processoren fors verbeterd zijn.
Dat heeft meer met de afstelling van AMD te maken dan met de architectuur.
Bij lagere voltages heb je hele goede performance per watt resultaten. Boven de 0.9/1.0v gaan doet relatief weinig voor de clocksnelheden maar wel veel. Voor het verbruik.

Nvidia draait de Pascal gpu's op max iets van 1.05-1.1v. AMD gebruik max 1.2 veel te veel als je het mij vraagt.
Daarnaast hebben tsmc en glofo mogelijk niet dezelfde eigenschappen met gelijke voltages.

Anyway met gelijke (lagere voltages) doet Vega het beter dan Fiji.

Amd heeft Vega te ver gepushed om bepaalde prijs en performance targets te halen. Zonde als je het mij vraagt maar deels wel begrijpelijk.

Hopelijk kunnen ze het ea recht trekken met de 12nm shrink.

[Reactie gewijzigd door Astennu op 9 oktober 2017 11:54]

Mijn MSI gtx960 draait anders ook op 1.2v hoor en het gebruik van die kaarten ligt niet zo hoog. AMD's architectuur is gewoon niet zo efficient.
de gtx960 werd op 28nm gemaakt, da's het dubbele, waardoor je veel minder kans op lekstromen (warmte) hebt
Dat niet alleen Vcc bereik is is ook afhankelijk van procede
Kleinere procede hoe lager de Vcc bereik.
1,2V is voor 14nm hoog maar voor 28nm laag
veel minder transistors en veel minder rekenkracht. Slecht vergelijkingsmateriaal
Dat is een budget kaart en weinig vergelijkbaar want die gebruiken al minder. Performance/watt is wel beter geworden bij AMD, alleen niet zo goed als Pascal, maar wel rond Maxwell level.
Ik zou jou kaart nou niet gaan vergelijken met de vega. Maar goed budget/midkaarten vragen hopelijk sowieso weinig..
Yep en ik ben in bezit van een Evga SSC gtx 1050Ti, qua performance zo wat het zelfde als de gtx 960, maar verbruikt maar 75 watt max, zowat 40% minder stroom dan gtx 960, de prijs ook veel minder 158 euro ipv 220 euro voor de gtx 960. :) Heerlijk een vergelijking maken mat een oude kaart. Wat heb ik een mooie budget kaart
960 is een 28nm kaart wat andere voltages heeft. Dat valt niet 1:1 te vergelijken. Vega is een 14nm chip die ook lagere voltages zou moeten hebben, maar dat hebben ze in dit geval niet wat er voor zorgt dat ze hogere clocks kunnen halen maar dit kost ze wel aan efficientie.
Probeer maar een chip te ontwikkelen de processing power van de heeft Vega en niet zoveel energie verbruikt.
Als jij dat zou kunnen, dan wordt je de meest gewilde ontwikkelaar van de wereld.
Ik weiger te geloven dat AMD eind 2018 7nm kan toepassen (of GF eerder), ze hebben veelal achtergelopen op intel en die komt pas in 2020 met 7nm, (Originele roadmap intel, wat het uiteindelijk geworden is).
AMD is zelf ook niet bepaald betrouwbaar gebleken met informatie, kijk naar vega, hoelang deze geduurd heeft voordat die op de markt kwam en wanneer de verwachting was (geven schuld: HMB2) Navi komt never nooit uit in 2018 (gegeven schuld: 7nm GF)
AMD loopt ons al lekker te maken voor de volgende generatie (deden ze ook met vega: poor volta) de rest is history.
Met andere woorden: als je denkt dat je nu moet wachten met kopen, don't wait, koop gewoon wat je wil, volgend jaar is er echt niet een betere alternatief voor vega. (De reden van AMD om consumenten te teasen natuurlijk).

(TSMC denkt pas in 2019 met 7nm te komen)

AMD roadmap geeft aan dat zen2 in 2019 komt (zen2 =op 7nm)

offtopic:
Score offtopic... hmmm goh we hebben de fanboys weer wakker gemaakt met feiten...

[Reactie gewijzigd door D0gtag op 9 oktober 2017 13:31]

GlobalFoundries, supplier van AMD heeft begin dit jaar een bericht gepost dat ze half 2018 met 7nm productie gaan beginnen.
Misschien doen ze weer een zeer beperkte release zoals vega maar ik denk dat je gelijk gaat krijgen dat het in 2019 pas komt.
Je hebt verschillende processen, GF begint (half) 2018 met 7nm DUV (deep ultravoilet) of deze ook geschikt is voor GPU chips is een ander verhaal, intel stapt over naar 7nm EUV, daarbij hanteren de verschillende fabrikanten ook nog is verschillende node definities, hoe dan ook intel is de enige die 'echt' 7nm heeft. (Samsung en TSMC hebben meer marketing 7nm (samsungs 10nm komt overeen met intels 14nm process, intel loopt voor met hun 10nm). GF zit net op 14nm gaat aankomend jaar naar 12nm (zen+/2) moet ik dan geloven dat ze een paar maanden later overstappen op 7nm, zonder daarbij hun 12nm investering terug verdient te hebben....
Ik zal wel niks van bedrijfsvoering weten. :)

Lang verhaal kort, dit eerste 7nm process van GF is misschien geschikt voor dram/hmb (zuiniger) etc maar niet voor complexe chips die hoge frequenties moeten aankunnen (prestaties).
@Rudie_V Jou verhaal dus :)

[Reactie gewijzigd door D0gtag op 9 oktober 2017 13:32]

12nm is gewoon 14nm++. De investering daarvoor is minimaal. Het zijn aanpassingen aan het proces, waarvoor geen of minimaal nieuwe materiaal nodig is.

en dat GF's 7nm enkel schikt zou zijn voor dram/nand slaat echt HELEMAAL nergens op.
ten eerste kom dat process bij IBM vandaan (opgenomen door GF) en zijn de ontwerp doelen chips van 700+mm2 en snelheden van 5ghz. daar helemaal niks maar dan ook echt NIKS dram/nand aan.

overigens is GF's 7nm process zo ingericht dat EUV een slot in upgrade kan zijn voor de kritische stappen.

[Reactie gewijzigd door Countess op 9 oktober 2017 20:08]

Ja en 7nm is voor GF gewoon 10nm++ of met andere woorden gewoon geen 7nm, strekking van het verhaal.
Waar staat dat 7nm van GF alleen geschikt zou zijn voor dram/nand, want dat slaat nergens op nee.
dit eerste 7nm process van GF is misschien geschikt voor dram/hmb (zuiniger) etc maar niet voor complexe chips die hoge frequenties moeten aankunnen (prestaties).
Waar lees jij: alleen geschikt voor dram/nand?
De eerste generaties of nieuwe technieken zijn niet altijd geschikt voor complexe ontwerpen waarbij een kleiner process niet of nauwelijks voordelen oplevert (als het betekent dat er lagere frequenties behaald worden). 12nm finfet vs 12nm FD-SOI b.v.
While some applications require the unsurpassed performance of FinFET transistors, many connected devices need high levels of integration and more flexibility for performance and power consumption, at costs FinFET cannot achieve.
Mijn punt met 12nm was dat het gewoon gemaakt word met exact de zelfde machines Als 14nm en dat de transistors zelf niet eens kleiner zijn. Ze zitten alleen dichter op elkaar. Dat kost ze dus niks.

De discussie of het 7 of 10nm moet heten is daarvoor niet relevant. En Gf 7nm is gewoon veel kleiner als tsmc 10nm

En opnieuw gf's 7nm heeft als doelen 700mm2 chips en 5ghz operatie. Dus waar haal hij vandaag dat het minder geschikt zou zijn voor complexe chips? Je hele opmerking slaat nergens op.

Ja er zijn verschillen tussen processen en sommige zijn zuiniger en beter voor DRAM maar dat is dit proces dus niet.
Hij geeft aan dat het uiteindelijk geschikt zal zijn voor die type chips maar dat ze met de lancering ws eerst andere typen chips zullen maken om de techniek onder de knie te krijgen.

Tenminste... dat is wat ik er in lees.
Dit is een gerucht en jij weet al wat GF 7nm zal zijn rond half 2018? Doelen is iets anders dan verwezenlijking. (zeker met een tijdsdruk en concurrentie die meer aan *R&D doet). Misschien kunnen ze in eerste instantie helemaal geen finfet op 7nm maken omdat de yield te laag zijn of wat voor reden dan ook, ik zeg dat ze mogelijk minder geschikt (kan je de andere zinnen terug lezen: mogelijk) niet geschikt zijn, misschien is het SiGe legering toch niet goed voor massa productie of geeft het niet de gewenste prestaties.

Dus nogmaals, waar mijn verhaal vandaan komt: waarom ze mogelijk in eerste instantie minder geschikt zijn van gpu's.
Het hangt af van het proces en misschien hebben ze halverwege 2018 FD-SOI 7nm klaar (goedkoper om te produceren maar minder geschikt voor complexere chips, makkelijker om te behalen) om vervolgens het SiGe finfet te behalen (duurder en geschikt voor hoge snelheid en complexe chips).

Maar ik krijg het gevoel alsof ik tegen een christen aan het uitleggen ben hoe waarschijnlijk de bijbel door mensen bedacht is... dat komt gewoon niet aan.


*Even ter verduidelijking TSMC heeft 60% van de markt tegenover 10% van GF
Hun huidige proces is ook niet bepaald goed voor hogere frequenties, maar dat weerhoud ze er ook niet van het toch te gebruiken.
Hier nog wat interessante links met vergelijkingen tussen de procesnodes van de verschillende fabrikanten:
Oud: https://www.semiwiki.com/...4-who-will-lead-10nm.html
Nieuw: https://www.semiwiki.com/...iconductor-landscape.html
Eerste wat ik ook dacht. Normaal komen cpu's en gpu's van AMD altijd veel later uit dan eerst gedacht en nu zijn ze opeens een jaar eerder met 7nm dan de rest.
Ook mijn gedachten, maar wel moeten ons wel beseffen dat procesnodes van fabrikanten niet zomaar vergelijkbaar zijn en dat andere afmetingen van zo'n transistor grote invloed hebben. Zo is intel's 14nm proces vergelijkbaar met tsmc's 10nm proces. Ik verwacht van GF dan echt geen grote verbetering ten opzicht van bijvoorbeeld intel's 10nm proces, waar zelfs intel nog grote moeite mee heeft of heeft gehad. Een achtergrond artikel op tweakers geeft daar nog iets meer inzicht in: reviews: Het nattevingerwerk van nanometers - Met kleinere chips komen kopzorgen .
GF's 7nm process komt uit de stal van IBM. GF heeft de process afdeling van IBM overgenomen.

Ik zie verder geen enkele reden om aan te nemen dat GF het niet voor elkaar krijgt om 7nm volgend jaar te introduceren (zeker niet met de engineers van IBM erbij).
TSMC heeft gekozen voor een 10nm tussenstap, en GF zag dat die maar kort relevant zou zijn en heeft dat compleet overgeslagen. dat is waarschijnlijk de reden dat TSMC vertraagd is ten opzichte van GF.

[Reactie gewijzigd door Countess op 9 oktober 2017 20:29]

TSMC heeft 10nm gekozen als tussen stap omdat ze al jaren eerder 14nm hadden en gewoon marktleider wilde blijven. (GF zat niet voor zijn lol al die jaren op 28nm).
GF heeft net dit jaar 14nm geÔntroduceerd en komt volgend jaar met 12nm, bijna alle foundries hebben al 7nm werkend maar ze wachten bijna allemaal op de lithografie machines van ASML die nog niet massaproductie aankunnen of het minimaal aantal wafers vereist voor productie (ik geloof dat ze nog geen geschikte UV bron hadden).
12nm is gewoon 14nm++. De investering daarvoor is minimaal. Het zijn aanpassingen aan het proces, waarvoor geen of minimaal nieuwe materiaal nodig is.
Het betekent dat je productie moet stoppen en het ombouwen van machines in cleanrooms, dit is ongelooflijk duur en is niet even een simpele druk op de knop, de stop in productie is al een enorme kostenpost. Dit moet gewoon terug verdient worden.

Slot in: lees even hoe ongelooflijk complex zo'n machine is vanwege de cleanroom eisen.
One does not simply walk in to a cleanroom.

[Reactie gewijzigd door D0gtag op 10 oktober 2017 10:26]

GF had al veel eerder 14nm. het is AMD die daar dit jaar 14nm producten lancheerde. maar GF heeft veel meer klanten als AMD.

Tsmc zat net zo lang vast op 28nm als gf.

En mijn hele punt is dus dat de machines helemaal niet omgebouwde hoeven te worden voor 12nm want het zijn exact de zelfde machines als voor 14nm. De transistors zijn niet eens kleiner! Ze zitten alleen dichter op elkaar en de maskers zijn anders met iets andere stappen.

[Reactie gewijzigd door Countess op 10 oktober 2017 12:07]

Volledig mee eens, ze hebben hun huidige productie van VEGA niet eens op orde. En dan zouden ze over 10 maanden(!!!), al op 7nm massa produceren en daarmee 10 nm overslaan. Dacht het niet...
Dat de huidige productie van Vega zo slecht is komt door het slecht te leveren HBM geheugen. Was die vol op voorraad was er minder aan de hand geweest. Daarbij komt nog eens dat de Vega56 een Miners Dream is. Tja dan blijft de Gamers achter met lege handen.
Dat Vega vertraagd is maakt het juist waarschijnlijk dat de volgende gpu vrij snel na deze komt. De ontwikkeling daarvan ging gewoon door namelijk.
Eerst zien dan geloven. Vega bleek een gigantische deceptie te zijn en als Navi niet een volledig nieuwe architectuur is, ben ik bang dat het maar marginaal beter gaat presteren dan Vega.
Navi = GCN 6 of verbetering van vega zoals vega verbetering van polaris was etc, Na navi komt er een compleet nieuwe architectuur (informatie van AMD zelf) Vega = GCN 5 (whitepaper)
AMD noemt het geen GCN meer omdat ze willen laten voorkomen alsof het een nieuw product is maar als je de whitepaper leest:
In all, the “Vega” architecture delivers improvements in
performance on multiple fronts alongside ground-breaking
new capabilities...

In prior GCN architectures with..

[Reactie gewijzigd door D0gtag op 9 oktober 2017 13:22]

Er worden hier ook geen meldingen gemaakt dat AND beloftes doet over de prestaties. Dat is de interpretatie van de auteur.
Maar met wat voor een doel worden ze dan gemaakt?Zijn het gewoon game kaarten of worden ze geoptimalizeerd voor autocad en andere zware programma's?Omdat ze met een klein aantal geprodiceert zullen worden of is dat ook een gerucht?
we zullen zien.

volgens mij moeten de vega kaarten nog gedieschrinkt worden zodat ze minder verbruiken.
tenminste het lijkt me de logische volgende stap van amd.

[Reactie gewijzigd door rjmno1 op 9 oktober 2017 16:12]

Dat valt misschien nog wel te bezien of vega een flop is. Deze resultaten laten zien dat er misschien toch iets meer in zit dan andere spellen kunnen laten zien. Het is afwachten natuurlijk, dit geeft hoop voor andere spellen.

https://www.techspot.com/...rns-past-gtx-1080-ti.html
Nvidia heeft een nieuwe driver waarmee de prestaties in Forza 7 weer genormaliseerd worden https://uploads.disquscdn...3d1b7a0074dc28f608198.png
Heb je daar ook een bron van?
Het lijkt alsof AMD al haar capaciteit op Ryzen heeft gezet. Dit zijn natuurlijk prima producten. De RX 470/480/570/580 zijn ook prima kaarten voor de prijs (als ze beschikbaar zijn, maar hier kan AMD weinig aan doen).

De Vega's lijken haastwerk te zijn als een soort tijdelijke reactie op de 1070/1080 van Nvidia. Ik hoop dat ze met Navi weer concurrerende high end kaarten op de markt kunnen zetten.
De GPU en CPU afdeling zijn gescheiden onderdelen, denk dus niet dat dat opgaat.
niet bij een iGPU ;)
Ik verwacht dat de apu's gewoon via infinity fabric los op de interposer verbonden wordt, dus dan zijn het nog steeds gescheiden chips.
Blijkbaar niet.

In een korte video van AMD (op youtube) waren de Vega+Ryzen chips te zien en die waren gewoon gebakken als een hele.
Het ene ontwerp is gewoon beter dan het andere voor specifieke doelstellingen.
Op dit moment heeft nVidia duidelijk de betere architectuur voor consumenten. Mogelijks heeft AMD bij de volgende generatie de betere oplossing.
Ben benieuwd of AMD bij Navi weer gaat kiezen voor een meer server GPU(zoals Vega) die head to head kan gaan met nvidia op dat gebied. Of voor een meer game kaart om in dat gebied weer proberen terrein terug proberen te winnen.

Zelf verwacht ik dat het een Vega opvolger wordt omdat ze simpelweg meer inkomsten genereren op de server markt dan ze ooit doen als GPU's in desktop PC's. :/

Dit klinkt lullig en ik hoop het beste voor AMD maar met op de GPU markt is het nu echt kapot lastig en ik zou zelf niet weten hoe ze het beter zouden kunnen doen. ;(

[Reactie gewijzigd door LCsmit op 9 oktober 2017 11:09]

Als ze hetzelfde soort trucje kunnen toepassen zoals ze nu op de cpu markt doen(weliswaar anders uitgevoerd omwille dat het een gpu is) dan zou dat wel effectief kunnen zijn.

Wat ik bedoel is dat ze met 1 chip verscheidene markten kunnen bedienen zonder al te veel aanpassingen. Dan moet hun research lijn ook niet zo groot zijn.

[Reactie gewijzigd door boonpwnz op 9 oktober 2017 11:50]

Dat is wat ze nu ook al doen, met dezelfde die bedienen ze de van de datacenter markt tot aan het lower highend consumenten spectrum. van de Instinct M25, zie bijv. https://instinct.radeon.c.../mi/radeon-instinct-mi25/ tot Vega 56

Met een GPU op basis van een multichip design (wat de geruchten zijn voor Navi) kan dit echter mogelijk nog beter en efficiŽnter.

[Reactie gewijzigd door Dennism op 9 oktober 2017 12:14]

Dat dacht 3dfx ook, zie Voodoo 5 6000 etc. Multi-chip is leuk, maar heeft natuurlijk niets met efficiŽntie te maken. Als de individuele chips niet efficiŽnt zijn, gaat multi-chip daar weinig aan veranderen.

http://www.x86-secret.com...vers/v5-6000/v56kgb-6.htm

[Reactie gewijzigd door OriginalFlyingdutchman op 9 oktober 2017 12:38]

Ligt er natuurlijk aan wat je met "efficiŽnt" bedoeld, ik bedoel bijv. hier niet direct het stroomverbruik. Maar het feit dat je met een multichip design zoals bijv. bij Ryzen, waar Ryzen voor de desktop 1 chip heeft, Threadripper in het HEDT segment 2 chips en Epyc in het server segment 4 chips je vrij efficiŽnt verschillende producten in verschillende segmenten kan maken gebaseerd op een relatief goedkope kleine die met hoge yields. Terwijl je bij monolithische chips zoals bijv. Vega je een grote dure die hebt (met mogelijk / waarschijnlijk lagere yields die je ook in alle segmenten in kan zetten, maar waarbij deze eigenlijk "te duur" is voor het consumenten segment en daardoor voor dit segment niet echt efficiŽnt.
Volledig mee eens! :)

Grotere chips kosten ook flink meer geld en als je 2 kleinere GPU's aan elkaar plakt dan kunnen ze al snel veel besparen in de kosten! Ook al wat jij zij, met maar 1 enkele chip te hoeven ontwerpen is ook gewoon veel kost effectiever. ;)
Ik heb het zelfde gevoel. Het is wel erg vreemd als ze een nieuwe architectuur voor maar 1 generatie gaan gebruiken. Ze hebben zelf alle beloofde features nog niet actief op Vega.
Maar ik zal er wel geen verstand van hebben :P

Of ze gaan nu puur 1 nieuwe sector gerichte architectuur per generatie doen. Dus:
Vega: new architecture for Server / datamining
Navi: new architecture for Gaming
??
Ik zou het bij god niet weten. 8)7

Wat ik weet is dat AMD geld nodig heeft. Hoe ze dat gaan doen of wat hun plannen zijn is voor mij een raadsel, maar ik weet wel dat AMD veel focus blijft houden op de server markt als dat hun nu meer geld oplevert. Maar stel asjeblieft geen grote verwachtingen want ik weet dat nog vele jaren en generaties gaat duren voordat AMD nvidia gaat inhalen op de gaming markt... :X
Een voordeel hebben we. Nvidia is niet zoals Intel. Die beweegt zelf weer voort. We hebben AMD nodig om Intel in beweging te houden. helaas.
Nvidia is niet zoals Intel. Die beweegt zelf weer voort
Dit is niet echt waar, door het gebrek aan concurrentie kan nVidia weg komen door hun mid end kaarten te verkopen als high end kaarten voor idem prijs

de 1080 was bijvoorbeeld een midrange chip die verkocht werd als high end met high end prijzen, puur omdat er geen concurrentie is.

We hebben AMD nog steeds nodig om echte vooruitgang te boeken en de prijzen normaal te houden bij nVidia
de 1080 een Midrange chip? De 1080 en TI zijn in mijn ogen beide High end. De 1060/1070 mid range. En de 1050 en TI zijn low end. De enige reden dat de prijzen van Nvidia zo duur zijn is vraag en aanbod. Iedere Miner kopen elke AMD kaart op die de fabriek uitrolt. Logisch dat Gamers uitwijken naar Nvidia. En ja Nvidia kan niet tijdelijk aan de vraag voldoen. Gevolg is de prijzen in winkels gaan omhoog. Net zoals AMD geen cent extra per kaart verdient terwijl ze wel voor Meer over de toonbank gaan.
een ~300mm2 chip is normaal gesproken gewoon een midrange chip.
de 1080 een Midrange chip? De 1080 en TI zijn in mijn ogen beide High end. De 1060/1070 mid range
In jouw ogen wellicht,(en omdat nVidia ze ook zo neer zet) maar deze kaart was bijna zeker bedoeld voor de mid end, echter was hij vergeleken met de concurrent snel genoeg om als High end te dienen, en mooi voor nVidia want de marge is zo ontzettend hoog op die kaarten

Ik kan nu even zo snel de documentatie niet vinden, maar is genoeg te vinden online die deze claim ondersteund

[Reactie gewijzigd door Sinester op 9 oktober 2017 18:53]

Ik twijvel daar zeer aan. Heb net even gekeken. En een paar mensen roepen mid end card puur omdat enkele maanden later de 1080ti uit kwam. Tja op die manier is de 780 en 980 ook een mid end kaart geweest.
Ik bedoel ook niet de paar mensen die dat roepen, maar de wat proffesionelere sites die dat ook claimen en daar verdomd goede reden voor hebben.

Reden heeft ook niks te maken met het tijdstip van uitkomen, maar meer met het feit dat nVidia bijvoorbeeld de 1080 uit brengt als high end kaart, maar het in werkelijkheid een best zwaar gekortwiekte kaart is terwijl ze de volle versie makkelijk kunnen uitbrengen, zelf de TI is nog steeds gekortwiekt

Kijk bijvoorbeeld eens
https://www.rockpapershot...ng-us-all-off-just-a-bit/
of
https://www.youtube.com/watch?v=_j6TiSdKT0A deel 1 en 2

[Reactie gewijzigd door Sinester op 10 oktober 2017 18:35]

Maar dan was de 980 ook al een mid range kaart. Die had immers ook al de zelfde die size en chip. En de 680. Alleen de 780 maakt een uitzondering.

[Reactie gewijzigd door loki504 op 10 oktober 2017 19:03]

[...]

In jouw ogen wellicht,(en omdat nVidia ze ook zo neer zet) maar deze kaart was bijna zeker bedoeld voor de mid end, echter was hij vergeleken met de concurrent snel genoeg om als High end te dienen, en mooi voor nVidia want de marge is zo ontzettend hoog op die kaarten

Ik kan nu even zo snel de documentatie niet vinden, maar is genoeg te vinden online die deze claim ondersteund
Nvidia bouwt de kaarten fysiek virtueel op. Dus ze hebben een hele grote kamer van 10 bij 10 meter waarin de nog uit te brengen gpu wordt gesimuleerd op hardware matige wijze. Daarna wordt er getuned om een bepaald performance target te halen met een zo klein mogelijk oppervlakte. Hoe beter de architectuur, des te kleiner de chip, des te groter de winst. Valt de architectuur tegen dan heb je meer chip (en stroom) nodig, zie Vega.

Dus ja de 1080 had veel goedkoper gekund, net als de 980 en de 680. Echter feitelijk blijven het high-end kaarten puur om het feit dat ze als high-end worden gepositioneerd door middel van de prijs. De prijzen in dollars zijn overigens al jaren stabiel (MSRP).

Dat we ook meer voor minder kunnen krijgen is tegelijkertijd ook waar. Alleen de oorzaak daarvan kun je bij AMD vinden die Ati heeft overgenomen en uitgekleed. Zo lang Radeon vleuggellam is zal Nvidia gewoon 30-40% per generatie bump en 15% voor een refresh bovenop zijn releases gooien.

[Reactie gewijzigd door sdk1985 op 10 oktober 2017 18:52]

Dat valt me ook op, maar AMD kan pas echt terrein winnen als ze een IGPU redelijk hebben .(komt er aan trouwens) Dan kunnen ze in Laptops en andere apparaten die massaal verkocht worden meer markt pakken en dan krijgt intel pas echt voor hun lazer. :)
Valt wel mee? Kijk wat Intel heeft gedaan vanaf ivy bridge. Verbetering hier verbetering daar. Maar echt iets leuks hebben ze gebracht met Coffee lake. En daar zie je ook dat hij er tussen is gepropt. Andere chipset omdat de oude waarschijnlijk lijk moet 6/12 overweg kon. En ze geen tijd hadden om een nieuwe socket te maken. Coffeelake is een snel antwoord op AMD. meer is het niet. Hopelijk gaat Intel weer eens door ontwikkelen en niet veder met slapen.
Coffee Lake is leuk, maar het is ook maar een paper launch. Ik hoop stiekem dat intel echt te laat reageert en dat AMD flink terrein pakt. Dan hebben we in ieder geval de komende jaren een een genoeg competitie. :)
Daar hoop ik ook op.
maar wist ruim voor de release van Vega ook al te melden dat de videokaarten met die gpu's schaars zouden zijn. Dat bleek in de praktijk ook het geval.
Lijkt me meer een educated guess gezien releases in het verleden dan een "onbekende bron"

[Reactie gewijzigd door The-Priest-NL op 9 oktober 2017 10:55]

Ja het gaat AMD lukken, maar ze zullen alles vergelijken met een Gtx 550ti anno 2018.

Gewoon de huidige kaarten optimaliseren! Zit zoveel potentieel in alleen het wil maar niet lukken.
Tja het blijft AMD.
Ik zou zeggen eerste zien dan geloven. Vertragen lijkt een levensstijl bij AMD de laatste jaren dus we zien wel wanneer ze komen.
Ik zou er niet op wachten.
ryzen op tijd, 400 serie op tijd, threadripper op tijd, epyc optijd. enkel vega vertraagd.

maar om een of andere reden is dat reden om te zeggen: 'amd altijd te laat'. ik snap het niet.
ryzen is wel degelijk vertraagd. Het heette alleen eerst Zen dus het val niet op als je op ryzen zoekt. slimme truc van amd dacht ik zo maar realiteit blijft dat ie al in 2016 uit zou komen.

Even snel googlen en jawel de 490 was gewoon delayed.
en ook de 580 was delayed.

Ook threadripper was vertraagd zij het veel minder.

En jawel verassing ook de vega was vertraagd.

eerst even googlen voortaan.
je praat onzin. Je zit nu en of ander gerucht na te praten alsof dat altijd de waarheid was, en dat het AMDs schuld is dat ze zich daar niet aan gehouden hebben.

Dat hele verhaal over dat het hernoemen zou zijn in daar te verbloemen is al helemaal onzin. Zen was ALTIJD de interne core name en nooit bedoeld als merketing naam. De core heet ook gewoon nog steeds zen!
ryzen op tijd, 400 serie op tijd, threadripper op tijd, epyc optijd. enkel vega vertraagd.

maar om een of andere reden is dat reden om te zeggen: 'amd altijd te laat'. ik snap het niet.
De roadmap van AMD gaf Zen (=Ryzen) aan op 2016: https://images.anandtech....AMDZenRoadmap_678x452.jpg

Dus Ryzen was zeker niet op tijd.

Epyc was eigenlijk ook een paper launch sinds Juni. Vanaf +- September kon je ze daadwerkelijk krijgen.

[Reactie gewijzigd door sdk1985 op 11 oktober 2017 15:47]

Tja en zo kan je veel van de andere amd launches vertraagd zijn maar even wat opzoeken voordat je onzin de wereld insprayed is gewoon veel makkelijker deze dagen.

Helaas maar waar veel van de amd launches zijn delayed.
Jammer maar helaas.
Hoop wel dat het weinig watt gebruikt :)
Dus heel weinig return on investment van 14nm, want de designs of delen ervan kan je niet zomaar hergebruiken voor een die-shrink.

En door op 7nm te gokken ook weer kans op delays.

Will they ever learn?
de 14nm investment is GF's probleem, niet dat van AMD.
maar ook die hebben het echt al lang terug verdiend inmiddels. en door 10nm over te slaan winnen ze ook weer tijd en geld.

en het 7nm process komt gewoon bij IBM vandaan, en die hebben best een goede track record wat betreft leveren van nieuwe nodes.
De designs maken is AMD's zaak. Dat is ook een R&D investment.
Dat staat los van het proces ontwikkelen, wat idd GloFo's zaak is.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*