Dat komt omdat Pascal / GTX 10xx een doorontwikkeling is waarbij de GPU bij Nvidia een specifieker doel heeft gekregen. De Titan V is daar ook een goed voorbeeld van. Nvidia maakt één basis architectuur maar kan daarbinnen 'mix and match' doen vwb extra resources. AMD doet iets dergelijks nog steeds niet, of niet in voldoende mate en dat is ook één van de hoofdredenen dat ze zwaar achter zijn gaan lopen en dat Vega zo hard faalde.
Pascal sloopt een aantal zaken uit Geforce als voortzetting van de geknepen GPGPU performance die je ten tijde van Kepler al zag. Dat is de reden dat mining op AMD kaarten is begonnen, die hadden dat nog wel. En het is ook de reden dat er een steeds groter gat tussen AMD en Nvidia begon te ontstaan vanaf, in feite, Hawaii en in sterkere mate Fury X.
Een GTX 1080 heeft bijvoorbeeld helemaal niet zoveel meer shaders en clock voor clock is de architectuur (IPC) trager dan Maxwell. Maar die clocks, die gaan wel 25-45% hoger binnen hetzelfde TDP budget. En dat kan door een kleinere node te combineren met een veel beter gestroomlijnde 'single purpose' GPU + veel strakkere en fijnmaziger power delivery + een ver doorontwikkelde vorm van GPU boost die verdacht veel lijkt op AMD's XFR voor Ryzen, maar dan met een veel grotere range. En vergeet ook niet de constante focus van Nvidia op een smalle VRAM bus, waarbij Maxwell een delta compressie kreeg en er bij Pascal nog een schepje bovenop kwam.
De rek is er niet helemaal uit want GPUs kunnen nog véél kanten uit bij Nvidia, maar de *huidige* implementatie van een enkele GPU die met daar wat VRAM omheen is wel tegen zijn grenzen aan het lopen en een nieuwe, kleinere node is slechts uitstel van executie, en in veel gevallen niet eens zo denderend lang uitstel. De huidige single-die oplossing wordt nu in elk geval in rap tempo kostbaarder om te maken - daarvoor hoef je alleen maar naar de marge van AMD te kijken op hun veel te grote, complexe ontwerpen. Die bestaat al meer dan 10 jaar feitelijk niet.
Of, ook een mooie parallel: kijk naar Intel Core. Daar is iets soortgelijks aan de hand en is Intel CPU eigenlijk een beetje hetzelfde als AMD GPU: te lang blijven hangen op een design dat eigenlijk niet meer op de toekomst is ingesteld, te weinig doen onder de motorkap om dat modulair te maken en zo creatiever met je TDP budget om te kunnen gaan en ook hier ontbreekt een fijnmazige, precieze boost functie voor maximale performance; de focus van Intel ligt op lager verbruik. Begrijpelijk omdat dat de groeimarkt is (mobile/portable op accu), maar ook eenzijdig.
In beide markten zie je nu dat er naar multi-die oplossingen met een snelle interconnect wordt gekeken en dat lijkt mij ook de logische ontwikkeling. De reden dat Nvidia nu uitstelt is logisch, ze hebben geen enkele reden om de 'next best thing' te gaan pushen want ze hebben de snelste die toch wel zal verkopen. Misschien verkopen ze er zelfs twee omdat al die sufferds nu een 4K paneel voor zich hebben staan en dan is een enkele 1080ti eigenlijk niet voldoende.
Maar die wet van Moore, daar is zo onderhand iedereen wel van verschoond en proberen om die uitleg steeds maar een beetje aan te passen op de nieuwe realiteit is daar gewoon het bewijs van. "Zo heeft hij het niet bedoeld"... als het dan toch over een parallel gaat... dat zeggen religieuzen ook als ze weer eens wat oude geschriften moeten herzien omdat ze zijn ingehaald door de realiteit

Niet alle wetten zijn eindeloos houdbaar en die van Moore is eigenlijk nergens op gestoeld behalve een 'gut feeling'.
[Reactie gewijzigd door Vayra op 22 juli 2024 13:46]