Als je geen fanboy bent, hoe kom je dan aan de ronduit onzinnige conclusie dat fermi zo superieur zou zijn aan AMD's huidige chips?
Waarom concludeer je reeds dat mijn conclusie onzinnig zou zijn zonder eerst m'n uitleg af te wachten? Nogal omgekeerde discussiemethode...
Soit, kijk even naar CUDA en OpenCL. AMD heeft om te beginnen niks zoals CUDA. CTM is dood en begraven. En Fermi kan meerdere kernels in parallel uitvoeren. Dat zorgt voor superieure prestaties voor GPGPU-doeleinden. Fermi ondersteunt zelfs een uniforme addresseerruimte, recursie en excepties, waardoor er ook in C++ op geprogrammeerd kan worden.
De grote GF100 chip is overduidelijk een faal product, nu ze de chip kleiner hebben gemaakt in de vorm van de GF104 is het pas een goed product geworden.
En hoe komt dat? Het is dezelfde architectuur. Jij hebt duidelijk geen verklaring dus moet je ook geen onzinnige conclusies gaan trekken.
De GF100 heeft rekeneenheden die allemaal voorzien zijn om double-precision floating-point bewerkingen uit te voeren. De SIMD-eenheden zijn ook minder breed, waardoor de branch granularity lager is. Al dit maakt de GF100 een krachtpatser voor berekeningen met hoge precisie. Dit is zeer nuttig voor zaken zoals ray-tracing en wetenschappelijke berekeningen. In vergelijking is de GF104 slechts een slappeling, met amper 1/6 van de rekeneenheden in staat om doubles te verwerken.
De GF100 heeft hierdoor een hoger verbruik maar daar krijg je ook heel wat voor in de plaats. Het is allesbehalve een epic fail als je alle mogelijkheden beschouwd. Hij is misschien net iets minder afgestemd op de games van vandaag, maar zal nog ettelijke jaren meekunnen als men meer doubles en kortere branches gebruikt.
En zoals ik al zei zal AMD genoodzaakt zijn om serieuze architecturale aanpassingen te maken om daarin mee te kunnen. Dat zal ook gepaard gaan met een hoger verbruik.
Je hebt het over schaling zonder te vermelden wat je precies bedoeld. Waarin schaalt het dan zo goed in vergelijking tot AMD's chips?
Kijk naar de theoretische GFLOPS. Die van AMD liggen hoger en toch halen ze voor een vergelijkbare chip geen hogere prestaties in de praktijk. NVIDIA is in staat z'n rekeneenheden veel beter aan het werk te houden, terwijl AMD's chips vaak moeten wachten tot registers vrijkomen of data uit RAM-geheugen uitgelezen is.
Als je AMD's architectuur verdubbelt (i.e. schaalt) dan wordt het probleem alleen maar erger. De gedeelde componenten ondervinden contentie en de boel blokkeert nog vaker. Om meerdere kernels in parallel te kunnen draaien zullen ze heel wat aanpassingen moeten maken.
Fermi's architectuur heeft die aanpassingen reeds en schaalt dus lekker door. Het hoongelach van AMD zal van korte duur zijn als ze niet snel met iets gelijkaardigs komen. Het is dan waarschijnlijk aan NVIDIA om te lachen met AMD's verbruik. NVIDIA heeft langzaam opgebouwd naar de Fermi-architectuur en heeft er dus al heel wat ervaring mee om zo'n complexe chip toch effcient te maken. AMD zal genoodzaakt zijn om in één keer een grote sprong te maken en de geschiedenis leert dat dit altijd groeiproblemen met zich meebrengt...