Bravo voor het lange, goed onderbouwde verhaal. Jammer genoeg klopt er veel te veel niet aan

Waar ATI toen concurreerde als 'underdog' rol, maar wel degelijke hardware had (hardware is sinds de eerste Radeon als opvolger van de Rage eigenlijk altijd wel goed geweest),
...
en ten tijde van de tweede Radeon had ATi ook goede drivers. Hoewel het een tijd heeft geduurd totdat Jan met de P. dit ook door had, is vanaf die tijd ATi 'gelijk' aan nVidia gaan lopen, met hooguit af en toe een kleine sprong in outperformance.
Jij denkt dat het al die gamers ook maar iets uitmaakte hoe goed drivers waren? Performance is het allerbelangrijkste bij GPU's, en dat is het al jaren geweest. NVIDIA heeft inderdaad altijd betere drivers gehad dan ATI, maar dat is totaal onbelangrijk wanneer het performanceverschil groot genoeg is. Jammer genoeg heeft ATI op dit punt veel te vaak achter gelopen. Alleen ten tijde van de Radeon 9700 had ATI een duidelijke voorsprong op NVIDIA, de rest van de tijd liep het of ongeveer gelijk, of liep NVIDIA voor.
Uiteraard helpen zaken als drivers en support wel bij het binden van klanten, en dat is dan ook een van de redenen dat NVIDIA zoveel loyale klanten heeft, maar zolang de hardware niet goed genoeg is behoud je die klanten op de lange termijn niet.
Wat nu misgegaan is, is het feit dat nVidia gewed heeft op de foute evolutie. Ze dachten dat de toekomst Cuda heette, maar ze waren te inhalig en hielden het nVidia exclusief.
NVIDIA heeft niet gewed op een toekomst die CUDA heet. NVIDIA heeft gewed op een toekomst die GPGPU heet. CUDA is daar slechts een onderdeel van. OpenCL en DX Compute zijn daar in mindere mate onderdeel van. Ik vind het alleen bijzonder kortzichtig om nu, twee jaar na introductie van een compleet nieuw paradigma het geheel als een mislukking te bestempelen, juist omdat er nog geen gebruik van gemaakt wordt. Als over twee jaar wel veel gebruik wordt gemaakt van de mogelijkheden van CUDA, OpenCL en DX Compute, dan heeft NVIDIA alle belangrijke stappen al genomen, terwijl AMD op dat vlak nog een heleboel in te halen heeft. NVIDIA kan met Fermi straks direct de concurrentiestrijd aangaan met Intel's Larrabee, RV870 totaal niet.
Overigens is NVIDIA niet de enige die heeft "gewed" op GPGPU, Intel doet hetzelfde. Denk je nou echt dat als NVIDIA en Intel beiden zoveel in die markt zien, dat jij zonder enige ervaring met de GPGPU en HPC markt kan zeggen dat het een slecht idee is? No offence, maar volgens mij werken daar heel wat slimmere mensen dan jij of ik.
Dit zette uiteraard de concurenten en developers aan het denken, waardoor cuda-exclusive titels nooit van de grond zijn gekomen.
Waar haal je dat rare idee vandaan? Je bedoelt dat er nog geen games zijn met CUDA ondersteuning? Natuurlijk zijn die er niet, dat is helemaal het doel niet van CUDA. CUDA is bedoeld voor de HPC markt, en er zijn ondertussen honderden projecten die gebruik maken van CUDA.
Wat betreft GPGPU applicaties op de gewone consumentenmarkt heb je inderdaad gelijk, er zijn weinig programma's die gebruik van CUDA maken. Deze applicaties zullen eerder OpenCL gebruiken. Gelukkig maar dat OpenCL opvallend op CUDA lijkt, en ook grotendeels op CUDA gebaseerd is. NVIDIA heeft ook op dat gebied dus een enorm voordeel op AMD, die in hun architectuur veel minder rekening houden met GPGPU mogelijkheden.
Jij ziet CUDA als een concurrent van OpenCL. Dat is het niet per se, het zijn gewoon alternatieven. NVIDIA wordt er niet veel slechter van of een applicatie nou OpenCL of CUDA gebruikt, zolang klanten maar NVIDIA hardware kopen om het op te draaien.
n combineer het met de bang/bucks die de concurent kan geven die door andermans standaarden te volgen (zoals de MS en OpenGL standaarden) simpele chipontwerpen kon ontwerpen
Alsof NVIDIA geen standaarden volgt. CUDA vormt de basis voor OpenCL, dus NVIDIA ondersteunt OpenCL gewoon, en natuurlijk ook OpenGL en straks DirectX 11. NVIDIA heeft alleen meer functionaliteit op gebied van GPGPU. Dat gaat hen straks een enorm voordeel geven wanneer hier meer applicaties beschikbaar voor komen, terwijl AMD dan ver achter loopt op NVIDIA en Intel. Of dit een belangrijke reden is om een kaart te kopen weet ik niet, dat kunnen we over een paar jaar pas achteraf zeggen, maar ik vind het erg dapper van NVIDIA dat ze een actieve pioniersrol op zich nemen en niet zoals AMD maar achter alle trends aan lopen.
nVidia kan door dit punt helaas niet meer 'snel' met een competatieve kaart komen die lekker no-nonsense is, en standaarden volgt, terwijl het ontwerp zo simpel is dat je gewoon stukken weg kan snijden om een goedkope kaart te maken (Radeon HD 5700 serie door gewoon wat shaders die in het chipontwerp haast afbreekbaar zijn weg te halen).
Ik geef je gelijk dat NVIDIA door zijn grote monolithische GPU aanpak minder snel en wendbaar is dan AMD, maar ik zie niet in waarom dat het makkelijker of moeilijker zou maken om een goedkopere kaart te maken. NVIDIA's architectuur is ook gewoon een multicore chip met losse blokken logica voor IO. Ik zie niet in waarom NVIDIA niet net als AMD ook gewoon wat cores en geheugencontrollers weg kan halen om een mid-range kaart te maken.