Je kijkt op veel te korte termijn.

Nvidia zal waarschijnlijk rond de release van Maxwell in 2014, met Turing zijn begonnen. Logisch want architectuur was succesvol gelanceerd, tijd voor de volgende. Pascal is botweg Maxwell 2.0 en telt niet eens. Waar moet Nvidia in 2014 naar gekeken hebben? Nou niet naar AMD die met een GCN refreshlijn kwam. Het was drie keer niks en dat wist Nvidia. Als je met niks kan komen omdat je elk jaar dieprode cijfers schrijft en je R&D budget eraan gaat, tja dan neemt je enige concurrent je ook niet erg serieus meer. Nvidia kon dus rustig aan een nieuwe architectuur gaan werken die sneller zou zijn dan hun Maxwell 2.0 die allang in de planning stond. Dat werd Turing.
Turing is niet eens heel erg revolutionair. Het is een optimalisatie op Maxwell met de toevoeging van heel wat fixed function hardware. Turing is met name beter in recente titels door de toevoeging van integer cores naast de FP32 only cuda cores. Compute wordt namelijk steeds belangrijker in games en "Paxwell" is er niet erg goed in. GCN zeer zeker wel en dat is waarschijnlijk de belangrijkste reden waarom GCN steeds inliep en beter haar prestatiepunten vasthield door de jaren heen.
Maar de RTX effecten, ook in Control en Modern Warfare zijn alles behalve indrukwekkend. Het meeste is effect versterkend omdat de schaduwen zonder RTX gewoon slecht zijn. Dat is een "probleem" waar toevallig de meeste RTX games last van hebben.
Ray tracing is geweldig voor bijvoorbeeld reflecties of een spiegel echt laten spiegelen. Nvidia gebruikt het alleen voor lichteffecten die behoorlijk goed te "faken" zijn. Dan zakt je framerate ook nog eens flink en als je dan ook nog eens zonder RTX videokaart, een grafische downgrade krijgt zodat RTX er beter uitziet, dan ben ik niet onder de indruk.
[hr]Maar terug naar planning voor jaren. Nee, Nvidia keek in 2014 naar iets heel anders, Intel haar IGP's. Die miserabele ondingen waren namelijk in rap tempo beter en beter aan het worden in de voorgaande jaren. Zo snel dat ze op termijn een bedreiging konden gaan vormen voor Nvidia hun wurggreep op de OEM's. De eerste stap is om de instapmodellen overbodig te maken, maar Intel is onverzadigbaar en stopt daar niet. Die gaan gewoon door met hogere segmenten als ze kunnen. Daar kan je maar beter in een vroeg stadium op voorbereid zijn. Het kost immers makkelijk vier jaar om van een concept naar een verkoopbare GPU chip te gaan. Tenminste, zoveel tijd zal het voor Nvidia en al helemaal AMD kosten. Intel kan er gewoon een paar miljard extra tegenaan gooien en dan doen ze het sneller.
Het plan van Intel ontspoorde alleen omdat Intel 10nm zo'n gigantische ramp bleek te zijn. Ice Lake staat al jaren in de planning en die IGP's zijn respectabel te noemen. Ze doen eigenlijk niet onder voor AMD haar huidige APU's. Al die ontwikkelingen totdat Intel helemaal vastliep in haar eigen puinzooi, gaf ook aan dat Intel weer serieus werd over grafische chips, na eerdere mislukkingen. Als je dan in 2017 ziet dat Intel, Raja Koduri inhuurt, dan weet je als Nvidia dat het helemaal tijd is om gas bij te gaan zetten. De geruchten over Xe gingen toen ook al rond. Bij Nvidia zijn ze niet zo dom om dit niet te zien en er niet op te anticiperen.
Daarnaast is het probleem in datacentra dat GPGPU's vooral een ding heel erg goed kunnen, Artificial Neural Networks. Daar zat de groei ook in. Het probleem is dat er iets is dat dit nog veel beter kan, dedicated ASIC's. De echt grote spelers zoals Google zijn allang overgestapt naar hun eigen chips voor het meeste werk en die hebben Nvidia hun aanbod grotendeels niet meer nodig. Daarnaast zijn er nog veel meer soorten Machine Learning die draaien op CPU's.
Nota bene is Lisa Su hier gigantisch op gericht. Ze heeft zeer doelbewust de Radeon divisie zowat onder de bus gegooid door jarenlang de geldkraan dicht te draaien ten gunste voor de ontwikkeling van Zen. Toen Zen leek te gaan slagen, was er pas weer wat geld. Dat ging meteen naar RDNA omdat zowel Microsoft als Sony een nieuwe GPU wenste voor hun nieuwe consoles. Nieuwe consoles met ray tracing ondersteuning.
Microsoft kwam ook met de DXR standaard op PC, niet Nvidia. Dat is geen toeval want op deze manier kan Microsoft alvast de game developers laten wennen aan wat ze voor hun eigen console gaan introduceren. Een console die op RDNA draait. De rekensom is niet moeilijk. RDNA en dan denk ik specifiek RDNA 2 en verder, gaat de ray tracing standaard worden, niet Turing.
Dat is maar goed ook. RTX is closes source, Nvidia only en het werkt alleen maar goed op specifieke Nvidia hardware die alleen in Turing zit. Turing mist niet alleen de rauwe rekenkracht om serieuze ray tracing uit te voeren zoals Nvidia het wenst. Daar wil je niet van afhankelijk zijn. Er zijn ook maar een paar RTX titels en dit is de reden. Als het geen open, universele standaard is, dan beginnen de meeste er niet aan. Het resultaat gaat zijn dat je hier en daar een RTX titel krijgt, maar de RTX hardware verder niet aangesproken zal worden door de meeste games. Ook niet console ports die ray tracing ondersteuning krijgen.
[hr] Dan nog even datacentrums. Zen was altijd een server CPU architectuur die omlaag geschaald kon worden, maar de focus zijn en blijven de servers, specifiek Machine Learning servers die de enorme aantallen cores kunnen benutten voor allerlei taken. AMD had beide kanten op kunnen gaan, maar ze gingen voor de CPU en dat is behoorlijk indicatief. Epyc duikt ook niet voor niks juist op in steeds meer aangekondigde supercomputers, terwijl de rest van de servermarkt veel trager gaat. Volgende stap voor AMD is dedicated chiplet GPU's gaan combineren met chiplet CPU's. Ik denk dat dit een kwestie van tijd is.
In het geval van Intel willen en gaan ze ook die kant op. Net zoals AMD wil Intel ook het totaalpakket leveren. Intel heeft al een lijn van FGPA's in de planning staan. Daarnaast duidt de recente informatie van Xe voor servers ook al op een totaalsysteem. CPU met dedicated, chiplet Xe GPU's ernaast. Daar is op termijn ook geen ruimte meer voor Nvidia.