En zoals ik al zei, het gaat nog een tijdje duren voor games er uberhaupt mee komen.
Hoe weet je dat?
Zoals ik aangeef met Crysis, komt het best wel eens voor dat kort na de launch van een nieuwe Windows/DX/GPU-generatie een game komt die de nieuwe technologie volledig benut.
Je moet rekenen dat DX12 al heel lang beschikbaar was voor developers, alsmede de hardware van nVidia die de nieuwe features ondersteunt.
Developers hebben dus al maandenlang gewerkt aan hun DX12-code. UnrealEngine4 is al een tijd uit voor DX12, beschikbaar voor ontwikkelaars in het DX12 Early Access program.
Eigenlijk wel, want AMD heeft ook gewoon een marktaandeel. Doen alsof ze er niet zijn verandert daar niets aan.
AMD heeft op dit moment 25% van discrete GPUs, nVidia de overige 75%.
Daarnaast, dergelijke features zijn altijd optioneel, dus dat AMD het niet heeft is geen reden om het niet te implementeren voor hardware die het wel heeft, nu en in de toekomst. Het DX12-only argument gaat dus niet op.
Het is vooral jammer voor mensen die een nieuwe AMD-GPU kopen, en die features moeten missen die ze met een nieuwe nVidia-GPU wel hadden gekregen.
- Beide partijen (en Intel, uiteraard) moeten de ''nuttige'' features ondersteunen.
Dat hoeft dus niet, want features kunnen optioneel gemaakt worden in games. Zoals gebruikelijk is.
- Dan moeten consumenten nog die kaarten kopen.
Dat doen ze al sinds september 2014 met de 900-serie van nVidia.
Daarbij is het van belang dat juist Intel deze features ondersteunt daar volgens Steam zij de meest populaire GPU's aan boord hebben.
Nee, want features optioneel.
- Consoles moeten erbij betrokken worden. Nu is dat wat lastiger daar niet alles DirectX is, maar voor multiplatform releases is het redelijk om aan te nemen dat hier aan gedacht wordt. Kost dus ook tijd.
Ook niet heel relevant, zie wederom voorbeeld van Crysis en andere DX10-games uit die tijd. Er zijn nooit DX10-consoles geweest. Pas sinds de Xbox One en PS4 hebben we DX10+-hardware in consoles.
Dit heeft DX10/11 op de desktop niet tegengehouden.
Het heeft weinig zin de eerste ergens in te zijn als dergelijke features nog lang niet worden gebruikt

Dit gaat alleen op voor de eindgebruiker, omdat die zelf niet kan beslissen wat hij gebruikt of niet.
De ontwikkelaar gaat aan de slag met nieuwe hardware en features zodra deze beschikbaar zijn. Dan is het dus wel van belang om de eerste te zijn.
Dat zie je ook in de historie vaak terug. Bv GeForce256 was de eerste DX7-kaart, ATi maakte nooit veel kans.
GeForce3 was de eerste DX8-kaart, ATi maakte nooit veel kans.
Radeon 9700 was de eerste DX9-kaart, nVidia maakte nooit veel kans.
GeForce 8800 was de eerste DX10-kaart, ATi maakte nooit veel kans.
Het punt is namelijk dat developers dan engines gaan ontwerpen en optimaliseren voor die eerste hardware. Als jij later komt, en jouw hardware wijkt te veel af, dan kom je dus in een markt waar alle games suboptimaal zijn. Vooral met de GeForce FX en de Radeon 2900 ging dat gigantisch fout.
Bij CPUs zie je iets vergelijkbaars, bv met de Pentium 4 en de AMD Bulldozer. Twee architecturen die niet heel goed om kunnen gaan met bestaande code.
Vandaar dat je dus concurrentie moet hebben, als Nvidia een monopolie positie had zouden ze het niet de moeite waard vinden om bepaalde technieken mogelijk te maken.
Dat lijkt me wel, want je moet mensen wel overhalen om zo'n nieuwe, dure videokaart te gaan kopen. Als ze niet met nieuwe features komen, houdt de upgrade-cycle op een gegeven moment op.
Die R7 zal vast wel wat goedkoper worden dan de 7870 waar hij op is gebaseerd. Sommige mensen hebben niet zoveel eisen en willen gewoon gamen op een redelijke resolutie met redelijke settings. Dan is zon 370X geen slechte keus.
Zoals ik zeg, als nVidia een kaart levert met vergelijkbare prijs en performance, maar meer features, dan is zo'n 370X dus wel een slechte keus.
[Reactie gewijzigd door Verwijderd op 23 juli 2024 08:45]