Er is nog een probleem dat meespeelt op de GPU markt. Wanneer is de performance genoeg?
Nooit
Kijk naar Intel. De CPU's zijn tegenwoordig zodanig overkill, dat je gerust met een 2 Core CPU 95% van de taken, kan uitvoeren binnen de second bij wijze van spreken.
Daarom ontwikkelt men steeds verder door op het schrijven van multi-threaded applicaties. Meerdere games zijn al multithreaded en die houden van elke extra core die ze kunnen gebruiken. Voorbeelden zijn Crysis, GTA IV
Hetzelfde probleem zit je bij de GPU markt. Ik heb een "oude" GTX260. Niet echt recent meer te noemen. Maar dat ding draait alles wat je ertegen smijt, tegen 1900*1200, met zowat alles op full details.
Dat betwijfel ik en dat ligt er ook maar net aan wat je speelt. Zoals je zelf al aanhaalt draait een "oude" Core 2 Duo ook nog alles perfect, en dat ding is ook maar 1 generatie oud. Waarom zou dit voor GPU's niet gelden?
Zoiets heeft ook een enorme invloed op de PC GPU markt. De noodzaak tegenover vroeger, om de upgraden is veel minder. Het zwaarste game is Crysis deze dagen. Wat moet men nog op de markt brengen, dat de GPU op zijn knieën krijgt, en mensen dwingt te upgraden beyond een GTX260? ( Ed: Ik spreek wel niet over slecht geprogrammeerde games, welke een GPU op de knieën krijgen. ).
Crysis (1, Warhead, 2), Stalker: Clear Sky, Metro 2033 (al draait die heel wat gemakkelijker zonder DX11 enabled opties, maar daar speel je het eigenlijk wel voor.) en verder valt het wel mee. Niemand die jou dwingt van je GTX260 af te stappen.
Je merkt dat Nvidia met de "tesselator", een andere richting wilt opgaan met de markt. Maar iedere gamer dat de laatste 10 jaar of meer, de evolutie meegemaakt heeft, weet dat je nooit eerste generatie nieuwe hardware mag kopen. Men komt uit met DX10 kaarten? Je wacht tot ze aan DX11 zitten. Want dan zijn er games op de markt, dat tenminste de DX10 features gebruiken.
ATI beschikt al over de tesselation techniek sinds de RV6xx die in de HD3xxx serie te vinden was. Dat de vraag naar de technologie er nog niet was zorgde ervoor dat ATI de ontwikkelingen op een lager pitje zetten, maar het was voor hun wel makkelijker om dit te implementeren in hun RV8xx die we terugvinden in de HD5xxx serie. AMD heeft meer tesselation units, en ze willen deze in gaan schakelen mbv een firmware update wanneer de vraag ernaar toeneemt, kort samengevat. Voor nVidia was de technologie nieuw en dus moeilijker om te verwerken.
Nvidia begint met de "tesselator", awel, je wacht tot de volgende generatie, want dan pas ga je games zien dat die feature gebruiken.
En je moet je ook de vraag stellen, hoeveel dragen die features bij. Soms is het verschil tussen de "speciaaltjes" zoals physics dat invloed heeft op iets, weinig nut tot puur window dressing.
En je bepaalt dus zelf of je het de extra's waard vind.
Het probleem dat Nvidia meemaakt, is men wilt de grote vernieuwer zijn, maar de features dat ze nu in hun monster GPU zetten, zullen pas invloed hebben binnen x aantal jaar, als de games uitkomen. En tegen dan ben je 1 of 2 refresh releases, en 1 major gpu release verder.
Dus dat zouden ze met opzet doen om te zorgen dat ze in de problemen komen? ATI / AMD had al een DX11 serie uitgebracht en nVidia wil haar marktaandeel natuurlijk niet verliezen, waardoor ze wel met dit monster moesten komen. En daarnaast, nVidia is de afgelopen jaren na de GF8800 niet echt een grote vernieuwer gebleken imo.
Persoonlijk vind ik de aanpak van ATI ook veel beter. Het is minder radicaal, maar kwa snelheid ligt de kaart niet ver weg van de Nvidia monster Gpu, met veel lagere warmte ontwikkeling, goede idle stroom verbruik, enz...
Klopt

De tijden dat je monster kaarten in je PC stopt, dat energie blijven zuipen, terwijl men je kamer opwarmt zijn ook gedaan. En volgens mij heeft Nvidia dat niet door. Men denkt nog te veel aan "we moeten de snelste hebben". En dat het een monster is, dat energie zuipt, warmte produceert om een ei op te bakken, en enorm slecht te produceren is wegens de grote met lage yields to gevolg... Mja... Bijzaak. De markt is veranderd, maar Nvidia is niet veranderd op hun GPU gebied.
Personal opinion of heb je hiervoor nog enige ondebouwing? De monster kaarten zullen altijd blijven en zullen ook altijd rond eenzelfde TDP blijven zitten, dat zien we al jaren. En pas als de ontwikkeling van grafeen in transistors goed door gaat komen, zullen we een verlaging van energieconsumptie gaan zien die er ook echt toe doet.
Wat best wel grappig is, zeker aangezien hun andere divisie, wel in staat is om te focussen op performance / power ( Tegra, Tegra 2, Ion, Ion2 ).
Ik vrees dat men vast zat met het design dat een paar jaar geleden begonnen was ( te veel geld & tijd ingestopt ), en dat men liever door pusht, dan nog zaken te veranderen. En vandaag zijn de gevolgen er.
Tja... Iedere firma maakt wel eens fouten. We zullen zien hoe de geschiedenis deze GPU zal beoordelen.
[Reactie gewijzigd door Fid3lity op 23 juli 2024 08:55]