Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Marc Rademaker

Redacteur

2010: Nvidia en AMD nek aan nek

Omgekeerde wereld

In 2009 was Nvidia marktleider met zijn videokaarten en liep AMD achter de feiten aan. De HD 4800-serie van AMD mocht dan bejubeld worden door zowel de pers als menig consument, Nvidia bleef de meeste videokaarten verkopen. Nvidia had ook de snelste gpu, die werd gebruikt voor de GTX 285, evenals de snelste videokaart, de GTX 295. Op prijs kon AMD zonder meer goed concurreren, maar Nvidia leek zijn zaakjes beter voor elkaar te hebben.

De omslag

AMDEind 2009 ging Nvidia's comfortabele positie in rook op en moest het bedrijf plots met lede ogen aanzien hoe AMD de eerste DirectX 11-videokaarten introduceerde: de HD 5870 en HD 5850. Destijds deden er al geruchten de ronde dat Nvidia AMD in 2009 geen strobreed in de weg zou leggen, omdat zijn DirectX 11-videokaart vertraging op had gelopen. Later bleek dat het maar liefst een half jaar zou duren voordat Nvidia AMD enige weerstand kon bieden, met de komst van de GTX 480.

De GTX 480 werd eind maart 2010 geïntroduceerd, maar de voortekenen beloofden weinig goeds. De architectuur was maanden eerder al uit de doeken gedaan, maar werkende gpu's waren in geen velden of wegen te bekennen. Tijdens de Cebit in maart waren er enkele systemen te bewonderen die uitgerust waren met een DirectX 11-videokaart van Nvidia. Destijds wist Tweakers.net ook de eerste foto's te maken van een GTX 480 en na de Cebit was het lange wachten bijna voorbij.

De GTX 480 verscheen dus een half jaar nadat AMD de HD 5870 introduceerde en van de vele geruchten bleken er een aantal waar te zijn. De GTX 480 staat nog steeds bekend als een heethoofd, met een verbruik dat met gemak de 250W overstijgt. Het was een kleine troost dat de videokaart sneller was dan de HD 5870, maar dat was ook het minste wat verwacht mocht worden, een half jaar na het verschijnen van de HD 5870. Daar stond weer tegenover dat de HD 5970 op zijn beurt sneller was dan de GTX 480 en ondanks de hogere prijs een betere prijs/prestatie-verhouding bood.

Samen met de GTX 480 bracht Nvidia ook de GTX 470 uit, die zich aardig kon meten met de HD 5870 en beter betaalbaar was dan de GTX 480. De problemen waren desondanks nog lang niet voorbij voor Nvidia, want de GTX 480 werd niet voor niets zo laat geïntroduceerd. Een chip van 529mm2 is moeilijk om te produceren en Nvidia zag al meteen in dat de productie van afgeleiden van de GF100-gpu, voor langzamere videokaarten, een lastig verhaal zou worden.

AMD als marktleider

Met de introductie van de GTX 480 en de GTX 470 waren Nvidia's problemen nog niet voorbij. AMD had namelijk al een gehele line-up van DirectX 11-videokaarten in de aanbieding, met prijzen van vijftig tot vijfhonderd euro, terwijl Nvidia het nog moest hebben van de GT- en GTX 2x0-serie. Het gros van de videokaarten die verkocht worden hebben een prijs van onder 200 dollar en Nvidia was er dan ook op gebrand om zo snel mogelijk langzamere varianten van zijn DirectX 11-videokaarten uit te brengen. Tot op heden is 80 procent van de DirectX 11-videokaarten van Steam-gebruikers nog afkomstig van AMD.

Halverwege juli werd de GTX 460 geintroduceerd. Er zat meer dan een half jaar tussen de introductie van de GTX 460 en AMD's HD 5770 en HD 5750. De GTX 460, met een geheel nieuwe chip, wist dit keer echter wel indruk te maken, dankzij een uitstekende prijs/prestatie-verhouding. Later zou blijken dat de GTX 460 een goede zet was, aangezien Nvidia vanaf dat moment veel meer videokaarten ging verkopen dan AMD.

Data van Mercury Research laat zien dat AMD in het eerste kwartaal van 2010 42,1 procent van de markt voor desktop-videokaarten in handen had. In het tweede kwartaal groeide het marktaandeel in desktop-videokaarten naar 44,5 procent, terwijl het in derde kwartaal weer afnam naar 41 procent. De afname in dat kwartaal valt volledig te verklaren door de introductie van de GTX 460, aangezien Nvidia toen 11 miljoen desktop-kaarten verkocht, tegenover 8,55 miljoen het kwartaal ervoor. AMD verkocht in het derde kwartaal 7,67 miljoen desktop-kaarten, tegenover 6,9 miljoen in kwartaal daarvoor.

Desktop-gpu'sQ1Q2Q3
AMD Radeon 42,1% 44,5% 41%
Nvidia Geforce 57,6% 55,2% 48,7%

Nvidia lijkt dus terug van weggeweest, maar verkoopt nog steeds minder videokaarten dan AMD, aangezien AMD een veel groter marktaandeel heeft wat betreft videokaarten voor laptops. In totaal bezit AMD dan ook 50,3 procent van de videokaartmarkt en Nvidia 49,6 procent. Dat AMD meer gpu's verkoopt voor laptops is niet vreemd, aangezien er amper GTX 480's en GTX 470's hun weg vonden naar laptops. De GTX 460M is pas sinds korte tijd in laptops te vinden en kan Nvidia's marktaandeel misschien weer wat opkrikken. Als we Intel ook meetellen, met zijn igp's, ziet het plaatje er nog anders uit, met ruwweg 54 procent marktaandeel voor Intel, 24 procent voor AMD en 20 procent voor Nvidia.

Totaal non-igpQ1Q2Q3
AMD Radeon 49,7% 51,1% 50,3%
Nvidia Geforce 50,2% 48,8% 49,6%

Gegevens over het vierde kwartaal van 2010 zijn nog niet beschikbaar, maar de introductie van zowel de HD 6800 als HD 6900-serie, maar ook Nvidia's introductie van de GTX 570 en GTX 580 zal de marktverdeling weer doen veranderen. De GTX 500-kaarten en de HD 6900-serie zijn echter nog niet lang genoeg uit om echt effect te hebben. De HD 6850 is echter een geduchte concurrent voor de GTX 460, die daarvoor eigenlijk geen echte concurrentie had. Als we een voorspelling moeten doen, gokken wij dat AMD weer wat marktaandeel terug zal pakken op de desktop-videokaartmarkt.

Snellere gpu's, waarom eigenlijk?

Zitten we eigenlijk wel te wachten op de huidige en toekomstige generaties van snelle videokaarten? AMD kan nog steeds opscheppen dat het de snelste videokaart heeft, met de HD 5970. Ze zijn zelfs van plan om een nog snellere videokaart, de HD 6990, uit te brengen in het eerste kwartaal van 2011. Erg veel winst wordt er niet gemaakt met een dergelijk dure videokaart, maar de prestatiekroon heeft ook om marketingtechnische reden zijn nut. Het is nog maar de vraag of Nvidia hier een dual-gpu videokaart tegenover kan stellen, aangezien het verbruik onder de 300W moet blijven.

Volgens de Steam-survey wordt er het meest op 1680x1050 gegamed, gevolgd door 1920x1080, 1280x1024 en 1440x900. Op dergelijke resoluties is een HD 5850 of een GTX 460 1GB al snel afdoende om het gros van de spellen soepel te kunnen spelen. AMD en Nvidia hebben het dan ook graag over nieuwe technologie als Eyefinity, respectievelijk 3DVision, waardoor de eigenlijk onnodig snelle videokaarten zich nog enigszins kunnen onderscheiden van hun langzamere broeders.

Verder lijkt het niet zo'n storm te lopen met spellen waar de grafische pracht en praal vanaf druipt. Volgens sommigen is Crysis bijvoorbeeld nog steeds een van de mooiste games en dat spel dateert toch al weer uit 2008. Dit heeft verschillende redenen. Het ontwikkelen van een 3d-engine kost ten eerste veel tijd. Het is ook mogelijk om een licentie te nemen op een aantal engines, maar dan kom je al snel uit bij de Unreal-engine, die zonder meer mooie beelden mogelijk maakt, maar ook verouderd is. Unreal engine 4 zou pas in 2012 uitkomen. Ook ben je er met een goede engine nog niet, want scherpe 2d-beelden die nauwelijks van het echt te zijn onderscheiden, moeten ook gemaakt worden, door level- en art-designers. Dan is er nog de kwestie van DirectX 11 en het door veel pc-gamers gevreesde woord, consoles.

Het is een open deur, maar vijftien procent van alle videokaarten van Steam-gebruikers, ondersteunt DirectX 11, terwijl 73 procent DirectX 10 ondersteunt. Op dit moment is het dan ook onverstandig om al teveel tijd te steken in het toevoegen van DirectX 11-elementen, waar het gros van de kopers toch niets aan heeft. Verder worden de meeste games voor consoles ontwikkeld, en die consoles kunnen enkel met DirectX 9 overweg. Het veel verkochte spel Call of Duty: Black Ops maakt dan ook geen enkel gebruik van DirectX 10- of 11.

Pc-gamers zijn ook erg verwend, aangezien er nu al geruime tijd op full-hd gegamed wordt, terwijl console-gamers menig spel nog in 720p-hd spelen. Games als Call of Duty: Black Ops zijn dan ook een groot succes en worden met veel plezier gespeeld, ondanks de inferieure graphics ten opzichte van menig ander spel. Hetzelfde geldt eigenlijk ook voor pc's; kijk naar spellen als World of Warcraft, maar ook Starcraft II, die grafisch gezien weinig gewicht in de schaal leggen, maar desondanks erg goed verkopen.

Crysis 2 Multiplayer Crysis 2 Multiplayer Crysis 2 Multiplayer Crysis 2 Multiplayer Crysis 2 Multiplayer Crysis 2 Multiplayer

De eerstvolgende veranderingen zullen waarschijnlijk teweeg gebracht worden door Cryengine 3 van Crytek en de id Tech 5-engine van id Software. Crysis 2, dat in maart 2011 uitkomt voor zowel de consoles als de pc, zal het eerste spel zijn op basis van Cryengine 3. De engine krijgt ondersteuning voor DirectX 11, maar of Crysis 2 daar ook gebruik van maakt is nog niet bekend. De engine van id Software is gebaseerd op OpenGL en niet DirectX. Desondanks hebben wij hoge verwachtingen. Doom 3, dat gebruik maakt van de id Tech 4-engine, was in 2004 een erg mooi spel, waar videokaarten echt voor aan de bak moesten. Rage is het eerste spel op basis van de nieuwe engine en moet in september 2011 verschijnen. Jammer genoeg zullen alleen ontwikkelaars onder de vleugel van Bethesda gebruik kunnen maken van de id Tech 5-engine.

Rage Rage Rage Rage Rage

Gpu's als cpu's

In onze videokaart-reviews ligt de nadruk sterk op de renderkracht van videokaarten. Games worden gebenchmarkt en de scores worden uitgedrukt in frames per seconde, maar gpu's zijn tot meer in staat dan enkel het renderen van 2d-beelden. De komst van goedkope, maar toch relatief krachtige gpu's is daarom misschien wel interessanter dan de komst van nog snellere videokaarten. Begin 2011 zal AMD namelijk zijn accelerated processing units introduceren. De apu's combineren een cpu met een simd engine array, oftewel een gpu, op een enkele die.

De komst van de apu's kan voor een verandering gaan zorgen en dan met name voor de manier waarop we gpu's gebruiken. Als de apu's aanslaan zullen zelfs netbooks over een degelijke hoeveelheid gpu-kracht beschikken. De desktopvariant van AMD's apu's, die halverwege 2011 moeten verschijnen, zijn nog een stuk krachtiger. Wanneer zowel een aanzienlijk aantal notebooks als desktops standaard met een stevige gpu zijn uitgerust, zal het voor ontwikkelaars de moeite lonen om applicaties te schrijven die de kracht van de gpu benutten.

Gpgpu-computing is natuurlijk niet nieuw, zo zijn er al programma's die videokaarten inzetten tijdens het rekenwerk, zoals Photoshop, Cyberlink of Matlab. Voor veel taken is de cpu nog steeds een vereiste, maar bepaalde taken kunnen veel sneller uitgevoerd worden op de gpu. Met name Nvidia investeert veel tijd en geld in Cuda, om gpu's in te zetten voor andere dingen dan het renderen van graphics. AMD heeft met zijn nieuwste gpu's, de HD 6970 en HD 6950 ook weer een belangrijke gpgpu-stap gezet, maar is nog niet zo ver als Nvidia. Tot op heden is het echter met name de software die achterblijft.

2011

Op dit moment zijn AMD en Nvidia aan elkaar gewaagd en dat is te merken aan de prijzen. Het was nog nooit zo goedkoop om een fatsoenlijke videokaart te kopen. We hopen dat we onze voorraad snelle videokaarten in 2011 weer eens echt kunnen laten zweten, en dat er engines verschijnen die ervoor zorgen dat we in de instellingen sommige sliders niet meer helemaal naar rechts kunnen slepen. Het converteren van een video duurt ons overigens ook nog steeds te lang, ondanks de komst van nieuwe cpu's van Intel. Hopelijk brengt 2011 daar ook verandering in.

Lees meer

Crysis 2 Video van 7 maart 2011

Reacties (124)

Wijzig sortering
Blijft de vraag: was AMD nu zo goed of nVidia zo slecht? :)

Ik denk een combinatie van beide. nVidia zal deze fouten niet opnieuw maken en ik verwacht dat ze sterk terug komen. Aan de top komen is niet zo moeilijk, er blijven wel.

Als de consument niet zolang op de nieuwe nVidia-kaarten had moeten wachten, waren er waarschijnlijk ook minder AMD-kaarten verkocht. Bij gebrek aan beter heeft men toch maar voor AMD gekozen.
Het is niet alleen dat Nvidia te laat met nieuw kaarten op de markt kwam, maar ook de enorme blunders die zij gemaakt hebben met de 8000 serie. Ondanks dat deze kaarten goede prestaties neerzetten waren zij zeer onbetrouwbaar.

Door een produktie/design fout zijn veel consumenten ook zeker oem partners op erg veel en hoge kosten gejaagt welke Nvidia weigerde te vergoeden, in eerste instantie.

Met name de mobile series gebasseerd op de G84, G86 en G92 GPU's vielen (en nu nog) bij bosjes dood neer, omdat deze GPU's niet bestand zijn tegen de warmte fluctuaties welke standaard optreden in een GPU veroorzaakt door een designfout.

Deze designfout is overigens reeds eind 2006 door HP ontdekt en terug gerapporteerd aan Nvidia, die het pas in juni/juli 2008 erkende en tot op de dag van vandaag daar nooit echt iets aan gedaan heeft. Niet meer dan het vergoeden van alleen de GPU naar de oem partners, wat natuurlijk een schijntje is tegenover de totaal kosten voor vervanging van de vroegtijdig stervende GPU's aangezien deze veelal op moederborden van highend laptops gesoldeerd zitten.

In de periode 2006 - 2008 heb je ook kunnen zien dat oa. HP massaal over is gegaan op ATi/AMD GPU's die op dat moment al een goed alternatief boden.

Ook de desktop variant met name de 8800, 9800 maar ook de 200 series ondervinden dit probleem, getuigt een reeds lang lopend topic in ons eigen forum.

Dit heeft ervoor gezorgd dat mensen zoals ik die zowel zakelijk als prive aankoopadviezen uitbrengen alleen een Nvidia kaart aanraden op het moment dat het strikt noodzakelijk is omdat Nvidia features die een ander niet biedt en dan bedoel ik echt geen Physics, omdat voor gaming hier toch maar enkele spellen zijn die er daadwerkelijk gebruik van maken en over het algemeen een te kleine meerwaarde bieden tegenover de ATi/AMD kaarten.

Nvidia heeft leuke papieren, technisch ziet het er leuk uit, maar hier heb je niets aan als een GPU het binnen anderhalf tot twee jaar er mee ophoud. Nee, Nvidia mag eerst weer gaan bewijzen dat zij naast performance en technische hoogstandjes ook degelijkheid en betrouwbaarheid kunnen garanderen. De nieuwe GPU's zijn daar nog te kort voor op de markt. Nvidia heeft dit debakel gewoon verkeerd aangepakt en dat heeft ze markt aandeel gekost ter gunste van ATi/AMD die het ook gegund is, want zij maken zeker goede produkten al reeds vanaf de HD3000 serie zijn ze op een zeer goede weg.

Verder verwacht ik dat AMD marktaandeel alleen maar zal groeien zeker met de komst van de APU aangezien ze hier heel goed mee kunnen concurreren met Intel vanwege de betere GPU die gebruikt wordt tenopzichte wat Intel op het moment laat zien. Nvidia heeft hierin het nadeel dat zij geen CPU devicie hebben.

[Reactie gewijzigd door _Dune_ op 31 december 2010 01:05]

Dat blijft toch maar de vraag, ati heeft hier in het verleden net zo veel problemen mee gehad, Zoniet nog meer wegens bar slechte driver support.

Zo te horen heeft de 400 serie hier weinig last van gehad, en verwacht ik er dus ook geen problemen met de 500 serie.

Met videokaarten moet je het toch elke keer maar weer afwachten, of de generatie goed of slecht is.

Of dit nu van nvidia of ati af komt.

Kijk er zijn zat mensen, die hun kaarten kapot overclocken, zo niet hardware matig onderhanden nemen. En vervolgens maar zeggen, ja hij ging zomaar op de 1 of andere dag kapot.

Dit blijft zonder enig bewijs toch altijd maar een getouwtrek.
Volgens mij ken je het hele probleem waar _Dune_ op doelt niet, zo te lezen. ;)

Het probleem is dus dat met name de 8000-serie, maar ook de 7000 en 9000-serie massaal doodgingen, en dan vooral de kaarten die grote temperatuurswisselingen te voortduren krijgen zoals mobile-chips en high-end kaarten. Dit komt simpelweg door slechte keuze voor soldeermateriaal, en is te 'repareren' door de GPU in de oven te stoppen. Dit probleem heb ik bij ATI nog helemaal niet gezien en heeft met drivers helemaal niets te maken, want het is gewoon hardwarematig. Het speelt voor mobile chips pas echt na 1 jaar, en voor losse videokaarten meestal pas na 1,5 - 2 jaar, dus over de 400-serie is nog helemaal niet te zeggen of dit probleem speelt. De 200-serie gaan we de komende tijd pas goed kunnen beoordelen, maar lijkt vooralsnog veel minder problemen te hebben dan de 8000's. Maar daar zou ik pas over een half jaartje of zo een uiteindelijke uitspraak over willen doen.

En dat het bewezen is staat wat mij betreft als een paal boven water. NVidia heeft het voor een aantal GPU's ook gewoon toegegeven en de schade betaald, en dit heeft niets met overklokken te maken. Voor andere GPU's houden ze stijf hun mond maar het probleem is helemaal niet afhankelijk van een specifiek GPU-type maar hun algemene proces en dat is ook te zien omdat er van elke GF8000-GPU wel veel gevallen te vinden zijn. Het is ook op exact dezelfde manieren te repareren, heeft dezelfde symptomen, hetzelfde probleem dus. Nee, NVidia heeft gewoon duidelijk een fout gemaakt en als je er vertrouwen in hebt dat ze het inmiddels opgelost hebben mag dat (na de negatieve publiciteit ga ik er eigenlijk ook wel vanuit dat ze dat met spoed gefixt hebben) maar ga nu niet doen alsof het aan de gebruikers ligt en dat dit geen grote fout van NVidia was. Denk je serieus dat er massaal iMac's werden ge-OC'd? Daarbij speelde dit probleem namelijk ook veel. ;) Vlak daarna is apple trouwens van NVidia afgestapt, waardoor zou dat toch komen, niet doordat apple-gebruikers aan het OC'en waren...

Daarnaast, moet je maar afwachten of je videokaart te vroeg doodgaat? Eigenlijk ga ik er vanuit dat iets niet met een fabricagefout geleverd wordt hoor...

[Reactie gewijzigd door bwerg op 31 december 2010 13:14]

Als de consument niet zolang op de nieuwe nVidia-kaarten had moeten wachten, waren er waarschijnlijk ook minder AMD-kaarten verkocht.
als ze tegelijkertijd waren uitgekomen was de gtx480 nog steeds te duur en te energieverslindend geweest, en bood zowel de goedkopere hd5870 als de duurder hd5970 een betere prijs/prestatie verhouding.
dus ik vraag het me af.
Het valt me eerlijk gezegd mee dat de GPU markt nog niet ingestort is door het, op enkele uitzonderingen daar, ontbreken van grafisch intensieve PC games. Vroegah had je een paar keer per jaar wel een spel dat de limieten van grafische performance weer opzocht (of mijn geheugen is te idealistisch), maar wat heb je tegenwoordig nog? 3 'grote' PC releases per jaar waarvan er ééntje ook grafisch vooruitgang biedt?

Crysis was idd het laatste spel dat uitkwam dat grafisch echt een stap vooruit was, misschien MW2, maar daarbij had ik niet het 'wauw' effect wat Crysis wel had. Die kwam overigens in (november) 2007 ipv 2008 zoals het artikel aangeeft - 3 jaar geleden. Er was een tijd dat 3 jaar een nieuwe generatie aan PC graphics vertegenwoordigde, maar dat lijkt nu 4 of 5 jaar te worden. Da's ook logisch - betere graphics betekent ook hogere productiekosten en -tijd.

Nee, de tijd dat videokaarten gebruikt worden voor de nieuwste PC graphics is voorbij. GPU's zullen nu elke vijf jaar in een nieuwe generatie console gestopt worden, of voor zeer specifieke toepassingen gebruikt worden. Voor hetzelfde neemt OnLive ook een flinke sprong qua populariteit, en zullen GPU's zodanig gemaakt worden dat ze veel spellen tegelijkertijd kunnen renderen. Cloud GPU's, oid.
Niets is minder waar. De GTX580 is momenteel niet aan te slepen en vrijwel overal uitverkocht. Zeker bij high-end gaming met zware spellen (ze zijn er wel degelijk... metro 2033 for starters) op hoge resoluties (meer als full-hd dus, of meerdere schermen...) is zo'n kaart echt wel aan te bevelen om een beetje deftige framerate te halen. Je hebt uiteraard wel gelijk dat de pc-gaming markt momenteel fors word gelimiteerd door allerlei duffe console-ports.... Maar goed, zoals je in het artikel kon lezen word er nog steeds fors geinvesteerd in nieuwe techniek.
Ik denk dat de GTX580 een ander probleem heeft dan de populariteit het is gewoon een kaart met een erg beperkte oplage en dus is deze moeilijk te krijgen...
Er zijn niet heel erg veel mensen die gamen op een resolutie hoger dan 1920x1080 als je de 1920x1200 mensen niet meer rekent kom je op minder dan 1% van de gamers uit. Meerdere schermen zijn al net zo zeldzaam; mensen kunnen zeker gezien de financiele problemen van de afgelopen ander half jaar het geld daar gewoon niet voor opbrengen.

Omdat 99% van de games geschreven wordt voor een console als de 360 of de PS3 is DX9 voor de meeste games het uiterste haalbaar en de poort naar de PC heeft veel al niet echt iets extra's.
Het probleem is dat de PC games markt op sterven na dood is door dat we allemaal wel eens een game downloaden uitspelen binnen 1 dag en aan de kant gooien. De tijd dat een game minimaal een paar weken plezier op leverde is ver achter ons de meeste games houden je niet langer dan 1 week bezig. De steam beveiliging is gekraakt en ook Ubisofts idee om delen van het spel op hun eigen servers te hosten blijkt volledig gekraakt te zijn. Er is op dit moment gewoon geen manier voor een uitgever (anders dan de MMOG's natuurlijk) om een game tegen kopieren te beveiligen. Om die reden is het voor een uitgever gewoon niet meer interessant om bijvoorbeeld een Crysis te ontwikkelen (de kosten lopen op tot ruim boven de honderd miljoen voor een nieuwe engine).
De enige reden dat Crysis uit is gebracht is omdat Crytek toevallig deze mogelijkheid had met hun engine die ze voor hele andere doeleinden hadden ontwikkeld. Maar ook Crytek heeft zijn nieuwe engine nu geschikt gemaakt voor de PS3 en de 360. Nu heeft Crytek zo als ik al zij een ander doel met de engine dat geheel los van gaming staat, en om die reden lijkt het me dan ook dat zeker de PC versie gewoon DX11 zal ondersteunen en heel veel gebruik zal maken van de features die dat bied. Maar anders dan Crytek is er geen bedrijf meer dat het financieel kan verantwoorden om miljoenen te steken in de ontwikkeling van een DX11 engine simpel weg omdat er te weinig geld te verdienen is met PC games.

Microsoft heeft al tijden geen nieuwe DX uitgebracht en zullen waarschijnlijk pas over 4 jaar met een nieuwe versie komen (met Windows 9) het zijn allemaal tekenen dat de wereld van de PC games in gestort is nu iedereen gratis en voor niets binnen een paar minuten een nieuwe game kan binnen halen.
Wat betreft Nvidia en AMD het is tekenend voor hun vertrouwen in de games markt dat ze steeds meer aandacht hebben voor dingen als APU's gpgpu en al die andere leuke dingen die niets met PC gaming te maken hebben. De markt is simpel weg niet meer interessant genoeg en de engines ontwikkelen zich te traag e scherm resoluties nemen niet meer echt toe en de vraag is gewoon niet groot genoeg om nog de moeite waard te zijn.
Geloof mij, de vraag naar GTX580's is vele malen groter als het aanbod. Ik ben zelf werkzaam in de branche, en elke distri die voorraad krijgt van die kaarten is ze binnen 1 dag weer kwijt. Maakt niet uit welk merk, en of ie er 5 , 10 of 50 heeft liggen.....
Dat komt doordat Nvidia de kaarten maar mondjesmaat uitgeleverd. Het op deze manier creëren van een tekort doet het publiek geloven dat de kaart immens populair is en is dus een marketingstrategie van Nvidia.
Dezelfde truc hebben we ook gezien bij de release van de PS3, Xbox360, Ipad, Iphone, etc etc.
Ja, als er per week maar ~10 beschikbaar komen is de vraag al snel groter dan het aanbod... ;) Levering/aanbod van die kaart is gewoon dramatisch, dat weet toch iedereen?

OT; Er valt voor engine developers gewoon te weinig te halen puur op de pc markt. Concurrentie van consoles is te groot en daarbij doen de massale downloads de markt nog meer de das om.
Grappig als je eigenlijk bedenkt wat voor een impact Crysis drie jaar geleden had als eerste echt zware DX10 titel. Dit spel is voor Nvidia en AMD stiekem erg belangrijk geweest om DX10 kaarten te slijten en DX10 op de kaart te zetten. Maar zo'n opvlieger/hype is er nu al lange tijd niet meer geweest. Ik zelf wilde toen ook erg graag dat spel in z'n pracht en praal kunnen spelen, maar dat heb ik de afgelopen jaren met niet één ander spel gehad, dat zegt toch wel iets...
DX11 boeit me vooralsnog weinig en ben ook absoluut niet van plan om binnen afzienbare tijd m'n GTX280 te upgraden, want buiten DX11 kan ik met die kaart nog steeds vrijwel alles op de hoogste settings spelen.
Ik hoop dat er komende jaren weer wat gevonden wordt om de pc-game markt uit het slop te trekken, maar dit zal vrij lastig worden denk ik!

[Reactie gewijzigd door MW1F op 30 december 2010 14:11]

Wow, score: 2 voor een post als deze...

Even 2 punten rechtzetten:
Het probleem is dat de PC games markt op sterven na dood is door dat we allemaal wel eens een game downloaden uitspelen binnen 1 dag en aan de kant gooien. De tijd dat een game minimaal een paar weken plezier op leverde is ver achter ons de meeste games houden je niet langer dan 1 week bezig. De steam beveiliging is gekraakt en ook Ubisofts idee om delen van het spel op hun eigen servers te hosten blijkt volledig gekraakt te zijn.
Op sterven na dood? Dit argument wordt nu al jaaaren gebruikt, en nog is dit niet gebeurd.
Integendeel, PC gaming is net terug aan het floreren:
- Gaming PC's worden goedkoper door veel lagere RAM prijzen etc.
- Steam is nu echt volledig van de grond aan het gaan. Het platform is nu extreem populair en heeft geen grote bugs meer. Kijk maar naar al die holiday sales en hoeveel volk daarop afkomt.
Als we kijken naar http://store.steampowered.com/stats/ zien we dat het aantal Steam users dat online is, continu tussen 1.5 miljoen en 3.25 miljoen ligt. En wees maar zeker dat Steam dus representatief is voor de PC gaming community.
- EA Games stopt terug meer geld in PC development: kijk naar BFBC2.
- EA heeft sinds enkele jaren ook een eigen 'EA Store', kwestie van wat concurrentie met Steam te kunnen bieden.
- Games als WoW en Starcraft 2 tonen hoe groot de PC community wel nog is. Ook shooters als BFBC2 verkopen en dat is duidelijk te merken online. Heel veel servers te vinden.
-
Microsoft heeft al tijden geen nieuwe DX uitgebracht en zullen waarschijnlijk pas over 4 jaar met een nieuwe versie komen (met Windows 9) het zijn allemaal tekenen dat de wereld van de PC games in gestort is nu iedereen gratis en voor niets binnen een paar minuten een nieuwe game kan binnen halen.
Waarom moet er térug een nieuwe DX komen? We zitten nu al met een markt die verdeeld is tussen DX9, DX10 en DX11.
Het is veel beter dat 1 bepaalde DX-versie voor geruime tijd een groot marktaandeel weet te strikken, maar jij bent het daar duidelijk niet mee eens.

[Reactie gewijzigd door Asgaro op 30 december 2010 13:15]

"Waarom moet er térug een nieuwe DX komen? We zitten nu al met een markt die verdeeld is tussen DX9, DX10 en DX11.
Het is veel beter dat 1 bepaalde DX-versie voor geruime tijd een groot marktaandeel weet te strikken, maar jij bent het daar duidelijk niet mee eens
."

Vooruitgang is altijd nodig, op die manier kunnen ontwikkelaars weer aan de slag met nieuwe mogelijkheden. Let wel even op de de overstap van dx9 naar dx10 groot was (dwz andere os nodig, en niet lekker compatable) maar de overstap van dx10 naar dx11 min of meer een soort update was. Het is dus relatief eenvoudig om dx11 games op dx10 kaarten te laten draaien.

Overigens begonnen de dx10 games pas echt te komen toen mijn 8800gts 640mb (2007) al vervangen was (gtx260, 2009). dx11 zal dus ook nog wel even duren (voor het normaal is).

Let wel even op de mogelijkheden van tesselation (dx11):
http://www.youtube.com/watch?v=bkKtY2G3FbU
http://www.youtube.com/watch?v=xPQ5Vy_5MP0&feature=fvw

[Reactie gewijzigd door sdk1985 op 30 december 2010 13:30]

Grafisch gezien is het potentiele verschil tussen DX10 en DX11 alleen wel veel groter dan bij DX9->DX10. Probleem is dat zonder de consoles er te weinig game engine delevopers zich hier vol op zullen storten en echt de volle potentie uit DX11 te halen als dat op de consoles toch niet is terug te zien.
Als je het zo bekijkt is de pc-gamer redelijk afhankelijk van de ontwikkelingen op console gebied omdat daar (helaas) de ontwikkeling voor games grotendeels van afhangt.
4 Jaar voor een nieuwe DX versie ?

DirectX 9.0c is uit 2004
DirectX 10 is uit 2006
DirectX 11 is uit 2009

Twee a drie jaar telkens. En zeker met de komst van nieuwe consoles zal MS wellicht zijn nieuwe DX hier op nog willen laten werken. Dus DirectX 12 staat voor de deur.

In 2011 komt er namelijk een nieuwe Windows en in 2012 komen de nieuwe consoles.
Genoeg rede voor een nieuwe DX.
je vergeet the witcher 2
momenteel alleen voor PC en die doet het uitstekend...zonder beveiliging...hint
Sorry hoor maar ik vind 2 engines (Cryengine 3 van Crytek en de id Tech 5-engine van id Software) niet fors geïnvesteerd is in nieuwe techniek, meer dan 90% van de spellen worden gewoon weer DX9 games en ook een hoop Console port Games.

Dat stelde niks voor, ik vind het gewoon achterlijk dat er zo weinig echt WOUW DX11 games zijn, dit is gewoon zielig, en ga A.U.B. niet zeggen dat komt door de illegaal Downloaden, want als ze tenminste goede en mooie games uitbrengen (en ik bedoel niet die paar mooie die we gehad hebben) had er zeker weten veel meer spellen verkocht geweest dan nu, want sorry all die console games op de PC kan je net zo goed een Console Kopen.

Ik snap toch all niet waarom ze niet meer spellen gingen makken van de Cryengine van Crysis, dan had tenminste veel mooie en goede games.

En ja Crysis kwam in 2007 uit, niet in 2008.

Maar je ziet als je een Goed spel uit brengt op de PC heb ook veel winst zo als World of Warcraft, maar ook Starcraft II, ik weet die zijn op grafice gebied niet all te mooi, all vind ik
Starcraft II er niet slecht uit zien, en is StarCraft II all drie miljoen keer verkocht in de eerste maand.

http://tweakers.net/nieuws/69484/starcraft-ii-is-drie-miljoen-keer-verkocht-in-eerste-maand.html


Maar er kommen toch wel aardig veel spellen uit in 2011 voor de PC:
http://adrianwerner.wordpress.com/2011-games/

[Reactie gewijzigd door AmigaWolf op 30 december 2010 11:35]

In absolute aantallen valt dit denk ik best mee (of tegen uit 't oogpunt van de videokaart fabrikanten).

Ik denk niet dat er -absoluut gezien- veel mensen zijn die 500 euro aan een videokaart uitgeven, dat gaat maar om een paar procent van de markt, zeker als je IGP's en laptops bij die markt telt.
Er worden er ook maar een handjevol geproduceerd en geleverd; nogal wiedes dat die moeilijk leverbaar is :+
Komt omdat veel van de grote game release gewoon console ports zijn waar ze de optie om je resolutie aan te passen erbij gestopt hebben en AA + AF wat het spel 'wat' mooier maakt.
MW2 een stap vooruit? Zag er gewoon uit als CoD4 + wat extra effectjes. Ver van 1 van de mooiste spellen :X
"Het converteren van een video duurt ons overigens ook nog steeds te lang, ondanks de komst van nieuwe cpu's van Intel" Dit snap ik niet, op mijn hd5990 duurt het maar een dikke minuut om een video van 10GB uncompressed video om te zetten naar een mpeg van 500MB
zou je daar een programma bij willen noemen? want ik heb naar mijn weten alle programma's geprobeerd en geen van alle gebruiken mijn GPU
wel heb ik uitgevonden dat Handbrake een efficiënter algoritme heeft voor de CPU, die is wel dik de snelste van alles wat ik getest heb.

edit response: de bestandsgrootte vind ik niet zo gek, als je de compressie maar zwaar genoeg zet en de resolutie verminderd kom je er wel. die 1 dikke minuut was meer opvallender.
enneh, mijn relatief goedkope SSD haalt wel 166mb/sec, evenals mijn raid0 en mijn raid5 dat ook wel halen. als alles maar sequentieel op de schijf staat is dat een makkie.

ik zal avivo even opzoeken op internet

[Reactie gewijzigd door Johnny5 op 30 december 2010 10:39]

Inderdaad, 10GB in 1 min. lijkt me sterk. Weet niet wat je overhoud, maar kan niet veel zijn.
praktisch onmogelijk, dat zou grofweg 166 mb per seconde zijn 8)7
Volgens mij kan je dat niet eens met een raid0 van ssds halen.

edit: ja naar een 500mb mpeg is dan ook niet echt groot nee... :>

[Reactie gewijzigd door SouLLeSSportal op 30 december 2010 10:36]

praktisch onmogelijk, dat zou grofweg 166 mb per seconde zijn
Volgens mij kan je dat niet eens met een raid0 van ssds halen.
Onzin, mijn RAID-0 array van normale HDD's lukt dat ook. Een enkele SSD redt dat ook wel.

[Reactie gewijzigd door .oisyn op 30 december 2010 10:42]

met videobewerking of puur ruwe benchmark want daar zit nogal een verschil in...
Videoconversie is een sequentiële aangelegenheid en zou dus redelijk dicht in de buurt van de doorvoersnelheid van de disks moeten komen. Geen enkel probleem dus.
AMD's Avivo kan de conversie op je GPU doen, maar een minuut is wel hele snel. En een 5990 bestaat niet :)
Of het waar is wat je zegt , weet ik niet en laat ik in het midden. Feit is wel dat video-encoding via de GPU lang niet zo'n goede kwaliteit geeft als via de CPU. Dat is en blijft voorlopig nog wel zo. Heb met beide zitten stoeien, (nvidia en AMD's encodings) en het resultaat kan mij niet bekoren. Voorlopig blijf ik nog wel even encoden via de CPU cores.
Maar als het gaat om gaming kan je dan later beter een apu of gpu kopen???
APU is voor een beetje gamen.
als je flinkt wilt gamen zal je waarschijnlijk betere prestaties willen en er zeker een GPU bij willen kopen.

in de toekomst kan het gpu gedeelte van de APU waarschijnlijk gebruikt worden als co-processors in games voor physics en AI en dergelijken.
AMD heeft laatste een demo van GPU physcs in bulletphysics laten zien, werkend op een APU.

[Reactie gewijzigd door Countess op 31 december 2010 01:00]

Oke mooi, ik schrok al, krijg je weer nieuwe soorten gpu's, kan ik weer nieuwe dingen kopen. :P
Dat ligt eraan welke games je wilt gaan spelen en welke APU's er beschikbaar zijn, daar is nu nog geheel niets over te zeggen. :)
Nvidia draagt een beetje de naam als het op GPUs aankomt. AMD is een best bedrijf omdat ze ook veel gewone CPUs maken.

eigenlijk maakt het denk ik niet zo veel uit. natuurlijk als je een kaart met dezelfde specs kan krijgen voor minder geld neigt de consument altijd die kant op.

ik ben zelf al jaren trouwe aanhanger van nvidia, maar ik denk dat het verschil tussen AMD kaarten en Nvidia kaarten te minimaal is om echt belachelijk veel verschil te maken.

wel een leuk artikel om te lezen
Hey Koen :+,

Ik vind nVidia toch wel goed inderdaad maar vooral door hun betere extra's, zie bijvoorbeeld PhysX, ATI mag dan wel vele Streaming processing units hebben maar hier zie ik niet veel van terug in games? PhysX daarentegen wel, games met PhysX zijn vaak realistischer door het 'alles kan kapot' gehalte (als voorbeeld).

Maar dat is toch wel de enigste reden waarom ik een nVidia zou nemen, op het moment heb ik een ATI en ben er tevreden over.

Zelf ben ik dan een AMD aanhanger maar dit heeft vooral te maken met het hoeveelheid geld wat ik besteed aan computers.
PhysX heeft opzich niks te maken met extra's, alleen worden dan de physx op de gpu berekend wat "sneller kan" gaat wel wat rekenkracht kosten die je normaal voor "graphics" gebruikt.
Zie mafia 2 heeft physx maar een AMD gebruiker kan precies dezelfde effecten en physx gebruiken.

Hoop overigens nog steeds op een oplossing die zowel AMD en Nvidia kunnen benutten voor het afhandelen van "physX" op de gpu.
Acht die paar spellen die Physx gebruiken :O
Physx wordt alleen gebruikt als game developers er een zak geld erbij krijgen..
Want als game maker wil je (meestal)dat je game overal goed op loopt en niet alleen op bepaalde videokaarten |:(

Havok is marktleider en niet Physx en dat is maar mooi ook.
pak gewoon een van de nieuwere AMD cpu's, die hebben ook nog een 3d acceleration.
ze worden misschien wel warmer maar als je investeerd in een fatsoenlijke koeler kan dat mooi gecompenseerd worden. als je dan ook nog voor een mooie amd kaart gaat (beter betaalbaar kwa prestatie dan Nvidia) dan is het helemaal mooi :)

ik durf zelfs te zeggen dat AMD veeeeeel groter wordt dan Nvidia en dat AMD een grotere plek op de markt krijgt.
Ik hoop het eerlijk gezegd niet, want dat zal betekenen dat de prijs fors zal gaan stijgen wat door ons betaald moet gaan worden. De verhouding is nu precies goed voor ons, want de prijs ligt aanzienlijk lager dan de afgelopen 8 jaar.

En waarom durf je eigenlijk te zeggen dat AMD groter gaat worden? Doel je dan op cpu,gpu of beide. Voorlopig doen ze het op gpu gebied beide ongeveer even goed op basis van prestatie/techniek en prijs/kwaliteit.
En waarom durf je eigenlijk te zeggen dat AMD groter gaat worden? Doel je dan op cpu,gpu of beide. Voorlopig doen ze het op gpu gebied beide ongeveer even goed op basis van prestatie/techniek en prijs/kwaliteit.
Of meneer werkt voor AMD (zeer onwaarschijnlijk), of meneer is een AMD liefhebber/fanboy.

Goed artikel overigens. Ik heb zelf 2 nvidia kaarten en daar laat ik het voorlopig nog even bij. Ook al zijn deze kaarten oud, geforce 8 series, komen ze nog prima mee met de nieuwere spellen. Ik ga tot het uiterste met de kaarten voordat er nieuwe kaarten worden aangeschaft. En als ik het zo bekijk kan het nog wel eens een Ati kaart worden.
ik werk niet voor amd en ben ook geen fanboy :)
ik heb gewoon een intel I7 cpu en een oude ati 5770 kaart(ja dat is vam AMD dat weet ik)
maar als ik nu zie hoe AMD vooruit schiet met de kaarten en waar Nvidia blijft hangen weet ik gewoon dan AMD groter wordt dan Nvidia.
Je hebt nog niet gekeken naar de nieuwere videokaarten? Ze zijn de problemen die ze met de 400 serie eerst hadden al weer voorbij en zijn ook stevig opgeklomen.

Vooral in de midrange/budget markt. De GTX460 bijvoorbeeld is een van de nvidia kaarten die zeer goed presteert.

Ik zelf zal nog lang niet updaten heb 2x 5770 en dat gaat nog wel even mee.
Ik ben nVidia toch zat, ben overgestapt naar AMD, nie dat ik zeg dat nVidia slecht is, maar de prijs/performance is bij AMD veel beter en ook qua features vind ik AMD beter. Denk maar eens aan de eyefinity technoliegie, waar je maar 1 GPU voor nodig hebt, terwijl je bij nVidia minstens 2 GPU's in SLI nodig hebt, dus allesinds een pak duurder systeem.
Tja, ik koos dus deze generatie voor nvidia, puur door de 1 GPU oplossing en Physics.
als je 2 schermpjes extra wil aansluiten, pak dan een videokaartje van 10 euro, en druk die in je andere pci express slot.

Zou je echter willen gamen op 3-4 schermen, kom je aan 1x videokaart toch te kort tenzij je 10 fps leuk vindt.

Zoveel extra kost dat nu ook weer niet.

[Reactie gewijzigd door Gatygun op 31 december 2010 03:30]

Dat is nu dus het sterke punt aan Eyefinity. Met bijvoorbeeld een ATi 5770 kun je al prima gamen op 3x 20"schermen. Daar ben je helemaal geen twee kaarten voor nodig. Pak Youtube er maar bij genoeg voorbeelden te vinden.

Met een extra VGA kaartje van 10 euro heb je alleen een extra desktop, maar niet de featureset die Eyefinity je bied. Hiervoor ben je bij Nvidia inderdaad een SLi opstelling voor ndoig. Ook 3D weergave werkt bij ATi/AMD met een kaart, terwijl Nvidia wederom een SLi opstelling nodig is.

Als laatste zo interessant lijkt mij Physics ook niet aangezien het maar een beperkt aantal titels zijn die dit daadwerkelijk ondersteunen en er geen alternatief geboden wordt voor ATi/AMD. Dit zijn dan ook altijd games welke zwaar gesponsord zijn door Nvidia.

wat betreft 1, 2, 3 of 100 GPU's wat maakt dat uit? Wanneer ATi/AMD met een 100 GPU kaart een goed verhouding tegen over zijn concurent tussen prijs/performance/vermogen kan neerzetten wat boeit het aantal GPU's dan nog? Nvidia heeft gewoon niet de luxe om meerdere GPU's te gebruiken simpelweg om dat een enkele GPU al veel vermogen trekt.

Even voor de duidelijkheid ik ben absoluut geen fanboy, maar koop of adviseer de kaart die past bij het gebruik/verlangen van een persoon. Daarnaast staat ATi/AMD wel op de eerste keuze simpel weg omdat ATi/AMD de laatste jaren heeft bewezen betrouwbaarder te zijn dan Nvidia of liever gezegd Nvidia heeft aangetoond niet betrouwbaar te zijn (zie mijn vorige reacties).

[Reactie gewijzigd door _Dune_ op 31 december 2010 13:11]

Mijn keuze is zo gebaseerd. Ben geen voorstander van nV maar zat nee.

Bedrijven zijn commercieel gedreven hebben vooral het beste met zichzelf voor geld voor ze allemaal. Uiteraard heb daar tussen kut bedrijven die zelfs hun commerciele instelling overstijgen kwa bad karma. Die de gamer vaker of harder naaien door oa neven bedrijven over te nemen en voor hun kar te spannen en of features te blokeren. En zich nogal vaker of extremer misdragen tov van andere bedrijven maar ook tot de consument.
HavokFX en PhysX. Dus dat is een factor die ik ook in mijn keuze mee neem.
Momenteel zit iNtel op mijn black list. Alleen je kan daar niet omheen als je ultieme CPU performance wilt. Midrange kan je goed vooruit met AMD. Voor de meeste games voldoet dat ruim. nV heb ik ook een afkeer voor. Ze moeten dus duidelijk een grotere meerwaarde beiden eer ik nV of iNtel kies. En momenteel doen ze beide dat wel.
Ben geen ATI fan maar d'r is niks anders dan ATI wat weer AMD is als nV en iNtel tegenhanger.
Heb SGSTomson S3 3dFX nV ATI iNTel AMD retail kaarten gehad. Was er meer keuze dan non nV / iNtel voorkeur bij gelijk spel.

Maar ja heb al een up to date DX11 AMD systeem.
Maar wil me dus ook met Cuda en OpenCL DX-CS bezighouden. nV heeft voor mij als voordeel PhysX en vergevorderde Cuda ondersteuning. Jammer zag liever OpenCL of DX11 CS op hoger niveau en middleware als Havok en PhysX niet PU merk gebonden. En dan

En dan meteen de DX11 gen. Heb al dX10 dus de nood is niet al te hoog.

Kan dus zomaar om nV heen. Dus mijn volgende G-kaart wordt iets van nV dX11 in mijn iNTel nV bak.

Mutimon feature vind ik tot 2 shermen van belang. Meer dan 2 geen plaats voor. Dus AMD nV doet er niet toe. Eyefinity niet relevant voor mij. Moet eerst die ingang beperkte 22" 120hz ding van samsung vervangen voor iets groters 120hz voor 3D en meer ingangen. Zodat beide monitoren aan beide PC hangen.

3D heb 3D Geforce vision vind ik toch een meerwaarde voor nV. 'n 3D ondersteunende BR drive voor die PC is ook een must als upgrade pad.

Daarnaast prefereer ik ook 1GPU per kaart. Veel vidmem en redelijke
Prijs performance vermogen featureset.
Dus mijn upgrade pad ziet er zo uit.

Asus 27" 120hz 3D monitor of beter.
3D-BR drive
GTX5?? om 8600GT te vervangen en die naast GTX285 te zetten.
Eerst kijken wat mijn voeding aan kan.

nV is nu competatief kwa prijs performance en vermogen verhouding aan het terug komen.
AMD is met zijn refresh ook meer evenwichtig. Kwa testalatie performance.

Maar niet zinvol genoeg om mijn 5870 te vervangen. 6cores ook leuk maar de drang om quad core te vervangen is er ook niet. 8GB geheugen dus kan er mee door.
'n kleine 3D TV CI+ om mijn T260HD te vervangen met vooral ook sterke PC monitor eigenschappen?


Bij mij is het dus niet zozeer voorkeur maar afkeer kwa merk. Wat in beperkte mate meespeeld.
Ik vond dit een beetje een rare passage;

Het is een open deur, maar vijftien procent van alle videokaarten van Steam-gebruikers, ondersteunt DirectX 11, terwijl 73 procent DirectX 10 ondersteunt. Op dit moment is het dan ook onverstandig om al teveel tijd te steken in het toevoegen van DirectX 11-elementen, waar het gros van de kopers toch niets aan heeft

Dit lijkt me een beetje een kromme redenatie; in de dx11 review kan vervolgens het zaakje worden omgedraaid door te vermelden dat een dx11 kaart geen zin heeft aangezien er nog geen games zijn die er gebruik van maken.

Uberhaupt het waarom een snellere gpu nodig is...; De framerate wordt altijd bepaald door de bottleneck. De laatste jaren zijn de grafische kaarten flink door ontwikkeld (kijk bijv naar de fillrates), maar zijn de cpu's niet even snel meegegroeid (sinds de eerste quadcores). Ik verwacht van tweakers eigenlijk wel dat ze in de breedte kijken. Dit houd dus o.a. in dat er een nieuwe generatie cpu's aan zit te komen. De main stream sandybridge komt volgende maand, en in q3 komen de hexacores. Ook amd komt met een nieuw platform. Het zit er dan ook dik in dat er weer een flinke hoeveelheid extra processorkracht beschikbaar komt waardoor de grafische kaart eerder de bottleneck vormt.

Verder bied dx11 voordelen in de vorm van tesselation. Dat lijkt me toch wel een reden om dx11 in je game te overwegen.

Overigens zijn er NU al games waarbij de 60 fps op 1900x1200 met een gtx 570 niet wordt gehaald;
http://www.techpowerup.co...S/GeForce_GTX_570/10.html
http://www.techpowerup.co...S/GeForce_GTX_570/13.html
http://www.techpowerup.co...S/GeForce_GTX_570/16.html
http://www.techpowerup.co...S/GeForce_GTX_570/18.html

Wat mij betreft is het in ieder geval onzinnig om te twijfelen aan het nut van de huidige en volgende generantie dedicated gpu's; bij full hd resoluties (kost bijna niks meer) heeft het nu al nut, de processorkracht gaat nog vooruit en tesselation kan veel details toevoegen.
Je kiest wel een paar uitschieters eruit met Stalker, metro en Crysis. Ook hoef je helemaal geen 60fps te halen formule 1 2010 goed te kunnen spelen, zelfde geldt ook voor stalker en metro, 40-45fps is meer dan zat, zolang de minima maar niet onder de 30 komen.

Over je cpu-verhaal, pure onzin. Cpu's zijn al zo snel, die hoeven niet sneller en Sandy Bridge gaat niets toevoegen aan het gamen. Ook betwijfel ik het nut niet van DX11, maar de adoptie zal toch nog even duren, vanwege meerdere factoren.
Je mist het punt door op specifieke voorbeelden in te gaan, welke fps nodig is om "goed" te kunnen spelen blijft altijd volledig arbitrair. Zo heb ik zelf in f1 2010 op de monaco track een redelijke lage fps (35-40) wat het nemen van de bocht na de tunnel (snelle haakse links, vervolgens rechts links) erg lastig maakt. Als ik een kaart kon kopen waarmee ik 60 fps in f1 2010 kan halen dan ben ik daar in ieder geval erg blij mee. Maar goed dat ben ik, op internet kom je genoeg mensen tegen die het prima vinden spelen bij 25 fps en crysis heerlijk vinden draaien met 20 fps.

Het punt wat ik probeerde te maken is dat er nog toepassingen zijn die gebruik kunnen maken van krachtigere gpu's. Hierbij gaf ik een paar random voorbeelden van een random high end kaart uit een random review. Om even bij f1 2010 te blijven; op 1024x768 wordt er nog 104 fps gehaald wat daalt tot 30 fps op 2560x1600; er is dus nog ruimte voor verbetering in de huidige games.

Ter vergelijking; Op de hoge resolutie van vroeger (1600x1200, een beetje de 2560 van nu) was het vroeger niet gek om met een high end kaart met gemak 60 fps te halen; http://www.ixbt.com/video...gi-video-fc-wxp-1600.html

Mbt het cpu verhaal. Het lijkt mij sterk dat sandy bridge geen impact gaat hebben. De medium range sandy bridge (vervanger van de 760) uit de preview van anandtech bleek sneller dan een 870. Behalve de 'normale' verhoging van prestatie per clockcycle die bij een nieuwe architectuur hoort zijn de standaard frequenties en de turbo hoger. Daarbij krijgt elke cpu ook nog een redelijke igp (sneller dan een 5450) wat mij voor game devellopers goed nieuws lijkt, immers een grotere doelgroep kan games (waarschijnlijk op low) spelen. Vervolgens komen in q3 nog de nog de 6 en 8 cores.

Mbt de adoptie; zoals ik al zei dx10 heeft ook aardig lang op zich laten wachten (op een aantal uitzonderingen na zoals crysis). Dat is toch al sinds de introductie van direct x zo geweest...? Moeten we dan na 10 jaar ineens gaan stellen dat het allemaal geen zin heeft? Laten we dan ook maar stoppen met sata6 en pcie 3.0;).

[Reactie gewijzigd door sdk1985 op 30 december 2010 16:39]

De CPU botleneck is amper/niet aanwezig als je de settings hoog zet. Met 8xAA op 1920x1200 of hoger is het vrijwel altijd de GPU die bottlenecked, ook met CF/SLi setups.
Zet je AA uit, gaat de CPU meer invloed spelen maar of dat nou interressant is; in dat geval haal je vrijwel altijd megavette FPS.
De nieuwe previews bewijzen het tegendeel;

"We'll go through some of the features in a minute, but I really want to start off with this; the most appealing thing about Sandy Bridge processors simply is the exceptional per-core performance. In the introduction I already mentioned it, unless you are transcoding or use heavily optimized applications, four core processors are all that you need anno 2011. When you place the focus on gaming, that's where we enter a reality where 2 to 4 cores are used at most. So once that per core performance improves (and you are not GPU limited) then the overall game performance will get a boost as well.

Now I admit it, I was rendered speechless by the performance of what initially was expected to be a mid-range series processors. Now the Core i7 2600K at just over 300 USD is not exactly a mid-range price, it however is and will remain the fastest quad-core processor currently available on the market. I can recommend this processor very very much. When you opt to step down to the Core i5 2500 then you'll forfeit on hyper-threading, get 2MB less L3 cache and the core clock goes down 100 MHz. It will save you some money alright, but the performance decrease is very much noticeable and measurable. It's still a very fast quad-core processor for the money. But yeah, we can't help it, we've fallen in love with the Core i7 2600K very much. That processor seems to have all the variables right."

http://www.guru3d.com/art...d-core-i7-2600k-review/23

"Far Cry is not that GPU demanding anymore these days with modern graphics cards and thus is sensitive to CPU changes, especially per CPU core performance starts to really matter. As you can see. Once we overclock to 4300 MHz we again added a decent chunk of performance, up-to 1600x1200 though as then the GPU slowly starts to become the limiting factor.

"
http://www.guru3d.com/art...d-core-i7-2600k-review/20

[Reactie gewijzigd door sdk1985 op 3 januari 2011 20:47]

Leuk artikel.

Zo zie je maar dat je als consument de bomen door het bos niet meer ziet.
Wel leuk dat er teminste deftige concurrentie is waardoor de prijzen zijn omlaag gegaan.

Ik blijf nog een tijdje bij m'n 5870
Ben benieuwd wat we in 2011 allemaal te zien gaan krijgen.
zeker leuk artikel
ook leuke humor met dat plaatje van dat eitje vakken op die gtx-480 :P

ik ben erg benieuwd wat we te zien krijgen in 2011
Leuk artikel!

Ik denk dat het heel erg van het moment waarop je je gpu gaat kopen af hangt welke merk je kiest. Bijvoorbeeld mijn broertje kocht zijn pc op het moment dat de 8800 GT uit kwam, tsja dat was toch echt de grootste bang voor bucks gpu die er op dat moment was. Dan ga je niet nog bewust voor de ati kiezen. Jaren daarvoor kocht ik de 9800Pro, dat was ook zo'n koning op dat moment, dan ga je niet voor nvidia kiezen. Twee jaar geleden toen ik een nieuwe pc samenstelde was het toch echt de amd HD 4800 serie die de beste bang voor bucks had, dus het werd de 4850. Dus wat ik wil zeggen is dat het altijd een beetje heen en weer zal gaan tussen deze twee bedrijven en dat is mooi. Zo houden ze elkaar scherp om de beste gpu's te produceren.
Bijvoorbeeld mijn broertje kocht zijn pc op het moment dat de 8800 GT uit kwam, tsja dat was toch echt de grootste bang voor bucks gpu die er op dat moment was. Dan ga je niet nog bewust voor de ati kiezen.
Of toch wel. Ik heb destijds een HD3870 genomen aangezijn de 8800GT nog weken niet leverbaar zou zijn en ik wel mn PC wilde hebben. Zo dramatisch was het verschil ook weer niet.

Op dit item kan niet meer gereageerd worden.


OnePlus 7 Pro (8GB intern) Microsoft Xbox One S All-Digital Edition LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Smartphones

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True