Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 137 reacties
Bron: AnandTech

Bij AnandTech is een vergelijking verschenen van het huidige aanbod DirectX 10-videokaarten waarbij ook daadwerkelijk getest is met DirectX 10-spellen. Uit de tests komt naar voren dat de kaarten moeite hebben om acceptabel te presteren.

AnandTech test nVidia-kaarten variërend van de GeForce 8600 GT tot de GeForce 8800 Ultra en uit de AMD-stal komen kaarten variërend van de Radeon HD 2400 XT tot de Radeon HD 2900 XT. Gekeken wordt hoe de kaarten presteren in verschillende DirectX 10-titels en waar mogelijk worden deze prestaties vergeleken met de DirectX 9-resultaten. Het blijkt dat praktisch alle budget- en midrangevideokaarten teleurstellende prestaties neerzetten. Op een resolutie van 1024x768 zonder anti-aliasing komen de meeste kaarten niet boven de 30fps uit. Soms is zelfs 800x600 te hoog gegrepen: de Radeon HD 2400 XT weet in Lost Planet slechts 7,5fps te halen op deze resolutie.

De snellere videokaarten zoals de GeForce 8800 Ultra en de Radeon HD 2900 XT weten op de lagere resoluties wel speelbare framerates te produceren, maar ook deze kaarten blijken niet krachtig genoeg voor de hoge resoluties. De veelgebruikte 1280x1024-resolutie is met deze kaarten goed te gebruiken met framerates tussen de 30 en 60fps, maar veel meer moet er niet van de kaarten verwacht worden. AnandTech is daarom teleurgesteld over de prestaties van de videokaarten van zowel nVidia als AMD: de DirectX 10-prestaties zijn in de meeste gevallen te laag om bruikbaar te zijn.

Call of Juarez DirectX 10 benchmark
Call of Juarez Direct X 10-screenshot
Moderatie-faq Wijzig weergave

Reacties (137)

1 2 3 ... 6
Verschrikkelijk rare test en conclusies van Anandtech.

Bij Company of Heroes wordt er in DX10 een compleet ander renderpath gebruikt. Kijk even naar http://www.anandtech.com/video/showdoc.aspx?i=3029&p=4 naar het enorme verschil in IQ.
Je krijgt een veel beter belichtings model. Ongeveer het verschil tussen Doom 2 en Doom 3. Verder worden allerlei detail met geometrie i.p.v. textures gedaan, waardoor het er veel beter uitziet wanneer je onder kleine hoeken kijkt.

Volkomen onvergelijkbaar. Dan ben je dus gewoon appels met peren aan het vergelijken. Een 'prestatie verlies' berekenen slaat dan helemaal nergens op.

CoH geeft juist aan hoeveel interessant dingen er in DX10 mogelijk zijn. Dat hun DX9 renderpath sneller is, komt natuurlijk omdat hun DX9 path niet alleen back-up is, maar ook gewoon voor de oudere kaarten bedoeld is. Vergelijk het met het DX8.1 renderpath in HalfLife 2.

Call of Juarez is in de geteste vorm een benchmark/demo. In demo's wordt altijd het onderste uit de kan gehaald, om het er zo fantastisch mogelijk uit te laten zien. Dus moet je geen 100fps verwachten. Verder zitten er nog wat extra zaken in vanwege het benchmark aspect, zoals die waterval die uit particles is opgebouwd, om kaarten nog even lekker aan het werk te zetten.
De eerste DX9 versie van 3DMark leverde ook framerates van een handvol fps op. Maar daaruit hebben we toch ook niet geconcludeerd dat de Radeon 9700 een tergend langzame kaart is. Zo moet je Call of Juarez ook bekijken.


Enige wat dan overblijft is Lost Planet. En daar hoeven we geen woorden aan vuil te maken. Daarvan is allang duidelijk dat het absoluut niet representatief is.
sorry, maar ik zie bijna geen verschil in die "company of heroes" screens, laat staan "ongeveer het verschil tussen doom 2 en doom 3". De DX10 versie ziet er iets helderder uit, en het lijkt me sterk dat je dat beetje extra licht niet met DX9 kan bereiken.
Je ziet geen verschil??? :? :?

Kijk eens even naar de schaduwen! Bij DX9 krijg je 1 schaduw van een veraf staande lichtbron. De lamp die middenin de scene hangt doet helemaal niets. Hij geeft geen licht, en werpt geen schaduw.

Kijk nu naar de DX10 versie. Die lamp geeft licht: de omgeving er omheen wordt er mee verlicht, en de intensiteit valt af met de afstand, zoals het hoort. Verder is het niet alleen zo dat de lamp de omgeving verlicht, maar er worden ook correcte schaduwen geworpen. Je ziet ook dat de objecten in de scene twee schaduwen hebben, namelijk van beide lichtbronnen, en dat die twee schaduwen ook 'optellen'.
Kijk verder eens naar de kwaliteit van de schaduw. Kijk eens goed naar de schaduw van die telefoon paal. Vlak bij de paal is de schaduw donker. Verderop wordt de schaduw niet alleen breder, maar hij wordt steeds lichter, zoals het hoort. (Iets wat Doom3 bijvoorbeeld niet doet)

Het belichtings systeem in de DX10 variant is veel geavanceerder dan de DX9 variant. De DX9 variant is zelfs voor DX9 standaarden erg simpel. De DX10 variant daarentegen is top-of-the-line.

En dit is niet alleen eye-candy. Dit kan ook grote invloed hebben op de game-play. Kijk bijvoorbeeld eens naar die tank. In DX9 is de achterkant donker, ondanks dat die naar de lamp gericht staat. In DX10 is de achterkant verlicht. Stel dat je in een spel op een gegeven moment moet zorgen dat je niet opgemerkt wordt. Dan blijf je dus in de schaduwen... dan moet het nogal uit of lichtbronnen en schaduwen werken zoals ze horen.

Maar dit soort grappen kosten natuurlijk wel rekenkracht. DX10 laat meer mogelijkheden toe...maar het kan niet de rekencapaciteiten van de kaarten verhogen. Hooguit wat aan de efficientie verbeteren.
overdrijf je niet wat? Ik zie welgeteld 1 schaduw extra, en schaduwen laten "optellen" heb ik al vaak genoeg gezien in games.
Dynamische schaduwen ken ik al sinds half life 2. Fear had bijvoorbeeld waanzinnig mooie schaduweffecten (laat maar eens een lamp bewegen en bemerk hoe ze met ieder object interactie heeft)
1 schaduw extra?? Volgens mij moet jij je bril eens schoonmaken...
Ieder object dat je daar ziet heeft dubbele schaduwen. Het hek, de soldaten, die tank, de telefoonpaal, de licht mast, de struikjes.

NB: Ik heb niet gezegd dat dergelijke schaduwen een DX10-only feature zijn. Slechts dat het renderpath van DX9 en DX10 in dit spel compleet verschillend zijn, en je daardoor niet de prestaties kan vergelijken. In DX9 krijg je geen simpeler tweede schaduw, of met minder prestaties. Je krijgt gewoon geen licht en schaduw van die lamp. Natuurlijk is dat een stuk sneller wanneer je de helft weg laat. (Juist licht en schaduw zijn een van de zwaarste onderdelen om te renderen.)

Waarom het in DX9 zoveel simpeler gedaan is? Enerzijds zou dat er op kunnen wijzen dat het gebruikte licht&schaduw model in DX10 makkelijker (en met betere prestaties) te implementeren is dan in DX9.
Anderzijds, zoals ik dat in de eerste post al heb aangegeven, zal de DX9 renderpath voor minder krachtige kaarten bedoeld zijn, en dus minder detail weergeven, omdat het anders te zwaar wordt.
Ja...da's dus het punt?

Je wil DX10 omdat het er mooier uit ziet...maar, het is onspeelbaar vanwege de framerate. Wat heb je dan aan een DX10 kaart?
Dus wel vergelijkbaar he? Twee soorten kaarten, voor hetzelfde spel...waarbij de DX10 kaarten het extra geld dus blijkbaar niet waard zijn. Da's de conclusie.
Dit komt natuurlijk ook door de games zelf, die eigenlijk gemaakt zijn voor DirectX9, voor Crysis (die vanaf het begin is ontwikkeld met DirectX10 in het achterhoofd) zou een 8800GT(S/X) genoeg moeten zijn om in Ultra High quality te spelen :)
Ik weet niet of Lost Planet op vista volledig DX10 gebruikt, maar met mijn 8800 GTS (640mb) haal ik op 1600x1200 toch tussen de 40-100 FPS.
Lijkt me HEEL sterk dat hij volledig DX10 gebruikt, aangezien het gebaseerd is op een 360 spel, die DX9 ondersteunt.

Iig, deze test ligt wel in de lijn der verwachting, als je ook naar het verleden kijkt. De eerste generatie videokaarten die DX versie X ondersteunen, doen het meestal bijzonder slecht daarin. In tests zijn ze vaak loeisnel, maar dan puur in DX versie X-1.
Niet eens zo vreemd eigenlijk, aangezien de huidige DX9 zich al bewezen heeft, en de grafische fabrikant die al van top tot teen weet te benutten.

Toch is het beetje verrassend dat het nu weer zo loopt: is DX10 namelijk niet gewoon een soort DX9 qua mogelijkheden, maar dan juist gebouwd om diezelfde mogelijkheden SNELLER uit te voeren? Vroeger was een nieuwe DX versie een excuus om een hele berg aan grafische effecten te introduceren, zoals shaders etc bij de overgang van 7 naar 8, en 8 naar 9. DX 9 naar 10 heeft naar wat ik begrepen heb niet zo'n focus op nieuwe tierelantijntjes, maar eerder een stroomlijning van de huidige. Klopt dat? Dan zou je toch beetje verwachten dat mits een spel netjes is gecodeerd in DX10 er iig een kleine snelheids winst te behalen valt?
Definieer "heel D3D10 gebruiken" (DX is een te algeme term, we hebben het hier over het 3D subsystem). Bedoel je daarmee dat elke API functie een keer aangeroepen wordt? Ik vind het een nogal rare opmerking, alsof sommige dingen via de Direct3D9 interface gaan. Je gebruikt D3D10 of je gebruikt het niet, er is niet echt een middenweg oid.
Lijkt me HEEL sterk dat hij volledig DX10 gebruikt, aangezien het gebaseerd is op een 360 spel, die DX9 ondersteunt.
Euh, dus? "Goh, het lijkt me wel HEEL sterk dat multiplatformtitels die op de Xbox 360 én de PS2 uitgekomen zijn wel de nieuwe Xbox 360 features aanspreken, aangezien de PS2 dat helemaal niet ondersteunt". Onzin natuurlijk, het feit dat je multiplatform ontwikkelt wil niet meteen zeggen dat je de grootste gemene deler aan functionaliteit gebruikt. Let wel, ik wil hier niet impliceren of dat bij Lost Planet ook niet het geval is, maar je argumentatie klopt gewoon niet :). Overigens, het feit dat de Xbox D3D9 ondersteunt (die sowieso verschilt van de D3D9 van de PC, maar dat terzijde) betekent niet meteen dat je de API ook op dezelfde manier gebruikt. Fatsoenlijke games optimaliseren per platform, en voor de 360 gelden hele andere regels dan op de PC. Daarnaast gebruik je zat low-level API calls om zoveel mogelijk zelf te doen ipv D3D dat voor je af te laten handelen (en dat kan zelfs zover gaan als de GPU command buffer met de hand vullen).
is DX10 namelijk niet gewoon een soort DX9 qua mogelijkheden, maar dan juist gebouwd om diezelfde mogelijkheden SNELLER uit te voeren?
D3D heeft idd een vernieuwd drivermodel wat ervoor zou moeten zorgen dat er minder overhead is tussen applicatie en GPU. Echter zit het ook barstensvol met nieuwe features, zoals shader model 4.0 en geometry shaders. Vooral geometry shaders zijn erg handig voor procedurele geometrie en dynamische tesselation. Nou kan dat op zich ook wel op de CPU, maar het is handiger om dat gewoon te offloaden naar de GPU.
Bedoel je daarmee dat elke API functie een keer aangeroepen wordt? Ik vind het een nogal rare opmerking, alsof sommige dingen via de Direct3D9 interface gaan. Je gebruikt D3D10 of je gebruikt het niet, er is niet echt een middenweg oid.
Wat een larie. Het is niet een kwestie vn DX10 wel of niet gebruiken, het gaat erom welke fancy effecten er worden losgelaten waar de kaart moeite mee heeft. Sommige dingen bestaan niet in DX9 en in DX10 wel.

Een game kan dus doen alsof ie DX10 gebruikt, door de DX9-calls 1-op-1 over te zetten naar DX10 zonder verbeteringen. Zo gebruik je DX10 wel, maar je gebruikt niet meer mogelijkheden dan die in DX9 zitten.

Uhm, een app kan voor win2k geschreven zijn, maar nog steeds niet meer features gebruiken dan die in win98 zaten? Best logisch toch?
@_Thanatos_: Het punt is nou juist dat het verschil tussen D3D9 en D3D10 niet hetzelfde is als het verschil tussen D3D8 en D3D9. In D3D10 kun je er namelijk vanuit gaan dat alle API features ondersteunt worden door de hardware (want anders was er geen D3D10), en alle ouwe backwards-compatibility shit is eruit gegooid. Je werkt dus altijd in SM 4.0, en de fixed vertex processing is niet meer beschikbaar. Bovendien is het niet zo dat je een functie aanroept om een effect te doen oid, dus je kunt helemaal niet zeggen dat D3D10 bepaalde effecten ondersteunt. De meeste dingen zijn in D3D9 ook wel op een alternatieve manier te implementeren (zei het langzamer), in D3D10 gaan bepaalde dingen gewoon makkelijker en sneller door nieuwe features. Dat betekent niet automatisch dat een videokaart daar meer moeite mee gaat hebben.

Waar het uiteindelijk om gaat is gewoon hoe zwaar de app leunt op z'n graphics, en daarbij boeit het totaal niet of je D3D9 of D3D10 gebruikt. Een app kan natuurlijk ook zwaar zijn in D3D10 zonder dat het een feature gebruikt die wel in D3D10 ondersteunt wordt, maar niet in D3D9. Maakt het dat ineens een "niet echte" D3D10 app? Moet je per se al die extra features aanroepen om volledig D3D10 te zijn? Ik vind dat maar een rare redenatie.

@Sjekster: het grote verschil tussen SM3 en SM4 buiten de geometry shader is voornamelijk de unified architecture, waardoor vertex en pixelshaders dezelfde dingen kunnen doen (denk aan textures fetchen in de vertexshader, en vertices accessen in de pixelshader) en memory exports (schrijven naar willekeurige pixels en vertices). Verder zijn de limieten natuurlijk omhoog gegaan, dus meer registers, meer instructionslots, etc.

[Reactie gewijzigd door .oisyn op 6 juli 2007 13:07]

DirectX 10 heeft nog wel wat dingen veranderd zoals eisen dat er een basis set van functionaliteit aanwezig is. zie de link voor meer info http://www.toymaker.info/Games/html/direct3d_10.html
De vraag is natuurlijk hoe het zat met directx 9 en directx 9 kaarten. Ik neem aan dat de eerste kaarten ook niet alles uit dx9 konden halen. Maar goed ook, want dan zou die standaard tegen deze tijd echt te kort hebben geschoten. dx10 lijkt me voor een volgende generatie spellen en kaarten. De eerste kaarten kunnen er wel mee omgaan maar zullen nog niet de rekenkracht hebben van een middenmoter over 1 a 2 jaar.
Moet je je even afvragen wat dat betekent: Alles uit DX9 halen.

Tegenwoordig draait een spel primair op shaders. Een shader is gewoon een klein stukje programma code, dat berekent hoe iets eruit moet zien. De glans op een metalen voorwerp, de illusie van ruwheid van een steen, etc etc. De shaders in de huidige generatie kaarten zijn sneller dan die in de eerste generatie DX9 kaarten. Maar wat ze doen niet iet wezenlijk anders.

Echter... sneller kaarten, betekent dat je voor een bepaalde minimale framerate, ingewikkelder berekeningen kunt doen. En dus mooieren beelden tevoorschijn toveren. Vrijwel dezelfde situatie als met CPU's.


De Radeon 9700 kon in HalfLife 2 alles uit de kast halen. Alle mogelijkheden van DX9 zijn daar volop in benut. Daar was absoluut geen sprake van wachten tot de volgende generatie.
Vergeet de Ati 9700 Pro graag niet! Die kaarten waren snel en konden De eerdere Dx9 titels met gemak aan!

De FX serie van nvidia dertege deed het slechter onder pur-sang Directx 9!

Nee in het begin waren er al goede Directx 9 kaarten, die van ati! Nu well, ziet eruit dat zowel nvidia en ati nog meer uit de kaarten kunnen persen als ze leren omgaan met Directx10 en de vista driver methodology!

Heb geduld vrienden, over twee jaar lach je gewoon on wat we hier zeggen!
(Je zegt 2 x hetzelfde..)
Het probleem met de FX serie was dat ze met Antialiasing (en in iets mindere mate anisotropische filtering) erg inzakten, terwijl op dat moment ATi daar slimmer mee omging (ze smokkelden wat, maar het zag er toch goed uit en op een veel hogere snelheid).
Ik heb in april een x1950 Pro gekocht, omdat ik weinig vertrouwen had in de DX10-kaarten die er nu zijn. Ik weet niet of deze tests kloppen, maar ik vermoed dat zelfs de 8800GTX niet goed genoeg is voor een échte DX10-game in volle glorie. Ik hoop dat het mee blijkt te vallen, maar ik heb er weinig verrtouwen in.

De hardware-ontwikkeling blijft momenteel zwaar achter ten opzichte van de games. Misschien ligt het voor een deel aan de spellen en de drivers, maar ik heb sterk het vermoeden dat AMD en nvidia grote moeite hebben om betaalbare en snelle DX10-kaarten te bouwen. Er moet echt weer een flinke stap vooruit gedaan worden. Ik wacht wel op de opvolger van de 8xxx-serie, misschien dat het dan langzaam wat begint te worden. Geforce 9 FTW!
De hardware-ontwikkeling blijft momenteel zwaar achter ten opzichte van de games.
Check je feiten eens. De 8800 reeks bestaat al van november. Nu pas zijn er geconverteerde dx10 games. Wie loopt er dan ook weer achter? Er bestaat zelfs nog geen echt zuiver dx10 spel!
Misschien ligt het voor een deel aan de spellen en de drivers, maar ik heb sterk het vermoeden dat AMD en nvidia grote moeite hebben om betaalbare en snelle DX10-kaarten te bouwen.
Huh? Al eens gekeken welke dx10 kaarten er op de markt zijn? In iedere prijsklasse is wel eentje beschikbaar. Waar hebben ze dan moeite mee?
Misschien ligt het voor een deel aan de spellen en de drivers, maar ik heb sterk het vermoeden dat AMD en nvidia grote moeite hebben om betaalbare en snelle DX10-kaarten te bouwen.
let vooral niet op het betaalbare en snelle... dat zijn 2 dingen die NOOIT samen gaan... (of wel maar dan is de qualiteit ruk) zoiets moet je toch gehad hebben op school bij economie... ikke wel iig op de mavo...
Toch goed dat ik nog een X1950 pro heb gekocht, een stuk goedkoper dan de 8600 gts en een stuk sneller.
Ik wacht wel weer op de volgende generatie.
Durf wedden dat je x1950pro niet sneller is in dx10 dan gelijk welke andere 8xxxx kaart. :)
en ik duur de wedden dat de welke 8xxx serie dan ook toch te langzaam gaat zijn in pure dx10 games die over een jaar ofzo pas gaan uit komen en je toch nog een nieuwe dx10 kaart kunt gaan halen.
zeg ik dat dan ergens? |:(
Anandtech gezeur. Typisch van dat premature gemekker. Drivers worden heus nog wel geupdate en aangepast op... En om een van de voorgaande commentaren nog maar aan te halen; De nieuwe high-end kaarten vegen op DX9 wel al de vloer aan met de vorige generaties. Dus verbetering is het altijd.
Het zijn inderdaad allemaal prima kaarten in DX9 ja, maar daar gaat het hier niet om...
Trouwens over de 9x00 series gesproken. Die hebben zware moeite met een Direct X 8.1 game zoals Battlefield 2 bijvoorbeeld.
Overigens kan ik me nog goed herinneren dat de 9700 Pro het loodzwaar met Tomb Raider Angel of Darkness had (de eerste Direct X 9 game).
Slecht geheugen?
De Radeon 9700 Pro had juist geen enkel probleem met Tomb Raider. Het was de Geforce 5600 die volledig onderuit ging.
Zou dit aan:
- de kaarten liggen?
- de drivers liggen?
- vista liggen?
- spellen liggen?

Het is natuurlijk erg simpel om direct de schuld bij de hardwarefabrikanten te leggen.
Feit is in elk geval dat dx10 nog niet fantastisch werkt. Waar het ook aan ligt.
Vista is nogal games onvriendelijk, het vreet namelijk geheugen.
Bij de test setup hebben ze 2x1 gig gebruikt, en volgens mij kom je er daar niet meer mee. 2 gig wordt namelijk al aangeraden voor Vista zelf.

Ik heb zelf recentelijk ook Vista op een amd 4800 en een ati 1700 targa. Toen ik 1 gig erin had, kon ik BF2 alleen een beetje redelijk spelen op low settings en 800x640.
Heb er nu 8 gig in zitten, en ik kan met dezelfde kaart alles op high spelen + 6x AA en resolutie van 1024x768.

Deze test zegt dan denk ik ook weinig over de geteste kaarten, omdat ze bij AnandTech geen rekening hebben gehouden dat er verschil zit tussen XP en Vista.
BF2 is dan ook zot op werkgeheugen.
Je moet de spellen niet gaan vergelijken, want de ene game vind werkgeheugen lekker, de andere weer GPU power en de andere weer CPU.
Het is maar net hoe de engine van de game in elkaar steekt en met de beschikbare resources omgaat... :)
Hmm nu je het zegt inderdaad... ik speel c&c generals zh op vista en dan is er al 1,5 gig weg !
Zucht, verdiep je als tweaker eens in je OS, het geheugengebruik onder Vista zegt eigenlijk niets meer door de prefetching, wat Vista ook weer keurig vrijgeeft als het nodig is, tot die tijd gebruikt Vista inderdaad meer geheugen (wat in werkelijkheid dus komt door de caching).
Gekke vraag mischien maar was het niet zo dat > 4GB op een 32 bit systeem problemen gaf? Of loopt jou vista op 64 bit? Ik heb een keer op 64 bit gelopen maar mijn systeem werdt er nou niet echt beter van, niet voor gaming in ieder geval. Klopt ook wel, want 64 bit is eingelijk alleen maar nuttig voor alles behalve games geloof ik ;)
In het bron artikel wordt dit gezegd:
We discovered that our cards with 256MB of RAM or less had trouble running with 4xAA and DirectX 10. Apparently this is a known issue with CoH on 32-bit Vista running out of addressable memory. Relic says the solution is to switch to the 64-bit version of the OS, which we haven't had time to test out quite yet.
Lijkt me dat het dus toch wel voordelen heeft voor bepaalde games.
Ik heb hier ook Vista x64 draaien met 4Gb intern en moet zeggen dat games er echt geen problemen mee hebben hoor (BF2 niet, SupremeCommander niet)...
Nee oke maar aangezien 64 bit drivers nog steeds een probleem zijn is de overstap naar 64 bit nu niet echt een pretje (praat uit ervaring). Maar merk je echt een meerwaarde door op 64 bit te draaien in games?
Was ook wel een beetje te verwachten. Er werden DX10 kaarten gelanceert, terwijl er toen nog helemaal geen DX10 games waren, en nu ook maar een paar. Ik denk dat je er slecht aan hebt gedaan om een van deze 2 series te hebben gekocht.
Dat denk ik niet, want ook in de huidige games die DX9 zijn geven de HD2000 serie en de Geforce 8 serie alle voorgangers als de 7950GX2 en X1950XTX het nakijken.
De snellere kaarten uit de geforce 7 serie draaien ook alle dx9 titels met maximaal detail. De geforce 8 serie heeft hier nog geen meerwaarde. Tenzij je een extreme resolutie wilt natuurlijk:P
Je koopt een te (nu nog) snelle kaart met oog op de toekomst. Toekomsite games maken gebruik van dx10, waar deze 2 series blijkbaar nog niet klaar voor zijn.
Toch wel een beetje gek die lage performance, dx10 zou zelfs toch effiencter moeten draaien ofniet?
Volgens mij doe je er niet goed aan een videokaart op 'de toekomst' te kopen. Elke keer als er zo'n nieuwe kaart uitkomt met features die nog door geen enkele game ondersteund worden, hoor ik mensen zeggen: Die koop ik, dan ben ik klaar voor de toekomst.

Op het moment dat die 'nieuwe' features beschikbaar zijn in echte games, dan is de techniek al weer zo veel verder dat de kaart die men toen kocht maar mondjesmaat voldoet.

Volgens mij koop je een kaart om het maximale te halen wat er nu mogelijk is (als je dit soort kaarten koopt). En kkop je in 'de toekomst' een kaart die dan maximaal voldoet
wat ik me dan afvraag is wat drivers hier nog aan kunne oplossen, ik kan me zo voorstellen dat die alles behalve optimaal werken nog, en het is zelfs nog de vraag of er aan de kant van MS niet stiekum nog wat te verweiten is aan DX10 .... er zullen ongetwijfeld ergens nog wel performance bugs worden gevonden .... toch?????
De snellere kaarten uit de geforce 7 serie draaien ook alle dx9 titels met maximaal detail. De geforce 8 serie heeft hier nog geen meerwaarde. Tenzij je een extreme resolutie wilt natuurlijk:P
Zelfs de huidige 8800 kaarten kunnen dx9 games niet op full eye candy aan, daarom is er zoiets als SLI. Zeggen dat je met een vorige generatie kaart genoeg hebt is dan ook een belachelijk argument. Alleen op het vlak van IQ opties biedt de geforce 8 serie een overduidelijk meerwaarde.
Je koopt een te (nu nog) snelle kaart met oog op de toekomst.
Wie koopt er nu een snelle kaart met het oog op de toekomst? Ik denk niemand. Je koopt een snelle kaart omdat je de spellen die NU uit zijn aan hoge fps wil kunnen spelen.
Toekomsite games maken gebruik van dx10, waar deze 2 series blijkbaar nog niet klaar voor zijn.
Niet klaar? Uit wat leid je dat af? Er is nog geen enkel dx10 only game uit dus je kan hier niet over oordelen. Al deze games uit deze review zijn dx9 games omgezet naar dx10.
Toch wel een beetje gek die lage performance, dx10 zou zelfs toch effiencter moeten draaien ofniet?
En wie zegt dat dat niet gebeurt?
Zo snel is RB6 Vegas anders niet op mijn X1900 XT helaas, een HD2900 XT doet het daar (hopelijk) beter.
Zo snel is RB6 Vegas anders niet op mijn X1900 XT helaas, een HD2900 XT doet het daar (hopelijk) beter.
dat spel doet het anders prima op mijn x1900XT met vrij hoge settings.
ohoh... daar heb je het al... vrij hoge settings... niet de allerhoogste settings
De 9700Pro van ati, de eerste kaart om Dx9 te doen deed het terdegen aardig hoor. Maar ja 8 pijplijnen en 256bits geheugen toegang was dan ook een killer gewoon.

Kan nog herinneren dat ik met mijn 9500 Pro nog best goed Halflife 2 kon spelen...en iets minder goed Vampire the Masquruade: bloodlines omdat die game gewoon wat meer buggy was.

Hoe dan ook de eerste Dx9 kaarten konden er wel wat voor..nu ja..op het FX debacle na! Die kaarten hadden omdat nvidia uit de directx commisie gegaan was ( merf niet zeker waarom ) wat probleempjes met pur-sang Directx 9. In zo verre zelf dat de game makers maar besloten die kaarten standaard op Dx8.1 aan te spreken.

Denk dat de overstap naar Dx10 minder het probleem was dan het nieuwe driver model van windows vista. Ik verwacht dat het komende jaar dat met meer en meer updates de prestaties verbeteren!
Maar best mogelijk dat de DirectX10 spellen nog gruwelijk inefficient zijn, of dat de DirectX 10 drivers van beiden fabrikanten nog gaar zijn. Ik verwacht dat de performance nog wel beter gaat worden.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True