Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 123 reacties

Nvidia zou bezig zijn om zijn volgende generatie van gpu's te herontwerpen naar DirectX 11, waardoor deze pas in 2010 uitgebracht kunnen worden. AMD, dat al een werkende DirectX 11-gpu heeft, ziet de eerste DX11-spellen nog dit jaar verschijnen.

Taiwan Semiconductor Manufacturing Company zou een aantal mensen hebben laten weten dat Nvidia bezig is om zijn toekomstige gpu's deels opnieuw te ontwerpen. Dit zou tot gevolg hebben dat Nvidia de gpu's pas in de eerste helft van 2010 uit kan brengen, waarbij het eerste kwartaal misschien niet eens haalbaar is. De reden voor het herontwerpen van de gpu's is niet duidelijk. Voor AMD zou dit goed nieuws zijn, aangezien deze onderneming tijdens de Computex al een werkende DirectX11-gpu had. De verwachting is dan ook dat AMD in ieder geval nog dit jaar met een DirectX 11-gpu op de proppen komt.

DirectX 11 brengt een aantal verbeteringen met zich mee en de chipgigant verwacht dan ook dat er in 2009 een 'golf' aan DirectX 11-titels zal verschijnen. Tijdens de introductie van DirectX 10 duurde het vijf maanden voordat de eerste DX10-titels op de schappen lagen. Richard Huddy, bij AMD op de loonlijst als senior manager of software developer relations, gaf aan dat het support-team op volle toeren werkt om ontwikkelaars bij te staan met de adoptie van DirectX 11. Volgens ATI zullen ontwikkelaars als Codemasters, Phenomic, Electronic Arts, Emergent en Rebellion de eerste DirectX 11-games op de markt zetten. Ubisoft Nederland kon niet bevestigen of er binnen Ubisoft aan DirectX 11-titels gewerkt wordt. De speluitgever zou echter wel naar de mogelijkheden van DirectX 11 kijken.

Moderatie-faq Wijzig weergave

Reacties (123)

Ze komen wel erg snel met nieuwe versies uit van Direct X.... heb je net een DX10 kaart aangeschaft voor een behoorlijke prijs, "upgrade" naar Vista, omdat je anders DX10 niet kan draaien... mag het hele verhaal weer opnieuw! 6 maanden later.... kunnen ze niet iets meer aandacht aan hun releases schenken en grotere major-releases uitbrengen? Ik ben serieus van plan om DX12 af te wachten voor m'n nieuwe kaart, zal toch niet veel meer dan een half jaar later zijn!
Sorry hoor, maar DX10 is er al 2,5 jaar. (November 30, 2006 om precies te zijn, zie ook DirectX Release history). De eerste DX10 kaarten (G80 bijvoorbeeld, November 8, 2006) zijn ook van die tijd. Tijd voor DX11! :*)
Maar op games die DX10 ondersteunen was het wel iets langer wachten. Lost Planet was de eerste volgens mij. Zelfs nu is DX10 nog steeds geen gemeengoed geworden voor developers. DX9 is vaak standaard met DX10 features optioneel.
zo zal het waarschijnlijk ook met DX11 gaan, geen haast benodigd dus.
Best mogelijk dat het met DX11 veel sneller gaat. Soms wordt een nieuwe DX standaard heel snel omarmt.

Kijk bijvoorbeeld naar DX9. Binnen een half jaar kwamen er al een rits van games uit met DX9. En na slechts één jaar, was DX9 gewoon de standaard. Natuurlijk bleef men wel een DX8 renderpath houden, maar er werd primair voor DX9 ontwikkelt.

Dat had natuurlijk twee oorzaken:
1. De grote voordelen die DX9 had voor de game developers in hun mogelijkheden. Met PS2.0 konden ze zelf floating point shaders programmeren die perfect aansloten bij hun spel, i.p.v. vast te zitten aan wat de gpu's ze leverden.
2. De Radeon 9700, die in DX9 net zo snel kon renderen, als een veel slechter uitziende DX8 renderpath.


In principe zou zoiets met DX11 ook mogelijk zijn. Tesselation zou dezelfde rol als PS2.0 kunnen vervullen, en in het verleden heeft ATI met de Radeon64 al bewezen tesselation zonder prestatie verlies te kunnen leveren.
Dit komt waarschijnlijk ook omdat zeer veel mensen nog bij Windows Xp zijn blijven hangen waardoor veel mensen uberhaubt al geen ondersteuning voor DX 10 hebben. Waarschijnlijk zal de adoptie van Win 7 (mede dankzij over het algemeen zeer lovende reviews t.o.v. vista destijds) voorspoediger voorlopen dan bij zijn voorganger. Hierdoor zal de vraag naar Dx11 mijns inziens ook sneller op gang komen.
Uiteraard is dx9 standaard. Bij de statistieken van Steam kan je zien dat zelfs vandaag nog maar 30% van hun gamers Dx10 + Vista heeft.
Beetje gekleurde cijfers natuurlijk, aangezien Steam (vrijwel?) alleen DX9 spellen aanbiedt...
Valt wel mee,
ik denk dat steam een beter gemiddeld beeld geeft als bv eenzelfde statistiek bij Tweakers. De mensen die hier komen zullen behoorlijk boven het gemiddelde zitten qua hardware als bij steam.
Zoals je kan zien zijn er ook nog 10% mensen die met een Dx8 kaart zitten, dus niet zo gekleurd. Steam is ook een van de meest accurate cijfers die je op dit ogenblik van de markt kan vinden.
Inderdaad... En denk bijvoorbeeld ook eens aan de 8800 GTX/Ultra... die is ook al weer een poosje uit en kan nog steeds goed mee met de nieuwste games.
dx 11 is ook backwards compatible met dx10, het is vooral een aangepaste en verbeterde versie van dx10. Om alle voordelen te gebruiken zal je wel een dx11 kaart moeten hebben natuurlijk. Maar het is niet zo dat je een dx11 spel niet op je dx10 kaart zal kunnen spelen of het moet echt een dx11 only game zijn wat niet zal gebeuren dit jaar. Dit is vrijwel niet gebeurd met dx10 dus ik zie ook niet in waarom dat opeens nu wel zal gebeuren.
Daarbij zul je ook dx11 niet alleen op windows 7 kunnen gebruiken maar ook op vista wat erg mooi is. Geeft ook aan dat het geen geweldig ander systeem is dan dx10. :)
DirectX 10 is tegelijk uitgekomen met Vista, dit was November 2006. Dat is geen zes maanden geleden. Het kwam alleen niet zo snel van de grond, mede doordat het Vista only is en Vista ook niet snel liep.

Vervolgens is DX10.1 ook niet veel geworden omdat Nvidia het teveel moeite vond om het te ondersteunen. Ze heben zelfs game makers gevraagd vooral geen DX10.1 games te maken omdat ATI dit wel ondersteunde en het daaar dus een snelheidswinst gaf.

Kortom, DX10 is door twee belangrijke partijen niet goed gesteund. Microsoft wilde het gebruiken om Vista verkopen te pushen en Nvidia gaf geen volledige ondersteuning. En dan hebben studio's ook weinig zin er veel moeite in te steken.

Ik ben het met je eens dat DX10 niet netjes in de markt gezet is, maar je kan niet zeggen dat nieuwe versies elkaar te snel opvolgen.
DirectX 10 gaat toch alweer 2,5 jaar mee, praktisch 3 jaar tegen de tijd dat de DX11 kaarten komen. DirectX 8 (2 jaar) en vooral 9 (4 jaar) hebben het ook wel even uitgehouden, maar t/m DirectX 7 ging het aardig rap: van versie 1 tot versie 8 duurde maar 5 jaar (daar staat tegenover dat de vroege DirectX'en vooral een softwareinterface waren, pas sinds hardware T&L is hardwareondersteuning echt belangrijk geworden voor DirectX, dus die snelle versie-opvolging had destijds geen gevolgen voor je videokaart-hardware, enkel voor de drivers).
Zie: DirectX release history
Dat MS nu zo snel is komt door het Vista bash manie wat overheerst.
Hoe goed Vista nou geworden is. Dat imago blijft hardekkig staan.
Vandaar versnelde release van Windows 7. Wat eigenlijk Vista REV 2 is.
DX11 is eigenlijk DX10 Rev 3.

Windows 7 en DX11 hebben niet te leiden onder introduceren van neiuwe tech.
En W7 bied ook een light optie voor NEtbooks. Dat kan MS ook doen met Vista. Maar daar krijg je dat imago niet mee weg.

Ik vind dat W7 overpositief wordt ontvangen. Terwijl de performance nagenoeg gelijk waardig is aan Vista SP1.

Maar heeft geen last van die opstart problemen.

Vista introduceerde en nieuw of zwaar gemodificeerde kernel.
Dit heeft gevolgen voor de DirectX Hel en HAL en in welke Layer dat allemaal afspeeld. Nieuwe drivermodel waar elke hardware firma niet direct ondersteunde. Een lange weg van nieuw driver opitimalisatie weg tov al optimalere XP.

W7 geniet van al het voorwerk wat Vista op dat vlak al gedaan heeft.

Ik kijk meer wat W7 voor de user te bieden heeft.
ATi pushed DX11 ook wel flink naar voren. Ze hebben namelijk support voor directx 10.1, en alhoewel het in Assassin's Creed bijvoorbeeld resulteerde in snelheidswinst, heeft Ubisoft besloten dat het maar beter was dat de features eruit gesloopt werden. ATi loopt op dit moment gewoon voor met ontwikkeling en support voor DX en zodra DX11 gaat komen zal dit zich gaan uiten in een performanceverschil met nVidia tot ook zij hun DX11 kaarten klaar hebben.
Het originele DX10 zou ook eigenlijk zijn wat 11 nu is. AMD had support daarvoor al bijna af toen nVidia die door een ander chipdesign problemen kreeg met ruimte heel veel features niet meer wilde ondersteunen, dus uiteindelijk is DX10 heel erg afgeslankt.

Kijk maar naar de hardware tesselation die AMD al sinds de HD2xxx serie heeft
Ik zou gewoon voor DX11 gaan. Je kan gewoon door blijven werken op vista, en DX11 heeft een heleboel voordelen boven DX10.
Ik kan best snappen dat mensen door DX10 teleurgesteld zijn en daarom nu de aankoop van een dx11 kaart gaan uitstellen, maar doe dat niet.

Dx10 had heel mooi kunnen zijn, maar NVIDIA kon het niet bijbenen (net zoals nu) en gingen vragen of microsoft de standaard omlaag kon gooien. Dit is gebeurt met resultaat: een slappe upgrade van dx9 naar 10.

Bij DX11 is niks verlaagt en is dus ook gewoon een complete nieuwe, goede standaard.
Valt anders wel mee - d'r zat vier jaar tussen DX 9 en 10, en d'r zal drie jaar tussen 10 en 11 zitten. Drie jaar is een redelijke cycle, veel computers krijgen elke drie jaar een upgrade en dergelijke. Tussen 7, 8 en 9 zat minder tijd.
De DX10 kaartjes zijn toch al lang op de markt, anno 2006.
er zijn nog steeds geen games die niet meer werken met dx9, en zo zal het voor dx10 ook nog wel even duren voor het echt niet meer word ondersteunt.
de eerste DX10 was er al in 2006... dat jij NU pas bent overgestapt, doe je echt jezelf aan hoor :P
dat is de pest met computer hardware.

1: Je kan wachten op een volgende release, maar tegen die tijd staat de daaropvolgende alweer bijna klaar en zo kan je aan het wachten blijven.

2: De dag dat je het koopt is het nog maar 80% van de aankoopwaarde waard.

3: Binnen een jaar zijn er alweer nieuwe versies, uitbreidingen en dat soort dingen, waardoor jouw net 1 jaar oude videokaart allang niet meer de beste is, als ie dat wel was op het moment van aankoop.
Dat is met (bijna) alle producten in een vrije markt zo.

[Reactie gewijzigd door elmuerte op 8 juni 2009 13:41]

Dat is met alle producten in een vrije markt zo.
Niet geheel waar. Ik heb een professionele schroevendraaierset, meer dan 20 jaar oud, en exact dezelfde set wordt vandaag de dag nog steeds verkocht. Er zijn ook veel andere duurzame producten die nodig zijn, lang meegaan en waar weinig ontwikkeling in zit. Hierom worden ze nog steeds verkocht.
Zo'n schroevendraaierset is inderdaad een uitzondering. Dit komt omdat er (bijna) geen technologische vooruitgang wordt geboekt op het gebied van schroeven e.d.
Als er morgen een nieuwe standaard komt met, laten we zeggen, een inkeping van een bloemetje i.p.v. een kruis, dan zal je zien dat naarmate meer producenten deze standaard adopteren, de waarde van jouw setje ook zal dalen.

Zoals ik al zei, met dat soort producten is er weinig technologische vooruitgang waardoor het redelijk waardevast blijft. Echter, voor producten die louter op technologische ontwikkelingen draaien (pc's, mobieltjes, mp3/4 spelers etc.) gaat bovenstaande bewering in 99 % gevallen op.
Juist wel: accuboormachines bijv. Daar zit nog volop ontwikkeling in en dan zul je het ook meemaken dat nieuwere versies krachtiger en compacter zijn en een langere accuduur hebben dan degene die je vorig jaar kocht.

Een gewone schroevendraaier blijft echter praktisch om voor de hand liggende redenen. Bij computer vs telraam is dat wat minder zo. :)
Ah, pijnlijke realiteit.

Wat was ik destijds blij met mijn 8800GTX.

Enfin, misschien is het een ideetje voor fabrikanten om een upgrade programma te hebben...
Sommige hebben dit al (EVGA bijvoorbeeld), en ik denk dat als ze dat goed aanpakken ze dat meer geld op kan leveren dan dat ze nu verdienen.
2x per jaar upgraden voor 100 Euro klinkt voor het gevoel in ieder geval goedkoper als 1x in de 3 jaar 500 euro neertikken.
nee hoor... want in het eerste geval ben je 2x100x3=600euro kwijt...

het verschil is wel dat het goedkoper LIJKT

[Reactie gewijzigd door mstreurman op 8 juni 2009 15:54]

2x per jaar upgraden voor 100 Euro klinkt voor het gevoel in ieder geval goedkoper als 1x in de 3 jaar 500 euro neertikken.
Dat zegt hij zelf al "voor het gevoel".

Het zal misschien wel honderd euro kosten, maar dan heb je die 2.5 jaar dat je wacht voor de "grote upgrade" wel al de ietsjes betere hardware die je voor 100 euro gekocht heb. Zo heb je altijd een up-to-date computer.
Een voorsprong, in tijd gemeten, voor AMD in dit geval. Want ook hier houd ik een slag om de arm; Want "een werkende GPU" hoeft natuurlijk niet gelijk te staan aan een "goed werkende GPU". En daarbij wordt in dit artikel niet gesproken over Larrabee, welke ook aan het einde van het jaar zou moeten verschijnen. Dus het valt allemaal nog te bezien of het een daadwerkelijke grote voorsprong betreft.

Maar DX11 wordt vlgs.mij wel interessant, aangezien er duidelijke grote stappen zijn ontwikkeld richting het GPGPU gebeuren. Daarom laat ik DX10 passeren (net als Vista), en ga meteen door naar DX11. Want dx11 levert nl. een grotere stap vooruit dan DX10 vanwege die GPGPU opimalisaties. Al-met-al een prima tijd om over te stappen in het begin van volgend jaar dus.

[Reactie gewijzigd door G_M_C op 8 juni 2009 14:50]

Larabee presteerd zoals een GTX285. DX10 dus.
iNtel kan makkelijk een DX11 emulatie driver maken. Maar ja dan worden wel wat zwaardere DX11 features softwarematig geëmuleerd.

Gezien RV870 toch ook wat extra rauwe power meekrijgt van het 40nm procede en niet al te klein is maar geen godzilla chip. Lijkt mij RV870 LRB in DX10 al te overtreffen. DX11 is een anderverhaal waar emulatie vs Fix funtion performance LRB de das om kunnen doen.

Tenzij DX11 zwaar shader heavy wordt waar ATI de toekomst in ziet en wat eigenlijk LRB de ultime form van is. Dan kan het juist weer mee vallen.
En in dat opzicht wordt ratrace en voxel ook dmv GPGPU op SM5.0 shaders ook beter mogelijk met die compute shader DX11 feature.

Voor mij is LRB een groot vraag teken en wordt schijnbaar ook een bakbeest van een chip.
Zou toch adviseren om eens wat te lezen over DX11. Wat jij schrijft duidt duidelijk dat jij informatie/ideen hebt die puur zijn gebaseerd op graphics, met nadruk op gamen. Dit terwijl de innovaties van DX11 voor een heel groot deel liggen in de non-graphics wereld; Denk eens aan de simpele invoering van het inzetten van de GPU zonder het definieren van een render-target (alhoewel, klinkt simpeler als dat het is).

Dat shader-heavy waar jij het over hebt, dat wordt zwaarder als jij je kunt voorstellen bij de toepassing van de compute shader. Die moet je zien als een zeer zwaar geparalleliseerde general purpose CPU. Larrabee is zo'n zeer zwaar geparalleliseerde CPU; Sterker nog hij kan overweg met x86 instructies. In dat licht moet je ook die DX11 emulator zien, de techniek is zo vergelijkbaar dat je met een emulator DX11 opdrachten kan maken. Waarbij extra snelheidsvoordeel kan worden gehaald met rechtstreekse x86 opdrachten die je al programmeur kan laten uitvoeren door Larrabee.

Dus stap alsjeblieft af van de aanvaarde denkwijzen in de trant van fillrates en frames-per seconde, maar ga denken in FLOPS. Die aanduiding gaat vanaf DX11 meer zeggen over de power van de GPU dan onzinnige benchmarks "3Dmarks" enzo. Want alleen fps'en en filrates vergelijken leidt tot het vergelijken van appels met peren.

[Reactie gewijzigd door G_M_C op 9 juni 2009 13:53]

Ik vindt het maar een raar verhaal...

De features set van DX11 is al heel lang bekend, dus ze wisten echt wel wat er aan zat te komen. Het is niet alsof het een verrassing is.
Verder is het vooraf allang duidelijk dat DX11 veel sneller aanvaard zal worden dan DX10, omdat er (1) geen OS upgrade aan vast zit, en (2) omdat het veel meer duidelijke visuele effecten heeft, en grotere prestatie voordelen heeft.
En als laatste weet men heel goed dat wat betreft de DX11 feature set, ATI/AMD een enorme voorsprong heeft op NVidia. (Tessellation zat al in de Radeon64!!!) En ze daarom heel veel moeten inhalen, en dus lang moeten ontwikkeln.

Ik zie wat dat betreft maar twee opties voor NVidia. Of je boycot DX11, en zorgt er via je userbase en developer connecties dat AMD geen baat heeft van hun DX11 kaarten. Of je zorgt dat je een uitstekende DX11 kaart heeft, die de concurrentie kan aangaan.

Maar wat dit bericht suggereert, is dat ze eerste wilde boycotten, en dan toch op het laatste moment een DX11 kaart gaan maken. Daar geloof ik niets van...

Ten eerste was er al tijden sprake van dat NVidia nu ook DX11 zou ondersteunen... Dat klinkt niet bepaald als een boycot. Dan had NVidia echt wel eerder via het 'uitlekken' van informatie de voordelen van DX11 proberen te bagetaliseren. (De PR van Nvidia is op dat punt geslepen genoeg.)

Verder levert zo'n last-minute verandering nooit een echt goede kaart op... Dan krijg je zoiets als de FX5600, die alleen in theorie DX9 was, maar in de praktijk eigenlijk alleen DX8 echt aankon. Dat heeft toentertijd verschrikkelijk veel pijn gedaan, en ATI een enorme voorsprong geleverd. Ik kan me niet voorstellen dat NVidia nogmaals zo'n enorme fout maakt.


Ik denk dat fudzilla in dit geval inderdaad FUD brengt...
Geen idee of die fud allemaal waar is.
Maar wat ik wel verwacht van een bedrijf die persee nr uno moet zijn. Zal zich niet al te positief zich in de industrie laten gelden, bij achterstand.
Krijg nV30 herinnerringen.
AMD, dat al een werkende DirectX 11-gpu heeft, ziet de eerste DX11-spellen nog dit jaar verschijnen.
En welke kaart mag dat dan zijn? De HD4xxx serie ondersteund geen DX11. En iets demonstreren is nog niet iets ook echt hebben. Als de chip daadwerkelijk al volledig af was dan zou hij wel al aangekondigt en gereleased worden.

Als het goed is komt de eerste AMD DX11 kaart aan het eind van het jaar uit (HD5xxx lijn). De nVidia DX11 kaart zal de GT300 lijn zijn neem ik aan, het was al langer bekend dat deze uit was gesteld naar begin 2010. Uiteindelijk lopen ze dus niet zo gek veel achter als ze er begin 2010 mee op de markt komen.

Voordat spellen echt DX11 gaan ondersteunen zal nog wel even duren, kijk maar naar DX10, dat is ook alweer een poos uit, maar het aantal spellen met DX10 ondersteuning is op een paar handen te tellen...

[Reactie gewijzigd door knirfie244 op 8 juni 2009 14:13]

En welke kaart mag dat dan zijn? De HD4xxx serie ondersteund geen DX11. En iets demonstreren is nog niet iets ook echt hebben. Als de chip daadwerkelijk al volledig af was dan zou hij wel al aangekondigt en gereleased worden.
Het is de Cypress (RV870) chip. Die is al af. Het is nu een kwestie van door de verschillende keuringsinstanties heen te komen (zoals bv van PCI-SIG) waarna massa productie kan beginnen. Ze hebben een fully functional chip gedemonstreerd waar niks meer aan verandert wordt. Ze hebben zelfs de complete wafer getoond op Computex. Het is dus een kwestie van wachten voordat de chip in grote getallen van de lopende band af komt rollen.
Als het goed is komt de eerste AMD DX11 kaart aan het eind van het jaar uit (HD5xxx lijn). De nVidia DX11 kaart zal de GT300 lijn zijn neem ik aan, het was al langer bekend dat deze uit was gesteld naar begin 2010. Uiteindelijk lopen ze dus niet zo gek veel achter als ze er begin 2010 mee op de markt komen.
Nee. De eerste DX11 GPU van AMD staat volgens de roadmap die ik hier voor me heb liggen gepland op September 2009. Dat is dus zeker niet het einde van het jaar.
Voordat spellen echt DX11 gaan ondersteunen zal nog wel even duren, kijk maar naar DX10, dat is ook alweer een poos uit, maar het aantal spellen met DX10 ondersteuning is op een paar handen te tellen...
Er is een verschil tussen DX10 en DX11. Toen DX10 uit kwam was het een enorme stap omdat er drastisch dingen veranderd waren zoals een compleet nieuw drivermodel en unified shaders. Daarnaast had je gewoon een compleet nieuw OS nodig.

De stap van DX10 naar DX11 is een stuk kleiner. Ja, er komen nieuwe shadertypes bij, maar er hoeft geen nieuw drivermodel ontwikkeld te worden en ook op Vista zal DX11 verschijnen. Daarmee maak je je userbase ineens een stuk groter. Bij DX10 moest iedereen namelijk overstappen op Vista om er van te profiteren. Nu hebben veel PCs al standaard Vista, dus is de penetratiegraad een stuk hoger.

Daarnaast brengt DX11 multithreaded rendering wat zelfs op DX10 hardware tot zo'n 20% snelheidswinst kan brengen. De invloed van DX11 zal dus vanaf het begin een stuk zichtbaarder/tastbaarder zijn dan toen met de introductie van DX10.

Daarnaast werkt de dev-relation afdeling van AMD op volle toeren met een aantal grote developers zoals Electronic Arts, Rebellion en Codemasters om voor het einde van dit jaar al een aantal DX11 titels op de markt te brengen. Van Electronic Arts is duidelijk dat ze Battleforge gaan opwaarderen naar DX11 en Codemasters heeft bekend gemaakt dat ze hun Ego engine nar DX11 gaan upgraden. Deze engine zat o.a. in Grid en wordt ook gebruikt in Operation Flashpoint 2 wat nog uit moet komen.

De acceptatie van DX11 zal, zoals het er nu naar uit ziet, een stuk sneller gaan dan de acceptatie van DX10.

[Reactie gewijzigd door CJ op 8 juni 2009 15:24]

Omdat de performance van DX10 een heel stuk lager ligt en eigelijk niet zo heel veel nieuws brengt ten opzichte van DX9. DX11 aan de andere kant brengt wel veel leuke dingen met zich mee en met hopelijk een betere performance ;)
maar ik heb nog niet echt het verschil gezien ergens, het verschil tussen dx10 en 11 :p is er wel veel verbetering?
De belangrijkste DX11 features is tessellation. En dat is een heeeeeel grote verbetering. Het zorgt er voor dat je het aantal polygonen waarmee een object is opgebouwd kunt varieren afhankelijk van de afstand.

Een cirkel die op grote afstand met 8 punten is opgebouwd, is dan op korte afstand met bijvoorbeeld 64 punten opgebouwd. Daardoor kun je enerzijds heel mooie afgeronde objecten produceren, zonder dat dat veel rekenkracht vergt. Het wordt immers alleen toegepast op objecten dicht bij, en niet op (dezelfde) honderden objecten aan de horizon.

Het effect is gigantisch groot. ATI kon dit al in de Radeon64, en met een patch kon het in Morrowind worden aangezet. En dat was echt een verschil van dag en nacht. Een rotsblok in een rivier zag er keurig rond uit, i.p.v. dat het een hoekig ding was. Hoofden en helmen van npc's waren keurig rond, i.p.v. hoekig. (En dat allemaal voor nauwelijks tot geen prestatie verlies!!!) Ook belichting werkte i.h.a. beter, omdat het over veel meer polygonen werdt uitgespreid.

Het probleem in die tijd was echter dat het moeilijk was voor de gpu om te weten wanneer iets wel en niet getesselleerd moest worden. Een olie-vat bijvoorbeeld, is een cylinder... De ronding van de cylinder moet getesseleerd worden, en dus mooi rond gemaakt. Echter, de deksel moet plat blijven. Dergelijke dingen ging toen niet altijd goed, omdat er voor die afweging eigenlijk extra informatie aan het object moet worden toegevoegd. (In weze heb je een tesselation flag nodig... Aan alleen de polygonen kun je het niet zien, hoewel je wel een goede gok kunt maken)

In de huidige DX11 van tesselation is dat allemaal opgelost. Ook kon men vroeger tesselation niet uit zetten, waardoor objecten in de horizon die maar een paar pixels groot waren ook tesselation kregen. Dat is nu ook opgelost.

Mist correct toegepast, zou tesselation wel eens de grootste stap in games sinds Pixel shader 2.0 kunnen zijn...

Verder kan DX11 beter multithreaden, hetgeen prestatie verhogend kan zijn op multi-cpu systeemn. En het heeft compute shaders, waardoor je je gpu makkelijker kunt laten werken voor niet-grafische toepassingen. (Maar dat is dus voor games iets minder relevant, tenzij je het voor AI o.i.d. kunt toepassen)
De belangrijkste DX11 features is tessellation. En dat is een heeeeeel grote verbetering. Het zorgt er voor dat je het aantal polygonen waarmee een object is opgebouwd kunt varieren afhankelijk van de afstand.

Een cirkel die op grote afstand met 8 punten is opgebouwd, is dan op korte afstand met bijvoorbeeld 64 punten opgebouwd. Daardoor kun je enerzijds heel mooie afgeronde objecten produceren
Daar heb je toch al LOD models voor? Of kost dat teveel ruimte? Aangezien je hetzelfde model meerdere keren opsla, maar dan elke keer iets simpeler.
Als ik zo zie dat Nvidia zich de tijd lijkt te kunnen permiteren om te redesignen twijfel ik altijd een beetje aan de "enorme" vooruitgang die beloofd wordt met een nieuwe directX.
In DX11 zitten natuurlijk wel een hoop nieuwe features en mogelijkheden (bv Tesselation, Compute Shaders en Multithreaded rendering en niet te vergeten eindelijk een net DDS formaat voor HDR textures), de vraag is eerder in hoeverre de GPU bakkers en vooral de programmeurs hier meteen actief mee aan de slag gaan.

[Reactie gewijzigd door d3vlin op 8 juni 2009 13:01]

Dit hoeft niet noodzakelijk aan de DirectX-versie te liggen. Ik denk dat Nvidia vooral mikt op een tragere acceptatie van DX11 bij game-developers. Zoals in het artikel al stond, duurde het bij DX10 ook een tijd voor er games op de plank kwamen die écht profiteerden van een DX10 kaart.

Daarbij kan ik wel de kanttekening maken dat die trage implementatie van DX10 volgens mij ook deels te wijten was aan het onaantrekkelijke OS dat bij de overstap kwam kijken. Door die slechte start voor Vista lieten heel wat consumenten aanvankelijk Vista, en dus ook DX10, links liggen. Dan heb je als developer ook niet meteen een reden om DX10 games te gaan "pushen".

De kans dat dit bij Windows 7 anders gaat, is volgens mij best groot. Momenteel is de doorsnee consument enthousiast over het nieuwe OS van Microsoft.

Toch vind ik dit niet echt slecht nieuws, ik heb liever dat ze wat langer doen over een echt goede kaart dan rap rap iets uit te brengen. Zolang het geen maanden vertraging oploopt zal de impact voor de consument wel meevallen.
Voor NVidia is het desastreus. Ze missen hierdoor zowel de introductie van Windows 7, het 'back to school' seizoen en de kerst.

Dit zijn traditioneel tijden dat mensen nieuwe hardware kopen. Als de nieuwe ATI DX11 generatie er dan is gaat NVidia veel marktaandeel verliezen. Ze kunnen wel tegen een stootje, ware het niet dat ze al veel marktaandeel verloren hebben.
Vista was toen onaantrekkelijk zoals OS2warp en beos onaantrekkelijk waren. Door gebrek aan driver support.
Gezien MS met zijn big OEM deals vista markt zowat vanzelf groeide.
Werd dit onaantrekkelijke OS steed aantrekkelijker voor driver support te starten.
Dan een periode dat de drivers volwassen worden. ondertussen SP1 en je hebt een degelijk OS.

Probleem is meer, omdat er geen XP DX10 runtime is, Dat beperkte de target platform aanzienlijk.

Voor DX11 geld de hele Vista target gebruikt dat ook. Voor DX11 is W7 niet nodig. Als je al Vista hebt.

Probleem is wel dat nV kwa hardware achterblijft om de markt met DX11 GPU te overspoelen. Met alleen AMD gaat dit wat langzamer. Maar die situatie was met G80 toen juist andersom.

Wat ook dX11 tegen zal werken is het down talken van dX11 wat nV nu met twimtbp devisie ook gaat doen.
Tja dat Ubisoft achter nV loopt is wel duidelijk. AssesinCreed DX10.1 patch
Anderzijds kan Nvidia hun kaarten beter op de markt zetten met een beter prijs-kaartje en onder de prijs van AMD gaan zitten. Ze hebben nu ook de tijd om te kijken hoe de AMD-kaarten het gaan doen op de markt en daar de vruchten van plukken....

Redesignen gebeurd al langer, zeker op uibreidingskaarten:

Kijk naar Creative ten opzichte van TerraTec (jaren 80-90)
(TerraTec kwam met hele dure kaarten die super-hifi was met Dolby Surround en alles er op en eraan, later kwam Creative terug met kaarten die dat ook konden met een prijs-prestatie-verhouding die meer dan de helft was dan TerraTec, Nu worden die TerraTec-kaarten in Professionele-sfeer gebruikt en niet meet zozeer in prive-sfeer.)

Ik wacht lekker op Nvidia, ik hoef geen AMD-kaart, Ik volg AMD natuurlijk wel en let op de specs en de prijs die er aan hangt. Nvidia zit altijd wat onder de prijs van AMD en zal dat in 2010 ook wel doen denk ik. Spannend.

Ik heb nu een Dubbelslots Geforce 9600GT (van EVGA) met 512Mb.
Altijd al Nvidia gehad, mijn eerste was een TNT Riva 2 met 16MB geheugen met een 3Dfx Voodoo 2 uitbreidingskaart... (nostalgie......... those were the days _/-\o_ )

[Reactie gewijzigd door qbig1970 op 8 juni 2009 13:11]

Ik ga je niet uitmaken voor fanboy, maar:
Heeft AMD dit niet gedaan met Nvidia bij de release van de HD4xxx reeks. Nvidia zat al in de markt met de GT200 die een veel te hoog prijskaartje had. ATI kwam daar leuk aan met een GPU die een veel betere prijs/prestatie had. Waardoor de prijzen van de GT200 kelderden.
De HD4xxx was wel al een eindje in ontwikkeling en was bedoeld.

En denk nu niet dat NVidia eventjes zijn hele ontwerp zal omsmijten bij de release van de HD 5xxx reeks. Een GPU wordt al jaren vooraf in ontwikkeling genomen. Daar verander je in een paar maanden niet eventjes iets aan.

Nvidia heeft helaas aangegeven te gaan voor dezelfde optstelling als de GT200. Dus hele grote dies. We hebben met de HD4xxx reeks gezien dat de GT200 het op prijs/prestatie vlak het niet kan halen van de HD 4xxx reeks, dus zal dat bij de volgdende generatie niet anders zijn. En vergeet niet dat ATI zijn prijzen veel meer kan laten zakken omdat de productiekosten gewoon lager zijn dan een GT200. Kijk maar eens hoever ATI een HD 4850 kan laten zakken zonder problemen.

[Reactie gewijzigd door penetreerbeer op 8 juni 2009 13:37]

Wat een reden zeg:
Doordat (omdat jij dat denkt) dat ATI drivers 2 herstarts nodig (in tegenstelling tot Nvidia) heeft neem je geen ATI hardware?
Ten eerste geldt deze reden niet zoals gijs007 aangeeft.
Ten tweede: Voor een goede install van grafische drivers gebruikt je best driver cleaner (pro) om je vorige install te verwijderen. En dat moet zowel bij ATI als bij Nvidia gedaan worden door middel van 2 herstarts.
ik installeer gewoon Catalyst 9.5 over Catalyst 8.12 bijv.
heb dit al jaren gedaan zonder problemen...
heb juist bij nvidia problemen met bepaalde games en heb al 10 bug reports ingevuld maar geen wijziging ook al emailtjes gestuurd naar hun Management en boze posts gemaakt op het nvidia forum maar niemand reageert er op of ze zien me als ati fan boy...
Ik doe alleen een driver uninstall als ik swap tussen ATI en nV.

Maar de situatie is niet zoals GT200a 65nm vs RV770 55nm

Het is de grote in mm^2 als de GT200a maar dan in 40nm in GT300 flavor.
vs AMDTI chip RV870 in ongeveer de grote in mm^2 als de RV770 maar dan in 40nm in DX11 flavor.

Dit is niet al te in nV nadeel. Er is dieshrink gelijkheid waar er eerst ongelijkheid was.
Het is dus Zoals de HD4870 vs GTX285
De nV zal duur te produceren zijn maar mits stuk bigger naast meer vermogen slurpen ook sneller zijn en duur.

Dus 'n GTX380 + GTX285
Heb nu GTX285+ 8600GT
Nostalgie, slechtste raadgever in een hyperaggressieve markt.
AMD zou zijn nieuwe kaart dan wel op een heel gunstig tijdstip uitbrengen. Ze bereiken nu niet alleen de mensen die het nieuwste van het nieuwste willen. Maar ook de mensen die een heel nieuw systeem willen bouwen met core i5 (of hoe het ook gaat heten) en windows 7.

Mensen die rond die tijd een nieuw systeem aanschaffen zullen dan waarschijnlijk voor de directx 11 kaart gaan en niet de directx 10.
of AMD echt een voorsprong blijkt te hebben moeten we nog maar afwachten.
dat Nvidia pas ruim een half jaar na AMD op de proppen komt met DX11 wil nog niet zeggen dat ze een achterstand hebben van een half jaar of meer.
er is nog geen game voor DX11 en dat kan ook nog wel even duren.
het huidige ontwerp kan al wel beter zijn als dat van AMD echter alleen de DX11 ondersteuning ontberen.
verder kan het best zijn dat de graka's die uitgebracht gaan worden meer dan compatatief blijken te zijn.
tevens is er ook nog larrabee welke nog dit jaar gepresenteerd zou moeten worden.
al met al is het denk ik gewoon een kwestie van afwachten en zien hoe de verhoudingen zijn.

mooie tijden voor de consument
AMD zal natuurlijk elke game developer enorm helpen met het introduceren van DX11, wat hun toch een kleine voorsprong geven (ze kunnen sturen op Ati specificieke stukken).

Daarbij wil ik heel die Larrabee nog eerst zien, nagenoeg niets is bekend ervan buiten een berg 'geruchten' hoe enorm snel dat ding zou zijn.
nV had dat wel met de G80. die was in Dx9 stuk sneller dan vorige gen singlechip.
AMD moet dan dit bewerksellen dat de RV870 dan met grote marge de sneste singlechip is op die markt.
Dat houd in een stuk sneller dan GTX285. en HD4890 in DX10.x

G80 was toen ook zo'n bakbeest GPU
Het zal mij benieuwen. Ik moet nog de overstap naar 10 maken en op 11 ga ik niet wachten denk ik. Als het met 11 net zo gaat als 10 dan wordt het toch een drama en loopt het allemaal niet z'n vaart. Dat jaren na de komst van 10 je nog bij 9 zit geeft het al wel weer aan hoe nutteloos het was, ik verwacht nu het zelfde. Niemand gaat zijn PC DX11 maken terwijl niemand een dergelijke kaart heeft omdat niemand het dan kan spelen en als je 9 of 10 er ook bij in stopt heeft het kwa tijd weer geen zin om 11 te ondersteunen want dan speeld minder dan 1% op 11 en is het weer zonde van de tijd. Kortom, dat duurt ook zeker nog 2 jaar eer we daar echt gebruik van maken.
Er zijn nu al 30% gamers is Dx10 kaart + OS hebben en nog eens extra 30% met een Dx10 kaart maar nog geen Vista/Win7 beta.
Als de anti-Ms deze keer de lancering van Win7 niet kan bekladden, ga je plots een meerderheid krijgen die klaar is voor Dx10 en wordt het al developer al veel interessanter.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True