Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 81 reacties
Bron: The Inquirer

Bij The Inquirer, als altijd koning van de geruchten, is een verhaal verschenen over gebeurtenissen tijdens de ontwikkeling van DirectX 9.0. Volgens de site wilde Microsoft dat de deelnemende bedrijven alle patenten die met DirectX te maken hadden aan de softwaregigant zou overgeven. Intel en nVidia zagen dat niet zitten en verlieten de onderhandelingstafel. Deze problemen zouden er voor hebben gezorgd dat de GeForce FX de DirectX 9.0-standaard niet tot op de letter nauwkeurig implementeert. Volgens The Inquirer is er kortgeleden alsnog een overeenkomst gesloten tussen de bedrijven. Natuurlijk zijn deze geruchten niet bevestigd en het is daarom goed ze niet zonder meer voor waar aan te nemen. Overigens zouden er ook andere problemen tussen Microsoft en nVidia zijn geweest:

nVidia Logo (graphics^n)Another revelation that our friend managed to overhear was about the recent arbitration between Microsoft and Nvidia. We all know that the Vole was trying to get Nvidia to cut its prices but now we may know why. It was nothing to do with patents or Nvidia's ability to supply chips in volume. It was all to do with missed milestones and the chipset not performing as fast as Nvidia had promised. Microsoft is losing money at an incredible rate on Xbox and has been trying every trick in the book to get Nvidia to cut its prices.
Moderatie-faq Wijzig weergave

Reacties (81)

Ik vind het zo jammer dat DirectX van Microsoft is. Weer een rede om de baas te kunnen spelen in eigen Compu land. Nvidia en Intel kunnen wel weglopen, maar zoals je ziet moeten ze toch terug. Monopoly spelen zijn ze goed in.
Ik zou het, mede om die reden, graag willen zien dat ze OpenGL meer gingen ontwikkelen en ondersteunen! Dat is namelijk cross-platform, dus niet afhankelijk van Win32... Als alle spelletjes makers dat nou ook deden, dan kan ik ten minste beter spelen onder linux enzo... Zijn ze meteen niet zo afhankelijk van de monopolist MS. OpenGL is toch "open", en non-profit organistatie?

just my 2 cents...

P.S. ik denk dat het (ooit) ook nog wel een keer zo ver komt... vooral als MS zich zo arogant blijven gedragen, en ivm met alle rechtzaken tegen MS...
Hmm, zou dat een van de redenen zijn dat NVidia goede (helaas closed source) linux drivers maakt?
Afgezien dat ze hun meeste ontwerpwerk doen op linux machines..

[edit voor Breepee]
Ja inderdaad, daar gebruiken ze gewoon pc's met linux voor, en die pc's hebben waarschijnlijk een GFnogwat.
Maar die effecten worden natuurlijk op een resolutie ed berekend door de cpu, dus dat maakt de grafische kaart wat minder relevant.
Ik denk het wel. Ik meen dat ik ergens heb gelezen dat voor steeds meer krachtige 3D-toepassingen (denk aan film, special effects) Linux wordt gebruikt. Zo schijnt de film 'Titanic' gedeeltelijk gemaakt te zijn met Linux. nVidia snapt dit ook wel, en maar goed ook.
En jij dacht dat ze daarvoor een GF3 gebruiken?
MS,iNtel em nVidia zijn de grootste spelers in hun markt(en)

3 kapiteins op één ship gaat nooit goed vooral als minimaal 2 van de drie hun zinnetje willen doordrijven.

DirectX is ten eerste bedoeld om win32 platform goed geschikt te maken voor games/multimedia

Dus die monopolydrang en en bijbehorende kuren gelden voor alle drie.
Je moet juist blij zijn dat DX van Microsoft is.

Juist omdat die monopolist met DX is gekomen is DX zo veel gebruikt in spellen. En daardoor hebben we veel mooiere spellen gekregen, en veel minder geklooi met api's en drivers.

Toen iedereen een voodoo had was Glide mooi en handig. Maar toen voodoo niet meer de defacto standaard was begon het knap lastig te worden.
Glide wrappers ed waren ook niet ideaal.

Op dat moment moet je 1 standaard doordrukken waaraan iedereen zich moet houden. En dat is veel makkelijker met een monopolist als Microsoft die dat aan de videokaart fabrikanten kan opleggen. (en dat is dan ook gebeurd)

OpenGL was ook leuk, maar ontwikkelt zich te traag. Verder maken daar de fabrikanten weer allemaal eigen extenties voor, en dat is nou juist wat je niet wou.

Op dit moment is DX gewoon geavanceerder dan OpenGL.

Nee...je kan een heleboel op Microsoft tegen hebben (en dat heb ik ook). Maar voor de spellen was het monopolie van Microsoft en Windows een zegen.
Juist omdat die monopolist met DX is gekomen is DX zo veel gebruikt in spellen. En daardoor hebben we veel mooiere spellen gekregen, en veel minder geklooi met api's en drivers.
Oh ja hoor... Tsk.

Als ik een videodriver installeer, zit daar OpenGL bij. Hoef ik niks meer voor te doen, werkt prima. Bij DirectX daarentegen moet ik de driver installeren EN nog eens 13Mb aan zooi downloaden en daarna installeren. Hoezo minder geklooi met drivers? DirectX kost me twee keer zo veel moeite, en nog eens geld ook.

Api's? Heb jij DirectX wel eens naast OpenGL gelegd? OpenGL is de simpelheid zelve, er is één API en alles is in overeenstemming met elkaar. DirectX is een conglomeraat van allerlei verschillende API's, en ze stemmen niet altijd overeen met elkaar. Daarnaast heeft DirectX iets van 4 verschillende manieren om 3D graphics te renderen (direct, indirect, bla). Ja, echt simpel. In de praktijk gebruiken gamesprogrammeurs maar 1 van die API's, de rest is dus allemaal onzin, maar moet vanwege de backwards compatibility meegeleverd worden.
OpenGL was ook leuk, maar ontwikkelt zich te traag. Verder maken daar de fabrikanten weer allemaal eigen extenties voor, en dat is nou juist wat je niet wou.
OpenGL ontwikkelt zich te traag omdat Microsoft sinds Windows 2000 geen OpenGL meer ondersteund. Al die fabrikanten weer eigen extenties maken omdat Microsoft geen zin heeft om de opengl.dll uit te breiden met de nieuwe functies die iedereen bedenkt.
Nee...je kan een heleboel op Microsoft tegen hebben (en dat heb ik ook). Maar voor de spellen was het monopolie van Microsoft en Windows een zegen.
DirectX begon pas wat te worden toen Microsoft de ondersteuning voor OpenGL opzegde. Gamesprogrammeurs en kaartfabrikanten hadden toen doodgewoon geen keus meer.

De OpenGL API is overigens niet zomaar door de eerste de beste sukkel bedacht, maar door Silicon Graphics Inc., toch één van de marktleiders met betrekking tot 2D en 3D graphics (wordt wel minder).

Welke API denk jij dat beter zou zijn? De API die geschreven is door een softwarehuis met letterlijk jarenlange ervaring op het gebied van graphics en video, of het bedrijf met jarenlange ervaring op eht gebied van Operating Systems en Basic?

Microsoft heeft met het uitbrengen van DirectX eigenlijk effectief gezegd dat zij als nieuwkomer op de 3D markt het beter kunnen dan een bedrijf met jarenlange ervaring. En om dat te bewijzen hebben ze hun marktleiderspositie in de Operating System markt gebruikt om dat bedrijf met jarenlange ervaring uit te schakelen.

Sja, ik kan ook 'bewijzen' dat ik de beste mens ter wereld ben door alle andere mensen op deze wereld af te schieten. Maar het enige wat ik daarmee heb gedaan is de schaalverdeling veranderen. Absoluut gezien wordt ik geen beter mens als ik alle betere mensen afschiet, maar relatief gezien natuurlijk wel.

OpenGL heeft de afgelopen 3 jaar op het PC platform geen kans meer gekregen zich te ontwikkelen. Sja, dan hoef je als DirectX eigenlijk weinig te doen om er na die 3 jaar als beste uit te komen.

Anyway, om dit maar af te ronden. OpenGL is voor programmeurs een heel stuk simpeler in het gebruik dan DirectX. Met minder moeite heb je al heel snel resultaat dat niet te onderscheiden is van elkaar. Dat geeft de programmeurs meer tijd om zich met de gameplay bezig te houden, en daardoor krijgen we leukere en betere games.

Op dit moment zie je dat er maar heel weinig game-engines zijn. Gamesbedrijven programmeren ze zelf niet meer maar kopen ze in. En wat zie je? Alle games lijken op elkaar, je kan aan de graphics zien met welke engine de game gemaakt is. Er zijn op dit moment iets van 7 engines en met die 7 engines worden er tientallen games gemaakt, en dat zie je er van af.

Kortom, als Microsoft de ondersteuning van OpenGL niet was gestopt en OpenGL 2.0 had ondersteund, denk ik dat het maken van een engine een stuk goedkoper had gekund, dat er meer concurrentie op de gamesmarkt was en dat we nu mooiere dingen hadden gezien.

Unreal 2 schijnt grafisch ook al enigszins tegen te vallen (er is minder verbetering dan je op grond van de ontwikkeltijd van 3 a 4 jaar zou verwachten). Ik vraag me af hoe het plaatje eruit gezien had als ze het op OpenGL hadden kunnen bouwen (want ze hadden gewoon geen andere keus dan DirectX te gebruiken).
Als je nou eens die anti-MS bril afzet en nog eens mijn post leest.

Als DirectX niet doorgedruk was door Microsoft hadden we nu spellen gehad die OF op OpenGL draaien OF op Glide, OF op Nvidia's versie van Glide, OF op ATI's versie.

Kun je je de Glide-only spellen niet meer herinneren? Of de spellen die features hadden die alleen op Geforces werkten?
Is dat dan wat je graag zou willen?

Dat bv Doom3 alleen op een ATI goed zou lopen?

Daarom moet je gewoon 1 standaard hebben. OpenGL had het kunnen zijn, maar redde het klaarblijkelijk niet, aangezien het allemaal Glide was wat de klok sloeg.
Als Nvidia en ATI Glide hadden kunnen gebruiken hadden we nu geen DX9 gehad, maar nog steeds Glide.

En wat betreft OpenGL vs DX8/DX9. De spelfabrikanten zelf hebben al toegegeven dat DX tegenwoordig OpenGL heeft ingehaald. (En dat kwam volgens mij zelfs van Carmack)
Daarom moet je gewoon 1 standaard hebben. OpenGL had het kunnen zijn, maar redde het klaarblijkelijk niet
zoals retepv terecht zegt heeft MS directx door onze strot gedrukt, en erg blij daarmee ben ik niet, ik speel niet veel spellen maar de opengl spellen die ik speel heb ik nooit problemen mee. met directx heb ik veel vaker problemen gehad.
En wat betreft OpenGL vs DX8/DX9. De spelfabrikanten zelf hebben al toegegeven dat DX tegenwoordig OpenGL heeft ingehaald. (En dat kwam volgens mij zelfs van Carmack)
kom eerst maar eens met goed bewijs voordat je zoiets zegt. en dan nog klopt je statement niet want:
a) spelfabrikanten zijn het nooit met elkaar eens, er zijn er namelijk teveel, zowel dan hadden we nu maar 1 api
b) bepaalde spel fabrikanten zijn teveel eigen in een bepaalde api en zullen zoveel mogelijk doen om die te behouden.

bijv carmack, hij code al jarenlang opengl, doet veel aan opengl 2.0, werkt veel samen met de hardware fabrikanten, ik denk niet dat hij overgaat op directx...
en dan nog even een leuke quote van hem om dat te bekrachtigen:
Trying to keep boneheaded-ideas-that-will-haunt-us-for-years
out of Direct-X is the primary reason I have been attending the Windows
Graphics Summit for the past three years, even though I still code for OpenGL.
klinkt nou niet echt als een directx aanhanger, of wel?
source: carmack .plan
DX heb je pas door de strot gedrukt gekregen nadat Glide al de standaard was ten koste van OpenGL.

Als OpenGL zo geweldig is, waarom was dan Glide toendertijd de standaard?
Toen heb ik niemand ooit horen roepen dat ze liever OpenGL dan Glide zouden gebruiken.

En over Carmack; Wat dacht je van deze uitspraken van hem:
ten tijde van de GF3 introductie uit zijn plan:

Here, I think Microsoft and DX8 are providing a very good benefit by forcing a single vertex program interface down all the hardware vendor's throats.

Zouden monopolies dan toch af en toe handig zijn? Geloof je dat wel als Carmack dat zegt?

en latere uitspraken:

DX8 is good. Microsoft has a long history of shipping an initially crappy product (DX3), then aggressively improving it until it is competative or superior to everything else. Many people underestimate the quality of microsoft's products by only forming opinions on early versions, and never revising them.

I'm happy that microsoft is doing a better job, but I don't feel that I will be in a disadvantaged position continuing to work with OpenGL.

Dat klinkt nou niet echt als iemand die DirectX vreselijk vindt, of OpenGL veel beter. Of wel?

Wat wel een belangrijk issue voor hem is, is portability. Dat heb je met DirectX niet.
Vind ik persoonlijk geen probleem, maar als je zoals hem je spel ook wil porten naar Mac en Linux, en je engine verkoopt aan mensen die porten naar Linux, dan is dat natuurlijk nog een belangrijk argument voor OpenGL.
Onder Windows is DX inderdaad op de bekende MS manier heer en meester, maar onder Linux zie ik echt geen verschil bij de OpenGL versies van bv Q3, RTCW, SOF en last but not least UT2003, jawel!!

En wat betreft al die geavanceerde features, 't is toch echt de gpu die het beeld maakt, dus de nieuwste foefjes kun je ongetwijfeld ook in je OpenGL driver stoppen. En jawel ook onder Linux zie ik de typische 'geforce' look. En als ik het goed begrepen heeft Ati ook al heel behoorlijke linux drivers. Via een omweg gaat de ontwikkeling dus vrolijk door :)
Als OpenGL zo geweldig is, waarom was dan Glide toendertijd de standaard?
Nou ja dan nog maar een reactie. Simpel glide was een afgezwakte versie van OpenGL. Kennelijk konden die Voodoo kaartjes OpenGL nog niet aan.

OpenGL was en is heel populair in het professionele segment. Maar zoals je weet doen de betere kaartjes van nu nauwelijks meer onder voor hun professionele tegenhangers en is OpenGL dus wel haalbaar.
We vergeten allemaal waarom DirectX is ontwikkeld.

Hoe vaak is het niet voorgekomen dat met Windows 95 de spellen vastliepen of er een blauw scherm tevoorschijn kwam? Natuurlijk heeft dit deels te maken met de instabiliteit van Windows 95 zelf, echter ook voor een groot deel met de instabiliteit die door slecht geschreven software aan Windows 95 werd doorgegeven.

Microsoft heeft met DirectX de stabiliteit van de games en hierdoor de stabiliteit van Windows verhoogd.

Microsoft had dit niet hoeven doen (en had dit waarschijnlijk ook niet gedaan) indien de games goed waren geschreven.

De Glide-only games zijn ontwikkeld op het moment dat de Voodoo kaart de standaard was. Men had deze games ook geschikt kunnen maken om te spelen zonder Voodoo kaart, echter hadden de games er dan verschrikkelijk lelijk uitgezien. Niet te spreken over een lage framerate. Glide is een zeer klein, gemakkelijk te implementeren stukje software waardoor games sneller op de markt konden worden gebracht. Het implementeren van OpenGL en DirectX kost meer tijd en MB's. Om alle drie te implementeren kost natuurlijk nog meer tijd en MB's.

Carmack is nu tevreden over DirectX. Zijn engines ondersteunen toch ook OpenGL. Voor snelheid en gebruik van de engine cross-platform nog steeds de beste (en eigenlijk enige goede) keuze.

Voor het maken van zo'n engine is veel tijd (en dus geld) nodig. Niet te vergeten een of meerdere personen die een engine kunnen maken waar je wat aan hebt. Er zijn wereldwijd weinig personen die dat kunnen. Daarom denken veel gameontwikkelaars; waarom een eigen engine ontwikkelen als je voor een x-bedrag een engine van een ander mag gebruiken. Goedkoper en beter dan ik het zelf kan.

Hierdoor is er juist meer concurrentie gekomen. Nu kunnen immers bedrijven games op de markt brengen die, als ze de engine zelf hadden moeten schrijven, dit niet hadden gekunt. Door de tijd die het hen scheelt kunnen er in een korter tijdsbestek ook nog eens meer games worden uitgebracht.
OpenGL was ook leuk, maar ontwikkelt zich te traag.
En hoeveel native DirectX 9.0 games zijn er al?
Zelf de native DirectX 8.1 games kun je op één hand tellen.

Snelle ontwikkeling is leuk, maar zolang de game ontwikkelaars er geen gebruik van maken heb je er nog geen fluit aan... buiten de tech-demo's.

Misschien gaat de ontwikkeling van DirectX wel iets TE hard... ;)
Game ontwikkelaars maken er wel degelijk gebruik van. Maar je kan moeilijk iets gaan gebruiken dat niet bestaat. Dus op het moment dat DX9 klaar is kunnen ze het pas serieus in hun nieuwe spellen gaan implementeren. En dat kost nou eenmaal tijd.

Games zullen daardoor altijd blijven achterlopen bij de DX versie. Daar is niets aan te doen.
Deze problemen zouden er voor hebben gezorgd dat de GeForce FX de DirectX 9.0-standaard niet tot op de letter nauwkeurig implementeert.
Aha, interessant. De GeforceFX is dus niet 100% Dx9 compliant...
Zou dat misschien de reden zijn waarom nVidia 3DMark2003 niet wil ondersteunen?
http://www.tweakers.net/nieuws/25476
Zou dat misschien de reden zijn waarom nVidia 3DMark2003 niet wil ondersteunen?
Nee, lijkt me niet. De FX is zelfs sneller dan de 9700 in 3dmark2k3.

Maar nVidia's grootste marktsegment, de budget MX kaarten, scoren niet meer dan 100 punten en steken dus heel karig af tegen ATi's produkten.

Ook nVidia's mid-range kaarten (de Ti4x00 serie) scoren belabberd t.o.v. van de vergelijkbare ATi kaarten.

Ik vermoed dat dit eerder de reden is waarom nVidia 3dmark2k3 niet wil ondersteunen.
Laten we hopen dat dit voorval de Europese Commissie ertoe brengt software-patenten niet te erkennen. Je ziet hier maar weer mooi tot wat voor problemen die leiden.
Hoezo zouden ze die niet erkennen dan?

Een patent leg je op iets dat jij gemaakt hebt etc en dat je gewoon niet wilt dat anderen (zonder jou toestemming) met de naam aan de haal gaan.

Opzich vind ik dit wel goed, omdat Microsoft dan ook de kaart & drivers zal doortesten of et echt 100% goed werkt enzo.
dat dan wel op MS progies natuurlijk ( toch? )
nVidia is met minder correcte middelen bezig vind ik... ze smijten met modder naar iedereen, terwijl hun NU gewoon genadeloos zijn afgestraft door Ati nu ligt hte allemaal aan MS en Direct X... dan weer aan 3D Mark 2003 (waar ze 18 maanden mee samen gewerkt hebben) wordt er een beetje ziek van... als ze nou gewoon onder ogen zien dat die GF FX een grote flop was en zo snel mogelijk (zijn ze mee bezig) terug komen ipv met modder te smijten naar alles en iedereen...

* 786562 Legolas_1973
Glide van 3dfx was de standaard. OpenGL hing qua ondersteuning er een beetje bij t.o.v. d3d. 3D acceleratie voor linux ben je echter afhankelijk van OpenGL.
Glide was de 3D-standaard van 3dfx en deze standaard heerste in de Voodoo-kaart-tijdperk.

OpenGL is de professionele 3D-standaard, dus de betere graphics. En de heavy graphics games (UT2003, Quake 3 Arena,...) draaien liefst op OpenGL.

DirectX is een oplapmiddel om slome, logge en trage Windows 95 geschikt voor multimedia te maken, waaronder speelbaar. Vroeger werden veel games voor DOS geprogrammeerd en men bleef tot in 1997 DOS-games schreven, want DOS is veel sneller dan Windows 95. MS moest iets doen om de games en andere multimedia dingen op windows 95 te krijgen, de oplossing is het traagheid van Windows 95 oplossen door het oplapmiddel genaamd: DirectX. Sinds DirectX 3.0 komen er games voor Windows 95, ten tijde van DirectX 6.0 kunnen zeer veel games met DirectX draaien. Er zijn ook DirectX-only-games en dat zie je ook aan de graphics (als je gewend bent om met OpenGL te spelen). En de multimedia werd door DirectX verbeterd, want de geluids- en grafische kaarten worden goed door DirectX ondersteunt...
Directx zuigt ;}
Glide was juist gebaseerd op OpenGL, de ingenieurs bij 3dfx hadden natuurlijk bij SGI gewerkt waar zede OpenGL code hebben toegepast op Glide.

Hoe kon het ook anders in de tijd van zo weinig API's je eigen API zomaar ontwikkelen, OpenGL was gewoon de moeder van de API's toendertijd.
Hou je feiten even goed bij.

Ruim een jaar terug ontstonden er de geruchten dat nVidia uit het ontwikkelteam van DirectX 9 geschopt was door 'onenigheden'. Dus deze geruchten, dat dat gebeurt was door de uitzinnige eisen van Microsoft, heeft een behoorlijke geloofwaardigheid.

3DMark 2003 is zeer betwistbaar of deze wel betrouwbaar is. Lees er het volgende artikel maar op na.

http://www.xbitlabs.com/news/story.html?id=1045073804

Ten eerste claimt 3DMark 2003 een DirectX 9 benchmark te zijn terwijl slechts in een van de testen slechts een KLEIN gedeelte daadwerkelijk DirectX 9 is. Moet wel want anders draait het op alleen de Radeon 9700 en Geforce FX. Dat is hoogst opmerkelijk.

Ten tweede zijn voor pixel shaders voornamelijk versie 1.4 gebruikt. De enige fabrikant die deze versie ondersteunt is ATi. Als versie 1.4 niet door een kaart wordt ondersteunt dan wordt er direct teruggevallen op versie 1.1. Dat terwijl vanaf de Geforce 3 al versie 1.3 van pixel shaders ondersteunt wordt die meer mogelijkheden heeft net als versie 1.4. Dat is hoogst opmerkelijk.

Nog erger is dat als er teruggevallen wordt naar pixel shader versie 1.1 dat de polygon count met bijna tweemaal verhoogd wordt. Dat is hoogst opmerkelijk.

Dus enigzins komen de ATi kaarten er heel opmerkelijk het beste vanaf terwijl in daadwerkelijke spellen zoals UT2003 pixel shaders 1.1 en 1.3 alleen ondersteund worden.

Dus ja, nVidia heeft wel degelijk een zeer terecht punt van kritiek op 3DMark 2003.
Ten eerste claimt 3DMark 2003 een DirectX 9 benchmark te zijn terwijl slechts in een van de testen slechts een KLEIN gedeelte daadwerkelijk DirectX 9 is. Moet wel want anders draait het op alleen de Radeon 9700 en Geforce FX. Dat is hoogst opmerkelijk.
Ik vind het helemaal niet opmerkelijk.
GT1: DX 7.0
GT2: DX 8.1
GT3: DX 8.1
GT4: DX 9.0

3DMark2003 moet wel rekening houden met een breed publiek, omdat de meeste mensen nu in het bezit zijn van een DX7 of DX8 kaart. Maar om toch op de toekomst (DX9) voorbereidt te zijn, hebben ze een extra zware waarde gegeven aan DX9 in de berekening. *** edit: hier stonden incorrecte getallen. zie een post later voor de correctie ***.
Ten tweede zijn voor pixel shaders voornamelijk versie 1.4 gebruikt. De enige fabrikant die deze versie ondersteunt is ATi. Als versie 1.4 niet door een kaart wordt ondersteunt dan wordt er direct teruggevallen op versie 1.1. Dat terwijl vanaf de Geforce 3 al versie 1.3 van pixel shaders ondersteunt wordt die meer mogelijkheden heeft net als versie 1.4. Dat is hoogst opmerkelijk.
En wederom is het niet opmerkelijk.

Meer mogelijkheden in 1.3?? Nou nou... zo veel 'meer' zijn het er niet hoor.

PS 1.1, 1.2 en 1.3 lijken allemaal heel erg op elkaar. De verschillen zijn uiterst klein. Als 3DMark2003 zou terugvallen op PS1.3 ipv PS1.1 dan zou dit waarschijnlijk niet eens verschil uit maken in de eindscore.

PS 1.4 aan de andere kant is een hele grote stap voorwaarts, ten opzichte van 1.1, 1.2 en 1.3. Het is zelfs zo dat PS 1.4 veel lijkt op PS 2.0 in DX9, alleen is PS 2.0 nog meer uitgediept.

Juist door PS 1.4 kunnen 8500 en 9000 kaarten zich DX 8.1 compliant noemen, en kunnen GF4Ti-kaarten dat dus in feite niet, terwijl iedereen dat toch ten onrechte doet.

FutureMark gebruikt nu gewoon de geavanceerdere variant in hun nieuwe 3DMark. In de SE versie van 3DMark2001 zat ook een versie die op ATi kaarten gebruik maakte van 1.4, maar op GF4 kaarten terug viel op 1.1. Dit was eigenlijk niet eerlijk, want bij de berekening werd geen rekening gehouden met de brute kracht van een GF4. Eigenlijk had de GF4 toen meer voor z'n kiezen moeten krijgen door bv meer polygonen, om een eerlijke vergelijking te krijgen tussen DX8-kaarten. 3DMark is namelijk niet alleen een test voor de brute kracht, maar ook een test voor de slimmigheid (feature-compleetheid) van kaarten. En dat is in 2003 beter geregeld.
Nog erger is dat als er teruggevallen wordt naar pixel shader versie 1.1 dat de polygon count met bijna tweemaal verhoogd wordt. Dat is hoogst opmerkelijk.
En dit wordt weer ruimschoots gecompenseerd met de brute kracht van de GF4Ti. Als de 8500 bv echt voordeel zou hebben gehad, dan won-ie het wel van de GF4Ti, maar dat doet-ie dus niet in 3DMark2003. De manier waarop het nu gebeurt leveled de DX8 kaarten van beide fabrikanten, zodat rekening wordt gehouden met de prestaties.

GF4 kan geen PS1.4, maar is wel sneller dan 8500 in PS1.1.
8500 kan wel PS1.4, maar is daar langzamer in dan GF4Ti in PS1.1
Het zijn beide DX8 kaarten, maar nu hebben ze allebei een gelijke handicap.

Oh ja, op Rage3D hebben ze een 9700Pro geforceerd op PS 1.1 en toen bleek dat-ie dan minder dan 500 punten langzamer was dan met PS1.4. Zoveel verschil maakt het dus niet uit. Feit is gewoon dat een kaart als de 9700Pro veel krachtigere DX8 PS heeft dan een 8500.
Dus enigzins komen de ATi kaarten er heel opmerkelijk het beste vanaf terwijl in daadwerkelijke spellen zoals UT2003 pixel shaders 1.1 en 1.3 alleen ondersteund worden.
Ik snap het verband niet helemaal? De 8500 maakt in UT2003 gewoon gebruik van PS 1.1 - 1.3. Hij is daarin gewoon trager dan de GF4Ti, maar dat komt omdat de GF4Ti gewoon meer brute kracht heeft. Dat zegt zelfs een John Carmack, die aangeeft dat een 8500 in theorie sneller zou moeten zijn in Doom III dan een GF4Ti. Maar door de snelheid van een GF4 zal-ie harder lopen dan een 8500, ook al doet-ie er 2 of meer passes over.

In de 9700Pro heeft ATi dit omgegooid en ook pure kracht in haar kaarten gegooid. Bij deze kaarten zie je dan ook dat ze over een GF4Ti heen walsen. Niet echt opmerkelijk dus.
Dus ja, nVidia heeft wel degelijk een zeer terecht punt van kritiek op 3DMark 2003.
Vind ik dus van niet. Op elk commentaar dat nVidia levert is wel een weerwoord vinden. nVidia gooit nu gewoon met modder. En dat is niet netjes. :7

Ze hebben nooit problemen gehad met 3DMark. Webanalyzer anyone? nVidia was de eerste die er mee kwam om aan te tonen hoe superieur hun GF3/4 kaarten wel niet waren tegenover de ATi-kaarten. Zelfs in perspresentaties gebruikten ze onderdelen van 3DMark2001 als vergelijking van de snelheidswinst. En nu laat de test zien dat iemand anders de betere kaart in handen heeft... en dan klagen ze steen en been. Daar klopt iets niet.

Net zoals het niet klopt dat de nieuwe Detonators er voor zorgen dat de FX ineens zo'n 300 puntjes boven de 9700Pro komt....

In Nature test verliest-ie eerst dik met de oude Dets. En nu wint-ie het nipt, terwijl in PS2.0 test de 9700Pro ruim 2x zo hard gaat als de FX?
Hoe kan dat? Want Nature Test maakt ook uitvoerig gebruik van PS2.0, dus hoe kan het verschil tussen deze twee tests dan ontstaan? Juist... dat kan door optimalisaties. Dit hebben we al eerder gezien, maar dan van de kant van een developer (ID Software)... in Doom III heeft de NV30 een eigen path, maar werkt dan op 64-bits FP ipv 128-bits floatingpointprecision, die veel sneller is dan het kwalitatief betere ARB2 mode (die super werkt op de ATi-kaarten).

Daar klopt dus iets niet...

Edit:
- typo's + quotes wat overzichtelijker gemaakt
- zie voor de juiste getallen van de berekening van 3DM2003 een post later. :)
- mag ik trouwens nog even toevoegen dat ik sommige moderatiepunten niet begrijp? Hoezo: troll? :/
3DMark2003 moet wel rekening houden met een breed publiek, omdat de meeste mensen nu in het bezit zijn van een DX7 of DX8 kaart. Maar om toch op de toekomst (DX9) voorbereidt te zijn, hebben ze een extra zware waarde gegeven aan DX9 in de berekening. GT4 telt bv iets van 37% mee, terwijl GT1 maar 7% mee telt.
Dit klopt niet. Je vergeet dat de framerates die gehaald worden in GT1 veel hoger zijn. Als je die met hetzelfde getal vermenigvuldigt als GT4 dan zou GT1 veel te veel invloed hebben.
Bv: 60 fps * 7 = 420, 11 fps *37 = 407
Fictieve scores, maar op deze manier zouden beide tests even zwaar meetellen.

Zoals je bij http://www.beyond3d.com/articles/3dmark03/index.php?p=2 kan lezen zijn de waardes zodanig gekozen dat de DX9 test voor 20% meetelt, en de overige drie test evenredig over de resterende 80% verdeeld zijn.
Je hebt gelijk. Ik keek met m'n suffe kop over wat getallen heen.

Ik had het op GoT al gecorrigeerd:

GT1: DX7 = FPS x 7,3
GT2: DX8 = FPS x 37
GT3: DX8 = FPS x 47,1
GT4: DX9 = FPS x 38,7

GT4 telt maar 20% mee, en de overige drie tests vullen de andere 80%. GT4 in 3DMark2001 telde volgens mij nog minder mee.

En dan vind ik het helemaal onterecht dat mensen zitten te klagen, want dit is exact dezelfde situatie als met 3DMark2001, alleen wordt er nu wat meer rekening gehouden met de toekomst door de Nature test nog zwaarder aan te rekenen dan eerst.
Als je idd kijkt naar de prestaties van de FX in gewone games dan lijkt mij nvidia klacht gerechtvaardigd, ik heb 3dmark nooit echt als benchmark serieus genomen (zag er wel leuk uit daar niet van), ik was meestal gewoon benieuwd naar de kwaliteit en schaalbaarheid (zo zie je dat nvidia en ati al sinds het de eerste versie van 3dmark samen aan de top staan wat betreft 3d kwaliteit)

De enige echt sterke punten van de 9700 zijn dat hij er eerder was, nu goedkoper is (hoewel hij een hogere prijs had dan de FX toen hij uitkwam) en betere AA heeft (en dan niet alleen kwaliteit maar vooral snelheid, zal wel iets met de geheugenbus te maken hebben)

En uiteindelijk gaat t niet om de top kaarten maar om de budget versies (zoals de 4200)
Ik ben dus ook vooral geinteresseerd in welke budget kaart nvidia gaat uitbrengen op basis van de FX en hoeveel die gaat kosten (tov de 9500 en eventueel de gewone 9700)

Op dit moment zit er nog $100 verschil tussen de FX en de 9700 pro, ik neem aan dat dat rap zal dalen...
En je punt is? laat me raden:

Voor hetzelfde geld koop je liever een stofzuiger :+
Heb je dan ook bij Xbitlabs de reden gelezen waarom PS1.4 gebruikt werd? Namelijk dat ze als PS2.0 begonnen maar merkten dat het makkelijk in PS1.4 pastte?

Overigens wordt 1.4 niet alleen door ATI ondersteunt. Het wordt ondersteunt door iedereen die de DX8.1 standaard ondersteunt. En daarmee wordt het dus ook door de FX ondersteunt.

Overigens verklaart dat bij lange na niet de grote verschillen in de scores. Bij Rage3D heeft iemand een tooltje gemaakt om een ATI kaart te forceren in PS1.1 te werken ipv PS1.4
Dat scheelde 500 punten op een score van 4500. Niet weinig, maar zeker geen verklaring voor de 3000 punten verschil naar de GF4 kaarten.

Dat verschil zit 'm in de andere zaken die in de benchmark gebruikt worden. Zoals normal maps etc. Zaken die niet direct opvallen als je naar de 3DMark slideshow kijkt, maar er wel degelijk in zitten. (en in Doom3 zitten)
Op zich heb je denk ik wel gelijk, ik kan me een eerder conflict tussen nVidia en Microsoft herinneren over de xbox, dit had te maken met de prijs. Het kan zijn dat Microsoft toen om zijn zin te krijgen ontwikkeling van DX9 heeft stopgezet met nVidia, en waarop nVidia toen tegen madonion heeft gezegd dat ze de benchmark niet ondersteunen.. Lijkt mij een logisch gevolg van actie / reactie...
als ze nou gewoon onder ogen zien dat die GF FX een grote flop was
Waarom denk je dat nVidia zelf aangeeft dat de FX geen lang leven beschoren is, en snel doorgaat met de ontwikkeling van de NV35 en NV40?
Dee erste chip in de nieuwe generatie van Nvidia is altijd een Prototype geweest waarna de tweede versie die tot nu toe altijd een "5" in de nummering heeft de verbeterde versie is.

Dit is altijd zo geweest daarom zal de FX zoals alle andere Nvidia chip achtergelaten worden als een prototype chip en gelijk doorgegaan worden met de verbeterde versie zoals dat altijd al gebeurde.

Zoals de:
Prototype: TNT
Verbeterd: TNT2

Prototype: Geforce
Verbeterd: Geforce2

Prototype: Geforce3
Verbeterd: Geforce4

Prototype: GeforceFX
verbeterd: 1 keer raden! :)

Zoals je ziet is de volgorde wel duidelijk aangezien er van de prototype altijd er maar enkele versies van zijn gemaakt.
'n Prototype staat voor iets dat de retail mark niet ziet, dus dat prototype gedoe slaat nergens op.
'n Prototype is niet iets dat massa geproduceerd wordt.

Protrotype moet zijn de Nextgen tov de vorige het origineel
Verbeterde is een goed woord net als rework design

Waar prototypes last van hebben is dat die niet verkocht worden.

En in mijn ogen zijn de TNT,Geforce256 GF3 toch produkten in grote volumen op de markt gebracht.
Waar heb jij dit vandaan :? :?

De Geforce2 is helemaal geen 'definitieve' versie van de 256, of hoe je het ook noemen wilt... Ik heb zelf nog een Geforce 256 DDR gehad, en dat ding presteerde bijna even goed als een Geforce 2 GTS (en veel beter dan die 2 MX'jes).

Volgende kaart was: een Geforce 3 :+ maar deze presteert ook erg goed, verkopen heel goed en zijn goede kaarten. En ook zij presteren beter dan de 4 MX, maar da's niet echt geldig aangezien een 4 MX slechts een verijdelde 2 Ti is.

Dus nogmaals: onderbouwing svp!
Ben ik even blij dat ik een geforce 4 heb :+

Klinkt interesant, mag ik vragen wat je bron hiervoor is ?
Want dit heb ik toch nog niet eerder gehoord
Ik denk dat hij bedoeld dat de Geforce 256, Geforce3 en Geforce FX nog niet helemaal perfect zijn. En de opvolgende in de geforce serie altijd beter was met het zelfde idee en direct X versie erachter maar beschikte wel over een geoptimaliseerde architectuur en had de nieuwere goed werkende technieken voor bandbreedte optimalistatie, AA enz. En dan was die minder tegen het randje aan qua koeling en was ook meer geschikt voor mid-end, er kwamen meer versies van uit die dan ook het echte succes maakten. En die 'prototypes' die hij bedoeld waren dus kaarten die er alleen voor high-end waren en laten toen ze daar niet meer in vielen en overklast werden snel verdwenen. (maar het waren natuurlijk geen prototypes :))

De FX zou dan ook zo iets zijn. En dat was ook de bedoeling. Alleen die presteert toch ondermaats.

Ik zou het raar vinden als nVidia echt microsoft de rug toekeert. Ook imv XBox next. Maar het wordt niet echt duidelijk waar het nou precies over gaat en wat de gevolgen ervan zouden kunnen zijn. Dit is in ieder geval helemaal niet goed voor hun positie.
Leuke theorie, maar nergens op gebaseerd.
Wat is er eigenlijk met OpenGL gebeurd?

Dat was vroeger toch wel DE 3d-standaard dacht ik. Laatste paar jaar weinig over gehoord.
? opengl bestaat nog gewoon. alle quake3 gebaseerde spellen draaien erop en doom3 zou er ook op gaan draaien.
in ut2003 kan je t ook aanzetten.

en opengl is geloof ik voor spellen nooit echt DE standaart geweest.
Volgens mij is het in het begin wel is de standaard geweest.
DirectX is op de eerste plaats bedoeld voor games
OpenGL komt uit de professionele hoek

Met de tijd zijn ze naar mekaar gegroeid.
Microsoft staat niet achter openGL omdat het te platform onafhankelijk is. En als MS er niet achter staat wordt het automatisch weggedrukt voor het gemiddelde publiek.

Voor professionals is opengl echter nog vooraanstaand.
OpenGL was idd te platform onafhankelijk voor MS, pas met directx 8 is d3d op het niveau van opengl gekomen

MS heeft nog wel een tijdje de schijn opgehouden direct3d niet te willen misbruiken om hun monopolie te verstevigen (door mee te werken aan fahrenheit, een multiplatform api) maar heeft toch zn ware gezicht laten zien en is alleen verder gegaan (en daarna ook nog eens de xbox gemaakt om te zorgen dat ontwikkelaars bijna niet om directx heen konden)

Gelukkig staat OGL ook niet stil en is dus nog steeds de betere api (mede vanwege de portabiliteit)

Gelukkig zijn er nog wel spellen die OpenGL zijn (hoewel ik het jammer vind dat epic met de unreal engine van het mulitplatform pad is afgeweken)
Ben dan ook zeer beniewd naar OpenGL games zoals doom 3 (en de spellen die op die engine worden gebouwd)
(hoewel ik het jammer vind dat epic met de unreal engine van het mulitplatform pad is afgeweken)
que? ik speelde laatst nog de linux versie van unreal tournament 2003.

of heb je het nou over wat anders?
wilde Microsoft dat de deelnemende bedrijven alle patenten die met DirectX te maken hadden aan de softwaregigant zou overgeven
Aangenomen dat het waar is:

Wat zijn dat nu voor een eisen? Zoiets vind ik eigenlijk niet kunnen...erg arrogant als je als organisatie jezelf zo inschat dat je denkt "dit even te kunnen doen"


aangenomen dat het waar is...
patenten werken nogal eens tegen bij het maken van een "standaard" niet zo raar dus van MS, maar ze hadden beter een cross license of zoiets kunnen voorstellen denk ik, afgeven is weer nogal extreem
Maar je moet ook niet zomaar alles aannemen wat je hoort want misschien zit er wel meer achter.

Misschien had Microsoft dat wel voorgesteld.

Overigens vraag ik me af hoe oud deze gebeurtenis wel niet is want de XBOX is al meer dan een jaar op de markt.

En Microsoft zou SONY echt kunnen verwoesten als de XGPU op de geplande snelheid geleverd zou kunnen worden want de plannen waren 300Mhz en uiteindelijk werd dat 225Mhz.
De snelheid van de XGPU is dus echt niet het probleem van de xbox...
Beetje vreemd verhaal ook wel. Microsoft wil altijd alles naar hun handje zetten, da's wel duidelijk zo langzamerhand, maar ze gooien zo natuurlijk ook wel een heel eind hun eigen ruiten in.

Ik bedoel, ze hebben er zelf toch ook alleen maar voordeel bij als er goede ondersteuning is voor DirectX9? Hebben ze weer meer argumenten om hun Windows produkten hoger de hemel in de prijzen.

En aangezien nVidia zeker geen kleintje op de GPU chip markt is, is het misschien toch verstandiger als Microsoft daar rekening mee houdt. (of blijken ze toch weer zo arrogant en gaan ze straks zelf maar GPU's ontwikkelen?) ;)
En aangezien nVidia zeker geen kleintje op de GPU chip markt is, is het misschien toch verstandiger als Microsoft daar rekening mee houdt. (of blijken ze toch weer zo arrogant en gaan ze straks zelf maar GPU's ontwikkelen?)
Dat zullen ze vast wel in gedachte gehouden hebben. Als er 1 ding is wat MS doet, dan is dat de markt in de gaten houden.
Zeker nu ATI met de 9700 een gigantische concurrent geworden is voor nVidia.

Wie had ooit kunnen denken dat nVidia voorbij gestreefd zou worden qua GPU?
Ik ben benieuwd wat we hier nog verder gaan horen B-)

To be continued..... :)
Sja, DirectX is (voor et grootste gedeelte) een product van Microsoft, dus waarom zouden ze daar geen patent op mogen hebben.

Als er een patent op staat wil niet zeggen dat anderen er geen reclame mee mogen maken, aleen maar dan ze toestemming moeten hebben van Microsoft.
Opzich vind ik dit wel goed, omdat Microsoft dan ook de kaart & drivers zal doortesten of et echt 100% goed werkt enzo.
Uhm, hallo? De patenten zijn NIET bij MS...verschillende technologien zijn door andere bedrijven ontwikkeld en MS meent deze patenten gewoon even te kunnen krijgen...
Ook ff off topic maar opengl is gewoon voor grafische doeleinden veel geschikter. Je merkt het nu wel met 3Dmark2003 ook , wil je nu een DOOM3 effect gaan benaderen met behulp van D3D , dan loopt het gewoon 10 keer trager dan in opengl. Kijk naar test 2 van 3Dmark2003 en naar de opening van DOOM3 alpha. Deze laatste is zelfs nog in Alpha stadium. Ik mag al niet denken wat het met de final release zal worden, ID software zal wel lachen als ze de 3Dmark2003 zien, rete traag en nog lelijker ook. Dus als Nvidia ff NEEN zegt tegen microsoft's DriectX9.0 dan denk ik dat er veel mensen in de grafische sector hier niet gaan om treuren, in tegendeel...
Hieruit blijkt dat je totaal niet begrepen hebt wat 3DMark03 heeft gedaan.

Die scenes zijn niet langzaam omdat DX is gebruikt, maar omdat ze opzettelijk de scenes vreselijk zwaar hebben gemaakt.

Als 3DMark03 ook een OpenGL gedeelte had gemaakt dan hadden ze die scenes net zo zwaar gemaakt en hadden die net zo beroerde framerates gehad.

(Of dat dan handig is voor een benchmark is weer een andere discussie)
Ja , ze hebben volgens nvidia de scenes te zwaar gemaakt door pixel shader 1.3 niet te gebruiken waar het kon enz... . En daar geef ik nvidia 100 % gelijk in. Ik had nog niet het artikel van Hardocp gelezen en wist de technische achtergrond van 3Dmark2003 niet. Het was ofwel de foute keuze van api voor deze effecten, ofwel een slechte programmatie van Futuremark. Nu snap ik idd ook dat het de schuld is van de laatste. Hoedanook, ik blijf D3D ondergeschikt vinden aan OpenGL, vandaar ook mijn 1ste veronderstelling...
Ik vermoed dat dit een tikkeltje is overdreven; het is toch ook wel een beetje logisch dat MS geen zin heeft om achteraf van een van de deelnemers te horen te kijgen dat MS over de met MS samen ontwikkelde DirectX ineens patentrechten moet gaan betalen. Het zelfde geld overigens voor alle andere deelnemers aan deze "onderhandelingen" lijkt mij.

Als je samen een nieuwe "standaard" ontwikkeld moet je de patenten betreffende die standaard natuurlijk wel uitwisselen.

Als het echt om overgeven van patenten gaat, ipv rechten geven/uitwisselen, dan vind ik wel dat Intel/nVidia een goed punt hebben, want dan zou je zomaar jouw patenten aan MS moeten overgeven, om er zelf vervolgens misschien ooit voor te moeten betalen aan MS.
Als je het artikel leest, was het dus de bedoeling dat Intel en nvidia de patenten overgaven.

Het is trouwens helemaal niet vreemd dat bedrijven betalen voor het gebruik van patenten van een ander bedrijf...ook niet wanneer het om een standaard gaat.
Gaat wel lekker zo met nVidia, ene debacle na het andere :?
op krankenstein : OpenGL en CS all the way ! als je dan d3d speelt is het gewoon TEschokkend, elk spel ==>> OpenGL !

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True