Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 106 reacties
Bron: The Inquirer, submitter: D-Three

The Inquirer heeft een reactie gekregen van ATi naar aanleiding van een eerder gepubliceerd artikel waarin beweerd werd dat tweakers met een nVidia-kaart in hun systeem, betere graphics krijgen voorgeschoteld in OpenGL Doom 3 dan mensen met een ATi-videokaart in hun computer. Het bedrijf uit Canada zegt dat dit te wijten is aan het feit dat er langer dan een jaar niet gewerkt is aan de OpenGL-drivers. Wel heeft ATi aangegeven dat er gesleuteld wordt aan de nieuwe stuurprogramma's, waaronder de specifieke OpenGL-driver voor Doom 3. Wanneer de nieuwe drivers uitgebracht worden, is niet bekend.

Vorige week donderdag heeft id Software de eerste 'echte' benchmarkresultaten van Doom 3 in combinatie met de nieuwste videokaarten van ATi en nVidia vrijgegeven. Het spel werd op een i925X-moederbord met een 3,6GHz Pentium 4-processor en 4GB DDR2-geheugen getest. Uit het merendeel van de benchmarks blijkt dat nVidia een voorsprong heeft op ATi, wat er inderdaad op kan duiden dat de Canadezen nog hard moeten werken om de OpenGL-drivers nog voor de release van Doom 3 klaar te hebben.

Doom 3 logo (450px)
Moderatie-faq Wijzig weergave

Reacties (106)

ATi zegt dat ze al geen jaar gewerkt hebben aan hun OpenGL drivers???
Lekkere strategie.... Nvidia was altijd al ietsjes sneller in OpenGL based games.. en dan gaan ze juist dít onderdeel een jaar lang stil leggen....

Taktiek ver te zoeken :P
Nee, niet ietsje sneller, maar heel veel sneller soms 2x
Nee, niet ietsje stabieler, programma's draaien soms niet helemaal zoals het bedoeld is, daarom geef men hierdoor de voorkeur aan nVidia met Quadro drivers (wel of niet de softmod). ;)
ik heb dit onderzocht, en je hebt volledig gelijk.

op deze link: http://www.tsfclan.be/index.php?pag=vidcard2 heb ik een vergelijkende 'studie' gedaan tussen een gffx, gf4 en een ati radie 9600 pro. Ook al ben ik amateur tester, ik test zo objectief mogelijk. Daarin valt goed te zien dat ati idd een steek laat vallen op opengl gebied..

Daarom gaat mijn voorkeur ook uit naar een nvidia based card (allé, nie die mx's é).

Ik veronderstel dat deze trend mag doorgetrokken bij de nieuwe vid. card's. Aangezien we niet zo bekend zijn, en lak hebben aan funds, zullen die nieuwe kaarten maar getest kunnen worden als we er zelf één hebben ff course.

Ik ga die test's es herdoen als die nieuwe drivers er zijn.
Heb jij het gemerkt?

De open GL ondersteuning was waarschijnlijk snel genoeg voor de games die er gebruik van maakte en er kwamen meer DirectX games uit. Dan is het beter om je te focussen op verbeteringen die veel mensen merken en laat je zaken die toch niet opvallen liggen.

Nu komt Doom 3 en verwacht men een groot succes van deze engine. Dus zorgt ATI ervoor dat hun OpenGL ondersteuning weer op niveau komt. Lijkt mij vrij logisch, je kan je personeel maar 1 ding tegelijk laten doen.
je kan je personeel maar 1 ding tegelijk laten doen.
Bij Nvidia doen ze het nogthans, ATI moet eens doorhebben dat drivers zeker zo belangrijkl zijn als de snelheid van je kaart. |:(
Het heeft me wel altijd verbaasd hoe langzaam de diverse visuele plugins in winamp waren op 1024x786x32 op me 2 jaar oude 9700Pro.
Ook 2 jaar geleden (..) al dacht ik dat dat best zou moeten kunnen (met een p4 2.53) maar nee...
Ach, iedereen weet dat nvidia bekend staat om zijn goede drivers.

Je kunt er vanuit gaan dat zowel ati als nvidia al vroeg de eerste stukken broncode en demo's kregen. Vanuit die optiek is het waarschijnlijk dat ook Ati er al aan heeft kunnen werken.

We weten allemaal dat nvidia drivers uitspuugt (zelfs hele reeksen beta's op rij) aan de lopende band. Ati is dan wat trager met het uitbrengen van nieuwe drivers, qualitatief gezien zijn ze ook erg goed. Dat er op dit moment nog geen geschikte driver is uitgebracht betekend niet dat Ati er nog mee moet beginnen.

Nu nvidia voor de release datum van Doom3 betere prestaties laat zien met de 6800 reeks ligt het wat gevoelig voor ati, maar reken er maar op dat er binnenkort een flinke prestatie winst te zien zal zijn met hun nieuwe drivers. De strijd om de gunst van de consument is immers nog niet volledig begonnen nu er nog maar mondjes maat kaarten verkrijgbaar zijn (en rete duur). Beide partijen zullen het onderste uit de kan halen om de consument te overtuigen.

Het lijkt me wat overtrokken om er vanuit te gaan dat iedereen voor de release nu een fx 6800.. gaat kopen, ik zelf zal ook eerst eens kijken hoe het loopt met m'n huidige kaart. Eerst kijken hoe Ati en nvidia met drivers de overall performance kunnen tweaken voordat ik definitief een keuze maak, ik weet wel zeker dat de meeste mensn het zo aanpakken. Ook wacht ik nog zeker twee maanden tot de prijzen wat zakken, met die gpu schaarste betaal je veel te veel voor een nieuwe kaart. zodra er meer beschikbaar ijn worden de prijzen altijd acceptabeler.
trager weet ik zo nog niet, ze (ati) komen iedere maand met een nieuwe officiele driver uit. hoe vaak wil je ze dan?
ik wil 1 driver die altijd en overal goed werkt. als ik een tv koop verwacht ik dat hij werkt. dit is met mijn videokaart dus ook zo

* 786562 whizzy81
Toevallig is dat de laatste paar jaren zo ja, maar vroeger was het echt drama bij die lui. Ik herinner me nog dat de pc minstens 4-5 keer per dag een BSOD gaf door nv4_disp.dll, in de tijden van de TNT2 en de begindagen van de geforce2/3.

Verder denk ik dat NVidia gewoon een voordeel heeft bij doom3 door Carmack. Die had het wel gehad met de heren van ati na die leak. Hij was goed pissed toen, dus dat zal ongetwijfeld hebben meegespeeld. Dat betekend verder niet dat ik het goed wil praten dat de OpenGL drivers door ati worden verwaarloost, een beetje stimulans zo af en toe kan geen kwaad.

Het is jammer dat veel games puur voor directX worden ontwikkeld, dat maakt ze totaal niet portable. Gelukkig zijn de doom/quake based engines altijd wel OpenGL gebleven, zodat de twee meest gebruikte gaming engines (samen met Unreal based engines) goed portable blijven :)
DirectX is weliswaar niet portable naar de Linux wereld, maar wel steeds meer naar de consoles. (Xbox(2))

Voor game fabrikanten is die portabiliteit vele malen belangrijker.
Je zou toch zeggen dat een spel ontwikkelaar graag wil zien dat zijn game op alle merken GPU/VPU kaarten goed draait. Ik begrijp daarom ook de keuze niet zo goed van ze, om speciaal meer voorrang te geven van 1 merk, zowel van ATI of van Nvidia.

Tuurlijk, ze krijgen er wat geld voor,maar ten tijde dat dit spel in ontwikkeling was stond Nvidia hoog aan de top. Nu de zaken anders liggen komen ze daar, imo, een beetje bedrogen mee uit.

Beide merken staan naast elkaar nu aan de top en zeker niet veel mensen, die een ATI kaart hebben, zullen nu ineens een Nvidia top notch kaart aanschaffen omdat 1 spel wat beter te spelen. Slechte zet van Carmack, maar gewoon helemaal van de hele industrie. Overigens kunnen beide merken wel een eigen interpetatie hebben van een standaard, zoals OpenGL, neemt niet weg dat je bij de bouw van je kaart ook met alle aspecten rekening moet houden van een bepaalde code.

Concurreren is goed, leuk en aardig, maar gier is, zoals zo vaak, de eindgebruiker, wij dus, weer de dupe. Ook van Valve/ATI vind ik het een slechte zet. Veel mensen heben een 9800Pro gekocht, rekening houdende dat HL2 een jaar geleden gereleased zou worden. Nu zijn we al weer 2 generatie's verder qua GPU en nog is het spel er niet. Word tijd dat ze hun conclusie gaan trekken en meer dit soort dingen achterwegen laten. Niet iedereen kan maar steeds een kaart upgraden en met zo een dure kaart, als het spel dan al komt, lage fps spelen, dat geeft een nare nasmaak.

Hoop dat de industrie nu eens wat meer om zijn gebruikers gaat geven, inplaats voor commercie stunts te gaan steeds, die eigenelijk minder winst opleveren als dan het gewin daadwerkelijk is |:(
En waar haal jij vandaan dat Carmack NVidia voorrang aan het geven is? Dat staat helemaal nergens en lijkt mij ook totaal niet het geval. Carmack is een purist op het gebied van technologie en gaat echt niet expres een bepaalde kaart achter zitten stellen. Er is ook helemaal geen sprake van een deal tussen NVidia en id (in tegenstelling tot het ATi/Valve voorbeeld wat je al genoemd hebt).

De ATi kaarten blijken gewoon slechter te presteren en dat komt deels door de magere kwaliteit van ATi's OpenGL driver. Het is wel vreemd dat ze pas nu beseffen dat het tijd wordt om deze driver te gaan verbeteren (omdat Carmack al jaren alleen maar OpenGL engines maakt dus daar hadden ze toch op kunnen anticiperen zou je zeggen).
Het is gewoon een feit dat de Doom3 engine principieel geoptimaliseerd is voor de NVidia kaarten. NIET omdat er vuil spel is, en Carmach voorrang aan NVidia zou geven, en ATI achter zou stellen, maar gewoon door keuzes in de ontwerpfase een paar jaar geleden.

NVidia heeft zich in de hardware van de afgelopen jaren geconcentreerd op een GPU die goed is in schaduw technieken. ATI heeft zich geconcentreerd op shader technieken. Beiden omdat in hun visie daar de toekomst van spellen lag.

Carmack deelde de visie van NVidia, en heeft een engine geschreven die zich volledig stort op die schaduwtechnieken. En dat zie je dus in de relatieve prestaties. Doom3 lust gewoon liever een NVidia kaart, dan een ATI, omdat de engine gecreeert is op basis van de sterke punten van die kaart.
Fout. D3 is geen spel dat geoptimaliseert is voor een nvidia kaart. Het is de nvidia kaart die geoptimaliseert is voor D3, de kaart is geproduceerd met D3 in gedachten. D3 is niet gemaakt met nv in gedachte.
@aval0ne:
Nvidia heeft een patent genaamd: Ultrashadow
carmack gebruikt voor de licht/schaduw-effecten juist deze *gepatenteerde* techniek (mag ati dus niet gebruiken, maar moeten ze omzeilen). hoezo niet geoptimaliseerd?
Hmm Carmack is juist degene die hardware bouwers helpt met het schrijven van drivers en het geven van adviezen omtrent de toekomst.
Carmack wil de techniek vooruit helpen en houdt van open standaarden en multiplatform ondersteuning.

Verder wordt er vaak gesuggereerd dat ATI in D3D ontwikkeld en Nvidia in OpenGL. En dat geloof ik graag als je ziet dat MS en Nvidia niet altijd even goede verstandhoudingen hebben over de ontwikkeling van D3D. Dus zal Nvidia wel vinden dat het ergens tekortkomingen heeft (En voor de flamers, die problemen waren er al voor de gf3). Dat ATI zich blind staart op D3D zal enerzijds te maken hebben met je resources inzetten waar je denkt dat het het nuttigst is en anderzijds misschien de relaties met MS.

Dat Carmack nvidia voortrekt geloof ik niet in. Wat wel zo is is dat hij begonnen is op een gf3. Dit heeft ie als referentie gebruikt omdat deze kaart bij aanvang van doom 3 de meeste ondersteuning had voor shaders. Daarna is ie over gestapt op een 3dlabs vanwege de vroege opengl 2 ondersteuning (hij heeft ook meegeholpen die kaart de ondersteuning te geven). Nu zal ie waarschijnlijk op meerdere kaarten werken. Dat Carmack meerdere codepaths maakt zal zijn omdat ie wil dat zijn spel op alle hardware goed draait. Daar komt bij dat Carmack en misschien daarom nvidia wel al jaren reclame maakt voor hogere precisie in kleuren en verschillende precisie vanwege bandbreedte optimalisaties. Dus wat nvidia doet is wat hij zelf al jaren een juiste methode vindt. Die speciale nvidia codepath kan dus wel eens zijn eigen default codepath zijn, die begonnen moet zijn in 16-bit vanwege oudere generatie hardware en is daarna uitgebreid met 32-bits precisie. Dat ie later een 24-bits codepath geschreven heeft zal misschien wel vanwege de keuzes van anderen zijn.

Wat Valve doet interesseert me minder. Ik zie HL2 meer als een knap staaltje toegepaste techniek van MS niet als een spel dat 3d gaming engines een stapje verder helpt. Daarvoor moet je echt bij epic en id zijn.
Misschien heb ik niet helemaal mijn conclusie/wens verwoord. Wat ik graag zou willen zien is dat game developers games produceren, die op alle merken hardware videokaarten goed draaien.

Natuurlijk begrijp ik dat je het beste van het beste wil, met het huidige aanbod van techniek, als game developer. In dit geval lijkt het me dan ook wijzer en meer welkom als een developer met partijen rond de tafel gaat zitten om te kijken wat de mogelijkheden zijn voor alle hardware videokaart developers, en dan daarin een gulde middenweg zoekt.

Als ATI inderdaad slecht is in zijn ontwikkeling met OpenGL drivers, dan Carmack ook zeggen/aangeven waar ATI op zou moeten letten met de ontwikkeling, of dat partijen elkaar helpen. Hij mag dan een strever zijn om technieken te ontwikkelen en te willen pushen naar een hoger niveau maar doe dit dan niet door 1 merk naam duidelijk in beeld te laten komen. Dit suggereert dat dit merk beter is en sla je toch een pad in die weer lijdt tot twijfel bij computer gebruikers, met als eindresultaat, het zijn de eind gebruikers die weer die prijs mogen betalen, hoe je het ook went of keert.

Dus slot conclusie : Laat videokaart fabrikanten zelf hun commerciele strijd uitvechten, zonder dat developers, wat ik het nog steeds vind, partij kiezen voor een speciaal merk. Wij eindgebruikers zijn degene die steeds het rpijskaartje moeten betalen, welke top notch kaart je ook neemt. Maar na 9 jaar vind ik het jammer is dat er nog steeds games ontwikkeld worden, die voor een bepaald merk/type kaart zijn ontwikkeld. Hoe lang is ie nou al bezig met dit spel ? ruim 5 jaar, begonnen op een gf3 kaart. Je kan me niet wijs maken dat ie gaanderweg niet de game voor alle gpu's heeft kunnen optimaliseren, of wil ie gewoon niet ? Ook hij had ATI kunnen helpen met driver instructions, blijkbaar doet ie dat dus niet ?

Afijn, we zullen zien. Hoop dat in de toekomst de snelheid van ontwikkeling er een beetje uitgaat. Ik heb veel betaald de afgelopen jaren aan zowel Nvidia als ATi met de aanschaf van videokaarten. Helaas is er geen 1 spel echter geweest die werkelijk alle features kon laten zien. Misschien dan toch tijd voor een console ? We shall see, now let's Doom :Y)
FX is Nvidia's 5de generatie geforcen ... de 6800 reeks is de 6de generatie ...

Het is dus geen FX 6800, maar een é6800" tout court.
Waarom zou men opengl verkiezen boven direct3d, die werd immers toch al prima door ati ondersteund ism Doom3?

** mzz zie nu overal dat het alleen om opengl gaat.
En ik begin nu toch wel heel erg te twijfelen met de aankoop van een nieuwe ATI kaart.
Hoe lang heeft het geduurd voordat de d3d drivers van ATi in orde waren; begin augustus is de release van doom en er is geen datum bekend voor een goeie opengl ..

ik ga overstappen :(
Omdat id Doom 3 ook op andere platformen, zoals Linux, uit brengt.
En die hebben (native) geen Direct3D support, maar wel allemaal OpenGL.
Met de laatste OpenGL specificatie is alles weer bijna gelijkgetrokken met Direct3D btw.
Welke OpenGL spec is dat? Ik dacht namelijk dat Direct3D nog vet voorliep op OpenGL 1.4. OpenGL 2 moest dat toch gelijk trekken? Maar die is er nog niet.

Trouwens, je kan wel makkelijk zeggen dat je OpenGL kan gebruiken als spelontwikkelaar, maar ID maakt het zichzelf wel moeilijker. Ze hebben namelijk voor elke kaart sneller dan een bepaald model een alternative codepath geschreven. Het hele nut van een grafische set API's is zo weg. Maar voor de eindgebruiker des te beter, want het wordt sneller en portable.
Dat is het mooie aan OpenGL: je hoeft niet te wachten op een nieuwe release, al wat je nodig hebt zijn nieuwe drivers die nieuwe mogelijkheden van de kaarten beschikbaar stellen om ze direct te gebruiken in OpenGL, zonder te moeten wachten op een nieuwe versie van OpenGL (in tegenstelling tot DX)
OpenGL 1.4 of 2.0 zijn gewoon standaarden om het de programmeur gemakkelijker te maken, want zowel ATI & nVidia gebruiken andere opengl-extensies om bepaalde features te gebruiken (NV_texture_shader en GL_ATI_fragment_shader wordt ARB_fragment program in opengl specs)
Ze hebben namelijk voor elke kaart sneller dan een bepaald model een alternative codepath geschreven.
Dat is in DX toch ook nodig?
Als een bepaalde feature door DX niet ondersteund wordt, moet je een bepaald effect ook of uitschakelen of op een andere manier renderen.
Dus als ATI tijdens de ontwikkeling van doom3 betrokken is geweest over de opengl features die door de kaarten ondersteund worden, is het enkel een kwestie van deze features omzetten in code, dat moet toch niet zon probleem zijn. het is hun eigen kaart :o
Omdat OpenGL ook op andere platformen dan Windows werkt omdat het Open is. Direct3D is iets van microsoft en is gesloten en kan dus niet geïmplementeerd worden op andere platformen.
Dat is niet geheel waar. De externe interfaces van DirectX zijn goed gedocumenteerd en op basis daarvan kan een werkende implementatie gemaakt worden op ieder ander platform. Wat dat betreft is er volgens mij geen verschil met OpenGL. Het betreft volgens mij veelal alleen het probleem dat het van Microsoft af komt.
Of DirectX net zo open is als OpenGL betwijfel ik ten zeerste (alleen al omdat DX net zo goed als alle andere Microsoft speficieke APIs Windows interne APIs en codepaths gebruikt die *niet* gedocumenteerd of vrij te gebruiken zijn), maar daar gaat het ook niet om.

Waar het wel om gaat is dat afgezien van Windows de standaard overal OpenGL is, m.n. in professionele 3D applicaties (die veelal op een vorm van Unix draaien, denk aan SGI), en waarom zouden al die andere platformen die niet meedoen aan de Microsoft lock-in in godesnaam een extra 3D API implementeren?

De conclusie luidt dus dat OpenGL de meest geschikte keus is als je je software overal wil kunnen laten lopen. Daarna is het een kwestie van bedrijfsfilosofie en marktpolitiek (wat is je publiek?), als het alleen Windows-gamers zijn kan je net zo goed DX gebruiken, zo niet (omdat je ook voor de Mac of Linux - dus cross platform - ontwikkelt) dan is OpenGL dat.

Een ander belangrijk punt is dat hoewel DX qua Windows drivers en implementatie misschien wat vooruitloopt op dit moment (wat betfreft gaming dan), dat niet per se hoeft te doen in de toekomst, en misschien nog belangrijker: Windows zelf hoeft dat ook niet (denk aan opkomende desktop gebruik van Linux b.v.). Als je dat meeneemt in de rekening dan is OpenGL in ieder geval als backup aanbieden misschien niet zo dom.
wijs mij dan eens een goedwerkende direct3d implementatie aan voor linux?

voordat je met die winex/cedega crap komt: ik heb t over
1) goedwerkend, en dat is cedega nog lang niet
2) een *echte* implementatie (library ofzo), geen zooi waarvoor je een shellprogramma nodig hebt
3) volledig. cedega implementeerd alleen wat ze nodig hebben om game X te ondersteunen.

qua dotnet zijn ze al aardig op weg, met mono, maar directx voor linux zie ik nog niet zo snel komen...
OpenGL wordt ook voor professionele graphics gebruikt, dus niet alleen voor games.

Lang geleden had MS Windows 95 uitgebracht, maar het was te traag/log voor games. Daarom werden tot in 1997 veel DOS-games gemaakt. DOS was sneller en had betere graphics. MS wou Windows 95 promoten en probeert DOS weg te krijgen. Dan heeft MS een oplapmiddel voor Windows 95 gemaakt om het gamebaar/multimedia-geschikt te maken, dat oplapmiddel heet DirectX.

In veel games (Homeworld, CS,...) krijg je plots beter graphics als je de settings van DirectX naar OpenGL veranderd. Het heeft lang geduurd voordat DirectX (ik denk vanaf DirectX 8.0) graphics kan maken dat te vergelijken is met OpenGL.
Omdat OpenGL ook op andere platformen dan Windows werkt omdat het Open is. Direct3D is iets van microsoft en is gesloten en kan dus niet geïmplementeerd worden op andere platformen.
Dat is vrij eenvoudig te verklaren, OpenGL is voor professionele graphics en professionals gebruiken ook Unix/Linux-bakken.

Terwijl DirectX een oplapmiddel van Windows is.
OGL stagneert de laatste jaren echter terwijl DX van lapmiddel tot (bijna) standaard is geworden en met 8 en 9 een voorsprong heeft genomen.

Bijkomend punt is dat DX meer doet dan OGL, DX heeft geluid en controller applicaties die OGL niet heeft.
DX blijft windows only, einde verhaal... als je dus als developer je meeste geld verdient met het licenceren van je engine,, wil je een zo breed mogelijk publiek aan kunnen spreken en je niet beperken tot alleen Windows. Je engine moet namelijk ook gebruikt kunnen worden voor PS2 en GameCube titels, dus kiezen Epic en id er voor om een goeie OpenGL ondersteuning te geven, nu heeft Carmack een flinke afgunst van DirectX, omdat het platform afhangkelijk is, en kiest dus voor OpenGL only.
PS 2 en GameCube kunnen helemaal niets met OGL dus ik begrijp jouw punt niet echt, XBox kan wel iets met DX maar dat is dan versie afhankelijk.

En Windows only? Yep, en hoe boeiend is de 4% van de desktops die geen Windows draait? Voor de meeste developers totaal niet blijkbaar, Carmack maakt een andere keuze mede ook omdat Id een grote ervaring heeft op OGL gebied en dat is prima, ik vermoed alleen dat het geen usance zal worden.
Waarom zou ati dat niet voor elkaar krijgen, ten tijde van die driver crisis had ati net een nieuw team voor de drivers opgericht. Nu is dat allemaal dik in orde, ze krijgen dat echt wel voor elkaar hoor. Dat er zo lang niet aan de opengl kant is gewerkt is logisch, er zijn bijna geen nieuwe spellen die het nodig hebben, en de opengl standaar is al lange tijd ongewijzigd.
Omdat DOOM 3 op OpenGL draait en niet op Direct3D?
Voor linux is nVidia de betere keus op het moment...
Halflife2 zal hoogswaarschijnlijk wel beter draaien op Ati hardware terwijl dat met Doom3 niet zo is.

En over COD, dat werkte perfect op mijn 9800pro en heb dat spel nog nooit met een omega driver gedraaid. :)
De nieuwe ti4200 of 9800pro is toch de 6800gt naar mijn mening op het moment. :)
Kwa prijsstelling kom je dan op de 5900XT uit, voorlopig althans. De 6800GT is nu net onder het topmodel 6800Ultra geplaatst ............... en al met al behoorlijk prijzig.

Daar waar de 4200Ti altijd heeft uitgemunt in prijs/performance, denk ik dat de nog geen 200 Euro voor de 5900XT beter passen dan de dikke 400 die je neer moet tellen voor de 6800GT.
dan ben je tog nmog beter af me een ATi Radeon 9800 Pro.. voor 190 euro ofzo.. of niet? :+
COD op 9800pro? dat heb ik de hele avond gespeeld met een GF2 GTS en dat doet ie perfekt ook :X

ik neem aan dat je toch wel stevigere spelletjes bedoeld dan COD?
Dat is niet best dat ze niks aan opengl doen.

Daarom is er van ati ook zo verrekte weinig voor linux.
Dat doet Nvidia toch beter.
Je kunt dit ook van twee kanten zien. Door de populariteit van Doom3 is ATI min of meer gedwongen zijn openGL drivers te verbeteren, wat ATI altijd een steekje had laten vallen. Laten we daar binnenkort goednieuws horen ATI!

Aan de andere kant heeft nVidia dit goed gezien. Misschien was het een taktische stap geweest hoor van nVidia, die weten dat ze meer ervaring en snelheid hebben met openGL. Ik zie dat ATI even op knockout is door deze klap.

Tenslotte gaat het niet om 1 ronde, er komen nog genoeg aan in de komende strijd in
Doom3: The fight for openGL.
:7 :9 }> :D :o :D }> :D :o :) 8-) :*) B-) :z :7 :D :o
zonder gelijk in de discussie te gaan over nvidia/ati.
(ik heb beide kaarten op diverse systemen hier draaien.)
En ja, goede drivers zorgen ervoor dat opeens je video-kaartje opeens tig-keer sneller draait.

Respect voor ID, die de video-kaart wereld weer pushed.
Ik heb zo ooit een voodoo kaart gekocht.. toen iets van 400 gulden om oa. quake2 te kunnen spelen.
Mmm, en toen met 3DNow! optimized drivers, waarmee je alles waar Intel op stond keihard uitlachte :z 8-)
doom3 maakt vol gebruik van opengl, maar toch..als je 1 jaar niet gewerkt hebt aan je drivers... mmzz
over 9! dagen is de release van doom3. Wat hebben we nu gehoord over de opengl drivers van ATII? niks. ik denk dat er weinig mensen zijn die willen wachten op telkens maar verbeterde versies van een driver totdat het lekker loopt. anyway tis inderdaad zo dat ze geinvesteerd hebben in de ontwikkeling van drivers, nu maar hopen dat het ze gaat lukken op tijd klaar te zijn want doom3 maakt toch gebruik van heel erg veel features..

Mensen willen ook zekerheid met het kopen van een videokaart. het is hopen dat ati een degelijke driver op tijd af krijgt, die van nvidia zijn wat dat betreft al vrij goed te noemen, speelklaar
Ze kunnen er al een tijdje mee bezig zijn hé :) En aangezien ATI er nu een gewoonte van gemaakt heeft om maandelijks hun drivers te updaten, kunnen we misschien al lichte aanpassingen verwachten in hun release van augustus of september.
Trouwens, de benchmarks van Doom 3 in combinatie met een ATI-kaart waren nu ook weer zo slecht niet.
Misschien eens even die roze bril afzetten als het over drivers gaat...
Hoelang heeft het geduurt voordat een spel als Farcry correct renderd op een NVidia kaart?
Tot en met patch 1.2 meen ik? :z
Die vergelijking gaat niet op, de driver van nVidia was al gereed, het was Farcry die nog het een en ander moest afmaken.
Vergeet niet dat CryTek een beginnende studio is die met hun eerste titel (Far Cry) een enorm succes heeft geboekt. Daar zijn ze helemaal niet op ingericht qua support (er zijn maar 2 mensen bezig met het bouwen van patches). Vandaar de enorme wachttijd bij patch 1.2 (die even later wegens bugs terug werd gehaald).

Bij id Software gaat dat er een stuk efficienter aan toe. Logisch, want ze hebben veel meer ervaring met dit soort trajecten.

Het niet correct renderen heeft eigenlijk niets te maken met de videokaarten van nVidia en ATI, maar met de support van CryTek. De laatste zal moeten leren door schade en schande (logisch). Komt vanzelf goed.
En wanneer brengt ATI eens een driver uit die volledig trilineair filtert?
en Nvidia?
die doen precies soortgelijke optimalisaties mbt trilineair filteren... :Z
Ik word nu toch echt wel dood en doodmoe van het nieuws over Doom3... is dit een gamessite ofzo? Ik begin toch echt te geloven dat Tweakers een of ander dealtje heeft gesloten met ID ofzo. 2 berichten per dag, is dat niet een beetje teveel van het goede?
Ahum Doom3 staat anders bekend als 1 van de grootste releases ooit. Doom is een legende op het gebied van games, dan mag je daar best een aantal posts over maken naar mijn mening, verder wordt er technisch over drivers etc gepraat en niet een game review gedaan zoals jij denkt

Doom3 ruleert
Ahum Doom3 staat anders bekend als 1 van de grootste releases ooit.
Vind je het gek als elke nieuws site elk stuke (non-)nieuws post waarin "Doom 3" vermeld wordt. Er is aan de release van Doom 3 niks anders dan aan de release van elk ander spel dat met zijn eigen 3D engine komt die "vernieuwend" is.

Zelf loop ik niet echt warm voor Doom 3. Doom 3 is niet een echt vervolg op Doom 2 omdat ze veranderd zijn van game stijl.
Maak het even man. je wou zeggen dat Doom 3 alleen zo wordt gezien omdat sites er melding van maken? Zelfs voor die tijd was Doom 3 al het spel bij uitstek waar iedereen op zat te wachten., Er kwam alleen nooit echte informatie vrij. Nu is hij dan eindelijk goud en nu is er dan ook weer vollop buzz, en terecht, ID Software staat erom bekend games te maken die de limieten van de huidige kaarten testen. Ze deden het met Quake 2, Quake 3 en nu met Doom 3.

En hoe is een update van OpenGL drivers voor Ati non-nieuws? Als je het niet interessant vind reageer je toch niet? Dat jij Doom 3 nou niet leuk vind kan ik ook niks aan doen, your loss. Zeker een Half Life 2 fan die te lang moet wachten :+
Ik zat ook op Doom 3 te wachten tot dat ik meer info over het spel te weten kreeg.
Ik ben geen Half Life fan, heb Half Life 1 nog nooit gespeeld eigenlijk. HL2 staat ook niet op mijn verlang lijstje, misschien als ik een demo gespeeld heb (idem voor Doom 3).

Ik hou meer van adventure en adventerous action games. Maar games zoals Doom 1/2, Duke3D, Serious Sam, etc. vind ik ook leuk. Maar zoals ik al zei lijkt Doom 3 niet in hetzelfde straatje als 1 en 2.

En over non-nieuws, ik heb niet gezegt dat dit non nieuws was. Maar dan nog, een belofte voor fatsoenlijke OpenGL ondersteuning door ATi heeft netzoveel nieuws waarde als de melding dat Duke Nukem Forever nog steeds niet klaar is.
D'r zijn zoveel games en nieuwe in aantocht en elke keer steekt DOOMIII er boven uit.
Hype plus verafgoding van die JC en software huis als temple of games?

Het is één game (en één game engine) en blijkbaar bouwen sommige daarom heen 'n Game Rig.

Verstandig als je een DoomIII clanner wil worden.

Voor de massa die toch verschillend egames gat spelen is het niet echt te volgen.

Ik wacht eerst af of dat zombie monster griezel game wel wat voor me is.

Hoe goed het ook is het moet je wel liggen.

En die 9600Pro draaid DIII in medium ook wel gezien DIII nogal geoptimaliseerd is en een breed hardware platform ondersteund.
Je hebt het blijkbaar niet helemaal door. Elk game dat ID uitbracht was een regelrechte hit en hun engines worden iedere keer weer in vele andere games gebruikt. Waarom zou het nu anders zijn?
ID introduceert ook iedere keer weer een revolutionaire game engine dat niet in 1 game gebruikt wordt maar in vele andere games. Denk maar aan de Q3 engine voor half-life/cs. De D3 engine staat dan ook weer garant voor vele nieuwe blockbuster games en in elk van deze games zal het verschil tussen ATI en nvidia groot zijn.
Het is dan ook niet verwonderlijk dat mensen speciaal op basis van deze D3 benchmarks een nvidia kaart zullen kopen met het oog op toekomstige games.
[Mierenneukermode]

Half-life is gebaseerd op de Quake 1 engine. Ongeveer 40% van die code heeft het overleefd (bij de release, inmiddels is bijna alles vervangen). De andere 60% is eigen code.

[/Mierenneukermode]
Aangaande de games die de D3 engine gaan gebruiken...

John Carmack zelf heeft er nadrukkelijk op gewezen dat de D3 prestaties zeer waarschijnlijk niet representatief zijn voor overige spellen die met de D3 engine worden gemaakt.
Er is volgens hem nogal stevig geoptimaliseerd, en uiterst kleine wijzigingen hebben enorme invloed op de relatieve prestaties. Zodoende zouden andere spellen wel eens heel andere prestatie verschillen kunnen laten zien.

Dat hij dat zegt bij de presentatie van zijn engine geeft wel iets aan over hoe groot die effecten zijn.
Dat is iets om aan te denken, niet alleen bij de keuze ATI vs. NVidia, maar ook GT vs. Ultra e.d...
Behalve dat je niet kan tellen heb je helemaal gelijk. Ik bedoel volgens het Nederlands wetboek moeten wij verplicht op elk nieuwsbericht klikken dat op t.net staat en als het dan WEER over Doom 3 gaat wordt dat zo langzamerhand een flinke straf :(
En weer blijkt dat je naar mijn mening toch nog beter en nvidia kan hebben! Helemaal in Linux!! :Y)
De meeste games worden voor het wintel platform ontwikkeld.

De gamers die PC games spelen en vooral veel gevarieerde games kunnen niet buiten MS om.
Omdat alle PC games MS windows ondersteunen.

De keuze OpenGL hoeft niet perse crossplatform te zijn sommige Dev's prefereren OpenGL boven Direct3d vanwege hun voorkeur OpenGL schijn makkelijker te zijn voor proggen.

Dan kan het 'n OpenGL/DirectX game zijn als het voor window's is.
OpenGL + directsound+ direcPlay

Op Linux komen er steed meer games uit die maken dus totaal geen gebruik van DirectX componenten, maar dit is maar een klein deel en een wat groter deel van de wingames kan op linux ge emuleerd worden maar veel games dus niet.

Het is gewoon dat het meest gehypte game toevallig bij het OpenGL kamp hoort en cross platform zal zijn.

En dit is nogal belangrijk voor ATI aangezien de meeste hierdoor hun hardware keuze baseren. 'n domper voor ATI dus.

De 6800 reeks presteerd beter in DIII maar X800 voldoet ook om DIII te spelen De 9800Pro voldoet al, omdat de recommended game spect van DIII nogal mee vallen.
JC is een Optimiser.
Ik zou de G-kaart keuze eerder laten vallen op minder geoptimaliseerde leuke aankomende DX titels die wat zwaardere eisen kunnen hebben om dat zij geen extra 2 jaren hebben om hun game te polishen en te optimizen.

Ik zou niet snel mijn hardware keuze richten op ID soft game omdat ie nogal Optimaler lopen dan vergelijkbare mindere game die blijkbaar zwaardere eisen kunnen hebben en er toch minder uitzien.

Id software maakt enkel games en engines de game markt zit vol met verschillende engines en hardware eisen.

Ik zou mijn keuze voor hardware niet laten vallen op één game.

Misschien zou de hardware eisen van HL2 'n stuk hoger kunnen zijn en dan kan je beter voor de aTI gaan als ie daar het beter in zou doen.

Maar ja het wordt afwachten wat andere titels zich gaan gedragen.

Als je alleen maar doomIII belangrijk vind is de nVidia momenteel de keus al je voor de Hig-end 6800 reeks gaat.
Als je zo'n DIII clan gamer wilt worden en vooral alleen dat spel zal gaan spelen.

Ben benieuwed of de DMIII genre en theme mij wel zal bevallen, ik hou niet zo van IDsoft games.
Ben meer 'n tactical FPS, RTS, Space game speler.

Ik ga voor nVidia niet vanwege Doom maar van wege Dual DVI met spanning support voor Multimonitor games.

Veel games ondersteunen de spanning methode wat ATI niet doet.

Mijn multimon bak zou dus zeker ene nVidia krijgen mijn andere bakken 'n ATI
Wintel of windows? Want de meeste spellen draaien prima op AMD's, daarom zit er in de Best Buy Guides al een paar afleveringen een AMD64 in de games bak.
wintel = windows + intel hardware

AMD is x86 based, wat intel is. met Intel hardware doelt met niet op Intel's CPU's maar op intel's x86 techniek.
Ik zou de G-kaart keuze eerder laten vallen op minder geoptimaliseerde leuke aankomende DX titels die wat zwaardere eisen kunnen hebben om dat zij geen extra 2 jaren hebben om hun game te polishen en te optimizen.
Wat een onzin. ATI heeft net zolang als nvidia kunnen optimizen voor Doom3. Het beste bewijs is toch wel dat het ATI was die een doom3 beta heeft laten lekken naar de buitenwereld. Toch een bewijs dat ze het spel al hadden en dus het spel mee ontwikkelden.

Het verschil zit em er gewoon in de nv40 een kaart is die qua architectuur speciaal gebouwd is voor doom3. Nvidia heeft de wensen van JC ingewilligd en ATI niet.
Onzin?

Ik heb het over game development cycle van ID_software van 4jaar "It's done when it's done", die game bedrijf hupeldepup_kloner niet heeft maar een strakke deadline krijgt van hun publischer van 1 á 1,5 jaar.

"minder geoptimaliseerde leuke aankomende DX titels"
Dit slaat op optimizen van de game, niet driver en ook niet GPU hardware.
niet zo verwonderlijk dat ze niet hebben gedaan, gezien de gigantiese hoeveelheid extra transistors daarvoor nodig waren (met onderandere als gevolg het extra stroom verbruik, de extra hitten, en de lage standaard clock snelheid).
Je hebt zeker een generator thuis staan om te voldoen aan de hoge voedingseisen van nvidia. :P

Ik ben overgestapt op ATI omdat deze betere prijs/prijsstatie verhouding leveren. Ik koop meestal niet het nieuwste van het nieuwste en ATI heeft dan leuke kaartjes.

Ik wacht af op de specs voor Half Life 2, en indien nodig pas ik m'n kaart aan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True