Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties
Bron: Gamers Depot

Gisteren hebben verschillende websites Half-Life 2 benchmarks gepubliceerd waarin de ATi Radeon 9800 de vloer aanveegt met de GeForce FX 5900. Ook deed Gabe Newell van Valve op een door ATi georganiseerd evenement een aantal erg negatieve uitspraken over de NV3x-architectuur. nVidia heeft in een poging zijn naam nog enigszins te redden PR-directeur Derek Perez gevraagd om het publiek gerust te stellen. Tegenover Gamers Depot verklaart deze beste man dat hij niet snapt waarom Valve ineens zo negatief is. Hij beweert dat Valve en nVidia continu hebben samengewerkt aan de ontwikkeling van het spel, maar dat de problemen die op de ATi Shader Day werden beschreven nooit eerder gemeld zijn. Verder noemt hij het vreemd dat Detonator 45.xx werd gebruikt voor de benchmarks, terwijl er al maanden gewerkt wordt aan de veel efficintere Detonator 50.xx, waarvan bet-versies allang beschikbaar zijn, dus ook bij Valve.

Half Life logo Het feit dat deze nieuwe driver geen fog laat zien zou een bug zijn die nog voor de release wordt opgelost, en er zou dus geen sprake zijn van een overtrokken optimalisatie zoals gesuggereerd werd. Geheel politiek correct wordt er aan toegevoegd dat nVidia zijn best zal doen om de zorgen van Valve te adresseren. Achter de schermen wordt er echter een completer beeld van de situatie gegeven. Uit een interne communicatie die door Not For Idiots werd onderschept blijkt dat nVidia weigerde om miljoenen dollars te betalen voor een exclusieve marketingrelatie met betrekking tot Half-Life 2. ATi was hier wel toe bereid, en een week voor de shader day verbrak Valve kennelijk het contact met nVidia, om vervolgens samen met ATi bugs in de nieuwe Detonator en benchmarks van de oude Detonator lang en breed uit te meten:

We have been working very closely with Valve on the development of Half Life 2 and tuning for NVIDIA GPU's. And until a week ago had been in close contact with their technical team. It appears that, in preparation for ATI's Shader Days conference, they have misinterpreted bugs associated with a beta version of our release 50 driver.

[...] In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DirectX 9 titles, such as Half Life 2.
Moderatie-faq Wijzig weergave

Reacties (99)

Ik vind het een slechte zaak dat twee partijen die erg afhankelijk zijn van elkaar (grafische kwaliteit van een game en prestatie van een videokaart) elkaar zo lopen af te zeiken.

Ik zie het nog gebeuren dat je zo meteen games gaat krijgen die alleen maar een bepaalde kaart ondersteund. En dat puur omdat de een de ander het licht in de ogen niet gund.

Zo stop dus eens met dat gejammer, en zorg dat wij als gamers en tweakers een goede en mooie game kunnen spelen met welke merk videokaart dan ook!!!!

Dit moest ik even kwijt
En dan maar switchen van gfx cards als je een game wilt spelen zeker? ;)

Hopelijk komt het nooit zover, denk het ook niet? Anders verliezen ze toch een enorme afzetmarkt? (Al de mensen die NIET de card hebben die zij net ondersteunen) Want dan kunnen ze evengoed niet commercieel bezig zijn (tenzij natuurlijk die ene card fabricant vet veel geld ertegen doet zodat de game makers niets van verlies hebben door het wegvallen van een groot deel van hun publiek)
Of we krijgen straks gewoon 2 videokaarten in de pc, van beide merken 1, op een PCI-X of PCI-Express slot.
(welke was ook al weer voor de gewone consument bedoeld?)
PCI-eXpress.
pci-x is "gewon" een pci bus op 64bit lopend op 133mhz gemaakt voor in servers.
Het is idd niet de bedoeling dat PC's de kant opgaan van gameconsoles met hun belachelijke exclusives..
Ik denk dat als zo'n situatie al zou komen die niet lang vol zou houden. Het kost handenvol geld om telkens met een fabrikant een game te gaan ontwikkelen. Vooral als je ook nog eens met z'n tweeen bent en het om het hoogste bod gaat. Voor dit soort spellen (HL&D3) wil Ati of nVidia graag een voorsprong hebben qua prestaties omdat HL2 een grafisch vooruitstrevende game is die voor veel publiciteit gaat zorgen. En daarbovenop komt nog eens dat de Engine van het spel waarschijnlijk nog veel gebruikt gaat worden in toekomstige games. (ik hoop dat de toekomstige versies misschien wat meer nVidia compatible worden gemaakt door andere onwikkelaars)
Er zullen gewoon kleine verschillen te merken zijn tussen kaarten van de fabrikant die mee heeft geholpen het spel te optimaliseren en de fabrikant dat niet heeft gedaan. En vooral bij minder bekende games of de games die uit een eerdere engine zijn ontwikkeld zijn de verschillen kleiner dan een game die helemaal vanaf de grond is opgebouwd..
Je zou juist erg blij moeten zijn met dat gezeur over en weer. Doordat ze elkaar steeds dwars proberen te zitten blijven beide partijen scherp.
En dat leid tot betere grafische kaarten en ivm concurentie ook tot scherpere prijzen.

Of zoudens ze onderling een bodemprijs hebben afgesproken voor hun kaarten, om het prijspijl nog enigzins hoog te houden???
Als Nvidia nou eerst een toegeeft dat ATI nou eenmaal een stuk betere shaders heeft waar HL2 waarschijnlijk veel gebruik van maak, dan zijn we al een stuk verder :Y)
Nouja...als we eerst nou eens afwachten op de Det. 50.xx (WHQL) drivers. Dan weten we het wie het beste in shaders is.
Nvidia zegt dat het opgelost wordt in de nieuwe drivers, dus laten we eerst maar afwachten.
Als het weer slecht uitpakt met nvidia kaarten dan mogen ze van mij toegeven....
Er is maar 1 klein probleem hiermee ... Het feit dat shaders een hardware iets zijn. Je kan het tweaken om er meer performence uit te halen dankzij de drivers & shaders functie's te onderscheppen & meer optimized versie's te gebruiken, maar je kan niet ineens een paar shaders (waar ze note ben een gans jaar de tijd voor gehad hebben), met 50% zien te verbeteren (zeker sinds dit een hardware probleem is ( serieel (nvidia) vs parrallel (ati) processing )).

De beste manier om de shader performence te testen is een tijd geleden gedaan met shadermark. Men heeft de ati & nvidia kaarten beiden met de anti cheat drivers uitgerust (nog voor nvidia haar drivers encrypeerde en dit onmogelijk maakte), en de shaders in hun ruwe vorm getest (zonder driver optimizes), met als gevolg wat we vandaag opnieuw zien. Dat de shaders 2.0 niet in staat zijn dezelfde performence te leveren wegens de totaal verschillende aanpak van beide firma's.

Zodus laten we eens wachten op de 50.xx Det drivers EN!!! en 3.8 Catalyst drivers (wat toevallig iedereen vergeet te vertellen, welke ook een speed boost zullen hebben ). Dan zou het net als nu, een eerlijk vergelijking worden (unoptimized 3.7 (en lower) vs unoptimized 40.xx (en lower) ) ...
Urhm.... Doom III is geen DX titel. Doom III is een OpenGL spel. Maar het maakt wel gebruik van Shaders die te vergelijken zijn met DX shaders. En nV-kaarten zijn (op dit moment) van zichzelf al sterker in OpenGL dan ATi kaarten.

Overigens heeft John Carmack afgelopen week tegen www.gamersdepot.com voor de zoveelste keer gezegd dat de performance van de FX kaarten in ARB2-mode (de optimale modus voor Doom III) zeer tegenvallen in vergelijking tot ATi kaarten. Daarom is er het speciale NV30-path zodat de FX kaarten toch nog zeer goed uit de bus komen, maar dan wel ten koste van een lagere precisie.

Het voordeel van de FX is dat-ie alles op 32-bits FP en op 16-bits FP kan berekenen (en 12 FX). Maar aangezien 32 FP te traag is voor Doom III (en HL2), zitten er dus speciale NV30-calls die er voor zorgen dat de boel op 16 FP gerendered worden.
ATi kaarten aan de andere kant kunnen alleen maar op 24 bits FP werken, de minimale spec van DX9. Maar doordat de FX te traag is in 32 FP, heeft ATi bl ijkbaar de gulden middenweg gekozen met hun snelle 24-bits FP (mede dankzij 8 shaderengines die parallel aan elkaar werken).

Oh ja, niet onbelangrijk detail. Tussen nVidia en ID is er zo'n 5 miljoen dollar uitgewisseld om Doom III optimaal op nVidia kaarten te laten draaien. Dus ATi is niet de enige die veel geld pompt in een spel.

Verder moet je niet vergeten dat ATi perfect de DX9 standaard van Microsoft heeft gevolgd en dat de Radeon's vanaf de basis voor DX9 zijn gemaakt. Dat nV er voor heeft gekozen om hun 'eigen' dingen te implementeren (bv Cg en 32-bits FP) breekt de FX nu op.

Valve volgt de DX9 standaard perfect voor HL2. Als kaartfabrikanten nou gewoon de MS standaard voor DX9 volgen, dan hebben we het probleem niet dat de ene kaart slechter presteert dan de andere. Natuurlijk is er niets mis met 'een eigen wil hebben' en met iets nieuws proberen te komen.... maar blijkbaar was nVidia 2 jaar terug te veel in de overtuiging dat ATi niet met iets 'revolutionairs' kon komen die zo enorm goed zou presteren.

De R3x0 architectuur is nu meer dan een jaar oud en pas nu in DX9 games komt de ware kracht naar boven en zie je hoe goed de architectuur in elkaar ziet. Je ziet het in HL2, je ziet het in Tombraider AoD en je zal het straks ook zien in Halo en Far Cry.
Toch moet je ook kijken naar de manier waarop dit word gepresenteerd.
Je kan veel zeggen maar ze kraken nVidia wel heel erg af. (terecht?).
Ik vind toch dat ATI en Valve te veel aan een kant staan als als je kijkt naar de vele miljoenen die er iin spelen.
Als ze echter toch gelijk hebben, zal dit blijken bij de 2e grote DX9 titel: Doom III
Tja, wie zegt nu dat DirectX een goeie implementatie is? Uit ervaring met andere onderdelen van MS weten we dat het vaak geen goeie standaard is.. Dus om nou te zeggen dat alle kaarten maar gewoon de MS standaard goed moet ondersteunen en niet zorgen dat de werkelijke hardware ook echt goed is vind ik maar een slechte uitspraak..
directX het enige product van MS waar bijna iedereen het over eens is dat het goed werkt.
al since directx 1 levert het DX team van MS zeer goed werk.
de preformance is hoog de gfx mooi en het vrij makelijk mee te werken, door DX begrijps (bijna) alle hardware meteen wat het spel van ze will.
Hoho, niet teveel revisionisme. Alle developers waren het erover eens dat de interface van DirectX vreselijk slecht was tot DX7 of zo. Tegenwoordig valt het inderdaad wel mee, maar jou opmerking dat DirectX al sinds versie 1 goed werkt is gewoon niet waar.
directX het enige product van MS waar bijna iedereen het over eens is dat het goed werkt.
al since directx 1 levert het DX team van MS zeer goed werk.
de preformance is hoog de gfx mooi en het vrij makelijk mee te werken, door DX begrijps (bijna) alle hardware meteen wat het spel van ze will.
Mja, een eerlijke vraag: Heb je ooit geprogrammeerd m.b.v. de DirectX 3 (C++) API bijvoorbeeld? Zoals hansg ook al aangaf zat DirectX tot aan versie 6 helemaal niet zo goed in elkaar. De interface was slecht en de DLL's buggy.

FYI, Direct3D is niet ontwikkeld door Microsoft tot aan versie 3 (meen ik me te herinneren). Het is ontwikkeld door een bedrijfje, dat Microsoft overgekocht heeft. What else is new? ;)
directX het enige product van MS waar bijna iedereen het over eens is dat het goed werkt.
al since directx 1 levert het DX team van MS zeer goed werk.
Komop, pas sinds directx 8 is d3d enigzins een goede 3d api, helaas is hij niet portable en is hij ook alleen maar gemaakt om spellen op windows te houden en om ms de macht te te laten houden over de 3d api.

John carmack gebruikt niet voor niets OpenGL
Waarom eerst wachten op Det 50? Dan moet je daarna weer wachten op Catalyst 4.0?? En dan ook nog even op de eerste kaart van de bitboys. Dan heb je een 'goede' vergelijking.....

Het gaat om de performance die ze nu beiden tonen en dan wint ATI het dus glansrijk.
Nouja...als we eerst nou eens afwachten op de Det. 50.xx (WHQL) drivers. Dan weten we het wie het beste in shaders is.
Nvidia zegt dat het opgelost wordt in de nieuwe drivers, dus laten we eerst maar afwachten.
Als het weer slecht uitpakt met nvidia kaarten dan mogen ze van mij toegeven....
Tja, zo ken ik er nog wel een. Zo werkt het alleen niet. Als Det 5 wel de beloofde prestatieverbetering biedt zal Nvidia heel hard roepen:"Zie je nu wel?!" maar zodra dit niet het geval is (en die kans is aanzienlijk) zal men met een nieuw excuus komen om voorts een nieuwe belofte te doen. Helaas wordt dat door (te)veel mensen geslikt.

Feit is dus gewoon dat Ati momenteel op heel veel gebieden betere performance biedt dan Nvidia. Nvidia zal gewoon flink moeten knokken om die plaats terug te pakken, punt uit...
Tja, als je een ander artikel leest weet je dat de shaders in de GeForce FX vele malen beter zijn als die van ATI, maarja ze zijn anders dan de manier waarop DirectX 9 ze gebruikt, wat betekent dat er dus een conversie slag moet gebeuren wat in dit geval dus een perfermance verlies betekend..
Welk artikel zegt dan dat de FX shaders vele malen beter zijn? Zo'n artikel heb ik nog nergens gezien.
Wele vele tientallen die testen en concluderen dat de FX shaders vele malen slechter zijn.

Als het alleen aan DX9 zou liggen, zouden ze alleen daar slecht moeten zijn. Maar in OpenGL zijn ze net zo slecht.
Wat ze bij nVidia zeggen is serieus waar, de 50.xx drivers hebben veel betere DX9 support en soms geeft dat een snelheidswinst van 30%. Het is alleen niet verstandig geweest om zo lang met die drivers te hebben gewacht, ze lopen nu achter de feiten aan en dat geeft hele slechte publiciteit voor nVidia.
10 tot 15% dank u ...

Dit is getest geweest met Aquamark 3 & de 0.50 drivers nog geen 12 uur geleden ...

Overdrijven is weeral een kunst... Als we alle 30% increase van iedere detonator driver zouden mogen samentellen die ik gezien heb sinds de tnt2 tijdperk, dan zou men tnt2 alle software kunnen draaien (inc hl2), in maxed settings ...

En note: Ik zie nog altijd niet die 10 a 15% eventjes de 50% verschil inhalen.

En een leuk feit dat men blijft vergeten, dat ATI binnenkort ook gaan afkomen met hun 3.8 drivers (die volgende de developers de grootste hit zullen worden sinds de ontwikkeling van de catalyst drivers). En ik durf erop wedden dat deze ook wel een paar % extra performence zullen geven aan hl2 ... zodus we zijn dan terug op 'step 1', de huidige resultaten ...
Natuurlijk is het niet goed voor nVidia om nu zo erg negatief in de schijnwerpers te staan. Maar aan de andere kant, hier hebben ze ook zelf voor gezorgd, namelijk door een hele reeks fouten, beginnend bij de FX5800 en de productie/ontwikkeling daarvan. Ati heeft gewoon beter nagedacht. En nee, die problemen kun je niet oplossen met een nieuwe driver.
werd onderschept blijkt dat nVidia weigerde om miljoenen dollars te betalen voor een exclusieve marketingrelatie met betrekking tot Half-Life 2. ATi was hier wel toe bereid, en een week voor de shader day verbrak Valve kennelijk het contact met nVidia, om vervolgens samen met ATi bugs in de nieuwe Detonator en benchmarks van de oude Detonator lang en breed uit te meten:
Kijk, dat vind ik dan weer verschrikkelijk nieuws om te lezen. Hieruit blijkt min of meer dat nVidia werd gechanteerd: Betalen of we maken je belachelijk. Natuurlijk is hun kaart ook slechter, maar zo wordt het wel erg breed uitgesmeerd. Maw: Als ze wl dat contract waren aangegaan, dan zouden de woorden van Valve al een stuk positiever zijn geweest.
Blijft natuurlijk weer een vraag over de echtheid van dat zogenaamd onderschepte mailtje? Gabe Newell van Valve heeft toch duidelijk in die speech gezegd dat men niet voor ATi gekozen heeft voor het geld, maar juist omdat ATi gewoon de beste kaart was voor hun DX9 game.. Je kan je afvragen of hij zo overduidelijk het risico wil lopen op leugens betrapt te worden, ik denk het niet.. Gabe was alleen een beetje boos over 'cheats' in drivers die in het nadeel van gamers uitpakken.. Bovendien is uit zo'n beetje alle DX9 benchmarks die tot nu toe geweest zijn het zelfde resultaat gebleken, dus het ligt zeker niet aan Valve dat Nvidia het zo slecht doet in HL2..

Ik heb zelf nu al jaren Nvidia kaarten van Asus en ben er zeer tevreden over, maar de volgende word echt een ATi (waarschijnlijk van Hercules) als aan de huidige situatie niks veranderd.. Voor Half-Life 2 wilde ik sowieso mijn huidige kaart vervangen..
Tja, wij willen allemaal een goede (de beste) grafische kaart om en top-spel mee te spelen,
maar bij Valve, ATI en Nvidia gaat het gewoon om een heleboel geld en een stuk marktpositie.

De partij die het beste uit dit gevecht komt is natuurlijk Valve, want die heeft zometeen z'n spel geoptimaliseerd voor de beste kaart en krijgt door de concurentie tussen ATI en NVIDIA nog een hoop aandacht/ reklame ook
Het klinkt natuurlijk nu alsof nVidia is gechanteerd, maar het zullen gewoon onderhandelingen zijn geweest welke zijn mislukt.
nVidia geeft ondertussen ook veel geld uit aan het "The way it meant to be played" programma en aan bv een Doom 3.
fouten, beginnend bij de FX5800
De FX5800 was geen fout. Het was een test. Een test om te kijken hoe een nieuw koel ontwerp zou werken, en hoe het ontwerp op de 0.13 micron techniek zou reageren en hoe goed DDR-II zou werken.

Het leuke is dat ze met deze test ook nog eens wat geld bennen verdient omdat mensen zo gek zijn geweest om deze kaarten te kopen.

De nieuwere kaarten uit de FX serie zijn ook geen foute kaarten. Het is gewoon een architectuur die nog in de kinder schoenen staat en daarom nog door ontwikkeld moet worden.

Uiteindelijk zal nVidia zijn ontwerp zo aanpassen dat de shaders sneller worden en dat de FX sneller zal worden met floating point berekeningen(daar is ie nog behoorlijk zwak in). En met behulp van Cg kan de bron code van spellen zo geoptimaliseerd worden dat die code een stuk sneller zal gaan draaien op nieuwe kaarten(zowel van nVidia als op andere kaarten).

nVidia heeft op dit moment gewoon niet de snelste kaart, dat is alles. En iedereen is gewend dat nVidia wel de snelste kaart had en veel mensen hebben blijkbaar moeite met dat te accepteren.
De FX5800 was geen fout. Het was een test
LMAO sorry dat ik het zo zeg (en zo laat reageer; vakantie) maar wat moet je dan een bord voor je kop hebben zeg! Koel ontwerp?

Ze hebben gewoon hele foute keuzes en aannames gemaakt! Weer op de brute kracht vertrouwen (0,13m en DDR2). Ze waren gewoon zo arrogant om te denken dat zij zich niet aan de standaarden hoefden te houden en dat iedereen wel achter hen aan zou lopen met hun nieuwe ontwerp.
Het is gewoon een architectuur die nog in de kinder schoenen staat
Ja, daarom hebben ze er zo lang over gedaan zeker? Ati kon het wel goed krijgen n binnen kortere tijd.
nVidia heeft op dit moment gewoon niet de snelste kaart, dat is alles
Vandaar zeker die ber aggressieve marketingstrategie en al die cheats en manipulaties? Kom op zeg.
Zou Valve dan ook geen onderonsje hebben met Microsoft omdat MS nu erg opschept over HL2 met MS zijn DX9.0 benchmarks en dat er geen linux support komt voor HL2 servers? (althans nog niet gepland)
Ik denk dat een HL2 server weinig te doen heeft met DX... Er is voor een server versie van een spel geen graphics nodig. Er is alleen veel rekenwerk nodig, meer niet.

Kijk eens naar Battlefield 1942: is een volledig DX spel, maar heeft toch een Linux server versie :)

Dus als MS daarom opschept, zetten ze zichzelf behoorlijk voor schut. Ik denk echter dat dit niet het geval is, en dat ze eerder blij zijn dat hun DX9 uberhaupt zo goed presteerd en linux in dit verhaal er volledig buiten laten.
Ik denk dat als er gebruik gemaakt wordt van DirectX, dat er dan voor de server gebruik gemaakt wordt van DirectPlay.
The Microsoft DirectPlay API provides developers with the tools to develop multiplayer applications such as games or chat clients.
Als hier gebruik van wordt gemaakt dan wordt het toch moeilijk om het op een Linux os te zetten. Er zou in princiepe een vervangende API voor gebruikt/gemaakt kunnen worden maar ik weet niet of dat zo makkelijk is.
DirectPlay wil je gebruiken voor een multiplayer schaakspel, meer NIET. DirectPlay is traag, veel overhead en niet erg praktisch.

Elk spel gebruikt of een betere library(en die zijn veelal cross-platform) of ze schrijven zelf de MP code.

Ik ken geen enkel groot spel wat DirectPlay gebruikt.
Ik vind 't sowieso een heel slechte zaak dat het hier niet om performance gaat maar om geld.
Ati geeft Valve een paar miljoen, dus Valve gaat HL optimaliseren voor Ati en NVidea afzeiken. Had NVidea wel betaald en Ati niet, dan had 't andersom geweest.

Valve mag dan populair zijn vanwege HL, dit is wel heel asociaal en kinderachtig gedrag :(

Ben geen fan van NVidea maar dit is erg lullig voor ze.
Ati geeft Valve een paar miljoen, dus Valve gaat HL optimaliseren voor Ati en NVidea afzeiken. Had NVidea wel betaald en Ati niet, dan had 't andersom geweest
ATi was hier wel toe bereid, en een week voor de shader day verbrak Valve kennelijk het contact met nVidia, om vervolgens samen met ATi bugs in de nieuwe Detonator en benchmarks van de oude Detonator lang en breed uit te meten:
Jij denkt dat ze even in een week het spel kunnen optimaliseren voor ATi ?

Als ze dat in zo'n korte tijd zouden kunnen hadden ze echt voor beide kaarten een optimale situatie kunnen maken en het spel waarschijnlijk op een xabre nog goed kunnen laten draaien.

Daar gaat echter wel wat meer tijd in zitten.
Je zou onderhand kunnen stellen dat public relations niet nVidia's sterkste punt te zijn. In plaats van hoog van de toren te blazen hadden ze waarschijnlijk beter kunnen proberen Valve te vriend te houden. ATI koopt veel goodwill door hun nauwe betrokkenheid bij de ontwikkeling van HalfLife 2 en ook bijvoorbeeld door hun deelname aan de ontwikkeling van 3DMark of het feit dat ze veel invloed hebben gehad in de DirectX9 shader-specificatie (de 24-bit precisie past bijvoorbeeld mooi bij hun design, daar heeft nVidia pech met hun onder- dan wel overmaatse precisie). Allemaal steekjes die nVidia niet had hoeven laten vallen, en die hen nu een verlies in prestige kosten.
ATI koopt veel goodwill door hun nauwe betrokkenheid bij de ontwikkeling van HalfLife 2
Maar daar moeten ze voor betalen... En dat vind ik van de gekke. Een software producent wil een spel maken voor een zo groot mogelijke doelgroep. Dan snap ik niet waarom ze de ene videopkaart beter gaan ondersteunen dan de andere. Als nvidia akoord was gegaan met die miljoenen deal en Ati niet, dan was het verhaal waarschijnlijk precies andersom geweest.

Ik noem dit geen goodwill kweken, maar de consument bedonderen (door valve dan. geloof dat de videokaart fabrikanten niet veel keus hebben om niet mee te doen aan deze spelletjes)
Inderdaad. Niemand heeft het hier over de lage streek van Valve. Deze zijn bereid om tegen betaling subjectieve of slecht onderbouwde vergelijkingen te trekken. Dat ATi en of nVidia daarvoor betalen neem ik ze minder kwalijk dan het hoereren van Valve. :r
Och, als je eens wist hoe vak het voor komt in bedrijven. Er is niet voor niks een marketing afdeling.
Kijk eens naar de Cola oorlog wat voor smerige streken er daar worden uitgehaald. C&C die weigerd te leveren aan inkooporganisatie Superunie omdat die een eigen merk op de markt willen zetten.
Dit verhaal klinkt erg interessant, zei het niet dat Valve 5x (vijf keer!) zoveel tijd heeft besteedt aan het optimaliseren van de NVIDIA kaarten t.o.v. de ATI kaarten.

Als Valve in de pocket van ATI had gezeten zouden ze nooit zoveel kostbare ontwikkelingstijd aan NVIDIA kaarten besteed hebben.

En vergeet niet dat de gemiddelde developer simpelweg niet het geld heeft om zoveel tijd te besteden het optimaliseren van een bepaalde videokaart. Verwachting is dus dat de performance daar voor NVIDIA kaarten nog lager zal liggen.
nVidia heeft met zijn hele FX gebeuren 3DFX weer uit de kast gehaald. De ervaring en technologie van het terziele gegane bedrijf uit zich echter in OpenGL.
En aangezien dit (weer) een directX spel is wordt het voor nVidia erg moeilijk zich hieruit te redden.
Nieuwe drivers laten een kaart hooguit simuleren wat ze technisch niet eht kan. Hierdoor kan de FX wel wat snelheid winnen maar zeker de Radeon niet overklassen.
Dit bevestigd weeral wat ik gisteren dacht, weer een bug die opgeblazen wordt. Je moet nu zeker niet twijfelen aan het feit dat Valve nvidia eens op de tenen wou trappen. Als je ziet welk bedrag Nvidia niet wilde betalen. Beetje begrijpelijke reactie van Valve. En dat dan toevallig op de Ati SHADER days, zegt genoeg zeker.

Kortom in plaats van er allemaal mooi in de lopen in het geblaat van Ati/Valve maar langs de andere kant ook wel van Nvidia, zouden we beter mooi de definitieve dingen bespreken in plaats van ondoordachte vroegtijdige gokjes te gaan wagen.

Geen van beiden Ati/noch Nvidia spelen het fair, en het wordt dezer dagen in de pers uitgevochten. Een spijtige zaak. Maar het is nu eenmaal wel zo dat de hoogste bomen het meeste wind vangen.
Ben ik wel met je eens opzich.. Valve moet zich niet laten gebruiken in de ATi-Nvidia oorlog.. Maar Gabe kon het toch niet laten om ff wat te trappen richting Nvidia omdat hij ook vind dat Nvidia de boel belazerd, het "our customers will be pissed!" zei genoeg.. En ook het feit dat het Valve 5x zoveel tijd heeft gekost Nvidia enizins nog te redden qua performance in HL2 door een mixed-mode te ontwikkelen, terwijl voor ATi niks aan DX9 veranderd hoefde te worden zei genoeg.. Toch keiharde statements van onze Gabe, maar het zijn wel feiten waar Nvidia niet omheen kan denk ik.. Nvidia heeft gewoon hun DX9 verhaal verknoeid en moeten nu op de blaren zitten.. Voor hun is het te hopen dat ze snel met een nieuwe reeks DX9 kaarten komen die dit probleem uit de wereld helpt voor ze, zeker nu er steeds meer DX9 games verschijnen en het probleem steeds duidelijk wordt..

Toch vraag ik me af wat de rol van Microsoft is in dit verhaal.. Zij zijn immers de ontwikkelaars van DX, en zijn de laatste tijd ook steeds meer met ATi in zee gegaan.. De waarheid van dit alles zullen wij als simpele consumenten waarschijnlijk toch nooit te weten komen, gewoon kopen wat het beste werkt en voor de rest nergens druk over maken..
Een driver die detecteert wanneer een screenshot wordt gemaakt en die vervolgens vervangt door een ander (beter) shot is never-nooit een bug!!
O ja, dus als ik onlangs een artikel las dat bij een vorige driver van nvidia het in een bepaald spel niet mogelijk was een screenshot te laten zien met anti aliasing, dan was dit ook een cheat van nvidia zeker ? Jij gelooft ook alles wat in de pers komt zeker ? Neem toch alles met een korrel zout en kijk voor jezelf uit , in plaats van mee te reageren met de massa , want het is wel IN tegenwoordig om eens goed te sch**ten op nvidia's hoofd. :r
Doe niet zo naief zeg. Een post-processing functie die niet lekker werkt bij een screenshots is heel goed verklaarbaar. Dat is niet de eerste keer dat dat gebeurt en zal ook niet de laatste keer zijn.

Dat echter de beeldkwaliteit omhoog gaat bij het maken van een screenshot is op geen enkele manier verklaarbaar. De enige verklaring die daarvoor mogelijk is is dat het met opzet zo gemaakt is.
Daarom dat Valve ook zo pissed is.

Overigens wel opvallend dat jij vindt dat je alles van Valve met een korrel zou moet nemen, maar dat je de PR van Nvidia gewoon voor zoete koek slikt!

Waar je bovendien helemaal aan voorbij gaat is het feit dat Valve geen enkel belang heeft om Nvidia in een kwaad daglicht te stellen.
Het merendeel van hun klanten heeft Nvidia kaarten. En er is hun dus heel wat aan gelegen dat die klanten HL2 goed kunnen spelen. Vandaar dat Valve zoveel tijd en geld heeft besteed om te proberen samen met Nvidia de prestaties te verbeteren.

Als dan blijkt ook met de hulp van Nvidia zelf de prestaties niet goed te krijgen zijn, maar dat ze wel cheats inbouwen voor je spel om dat te verdoezelen dan heb je als spelfabrikant alle recht om pissed te zijn.
Iemand enig idee hoe oudere nvidia kaarten met deze drivers zullen lopen?
Zou dit heel gebeuren de prijzen van de videokaarten beinvloeden?

Verder is het toch niet de eerste keer dat een kaart slecht presteerd in een spel waarna een nieuwe driver uitkomen.
Dit fenomeen is er denk ik altijd al geweest, nu lig het er mss een beetje dikker op. Met die drivers cheats en dergelijks...
Forget it!

De Ti 4 zal misschien een kleine verbetering zien maar aangezien die al een hele tijd uit is, zal de rek in de optimalisatie er wel uitliggen!

De GF 3....oud nieuws

De optimalisatie zal alleen de GeForce FX treffen....en ik ben bang in een kwalitatief slechtere manier!
Ti4200 is idd erg goede kaart.. Alleen jammer dat ie totaal geen DX9 doet, en je dus bepaalde grafische features in nieuwe DX9 games als b.v. Half-Life 2 zal moeten missen..
ten eerste is het niet een 'erg' goeie kaart, en de rest va de dx9 features worden softwarematig berekent. Gaat dus ten koste van je CPU, waardoor je game nog trager gaat lopen. Nee erg goeie kaart hoor! :P
Mijn Ti4200 doet het voorlopig het snelste op 44.03 zowel oudere als nieuwe drivers zijn trager, danwel instabieler in mijn geval. Moet ik wel zeggen dat ik de 50.xx nog niet geprobeerd heb.

Nou is 3D mark ( 2001SE ) niet de beste bench gebleken voor performance, maar met bovengenoemde versie kom ik wel het hoogste uit. En ik vind 11.500 punten best acceptabel voor een bijna budget kaart.
Uit een interne communicatie die door Not For Idiots werd onderschept blijkt dat nVidia weigerde om miljoenen dollars te betalen voor een exclusieve marketingrelatie met betrekking tot Half-Life 2. ATi was hier wel toe bereid, en een week voor de shader day verbrak Valve kennelijk het contact met nVidia, om vervolgens samen met ATi bugs in de nieuwe Detonator en benchmarks van de oude Detonator lang en breed uit te meten
Wat me opvalt is dat het tegenwoordig niet meer gaat om het feit hoe goed de hardware is maar om het feit welke hardware fabrikant het meeste aan de software producent wil betalen. Wie het meest betaald krijgt een spel dat geoptimaliseerd is voor zijn kaart. :( Dus om nou te zeggen dat prestaties volgens benches nog nuttig zijn.......ik weet het niet.
Dat is echt grote onzin die je nou uitkraamt.

Valve heeft juist ontzettend veel tijd gestoken in optimalisaties voor de FX lijn. En dat allemaal ondanks dat Nvidia dus niet aan hun betaald heeft.

Verder is het ook gewoon niet mogelijk om speciaal voor de ATI kaarten te optimaliseren. De manier om een ATI kaart optimaal te laten werken is door gewoon nette DX9 code te schrijven. Iets anders hoef je niet te doen en heeft ook geen zin. (idem overigens voor OpenGL, zoals je kan lezen uit de uitspraken van Carmack)
Allicht niet. Moet intel dan ook betalen aan software ontwikkelaars die gebruik maken van HT?
Als Intel erg graag zijn chips gebundeld met een bepaald softwarepakket wil verkopen, dan zullen zij daar ook voor moeten betalen.

Als je graag iets van een ander gedaan wilt krijgen dan zul je daar een tegenprestatie tegenover moeten zetten.

Met het wel of niet optimaliseren van het spel heeft het echter geen zier te maken.
(Dat geeft ook Nvidia aan in hun statement)
mja je kan opimisen voor een bepaalde kaart net zoals je kan optimisen voor een bepaalde cpu. gewoon de extensies gebruiken die ondersteund worden. zoals 3dnow en sse2
De extensies gebruiken die ondersteund worden betekent in dit geval DX9 gebruiken.

En aangezien zowel ATI als NVidia DX9 volledig ondersteunen (of dat beweren) zit daar geen verschil in.

Je moet het vergelijken met het schrijven van standaard x86 code voor de AMD en Intel.

Voor de Nvidia kaarten zijn echter speciale optimalisaties gemaakt. Dat kan je dan vergelijken met het toepassen van sse2.
Het heeft ze alleen geen zier geholpen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True