Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties
Bron: Hexus, submitter: SergioG829

In de benchmarks van de nieuwste Radeon X1000-kaarten bleek opnieuw dat OpenGL het zwakke punt van de ATi-kaarten is. Vooral de resultaten die in Doom 3 werden neergezet waren de fabrikant een doorn in het oog; het populaire spel werd nogal eens als hét bewijs gezien dat nVidia nog steeds de betere hardware maakt. Met een softwarepatch voor de X1000-serie, die ATi gisteren aan Hexus heeft verstrekt, zouden de prestaties volgens de gpu-bakker echter 'tot vijfendertig procent' moeten verbeteren als anti-aliasing is ingeschakeld. De driverupdate zou ervoor zorgen dat bij toepassing van AA het management van het grafische geheugen anders wordt aangepakt, en dat zou in alle OpenGL-games merkbaar zijn. Hexus.net heeft dat meteen getest, en constateert: op hogere resoluties heeft ATi de concurrent eindelijk bij de kladden.

Op een testmachine met een AMD FX-57 en afwisselend een ATi X1800 XT en een GeForce 7800 GTX, werden Doom 3- en Chronicles of Riddick-benchmarks gedraaid. De Doom 3-tests lieten inderdaad flinke verbeteringen zien: met 4xAA en 8xAF werd nVidia's vlaggenschip op 1280x1024 en 1600x1200 verslagen, terwijl ook op 1024x768 een verbetering zichtbaar was. Hoewel de GeForce met de nieuwe 81.84-drivers - ook met memory controller-tweak - waren uitgerust, was de 32% winst die Hexus bij 1600x1200 voor de ATi kon opschrijven, teveel van het goede voor de nVidia-kaart. Daar moet meteen bijgezegd worden dat de nVidia-kaart zonder de toepassing van anti-aliasing nog steeds significant sneller is.

ATi-nVidia-vergelijking met OpenGL-patch: Doom 3

De Chronicles of Riddick-benchmark laat minder goede, maar nog steeds heel behoorlijke verbeteringen zien. Wel valt op dat op 1024x768 de ATi juist langzamer wordt als de patch is toegepast, maar op 1600x1200 bedraagt de winst nog steeds een heel fatsoenlijke 16%. Op beide andere geteste resoluties wordt nVidia niet verslagen, maar de achterstand van ATi wordt zo ongeveer gehalveerd.

ATi-nVidia-vergelijking met OpenGL-patch: Chronicles of Riddick

In DirectX kon ATi's snelste kaart al heel behoorlijk met de nVidia-producten meekomen, maar OpenGL was tot dusverre de achilleshiel van de nummer twee op de videokaartenmarkt. Met de nieuwe softwarepatch wordt duidelijk dat ATi wel degelijk de snelheid in huis heeft om fatsoenlijk met de grote broer te concurreren, maar dat het tot dusverre niet genoeg aandacht aan softwareontwikkeling heeft besteed. Of de patch op korte termijn ook voor het grote publiek beschikbaar wordt gemaakt is overigens nog niet duidelijk, opvallend is wel dat juist gisteren de nieuwe Catalyst-drivers verschenen, maar die lijken nog niet over de verbetering te beschikken. Terwijl het belang van geoptimaliseerde software met deze inhaalslag eens te meer duidelijk wordt gemaakt, blijft er één grote vraag liggen: kan nVidia eenzelfde truc uithalen?

Moderatie-faq Wijzig weergave

Reacties (78)

Als je zo'n prestatie verbetering kunt bewerkstelligen met een software patch laat je toch wel zien dat je je prioriteiten wat verkeerd hebt gelegd.

Ik vind het nog altijd belangrijker een uitgebalanceerd systeem te hebben waarbij de software goed op de hardware aansluit dan een systeem dat alles doet door brute force. Ofwel: eerst de drivers aanpakken, dan de hardware.

Blijft natuurlijk wel dat dit een leuke stap voorwaarts is voor de mensen met zo'n kaartje.
Als je zo'n prestatie verbetering kunt bewerkstelligen met een software patch laat je toch wel zien dat je je prioriteiten wat verkeerd hebt gelegd.
Nee, het laat alleen nog eens pijnlijk zien dat de mens de belemmerende factor aan he worden is.

Programmeurs krijgen gewoon de kans niet meer om hardware te leren kennen en er aldoenende maximaal presterende software voor te maken.

Een fenomeen dat ik al langer aanklaag. Vooruitgang is goed en moet/mag er zijn, maar het tempo dat het vandaag de dag gaat is veel te hoog. De doorsnee hedendaagse hardware wordt zelden deftig benut...
Klinkt alsof jij een xbox 360 moet gaan kopen, daar word wel alles benut.

Ik snap je probleem, alleen waarom geen nieuwe videokaart uitbrengen als die toch verkocht word?
in het begin niet hoor, want later willen ze ook nog games uitgeven die "verbeterd" zijn
De doorsnee hedendaagse hardware wordt zelden deftig benut...
So what?
Waarom zou je investeren in software performance als het (veel) goedkoper is te investeren in hardware performance?
Lijkt me in eerste instantie dat de patch is gericht op Carmack's Doom3 engine. Vooruitgang in de engine van Starbreeze CoR is lang niet zo denderend.
Lijkt me in eerste instantie een prestatiepatch waarbij de rest meelift dan een opengl-patch. Hopelijk wordt er in de toekomst hardwarematig met OpenGL rekening gehouden.

Heel veel mensen vallen over dat punt.
Zoals deze patch aantoond is het geen hardware probleem maar meer driver gerelateerd. Hardwarematig meer rekening houden met OpenGL hoeft dus niet echt, laat staan dat dat moeilijk zal zijn. Sowieso zie je dat steeds meer spellen toch voor Direct3D geschreven worden ipv OpenGL...
@Mecallie, Een nieuwe kaart kopen is wat duurder dan alleen ff een nieuwe software patch downloaden voor een consument. Ik vind het niet echt een groot probleem, je krijgt gewoon net ff wat later, nog wat xtra winst. Een nieuwe auto moet je ook inrijden schijnbaar de nieuwste videokaarten ook :P, Overingens is de x1000 serrie nog geeneens uit.
Ik heb anders 20 * de 1800XL in ons magazijn liggen B-)
@Mecallie, Een nieuwe kaart kopen is wat duurder dan alleen ff een nieuwe software patch downloaden voor een consument. Ik vind het niet echt een groot probleem je krijgt gewoon gewoon nog net ff wat later, nog wat xtra winst. Een nieuwe auto moet je ook inrijden schijnbaar de nieuwste videokaarten ook , Overingens is de x1000 serrie nog geeneens uit.
Het gaat er niet om dat een software update voor de consument goedkoper is dan een nieuwe kaart.

Het gaat er juist om dat ze eerst de software goed moeten hebben over de hele reeks kaarten voordat ze een nieuwe kaart gaan ontwikkelen. Niet achteraf d.m.v. patches de boel oplappen.
Alleen hardware doe je niet zo 1,2,3 updaten. Software daarentegen...

Ben het idd met je eens dat ze een balans moeten vinden maar als ik zou moeten kiezen uit een softwarepatch of een nieuwe kaart moet kopen dan weet ik het wel.
Wat een commentaar zeg ....
Ten eerste waarom zou je een kaart kopen van ¤500 om zonder AA of AF te spelen?? Benchmarks zonder AA en AF zouden voor deze kaarten niet eens in beschouwing moeten genomen worden.
Ten tweede, dat Ati meer aandacht aan DirectX besteed vind ik meer dan normaal gezien het aantal OpenGL games op één hand kan geteld worden. Daarbovenop zal het aantal games op OpenGL alleen maar minder worden op termijn. (remember ID => Xbox360 & Vista)
In DirectX kon ATi's snelste kaart al heel behoorlijk met de nVidia-producten meekomen
Dit snap ik helemaal niet?? Meekomen? Hebben jullie de reviews al eens goed bekeken? Het is de Geforce dat niet kan meekomen in DirectX games maar daar wordt niet veel over gezegd ... want OpenGL is veel belangrijker niet ?? .... omg
Dat snap ik ook niet.
Het hele tweaker-artikel heeft een zware nvidia bias.
OpenGL was tot dusverre de achilleshiel van de nummer twee op de videokaartenmarkt.
Hoezo nummer twee? Waar halen ze het in godsnaam vandaan? Zelfs Aval0ne heeft al toegegeven dat de X1800XT iets sneller is dan de 7800GTX
het populaire spel werd nogal eens als hét bewijs gezien dat nVidia nog steeds de betere hardware maakt
Is er iemand hier die die ooit heeft gezien dat iemand dat als bewijs gebruikte?
Het wordt alleen door nvidia fans gebruikt als bewijs dat Nvidia's driver team beter is, maar de rest weet gewoon dat ATI minder aandacht heeft besteed aan OpenGL dan Nvidia.
Daar moet meteen bijgezegd worden dat de nVidia-kaart zonder de toepassing van anti-aliasing nog steeds significant sneller is.
Hoezo moet dat er meteen bijgezegd worden? Het gaat hier over een patch specifiek gemaakt voor AA. Nogal wiedes dat het dus geen effect heeft op non-AA situaties. (die overigens nogal academisch zijn voor dit soort high-end kaarten)
Of de patch op korte termijn ook voor het grote publiek beschikbaar wordt gemaakt is overigens nog niet duidelijk
Wederom de vraag waar dat vandaan gehaald word?
De bron van dit artikel is Hexus en daar staat toch heel duidelijk dat de patch in Catalyst 5.11 komt. (dus november)

We zullen het er maar op houden dat het vrijdagmiddag was, en dat voortaan de redactie weer probeert objectief te zijn.
MJT: ik denk dat ze nummer 2 volgens marktaandeel bedoelen. Intel is nog altijd nummer1.
Niet zo heftig reageren :)
Hmm..., nou ok..., vooruit dan maar :)

Maar ja, dat krijg je als ze zo tendieus schrijven. Waarom zou je dit immers uberhaupt vermelden? Het heeft niets met het topic te maken.

Overigens ben ik wel benieuwd of ATI nog meer van die optimalisaties gaat maken. Als het inderdaad komt doordat die memory controller de bandbreedte beter gebruikt, dan kunnen we dit ook nog voor D3D games verwachten.
(en er zullen genoeg mensen zijn die heel nauwkeurig gaan kijken of er niets met IQ gebeurd)

En aangezien ik alles met AA speel, boeit het mij niet wat er met de non-AA prestaties gebeurd :)
dat klopt, maar ik denk niet dat de schrijver dat weet...
uit het volgende:
Met de nieuwe softwarepatch wordt duidelijk dat ATi wel degelijk de snelheid in huis heeft om fatsoenlijk met de grote broer te concurreren
kan je nl halen dat ze eigenlijk op Nvidia doelen, want op gebied van 3D performance is ATi (en Nv natuurlijk ;) ) ALTIJD al beter dan Intel.

idd erg gekleurde formulering die hier gebruikt is... :/
het is simpel

DirectX => Microsoft => PURE EVIL!!!!111

OpenGL => Open => lijkt op open-source => Alles met 'open' erin roelt!!!

|:(
OpenGL is de standaard die nVidia koos om zijn kaarten op te baseren, ik dacht dat het gemaakt was door SGI. In ieder geval is OpenGL zo goed als Open-Source, het is een open standaard, beschikbaar op vele OS'sen, wordt gebruikt voor professionele toepassingen, enz enz enz, ik kan nog wel even doorgaan...

Direct3D, of D3D for short, is een API gebaseerd op OpenGL, die eigenlijk door M$ alleen nog wordt gebruikt om hun monopoly vast te houden.
Omdat er ook al spelen zijn, die zonder dat aa dingetjes en alles aanzet ook, een videokaart op volle toeren laten werken :0
en nu controleren of ze wel alles renderen enzo
anders krijgen we weer die "optimalisaties" voor benchmarks etc
Hexus gebruikt een eigen custom demo voor Doom3, daar is echt niet voor te optimaliseren zoals voor 3DMark, omdat je gewoonweg niet weet welke scenes er gebruikt worden in de Demo...
denk eens na: applicatie specifiek optimalisaties die ENKEL in AA modes prestatiebevorderend zijn.
Waarom geen prestatiewinst zonder AA vraag ik me dan af? De IQ modes zonder AA zouden toch moeten kunnen profiteren van de efficienter geprogrammeerde memory controller?
Da's echt niet zo vreemd hoor.

Er zijn best wel optimalisaties denkbaar in de manier waarop je met je geheugen omgaat. En dan helpen die uiteraard alleen maar in situaties waar dat geheugen ook heftig gebruikt wordt.
En daar horen non-AA situaties nou eenmaal niet bij.

Bij het hexus artikel is nu overigens ook een uitleg van een ATI engineer geplaatst. (die heeft die uitleg op beyond3D gezet, maar ik moet nog even zoeken in welke thread)

Echt verrassend is deze ontwikkeling ook niet aangezien Dave Baumann in zijn X1800 review al had aangegeven dat ATI verwacht dit soort optimalisaties te kunnen doen met hun nieuwe memory controller.
Omdat AA een totaal ander geheugengebruik betekent dan normale rendering misschien? |:(

De efficientie van de geheugencontroller totaal is niet beter, hij kan alleen beter omgaan met AA situaties.

EDIT:

linkje naar thread bij Beyond3D waar de daadwerkelijke mensen die de drivers proggen uitleggen wat er aan de hand is:

http://www.beyond3d.com/f...thread.php?t=24276&page=7
De uitleg bij Hexus beweerd dat de memory controller de bandbreedte beter gebruikt. Dan zou het dus niet specifiek over AA gaan, maar over alle bandbreedte intensieve situaties.
(Maar dat zijn "toevallig" dan de AA situaties)
Omdat het niets met OGL te maken heeft.

Deze optimalisatie kun je net zo goed met D3D toepassen als met OGL

Wellicht hebben ze zich eerst gefocused om Doom3 omdat ze daar het verste achter liepen. Wellicht was daar ook het bandbreedte gebruik het minst efficient en konden ze er het meeste winnen.

In ieder geval heeft het geen zak met de driver te maken.
(en de Doom3 score heeft geen zak met OpenGL te maken, maar dat is al ontelbare malen uitgelegd)
Waarom doen ze het in 1 keer niet goed, en schrijven ze een nieuwe OGL driver in plaats van applicatie specifieke optimalisaties er in te steken? Want moet je dus iedere keer er een ogl spel uitkomt wachten tot het ati driver team het hele ding geoptimaliseerd heeft.
Als de standaard ogl driver goed was, hadden ze al dat werk niet.
Dan zou het dus niet specifiek over AA gaan, maar over alle bandbreedte intensieve situaties.
(Maar dat zijn "toevallig" dan de AA situaties)
Benchmarks die ik heb gezien lijken daar totaal niet op, het zou niet alleen applicatie specifiek maar ook erg setting specifiek te zijn (dus ook niet in 2xAA maar echt enkel in 4xAA.

Wat ze precies hebben gedaan maken ze binnenkort bekent, wel hebben ze aangegeven het renderen zelf totaal onaangetast blijft.
Omdat het niets met OGL te maken heeft.

Deze optimalisatie kun je net zo goed met D3D toepassen als met OGL

Wellicht hebben ze zich eerst gefocused om Doom3 omdat ze daar het verste achter liepen. Wellicht was daar ook het bandbreedte gebruik het minst efficient en konden ze er het meeste winnen.

In ieder geval heeft het geen zak met de driver te maken.
(en de Doom3 score heeft geen zak met OpenGL te maken, maar dat is al ontelbare malen uitgelegd)
Neen, het is echt alleen bij OpenGL, na eigen zeggen van ATi omdat OpenGL wat meer vrijheid wat dat betreft bied.....

En het heeft alles met de driver te maken,

Doom3 heeft bepaalde eisen die het ATi niet makkelijk maken, maar in OpenGL heeft ATi wel altijd al een achterstand gehad, kijk ook naar Chronicles of Riddick, en alle ander OGL games die je kan bedenken.
@Jan:

Dat het over bandbreedte intensieve situaties gaat, betekent niet autoamtisch dat het niet applicatie specifiek of setting specifiek kan zijn.

De manier waarop de bandbreedte gebruikt wordt verschil namelijk per applicatie en zelfs per setting.

Wat ze gedaan hebben is kijken hoe de brandbreedte behoeften zijn bij 4xAA in Doom3. Vervolgens hebben ze die memory controller de bandbreedte aanvragen anders laten behandelen zodat de bandbreedte optimaal wordt gebruikt bij 4xAA.

Nou kan het zijn dat andere applicaties soortgelijk gedrag vertonen bij 4xAA en dan zal deze instelling ook daarvoor helpen. Maar het kan ook anders zijn en dan helpt ie weinig, of is het zelfs nadelig.
2xAA zal ook een ander beslag leggen op de bandbreedte dan 4xAA.

Om deze programmeerbare memory controller optimaal te benutten zou je dus iets moeten verzinnen waardoor die controller zelf het gebruik kan analyseren en de beste instelling kan bepalen, zonder dat ATI dat steeds zelf hoeft te doen. Maar dit is nog allemaal nieuw, en ze zitten er zelf ook mee te experimenteren. De waardes die ze nu hebben zijn allemaal empirische waarden.
Om het heel cru te zeggen: het is nu nog een trial and error proces.

Bij die Beyond3D thread heeft ATI het proces al vrij diepgaand uitgelegd. Ik betwijfel sterk of er nog meer informatie vrijkomt dan er nu al gegeven is. (Het wordt wellicht wel zodanig verteld dat andere sites gaan begrijpen wat er aan de hand is, want tot nu toe is het duidelijk dat die in het duister tasten. (zoals bv guru3d)

Verder is dat absoluut niet alleen voor OpenGL. ATI heeft zelf juist al aangegeven dat ze al tuning voor D3D hebben gedaan voor de launch, maar dat er voor D3D ook nog heel wat extra te winnen is.

Ik heb ze nog nergens zien beweren dat OpenGL wat mer vrijheid wat dat betreft biedt. Heb je een link naar die bewering?

Aangezien er nog zoveel reacties hier zijn van mensen die totaal niet begrijpen wat ATI aan het doen is. (daar bedoel ik Jan overigens niet mee) quote ik toch maar even de essentiele info die ATI (sireric op beyond3D) heeft gegeven:
(MC is de Memory Controller, BW is bandwidth)
http://www.beyond3d.com/f...thread.php?t=24628&page=2
There's some slides given to the press that explain some of what we do. Our new MC has a view of all the requests for all the clients over time. The "longer" the time view, the greater the latency the clients see but the higher the BW is (due to more efficient requests re-ordering). The MC also looks at the DRAM activity and settings, and since it can "look" into the future for all clients, it can be told different algorithms and parameters to help it decide how to best make use of the available BW. As well, the MC gets direct feedback from all clients as to their "urgency" level (which refers to different things for different client, but, simplifying, tells the MC how well they are doing and how much they need their data back), and adjusts things dynamically (following programmed algorithms) to deal with this. Get feedback from the DRAM interface to see how well it's doing too.

We are able to download new parameters and new programs to tell the MC how to service the requests, which clients's urgency is more important, basically how to arbitrate between over 50 clients to the dram requests. The amount of programming available is very high, and it will take us some time to tune things. In fact, we can see that per application (or groups of applications), we might want different algorithms and parameters. We can change these all in the driver updates. The idea is that we, generally, want to maximize BW from the DRAM and maximize shader usage. If we find an app that does not do that, we can change things.

You can imagine that AA, for example, changes significantly the pattern of access and the type of requests that the different clients make (for example, Z requests jump up drastically, so do rops). We need to re-tune for different configs. In this case, the OGL was just not tuning AA performance well at all. We did a simple fix (it's just a registry change) to improve this significantly. In future drivers, we will do a much more proper job.
Wat betreft het OpenGL gedeelte. Het mag toch tegenwoordig algemeen bekend zijn dat Doom3 erg ongunstig is voor de ATI kaarten door de manier waarop Doom3 rendered. Doordat Doom3 toevallig OpenGL is, denk de meute dat het daardoor komt, maar diezelfde manier van renderen kun je ook in D3D gebruiken, en dan zouden de prestaties in D3D net zo slecht zijn.
Riddick gebruikt dezelfde manier van renderen als Doom3 en laat dus dezelfde prestaties zien.

En alle andere OGL games die ik kan bedenken? Tja, dat is dus een probleem, want ik kan er geen andere bedenken. Ik heb hier al een keer gevraagd of iemand 5 moderne games kan noemen die OGL vereisen, maar daar kwam geen enkele reactie op.

IL2 kan zowel OGL als D3D gebruiken. Daarbij is ATI ook iets langzamer, maar dat scheelt maar weinig. Totaal niet vergelijkbaar met de D3 en Riddick situatie.
(En op dit moment draai ik die uiteraard in D3D voor de Adaptive AA :))
Dit "hele gedoe" heeft denk ik meer met de ongelovelijke programeerbaarheid van de GPU's te maken dan met wat anders, het probleem wat ik hier in zie is voor de nieuwe spellen, die zichzelf nog moeten bewijzen, die lopen op deze manier zoiezo al een performance hit op. Dit is al jaren hoor, applicatie specifieke drivers zijn ook gewoon sneller, het is alleen eigenlijk niet helemaal netjes.

Links?
Guru3D
http://www.hexus.net/content/item.php?item=3668

EDIT:
Deze stonder verderop ook al....
Ze stoppen de optimalisaties in driver 5.11: http://www.theinquirer.net/?article=26946
@Jan.

Deze links was ik dan ook niet in geinteresseerd. Ik vroeg naar links waarin ATI aan zou geven dat dit alleen werkt bij OpenGL omdat dat wat meer vrijdheid zou geven.

Dat staat echter nergens in die twee links.

Bij Beyond3D zegt serirec (ATI) zelfs letterlijk dat deze patch welliswaar voor opengl is, maar dezelfde optimalisatie net zo makkelijk voor D3D gebruikt kan worden (en al gebruikt is!). Hij zegt ook letterlijk dat deze optimalisatie compleet los staat van OpenGL of D3D.

Alleen doordat OpenGL en D3D in de driver los van elkaar staan, werken wijzigingen die je specifiek voor OpenGL instelt niet door in D3D. En deze patch werkt daarom ook niet door in D3D.

Verder is het zeker niet zo dat elke GPU zo ongelooflijk programmeerbaar is.

Het essentiele punt bij de X1000 kaarten is dat ELK onderdeel zo gemaakt is, dat het geen last heeft van hoge latency.
Op die manier kan de MC een aantal requests "opsparen" en analyseren en vervolgens in een efficientere volgorde afwerken. (zie het een beetje als NCQ bij harddisks)
Maar dat betekent wel dat elke client dus langer moet wachten tot zijn memory request is afgehandeld (hoge latency). Om te voorkomen dat bv je shaders dan stil liggen, moet je die shaders op een andere manier laten werken. ATI's oplossing daarvoor is om heel veel threads actief te laten zijn, zodat er altijd wel weer wat anders voor de shaders te doen is, terwijl ze wachten op die MC. (en dat vereist weer veel register entries)
Zoals je ziet is het niet alleen een stuk van die MC, maar moet je hele GPU design er op aangepast worden.

In de X800 zit ook een beperkte mate van programmeerbaarheid van de MC, maar in veel mindere mate dan bij de X1000 serie. Ze gaan nog wel kijken of daar ook meer winst uit te halen is, maar dat zal om bovenstaande redenen nooit zo groot kunnen zijn als bij de X1000 serie.
Nvidia heeft ook beperkte programmeermogelijkheden voor de MC, dus die komen wellicht ook wel met patches.

Overigens wil je natuurlijk helemaal niet dat je voor elke applicatie een aparte patch krijgt. Het liefst wil je dat dat dynamisch geregeld kan worden. Daar zijn de dan ook mee bezig. Maar dit is allemaal nog vrij nieuw en het is moeilijk een algoritme te maken zodat die MC altijd de juiste keuze maakt. Vandaar deze patch voor Doom3.

Overigens snap ik niet waar je dit soort drivers niet netjes vind. Er wordt niet gecheat of zo. Je maakt alleen gebruik van het feit dat een bepaalde applicatie of instelling op een bepaalde manier je gpu belast. En daar stem je dan je gpu optimaal op af. Wat is daar niet netjes aan?
Wat ja natuurlijk niet wilt is dat dat alleen maar voor de 5 meest gebruikte benchmarks gebeurd, maar het is aan de review sites om er voor te zorgen dat ze goede reviews maken die van meer benchmarks gebruik maken, en dan zal dat niet gebeuren.
"de grote broer" is ook niet helemaal correct hoor... ATi heeft nog steeds een jaaromzet van $ 2,2 miljard tegen $ 2,0 miljard voor NVidia.

Als ik mij goed herinner is het juist NVidia die de underdog was en nu op gelijke voet staat met ATi (hun gross profit margin is zelfs nog een paar procentpuntjes beter)
Omzet is leuk, maar als nVidia efficienter weet te produceren zal de winst hoger liggen dan die van ATi... Omzet is weinigzeggend imho.
Ik ben heel benieuwd of dit alleen gaat gelden voor de nieuwe X1*00 series of dat ook oude kaarten als de 9*00 de OpenGL prestaties na een update van de drivers.

Beter laat dan nooit zeg ik maar.
het populaire spel werd nogal eens als hét bewijs gezien dat nVidia nog steeds de betere hardware maakt.
...Alleen omdat nVidia het beter doet in een OpenGL game? :? Rare knakker die daarmee zo'n conclusie trekt.
Vooral de resultaten die in Doom 3 werden neergezet waren de fabrikant een doorn in het oog;
hoe je hier ook tegenaankijkt (specifieke cheat of legitieme patch), 1 ding heeft het wel opgeleverd: Ati is blijkbaar wakker geworden over de OGL prestaties!

Hardware is belangrijk, maar de drivers ook. Het een kan niet zonder het andere. Daar zijn ze al eerder achtergekomen want ze maken nu net als nVidia goede drivers (vgl andere concurrenten, of oude S3 en Ati). Maar je kunt ook niet alsmaar door blijven optimaliseren met je drivers zonder ooit nieuwe hardware uit te brengen (Matrox anyone?).
Waarom is dit een extra patch en zit dit niet in een (beta) driver?
Dan kan ik mij ook afvragen waarom de NVIDIA drivers niet genoeg zijn dat er losse software op de achtergrond mee moet draaien :/

Ik ben van beide "technieken" geen voorstander btw. Drivers alleen zijn voldoende voor mij.

edit:

Aval0ne installeer eens een detonator pack van nvidia en vertel mij dat je geen nieuwe service of automatisch startende applicaties erbij hebt. Maja ik zou geen tweaker zijn als ik hem niet liet extracten en dan de brondrivers gebruik.
Maar ATI is precies hetzelfde verhaal (jammergenoeg). Ik ga een dezen dagen weer een NVIDIA halen.
En welke losse software van nvidia moet jij apart draaien zodat anders je kaart niet werkt?
Helaas weer een teken dat het toch nog niet helemaal lekker zit met de driver afdeling van ATI. Vind het een beetje vaag dat dat nu nog zo een rol moet spelen. Je zou zeggen dat ze dit probleem wel eens voor goed getackeld zouden hebben, helemaal omdat er vrijwel niets is veranderd aan de OpenGL structuur :?
Laten we als je deze weg opgaat van discusie er dan ook eens de driver-afdeling van NVidia bijnemen...

Wie herinnert er zich hier nog het probleem van de (toen) laatste nieuwe versie van de NVidia-drivers die er in HL2 voor zorgden dat als je de resolutie en AA te hoog zette er stukken van het beeld verdwenen? (het ging over de hekken in het spel).

Vind het dus ook een beetje vaag dat je enkel over ATI spreekt hier.
Het gaat hier over ogl en slechte prestaties in ogl. Logisch dat je dus enkel over ATi spreekt want nvidia heeft geen problemen met ogl.
Met nvidia heb ik nog nooit problemen gehad met OpenGL, met ATI 9800 Pro ziet mijn lievelingsspel er in opengl nog steeds slechter uit als op mijn oude geforce 2gts (vooral transparent spul).. goh.. weet je wat ik de volgende keer koop? in iedergeval GEEN ati meer..
Dat ding is spik splinter nieuw. Uiteraard dat er verbeteringen in de drivers gemaakt zullen worden. De beste games voor PS2 en XBox zijn toch ook pas van het afgelopen jaar? Of wil je beweren dat de eerste games voor deze bakken het meest gebruik maken van de technische mogelijkheden van die systemen?

Als ATi moet afwachten met het releasen totdat de drivers en games maximaal gebruik maken van de kaart, dan is nVidia zeker 2 releases verder hoor. (en omgekeerd net zo) en dan lacht iedereen het bedrijf dat gewacht heeft uit, omdat de specificaties van de hardware in totaal geen verhouding met die van de concurrentie.
Blijkbaar is er alleen een verbetering te zien als je 4xAA gebruikt: http://www.guru3d.com/newsitem.php?id=3182
Vreemd is dat, want Rys (Hexus) heeft aangegeven dat er ook winst was bij 2xAA en 6xAA
Rys laat de laatste tijd wel meer steken vallen
Een steek laten vallen, is wat anders dan glashard liegen.

Wil jij beweren dat Rys zat te liegen?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True