Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Bron: AnandTech, submitter: CJ

AnandTech heeft een nabeschouwing online gezet over wat er mis ging met de NV3x-architectuur. In het artikel wordt een vergelijking gemaakt tussen de manier van werken van shaders en pixels van de NV3x-architectuur en die van de NV40. nVidia had volgens AnandTech de juiste keuzes gemaakt bij het ontwerp van de NV3x, maar de uiteindelijke prestaties bleven flink achter bij de theoretisch haalbare prestaties vanwege een paar bottlenecks. Die bottlenecks bestonden onder andere uit de ingebouwde multitextureing-functie, terwijl programmeurs juist meer van vertex- en pixel-shaders gebruik maakten. Hierdoor viel de uiteindelijke performance van de NV3x-serie tegen.

nVidia GeForce FX logoEen ander punt waardoor de kaarten uitgerust met de NV3x-GPU's niet naar verwachting presteerden, was dat van de pixelpipeline. Hierin wordt alle data verwerkt vanaf de software naar het beeldscherm, waarbij de pixelpipeline van de NV3x soms moeite heeft om 'gevuld' te blijven. De twee hoofdzaken van het multitextureing en de pixelpipeline hebben ervoor gezorgd dat de NV3x-architectuur in tegenstelling tot de verwachtingen niet zo goed kon presteren. Met de NV40-architectuur heeft nVidia nu een flinke stap in de goede richting gezet, aldus het artikel.

Moderatie-faq Wijzig weergave

Reacties (39)

Het was wel duidelijk dat nvidia op het verkeerde paard had gewed met de NV3X qua opbouw van de video kaart.
Was het nu daarbij gebleven dan was het niet zo erg geweest. Door al die stomme dingen die ze daarnaast nog uithaalden met de drivers zoals optimalisaties heb ik een slechtere smaak overgehouden aan deze serie videokaarten dan aan de wat mindere prestaties.
Zoals ik al eerder verteld heb heeft ATI ook een paar behoorlijke K*** streken geflikt. Ati heeft de bij de laatste series kaarten alle zwaar kracht vretende applicaties eruit geflikkerd en daarmee als zogenaamd snelle kaart kroon ervandoorgegaan.
Geen FOG table support
Alpha Blending ronduit slecht gessupport.
2D renderings mogelijkheden wat afgezwakt.

Zodat de snelheid weer omhoog ging.

En das ook een redelijke naaistreek.
Helaas staren de meeste mensen zich volstrekt blind op 3D "performance". (Lees: hoge getalletjes).

Dat andere (belangrijke!) features daarvoor het veld moeten ruimen weet men niet. Je ziet het nog steeds: beeldkwaliteit is nog van ondergeschikt belang, TV-Out is ook niet wat het zijn kan (en wat het was, op een G400!) etc. etc.

Helaas kun je niet eens meer kiezen voor een kaart die wel de fijne features heeft. Ze zijn er niet meer! }:O
TV-Out van de ATI kaarten wordt al jarenlang als uitstekend gezien.
2D kwaliteit is ook al jarenlang prima.

En wat betreft het aanhoudende gezeur FOG tables. NIEMAND mist ze blijkbaar in games. Geen reviewer die het ooit merkt. De voorbeelden van tankeriv zijn aardig, maar dezelfde games zien er bij mij op mijn ATI kaarten beter uit dan in zijn screenshots.

Alpha blending slecht gesupport? Hoe komt het dan dat daar geen enkel voorbeeld van is? (Dat screenshot van Anandtech bewijst het tegendeel. Dat anand zelf blind blijkt te zijn maakt dat bewijs niet anders)

Een naaistreek is het pas als iemand er last van heeft.
Blijkbaar mis je het niet, omdat je niet weet wat je mist. De flexibiliteit van de TV-out van Matrox G400 (NIET G450 en hoger, ook Matrox is gaan snoeien in de goede features.) is gewoon fenominaal, en op punten nog steeds beter dan het hedendaagse spul.

Een andere simpele, edoch door mij vaak gebruikte feature van Matrox kaarten is PixelTouch: een hardwarematige 2x en 4x zoom van scherm. Erg handig voor het bedrijven van de liefde met pixels. (a.k.a. pixelnuecken)
Alpha blending slecht gesupport? Hoe komt het dan dat daar geen enkel voorbeeld van is? (Dat screenshot van Anandtech bewijst het tegendeel. Dat anand zelf blind blijkt te zijn maakt dat bewijs niet anders)
Review van tweakers.net zelf wijst anders uit
Kan het alleen niet meer vinden sorrie :?.

Maarre, :
Een naaistreek is het pas als iemand er last van heeft.
Nou dan is het dus een naaistreek, ik heb mijn Radeon 9700 Pro binnen een half jaar weer verkocht omdat ik het gewoon kl*** vondt. En nu draai ik alweer een half jaar met volle tevredenheid op mijn FX5950 Ultra. Sja dan maar wat mindere AF en AA prestaties dan een 9800XT maar wel FOG Table ondersteuning, Alpha blending. etc etc.

Ik lees overigens verscheidene malen dat er meerdere mensen zijn die er zo over denken :

Zie hier :

http://www.tweakers.net/aanbod/product/66881/a

Wel grappig.
nVidia had volgens AnandTech de juiste keuzes gemaakt bij het ontwerp van de NV3x, maar de uiteindelijke prestaties bleven flink achter bij de theoretisch haalbare prestaties vanwege een paar bottlenecks
Als je een design maakt met bottlenecks die van tevoren overduidelijk zijn (en daardoor presteert je kaart vervolgens slecht) dan heb je doodgewoon de verkeerde keuze gemaakt bij het ontwerp.

Hoe iemand ooit iets anders kan beweren (zoals Anandtech doet) is mij een compleet raadsel.
Het geeft alleen maar aan hoe biased Anand is.

Wat dat betreft is het artikel ook knap waardeloos, aangezien het pretendeert te vertellen wat we mis ging met de NV30, maar dat vervolgens totaal niet doet.

Ja, Anand geeft de zwakke plekken aan van het ontwerp. (Iets wat Anandtech tot nu toe steeds ontkent heeft, maar wat betere sites al anderhalf jaar geleden hebben duidelijk gemaakt)

Maar Anand vertelt nergens waarom die zwakke plekken er in zitten. Als je zuiver op de informatie van Anand af gaat dan is er maar 1 conclusie mogelijk: De Nvidia ontwerpers zijn een stel sukkels die gigantische blunders hebben gemaakt bij het ontwerp. Vervolgens hebben de ATI ontwerpers de enige logische keuzes gemaakt, zoals iedereen die zou maken met de informatie van Anand. Als 4x2 soms even snel is als 8x1 en soms langzamer, maar nooit sneller, dan kiest vanzelfsprekend iedereen voor 8x1.

Dat Nvidia desondanks voor 4x2 koos geeft aan dat het verhaal van Anandtech niet klopt. (niet volledig is)

Ik ben geen fan van Nvidia en zeker niet gezien hun gecheat van het laatste jaar, maar één ding ben ik wel van overtuigd, en dat is dat hun ontwerpers geen sukkels zijn. Zij weten meer van ontwerpen dan Anand. Zij wisten toen zij voor 4x2 kozen wat voor bottlenecks dat zou opleveren.

Als je nu wilt gaan uitzoeken waarom de Nv3x architectuur zo is tegengevallen dan moet je gaan navragen waarom de Nvidia engineers die keuze hebben gemaakt.
Ze hebben toen gedacht dat 4x2 voor hun een voordeel zou zijn tov 8x1. En dat dat voordeel er zou zijn ondanks de bottlenecks die dat ontwerp met zich mee brengt.

Die gedachte bleek dus niet juist te zijn, en dat moet je dan uitzoeken.

De informatie in het artikel van Anand is allemaal correct, en netjes uitgelegd. Maar daarmee legt het artikel niet uit waarom de NV3x mislukt is.

Naar mijn mening is echter het ontwerp helemaal niet mislukt. Ik denk dat Nvidia nooit gepland heeft een kaart te maken die super was in DX9. Ik denk dat de ontwerpers de opdracht gekregen hebben om een snelle DX8 kaart te maken, die DX9 alleen maar als een features voor op de doos zou hebben.
DX9 spellen zouden immers nog wel een tijdje op zich laten wachten.
En daarin zijn ze dan wel geslaagd, want die kaart is gewoon goed in DX8.

Deze strategie heeft in het verleden altijd goed gewerkt voor NVidia. De reden was dat de concurrentie die features nog helemaal niet had, en niemand dus kon beoordelen of zo'n nieuwe nivida kaart die features wel of niet snel kon afhandelen. (denk bv aan de eerste versie van pixelshaders)

De reden dat het NV3x ontwerp nu geflopt is, is simpelweg dat die strategie nu niet heeft gewerkt. Nvidia had er niet op gerekend dat ATI een gpu zou bouwen die snel was in DX8, maar daarnaast ook nog eens snel was in DX9.

En dan krijg je dus paniekoplossingen zoals het overklokken van productiekaarten, waardoor die belachelijk grote koeling ineens nodig was. En daarna de gigantische cheats.
Er werd daarvoor door alle bedrijven ook wel wat gecheat, maar het was nooit in zo'n sterke mate. En doordat het in zo'n sterke mate gebeurde viel het op bij de review sites, en toen waren de poppen helemaal aan het dansen.
And the rest is history...
Heel de NV3X serie?

Nee toch? De NV35 dus de FX5950 presteert toch heel behoorlijk?
De 5950 wordt volgens mij in farcry voorbij gestreefd door een 9700pro als er van ps2.0 gebruik wordt gemaakt. Das dus echt onder de maat. In oudere games presteert ie wel normaal.
een 9700pro is zo goed als het zelfde als een 9800pro

heb je je nooit afgevraagd waarom hij er zo snel weer uitwas en helemaal niet meer verkrijgbaar.
Daar gaat het toch niet om. Waar het wel omgaat is de vergelijking introductie 9700pro en 5950ultra. Dat de r350 niet zo veel verschilt van en r300 is hier dus niet van belang geeft eigenlijk alleen maar aan hoe goed de r300 technologie is.
Dat valt over het algemeen wel mee. Er is een hoop weggelaten uit de R300 core.

Alpha blending geminimaliseerd. FOG Table support eruit gesloopt. ETC ETC ETC.

Daar komt bij dat de core nog lang NIET stabiel is.
Ja maar dan is de 9700 pro net een frametje sneller maar dan loopt de 9700 pro weer eens vast :+.

Zoals we gewent zijn van ATI.
Wel een beetje zonde als de overige x producten onder de maat presteren met vergelijkbare prodcuten van concurrenten vrees ik. Maar de 5950 is inderdaad best goed.
hoe dan ook vind ik het gedrag van nVidia veel erger die zijn in korte tijd vaak gepakt op diverse cheats... daarnaast gaven ze 3D mark nog de schuld van hun slechte werk..

Ati ook niet altijd even netjes en correct geweest maar nVidia spant de kroon HEEL RUIM!!!

het wordt tijd dat er ook eisen gesteld gaan worden dmv kwaliteit dus iedere kaart moet niet alleen een bepaald effect kennen maar ook eisen aan de kwaliteit van de effecten stellen
Als je het artikel had gelezen, zou je dus nu moeten weten, dat de tegenvallende resultaten van de NV3x serie te maken had, met het gebrek aan optimalisaties in de games(multi-texturing).

De hele 3Markxxxx serie is er gebasseerd op de "ruwe"processorkracht, dus zonder gebruik te maken van specifieke GPU-optimalisaties(zoals multi-texturing;ik kan me dat ook wel voorstellen, ander vergelijk je appels met peren....)

Maar vanuit dit perspectief bekeken, kan ik het mij voorstellen, dat nVidia heeft "geprobeerd"aan te tonen dat hun kaart beter presteert als een radeon 8500Pro, door 3DMark te "optimaliseren" voor hun 3D API(instructieset).

Dat dat als cheaten wordt gezien snap ik ook nog wel, maar het geeft wel aan, dat het uiteindelijke resultaat het belangrijkste is(dus wat de gebruiker ziet, en niet de manier waarop een benchmark is gebasseerd).

//blije-modus//
Dankzij vele websites en reviewers, die dit cheaten hebben ondekt en aangekaart, worden we nu wel verblijdt met de NV40, die 30 tot 50% beter presteerd als de NV30.........en wie is daar nu niet blij mee... :)
//blije-modus//
Leuk voor de kopers van de NV3x serie :?
En bij de introductie was nVidea nog zo enthousiast over de chipset. :>
En nu anno 2004 :(
Hierdoor viel de uiteindelijke performance van de NV3x-serie tegen.
hetzelfde verhaal voor veel matrox kopers ;)
daar komt bij als ati het niet zo had van de brute kracht maar van de slimme processorkracht en daar zou op gemikt worden lagen zij eruit. het is mazzel voor nvidia dat ze zoveel geld hebben en dat ze zo'n tegenslag kunnen verdragen
De NV3x was inderdaad niet de verwachte knaller. nVidia heeft zich gewoon verslikt in de ontwerp tijd, ze hebben te veel nieuwe technieken in 1 keer in een nieuw product willen stoppen, ATi kwam met een beter product dan ze vermoedelijk verwacht hadden. En als klap op de vuurpijl verlaagde Microsoft ook nog eens de specs van DX9 (FP32 naar FP24, volgens mij op verzoek van ATi).

Maar er zijn ook nog positive punten. Want ondanks dat alles kan de 5950U zich toch meten met de 9800XT. De 5950U is nagenoeg net zo snel, terwijl alles in FP32 gaat ipv 'maar' FP24 op de 9800XT.

Daar komt nog bij dat dankzij nVidia iederen een DX9 kaart kan kopen. Want voor zover ik weet heeft ATi nog steed geen budget DX9 kaart in het assortiment (terwijl zij volgens mij degene waren die riepen: DX9 voor iedereen)..

Ook hebben ze als eerste kaarten met GDDR2 en GDDR 3 op de markt gebracht (het laatste heeft nog steeds niemand werkend op een ATI kaart gezien).

Natuurlijk, niet alles wat ze hebben gedaan was even koosjer. En dat heeft ze zeker klanten gekost. Maar ook daar zit een positief punt aan: nVidia zal zich nu wel twee keer bedenken voor ze nog eens zo iets doen.

En als laatste: de 6800 geeft duidelijk aan dat nVidia weer terug is. Het wachten is nu nog op het antwoord van ATi. Of hebben die het wellicht te druk met grafische chipies maken voor de consoles van Microsoft en Nintendo ?
Microsoft heeft de specs van DX9 niet verlaagt. Maar zelfs al was dat wel zo geweest, dan had dat de NV30 niet geholpen, aangezien die kaart zelfs op FP16 de R300 op FP24 niet kan bijhouden.

Die 5950U kan alleen maar meekomen met de 9800XT omdat die NIET in FP32 werkt, maar in FP16 en FX12 !!
(Ongelooflijk zeg dat er nog steeds mensen zijn die denken dat het ding alles in FP32 doet, moeten we dat echt na al die tijd nog uitleggen??)

Inderdaad kan je bij Nvidia een budget DX9 kaart kopen. Echter dat is compleet zinloos aangezien de prestaties zo laag zijn dat je die features nooit kunt aan zetten onder dat je minder dan 10 fps krijgt. Wil je dat dan werkelijk als een positief punt benoemen?

Of ze nou het ene of andere geheugen gebruiken kan ik totaal niet boeiend vinden. Resultaten is wat telt!

Met de 6800 geeft Nvidia aan dat ze hun verlies erkennen en hun trots inslikken. Ze hebben zich aangepast aan ATI. Ze gebruiken voortaan de AF van ATI, ze gebruiken de FSAA van ATI, en ze zijn overgestapt op het zelfde parallele ontwerp wat ATI al sinds de R300 gebruikt. (allebeid dus nu 16x1)

Daarom zal de 6800 ongetwijfeld een sterk concurrent voor ATI zijn, en bovendien kan je verwachten dat de sterke en zwakke punten bij beide ontwerpen grotendeels gelijk zijn.
Ze hebben zich aangepast aan ATI
Laatste keer dat ik keek dicteerde Microsoft en een paar grote spellenontwikkelaars nog de boel. En hoe kom je erbij dat ze de AF en FSAA van ATI gebruiken. Zijn dat geen onderdelen van DX.
Daarom zal de 6800 ongetwijfeld een sterk concurrent voor ATI zijn, en bovendien kan je verwachten dat de sterke en zwakke punten bij beide ontwerpen grotendeels gelijk zijn.
Waar krijg ik hier de vermoedens dat je de kaart van ATI al beter vindt.

Toch even moeten zoeken maar hier staat het dan op tomshardware waar duidelijk staat vermeld dat de 9800XT 8x1 pipelines heeft en geen 16. De r400 zou er in eerste instantie er maar 12x1 hebben dus zou het betekenen dat er naar een volgende generatie kaarten een downgrade plaatsvindt?? Is te vinden op rage3d.com en kwam zelfs op de frontpage voor.

Begrijp me goed, ik ben niet voor een van de beide producenten, zelf heb ik ook een Ati :9 , maar als ik een kaart zou kopen, dan zou ik gewoon kijken naar de prijs/kwaliteit kijken en zeker geen topoftherange kopen want dat kan ik toch niet betalen. Als me dat naar Nvidia brengt dan koop ik die, als me dat naar Ati brengt koop ik die, als me dat XGI brengt dan koop ik die.
Dat is niet juist. De manier waarop je AF en FSAA implementeerd zijn geen onderdelen van DX.

Nvidia gebruikt nu ook adaptive AF op dezelfde wijze als ATI heeft ingevoerd bij de R200. (Dat kan je in elke redelijke review van de NV40)

Nvidia gebruikt nu ook dezelfde FSAA methode als ATI bij de R300 heeft ingevoerd. Namelijk rotated grid multisample. (Ook dat kan je in elke behoorlijke review van de NV40 terugvinden)

Waarom jij de vermoedens vandaag haalt dat ik de ATI kaart al beter vindt weet ik niet, want ik als ik een kaart ongetwijfeld een sterke concurrent vind, dan doe ik daarmee geen uitspraak welke sneller is. (Ze kunnen bv ook even snel zijn)

De 9700/9800 serie heeft inderdaad 8x1 pipelines ipv 16. Het zou nogal stom van Nvidia zijn om het exacte design van de vorige generatie van de concurrent te kopieren, aangezien die natuurlijk niet stil zit.
Waar ik op doelde is dat ATI al eerder dan Nvidia had besloten dat paralellisatie de oplossing was. Dus 8x1 ipv 4x2. Je ziet dus dat Nvidia nu ook voor een ?x1 oplossing heeft gekozen. Uiteraard niet voor een 8x1 oplossing aangezien dat niet voldoende zou zijn voor de volgende generatie. Maar als je diezelfde 8x1 oplossing nu 16x1 maakt dan is ie weer 2x zo snel.

Er is nooit enige betrouwbare info gekomen over het aantal pipelines van de R400. (Ook niet op Rage3D of op Beyond3D, want daar ben ik vaste bezoeker) Eén ding was wel duidelijk en dat was dat het meer dan 8x1 zou moeten zijn om voldoende prestaties te halen.
16x1 is dan te verwachten als je dubbele prestaties wil hebben. Alleen door de verhalen over "extreme pipelines" bij ATI werd dat vertroebeld. Daarom dat er verhalen kwamen over 12 extreme pipelines waarbij niemand wist wat dat dan precies inhield, maar het zou betekeken dat die pipelines efficienter zouden zijn dan die van de R300.

Hoe je aan die gedachten van een downgrade komt begrijp ik niet. 8x1 -> 12x1 -> 16x1 is volgens mij toch upgrade.
Wel kan het zijn dat er bij een volgende generatie weer andere ideeen komen over pipelines. Op dit moment is de beste oplossing volgens zowel Nvidia als ATI om de boel zoveel mogelijk parallel te laten lopen. Wellicht dat bij een volgende generatie de pipelines weer meer gaan doen en we bv een 8x4 oplossing krijgen of zo.

Normaal gesproken kijk ik uiteindelijk ook naar prijs/kwaliteit. Maar in dit geval laat ik daarin wel meespelen dat ik niet erg gecharmeerd ben van producenten die hun klanten (en dus ikzelf) proberen te belazeren, en daar gewoon een jaar mee doorgaan ondanks dat ze gesnapt zijn, omdat er nog genoeg ongeinformeerde klanten over zijn die ze kunnen belazeren.
Als die kaarten redelijk gelijk presteren dan zal dat voor mij de doorslag geven.
Dat is echter wel de eerste keer in al die jaren dat ik hardware koop, want daarvoor was dat gelukkig nooit aan de orde.
Het spijt me maar de Radeon 9600 series zijn DirectX9 hoor :)
Ik wil niet veel zeggen hoor, maar ik kan FarCry op 1024x768 zetten met 4xAA en 4xAF en alle details op high (water op ultra high) en het beeld loopt vloeiend, geen enkele hik tijdens het spelen. En dat voor een FX5950Ultra die zoveel wordt afgezeken.

Wat ze er ook van zeggen... ik ben nog steeds zeer tevreden met Nvidia.
Ik wil niet veel zeggen hoor, maar ik kan FarCry op 1024x768 zetten met 4xAA en 4xAF en alle details op high (water op ultra high) en het beeld loopt vloeiend, geen enkele hik tijdens het spelen. En dat voor een FX5950Ultra die zoveel wordt afgezeken.
Dan moet je me toch eens uitleggen hoe je dat precies doet :? Ik heb namelijk ook een FX5950 en als ik jouw settings gebruik is Far Cry werkelijk waar niet vooruit te branden. Ik vraag me af wat jouw definitie van 'vloeiend' eigenlijk is.

En nee, het ligt niet aan mijn systeem, want andere spellen en 3DMark (6700 punten) draaien als een trein.

Het is heel makkelijk om te roepen 'bij mij draait alles soepel op de hoogste settings', maar hoe moeten wij dat controleren? Zo'n uitspraak heeft dan geen enkele waarde IMO. Nofi. ;)
En als je een Radeon had, kon je nog hogere settings aan en je hebt sowieso al een betere beeldkwaliteit op dezelfde settings..
Daarbij is een Radeon 9800 PRO erg goedkoop (ongv. 235 euro) :)
Ik vraag mij af ofdat dit door andere drivers verholpen kan worden en ofdat toekomstige spellen wel veelvuldig gebruik zullen maken van het gebodene?
We weten uit ervaring dat nvidia heel wat kan oplossen met drivers ;) Of we dat wel willen is een tweede
Of we dat wel willen is een tweede
En waarom zouden we dat niet willen? Ik heb geen enkele moeite met optimalisaties in een game. Ik wil prestaties, hoe die prestaties gerealiseerd worden is minder interessant. Het wordt pas ernstig als met die optimalisaties de benchmarks vervalst worden.
ik denk dat godyvdb doelt op de dubieuze driverhacks van nVidia de laatste tijden. Schaduwen weglaten om een hogere framerate/3dmark te krijgen
Zeg ik toch ook, even goed lezen. Ik heb geen bezwaar tegen zulke trucs in games, maar wel in benchmarks. Voorlopig vind ik schaduwen in een hele hoop games zo slecht uitgevoerd dat ze alleen maar storend werken, dus dan mogen ze ze van mij wel weglaten.
Nou, ik zou een spel toch wel graag spelen zoals het is gemaakt. Ik zou het niet fijn vinden als een videokaart fabrikant aan spellen gaat sleutelen om een hogere framerate te krijgen. Optimalisaties, prima, maar schaduwen, o.i.d., weglaten is wat mij betreft echt over het randje heen.
Ik weet het niet. Natuurlijk wil ik een spel kunnen spelen zoals het gemaakt is, maar ik wil het ook KUNNEN spelen. Dus als een spelontwerper allerlei dingen op het scherm tovert waardoor een spel te traag wordt en het voor de gebruiker niet mogelijk maakt deze zaken uit te zetten, ben ik er voor dat de driver bepaalde zaken niet laat zien zodat het spel voor mij beter speelbaar wordt.

Dat dit de benchmarks beinvloed is dan voor mij niet zo interessant. Ik wil gewoon zoveel mogelijk spelplezier. Wel vind ik dat nVideo, ATI en de rest hier best open over naar buiten mogen komen en moeten deze functies natuurlijk uitschakelbaar zijn.

Maar uiteindelijk ben ik er dus voor.
Ik vind dat er teveel wordt gezeken over nvidia drivers. Ze hebben één keer op hun flikken gekregen omdat ze optimalisaties voor 3DMark ingevakken hadden, maar alle keren dat een nieuwe drivers 10 of (in de tijd van de GF2) 25% snelheids winst wordt behaald door een GOEIE driver, daar hoor je niemand over. Die gasten weten echt wel wat ze doen, op drivergebied zul je nooit pagina's vol in fora tegenkomen dat mensen problemen hebben met spellen omdat de drivers crap zijn, itt anderen die ik niet zal noemen om een flamebait te vermijden.
Ze hebben niet één keer op hun flikken gekregen, maar ALLE keren sindsdien dat ze drivers gemaakt hebben. Al die drivers bleken nieuwe cheats te hebben, en daarom zijn ze dan ook niet toegestaan door Futuremark voor 3DMark03.
De driver voor de NV40 is de eerste driver sindsdien die geen cheats lijkt te hebben en dus voor 3DMark03 gebruikt mag worden. (Maar ook alleen maar voor de NV40, want voor de NV3x zitten de cheats er nog gewoon in)

Wat betreft die drivers die vroeger 25% snelheidswinst geven bij GF2 etc. Daarvan is sindsdien ook al lang aangetoond dat die 25% winst ook gewoon van cheats af kwam. (En in die tijd zaten ze allemaal te cheaten, want als je concurrent het doet en geen van de review sites heeft het daar, dan kan je als bedrijf niet achterblijven, want daar ga je zelf aan failliet)
Het hele idee dat drivers zoveel verbeterd kunnen worden is gewoon een fabeltje.
Er zijn maar twee opties waardoor je zoveel verbetering kan krijgen:
1) Je orginele driver is buggy en heeft gigantische performance issues die je op kan lossen.
2) Je maakt cheats.

Wat betreft de kwaliteit van de drivers. Bij alle reviews van het afgelopen van ettelijke review sites zie je steeds opnieuw daar er problemen zijn met spellen met de Nvidia drivers. (En dat zijn dus de populaire spellen). Dat zie je het afgelopen jaar in die zelfde reviews niet gebeuren bij de ATI drivers.

Jij wilt dus beweren dat de mensen die van die problemen last van hebben daar niet over praten in fora? Lijkt me nogal onwaarschijnlijk en is ook niet waar m.b.t. de fora die ik bezoek.
wel, als ze deze problemen oplossen en als ati nvidia kan bijhouden (wat wellicht wel het geval gaat zijn denk ik)

dan kan dat bijna alleen maar goed zijn voor de gamers :)
de 5900 is ook goed.
je krijgt er 5900 3dmarks mee

en bij stevig overclocken is 6500 best mogelijk

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True