Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Bron: TechReport, submitter: John_Glenn

Hardwaresite Tech Report schrijft dat nVidia met optimalisaties in zijn ForceWare drivers de combinatie van nForce3 250Gb-chipset met GeForce FX beter laat presteren dan beiden doen in combinatie met een andere chipset of videokaart. nVidia ontkende meteen dat andere videokaarten actief worden 'afgeremd', aldus de redacteur, maar zou hebben gezegd dat ze simpelweg gebruik hebben gemaakt van een mogelijkheid hun grafische kaarten sneller te laten werken. TechReport besloot daarop deze beweringen aan praktijktest te onderwerpen.

GeForce FX met nForce3 250Gb

TechReport nam vier combinaties van chipsets en grafische kaarten; als platforms nam men een nVidia nForce3 250Gb referentieplankje en een Abit KV8-MAX3 met VIA K8T800-chipset. Deze werden beurtelings voorzien van een ATi Radeon 9800 XT en een GeForce FX 5950 Ultra. Met dit kwartet benchte men achtereenvolgens Cinebench 2003, SPECviewperf 7.1.1, FutureMark 3DMark03 build 340, Comanche 4 demo, Quake III Arena v1.32, Serious Sam SE v1.07 en Unreal Tournament 2003 demo. Hoewel enkele benchmarks geen noemenswaardige verschillen lieten zien, bleek in meerdere SPECviewperf-benchmarks en een paar games er wel degelijk grote prestatieverbeteringen bereikt te worden door de optimalisaties. Dit tot wel 35% in vergelijking tot een GeForce FX op een VIA K8T800 bord. De ATi 9800 XT leek er niet door te worden gehinderd.

Qauke benchmark ForceWare drivers

De conclusie luidde dan ook dat nVidia er in geslaagd lijkt te zijn de nForce3 250Gb en GeForce FX via ForceWare extra van elkaar te laten profiteren. TechReport zegt dat dit ook een paar ethische vragen oproept. nVidia was al een keer negatief in het nieuws gekomen door 'drivercheats', maar daar lijkt hier nu geen sprake van te zijn. Zo stelt men de vraag of nVidia niet eigenlijk met ATi om de tafel moet gaan zitten, om te zorgen dat ook de Radeon-kaarten van een dergelijk voordeel te laten profiteren op nForce3-chipsets. Ook vraagt men zich af of deze ontwikkeling niet verder leidt tot het achterblijven van GeForce-prestaties op andere chipsets. Echt fout kan TechReport de optimalisatie niet noemen, temeer daar ook andere fabrikanten bepaalde exclusieve features implementeren, en noemt dan als voorbeeld ATi's SurroundView multimonitortechnologie, die ook niet op de producten van andere grafische chipmerken werkt.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (71)

Zelfde tests zijn ook gedaan @ Anandtech

quote:"nVidia claims that the best performance with nForce3-250Gb is achieved with an nVidia graphics card. To test that, we compared performance of the nForce3-250Gb Reference Board with the top ATI and nVidia graphics cards and a 3400+ Athlon 64. We also included benchmarks from the same 9800XT 256MB video card on a similarly configured SiS 755 board. All benchmarks were run on a single IDE drive to remove RAID as a factor in the performance comparison"

http://www.anandtech.com/chipsets/showdoc.html?i=2009&p=9

"While the best ATI graphics cards perform about the same in NF3-250 as they do in other Athlon 64 boards, the combination of nForce3-250 and nVidia graphics yields a nice performance boost. In this case, the sum is a little more than the parts, which is undoubtedly much easier to do when you manufacture both the chipset and the graphics card."
Leuk om het verschil tussen Tech Report en Anandtech te zien.

Tech Report begrijpt hoe je zoiets moet testen. Je zet de ATI en NVidia kaarten in het Nforce moederbord, EN je zet beiden kaarten in een ander moederbord. Daarmee kun je dan zien in hoeverre Nforce iets doet, dat het andere bord niet doet, en of dat videokaart specifiek is.
Dus 2 borden, 2 kaarten, gecombineerd tot 4 situaties.

Anandtech laat hun totale gebrek aan kunde weer eens zien, door de NVidia videokaart niet in het andere bord neer te zette. Tja... dan weten we dus nog niets, want dan kan het puur videokaart specifiek zijn.


Dat zie je heel mooi wanneer je de SPECview's naast elkaar legt. De FX is daar zowiezo sneller dan de Radeon. Tech-Report kan zien wanneer dat wel en niet komt omdat moederbord en videokaart beter met elkaar samen werken. Anandtech kan dat niet. Sukkels!
Wat ik erg jammer vind is dat ze in het artikel niet ingaan op wat voor optimalisaties het zouden kunnen zijn.

Het kan mijns inziens namelijk vrijwel van alles zijn, maar waar haal je even 35% extra performance vandaan (weet dat dit maar in 2 van de benches naar voren kwam en er anderen helemaal geen profijt hadden).
Wat volgens mij de vraag is: blijven ze met die optimalisaties binnen de `officiele' specifikaties van de AGP-bus en dergelijke, of zitten ze inderdaad te foetelen. Zo van: we weten dat onze chipset zus of zo buiten de specs nog stabiel is, en dat gebruiken we dan ook. Als ze dan zouden publiceren hoe ze dat doen, kan ATI daar misschien dezelfde winst uit halen, dat zou eerlijk zijn. Maar dan, wat is de waarde van de specs dan nog?
De kans is inderdaad groot dat dat soort truuks gebruikt zijn.
Ook niet bepaald ongewoon in de mobo wereld. Denk bv maar aan Asus die de pci bus standaard wat zat te overklokken waardoor ze altijd iets sneller waren in de tests.

Toch vraag ik me wel af welk onderdeel dan zoveel uitmaakt. We weten allemaal dat AGP4x of AGP8x voor de prestaties bijna niets uitmaakt. Wat kunnen ze er dan in aanpassen dat het ineens wel zoveel uitmaakt? En in welke situaties verwachten we dan wel of niet effect.

(En als er echt zoveel te verbeteren is aan AGP, dan vraag ik me af of we dat soort verbeteringen straks ook in PCI Express gaan krijgen. Wellicht dat dat i.t.t. AGP8x dan wel een nuttige upgrade is).
Zo te zien wordt het bij videokaartreviews nu ook belangrijk om verschillende chipsets te testen, je krijgt anders geen goed beeld van de prestaties van videokaarten op moederboarden met een andere chipset. Het is natuurlijk wel goed om te zien dat de prestaties erg vooruit gaan, vooral als dit geen cheat blijkt. Je kan het eigk opvatten als een marketingtruc, maar ook als afstemming tussen hardware (technische vooruitgang). Ik hoop dat in de toekomst ook ati geoptimaliseerd wordt met nvidia chipsets. Samenwerking lijkt me alleen wel een moeilijk begrip tussen nvidia en ati.
Ik ben hier eigenlijk helemaal niet zo blij mee. De extra performance is natuurlijk meegenomen, maar je kunt mij niet aan mijn neus hangen dat dergelijke optimalisaties niet mogelijk zijn met bijvoorbeeld ATi kaarten op de nForce chipset.

Dit lijkt heel veel op belangenverstrengeling en gaat i.m.o. de kant op van koppelverkoop: wil je video performance met ons nForce moederbord > koop er dan vooral een nVidia en geen ATi (of andere) videokaart bij.

Bovendien, hoe zal zo iets gecodeerd er uit zien?

Public Sub CheckVideoCard()
..If VideoCard == GeforceFX Then
...../Good boy :)/
.....ExecuteFasterCode()
..Else
...../Sucker, should have bought GeforceFX/
.....ExecuteSlowerCode() /Muhaha Muhaha }>/
..End If
End Sub

Zo misschien?
Iets dergelijks lijkt me nou niet echt een wenselijke situatie he... ;)
nVidia heeft van zowel de gpu-chip als de mobo-chipset het technische ontwerp tot zijn beschikking. Het lijkt me niet geheel onmogelijk dat ze hierdoor een betere driver kunnen maken voor hun beide chip(set)s en ze hierdoor beter op elkaar af kunnen stemmen.
De ontwikkelaars van andere chipsets weten nl niet hoe een nVidia kaart er van binnen uit ziet en moeten dus afgaan op specificaties die ze van nVidia krijgen e.d.
ja ehh, nvidia gaat niet overal rondspammen bij videochip bakkers om een conferentie te houden hoe ze beter hun eigen hardware op mekaar kunnen afstemmen. ATi zal toch echt zelf naar NVidia moeten gaan om ook zo'n optimalisatie-dealtje te sluiten.
Persoonlijk denk ik niet dat ze dat gaan doen, denk ook aan "eer" etc wat die bedrijven willen behouden.

@dasiro
als ati dat zou doen, zou dat zeker tof zijn en ook erg goed voor de concurrentie en perfect voor ons portemonneetje :).
en als ATI nou eens naar via of sis zou stappen, lijkt me dat die een pak meer interesse (lees minder kostelijke) tonen dan aartsrivaal nvidia :9
Sorry maar ik zie niet helemaal waarom er hier sprake zou zijn van cheaten. Nvidia zou wel gek zijn als ze hun videokaart bewust lager laten presteren op alles wat geen Nforce 3 heet. Intel is immers nog altijd de grootste nietwaar...

Evenwel is het onzin om het moederbord lager te laten presteren met een kaart van de concurrent. Voor zover de ATI-freaks dat al niet doen pakken ze dan zowieso een bord van VIA of SIS om hun R420 in te plempen.

Kortom ze hebben gewoon iets handigs bedacht om de performance te verbeteren. Prima toch! We zitten toch ook niet te zeuren dat Ati haar chipontwerp maar aan Nvidia moet doneren omdat de 9800 sneller is dan een Gforce. Die bedrijven hebben nou eenmaal niet tot doel om zoveel mogelijk performance te leveren voor de lol van een fps-geile gamer ( ;)). De performance is het middel om centjes mee te verdienen.
Of ATi combineerd met de ATi chipets, toch jammer dat ik nVidia chipsets erg fijn vind
als ook de nieuwe Geforce 6XXX serie een boost krijgt als hij op een mobo met een Nforce3 250 chipset gezet word.
dan zal testen van nieuwe grafische kaarten toch wel moeilijk worden want je kunt dan geen moederborden met nvidia chipset kunnen gebruiken.
omdat Nvidia kaarten een boost zullen krijgen.
En wat is dan het probleem? Je test eerst beide kaarten op bijv een via chipset, en daarna test je iig de nieuwe geforce nog op een nforce chipsetje zodat je de gebruiker (die nforce chipsetjes gebruiken) kunnen zien wat het uiterste is wat de kaart op hun mobo kan.

Als jij een nforce chipset hebt en je wilt een nieuwe kaart kopen, en de ati is "normaal" gezien beter dan die van nvidia, maar als de nvidia op een nforce mobo zit en hij springt daardoor ruim over de ati heen, dan koop je toch de nvidia??
Ach straks zal ATI proberen hetzelfde te doen met hun aankomende K8/P4 chipsets :)
Ach straks zal ATI proberen hetzelfde te doen met hun aankomende K8/P4 chipsets
Wat dus niet fijn zou zijn. Enigzins gechargeerd: je krijgt als consument dus eigenlijk maar 2 keuzes: of een P4 met ATI-spul of een AMD met nVidia-spul...

Het zou natuurlijk stukken beter zijn als de ATI-kaarten op de nForce chipsets net zo goed zouden werken als op hun eigen chipsets en omgekeerd. Daardoor hou je als consument maximale keuzevrijheid en zal dat ook de prijs aardig kunnen beinvloeden...

edit:
typo
wel zonde dat ATI in de chipset-markt amper een poot aan de grond heeft tussen al het geweld van intel/VIA/SIS .....
ATI is dan ook nog maar net begonnen op die markt. Bij de aankomende generatie zal dat waarschijnlijk wel wat veranderen.
in de mobiele mark 0wnen ze al heel erg hard en krijgt Nvidia geen voet aan de grond ondanks verwoede pogingen. Ati is nu bezig voor de P4 en K8 platform een chipset te maken. Hopelijk wordt het een goed product maar die Canadezen weten gelukkig wel wat kwaliteit is dus ik verwacht persoonlijk wel een goeie eerste stap van hun.
Wat jij bedoeld in de mobiele markt is laptop video kaartjes en dat is weer heel iets anders dan moederbord chipsets. De meeste laptops hebben intel of via chipsets.
Ik denk als wij ATI nog even de tijd geven dat ze echt met goed matriaal komen.
En dan in samenwerking met hun eigen moederborden en videokaarten een zeer snel misschien wel sneller systeem neer te kunnen zetten dan nvidia!! Dit zal alleen niet iets van vandaag de dag zijn!!!
En of ze al met de K8/P4 zo snel zijn, denk ik persoonlijk nog niet :?
Klinkt eigenlijk redelijk logisch. Als het moederboard en videokaart van dezelfde chipsetmaker afkomen lijkt me dat je gemakkelijker optimalisatisch kan maken dan dat het verschillende merken chipsets zijn. Ik denk dat een FX kaart net zo goed zal presteren op een sis chip als op een via chip, alleen op een nvidia chip zullen de extra optimalisatisch tot z'n recht komen.
Op zich een slimme marketingstrategie van nvidia, de gamer die nu nog dat beetje extra performance wil zorgt er zeker wel voor dat ie nu een mobo en vidkaart van dezelfde chipsetmaker neemt (in dit geval dus nividia :+).
Probleem is alleen; daar zit je dan met je Nvidia stuff. Komt er een ultra wreed mobo of VGA kaart uit (non-Nvidia). Kun je 3 dingen doen:

1) slikken en maar gauw vergeten (en wachten tot nvidia met zoiets komt)
2) Het mobo of de VGA toch kopen en het prestatieverlies voor lief nemen
3) Beiden onderdelen vervangen.

Nou mag je dit slimme marketing noemen, ik heb er een andere naam voor. Bovendien: willen we dit nou echt :?
Probleem is alleen; daar zit je dan met je Nvidia stuff. Komt er een ultra wreed mobo of VGA kaart uit (non-Nvidia). Kun je 3 dingen doen:

1) slikken en maar gauw vergeten (en wachten tot nvidia met zoiets komt)
Niemand verbiedt je toch te vervangen? Tis alleen toevallig handig dat je 2 dingen van hetzelfde merk hebt gekocht zodat die 2 handige aannames over elkaar kunnen maken om prestaties te verhogen.
2) Het mobo of de VGA toch kopen en het prestatieverlies voor lief nemen
Waarom zou je je nVidia setup wegdoen als je systeem er langzamer van wordt? :?
3) Beiden onderdelen vervangen.
Als dat als geheel je systeem sneller maakt: vooral doen. nVidia houdt je niet tegen.
Nou mag je dit slimme marketing noemen, ik heb er een andere naam voor. Bovendien: willen we dit nou echt :?
Jaaaa tis weer illegaal en onethisch natuurlijk!!! :z

Zwets toch niet, tis gewoon slecht van de fabrikanten dat ze dit nog niet eerder hebben kunnen realiseren. Tis niet meer dan logisch dat 2 produkten van hetzelfde merk beter samenwerken door voorkennis van de fabrikant, dat geldt voor TV-onderdelen, autoonderdelen en Lego-blokjes, en al helemaal voor computeronderdelen waar je het potentiele voordeel binnen de drivers kunt uitbuiten.
Curry: Bij upgrade denk ik aan iets wat duidelijk sneller is , ook op de nforce chipset. Alleen scoort het produkt dan slechter om het geen nvidia is. Niet zo moeilijk te begrijpen, toch :?

Punt 3: computer-standaarden zijn er niet niet voor niks. Als iedereen maar zijn eigen inhoud eraan gaat geven, is het hek van de dam.

En ja, ik zie meer in de krachten bundelen om iets goeds te maken dan een verdeel en heers politiek.

enne ff voor de duidelijkheid: De PC is geen concept van Nvidia, ze maken er hardware voor maar het is niet HUN produkt (de PC).
Als er een videokaart uitkomt van ATI of een ander merk die sneller is dan de 6800FX dan zal die echt wel harder draaien op een nvidia chipset dan met een 6800..
Veel games gaan toch shader limited zijn dus als je idd games zoals quake3 gaat draaien (ok is een test, 300 of 400fps maakt niks uit) die memory bottlenecked is zul je profijt hebben aan de samenwerking..

Dit is verder ook geen cheaten ofzo, als je je eigen hardware wat sneller en beter opelkaar kan afstemmen zou je gek zijn het niet te doen.

Bovendien, nVidia kan zicht niet veroorloven zichzelf te limiteren tot maar bepaalde hardware. Doen ze dat wel dan moeten ze echt veruit de beste zijn... (Monopolie)

Oh en gewoon ff wat in het algemeen... wat is dit toch met merk gekte en biasness.. wees gewoon pro-snelste/kwaliteit wat op dat moment te krijgen is. Ik mag dan wel Amdk6II als nick hebben maar ik heb er ook geen problemen mee om Intel te draaien ofzo :)
Dit is verder ook geen cheaten ofzo, als je je eigen hardware wat sneller en beter opelkaar kan afstemmen zou je gek zijn het niet te doen.
Daar gaat het niet om. Vraag is hoe die "optimalisaties" in elkaar steken en of ze bewust "truuks" uithalen om hun chipset beter uit de verf laten komen dan op concurerende chipsets.
Dan doel ik dus niet op technische inovatie maar eerder op slinkse truuks. 35% verschil in performance is geen kattepis en rechtvaardigt een skeptische blik op deze ontwikkeling.

Is het puur technische inovaite:prima. kan de concurentie wat van leren. Zijn er minder aanvaardbare processen aan de gang, is dat een slechte zaak voor de consument.
Klinkt eigenlijk redelijk logisch.
Oh ja?
Het lijkt mij eerder een aanduiding dat er ergens in de architectuur een (grote) bottleneck zit. Dan kun je beter de architectuur standaard aanpassen dan alle fabrikanten eigen niet-compatibele aanpassingen te laten doen.
Je kunt natuurlijk overal iets achter zoeken. ;)Waarom zou er sprake zijn van een bottleneck in de architectuur? Als je dit zou kunnen onderbouwen... graag :)
De FX van Nvidia is een goede kaart maar is blijkbaar niet zo denderend met directx, vergeleleken met ATI dan,
lijkt me eerder logischer dat ze delen laten uitvoeren door de chipset nForce3, met als resultaat 1+1=3. De Nforce voert niet alleen door, maar zet de data om in data die makkelijker te verwerken is voor de Nvdia. Dit kunnen ze makkelijk doen aangezien ze van beide kaarten de blauwprint hebben.
Laatmaar... geen dual channel met 1Dimm he :P
toch vind ik het nietszeggend, het zijn benches met enorme CPU belasting waar hij zoveel beter scoort.. en het gaat bij videokaarten toch gewoon om de laatste grafisch zware games? dan is er nauwelijks performanceverschil..
Anandtech heeft ditzelfde feit al enkele weken geleden onderzocht en kwam ook tot de conclusie dat de Radeon prestaties ietsje beter zijn dan op de andere A64 chipsets, terwijl de FX 5950 (duidelijk) beter presteerde... Dit lijkt me zoals het hoort, de andere kaarten niet afremmen, enkel de eigen chip versnellen. Als ik een A64 chipset nodig heb, is de NForce 3 250 Gb mijn voorkeur. :)
en zo krijg je wel dat pc's straks minder compatible met elkaar zijn.....
Waarom zou je hier blij mee moeten zijn :?
Zo word je min of meer verplicht een Nforce-chipset mobo bij je Nvidia kaart te nemen: moet je maar net dat ene Nforce-plankie willen terwijl die andere plank nou net ff meer is wat je zoekt. Kortom, je wordt beknot in je keuze.

[Boesone] Als elke fabrikant van die "handigheidjes" gaat inbouwen word het nogal een hectisch zooitje. Zeker als ze moedwillig zulk truuks gaan toepassen ben ik er geen voorstander van. Al helemaal niet als ze van "de standaard" gaan afwijken, we hebben gezien hoe dat kan uitpakken (Creative Labs SB Live! anyone ?)
"handigheidjes" gaat inbouwen ?
moedwillig ?

beknot in je keuze ?

ik zie echt niet in hoe hoor. ipv overal iets achter te zoeken, zou het niet kunnen zijn dat bep. producten van een en dezelfde fabrikant nu eenmaal beter op elkaar zijn afgestemd, dat is toch ook zo met intel chipset + intel cpu bvb.Dat is toch niet onlogisch, ze zullen hun eigen architectuur toch wel beter kennen dan die van de concurent zeker ??
Nee hoor. Het is gewoon een extraatje.
Je kan het zo zien: Ja kan op je nForce board een willekeurige vga kaart prakken en die zal keurig volgens de AGP standaard met het board communiceren.

Het staan nV echter vrij om zodra er een FX kaart gedetect wordt, de trukendoos open te trekken en buiten de agp specs om optimalisaties te activeren.. boeie, zolang het maar werkt..

Enne, dat de FX serie op andere boards brak draait, ligt niet aan de boards, maar aan de FX serie :+

edit>
Als elke fabrikant van die "handigheidjes" gaat inbouwen word het nogal een hectisch zooitje. Zeker als ze moedwillig zulk truuks gaan toepassen ben ik er geen voorstander van. Al helemaal niet als ze van "de standaard" gaan afwijken, we hebben gezien hoe dat kan uitpakken (Creative Labs SB Live! anyone ?)
Hoezo? Intel stopt toch ook SSE en HT enzo in zijn cpu's. Het is niet zo dat de FX niet functioneert in andere boards, of dat de nForce chipset andere kaarten langzaam maakt, het is specifiek deze combo de profiteert. Heel andere situatie als de SBlive/via bende.
Wat naief zeg. Tuurlijk is het geen extraatje. Nvidia is in de markt om geld te verdienen. Die geven je geen gratis extraatjes.

Ze hebben een optimalisatie en houden die achter voor andere fabrikanten van mobo's.
Het is gewoon een actie in de beste tradities van Microsoft.

Met dat verschil dat Microsoft met dat soort truuks afgebrand wordt en Nvidia blijkbaar niet.
Hoezo? Intel stopt toch ook SSE en HT enzo in zijn cpu's.
Juist, en HT en SSE werken ook op een SIS-P4 bord of op welke P4-chipset dan ook. Vrijwel even snel ook nog, subtiel verschil lijkt me.

+ stel dat het helemaal niet om een optimalisatie gaat, maar de Nvidia-kaart bewust afgeknepen word op een non-Nforce chipset moederbord :?

Ja, dat mag natuurlijk weer niet gezegd worden gezien de waardering. Maar niemand weet waar die prestatie-winst vandaan komt, behalve Nvidia.
En de vergelijking met multi-view van Ati gaat ook mank, dat is een feature en geen optimalisatie.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True