Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Bron: FutureMark

FutureMark heeft verklaard dat de nVidia GeForce 6800 in combinatie met ForceWare 60.72 voldoet aan de door het bedrijf gestelde optimalisatierichtlijnen voor 3DMark03. Het is de eerste keer dat een driver van nVidia wordt goedgekeurd sinds 52.16, maar zelfs die was eigenlijk niet 'schoon'. De enige reden dat hij toch werd goedgekeurd is dat de nieuwste build van de benchmark de cheats van deze versie kent en ontwijkt. De huidige drivers hebben niet meer zulke overduidelijke cheats als de beruchte clip planes die vorig jaar werden ontdekt, maar wel worden bepaalde pixel- en vertexshaders vervangen voor versies met lagere precisie om sneller uit de bus te komen. Zelfs ForceWare 60.72 is niet volledig vrij van optimalisaties: de lijst van approved drivers meldt nadrukkelijk dat alleen de GeForce 6800 is goedgekeurd, oudere nVidia-kaarten met deze driver zullen dus hoogstwaarschijnlijk nog steeds hetzelfde gedrag vertonen. Het gegeven dat NV3x wel optimalisaties gebruikt en NV40 niet maakt de scores rond de 12.500 punten die door de nieuwe kaarten neergezet worden nog een stukje indrukwekkender.

nVidia GeForce 6800 Ultra

Gerelateerde content

Alle gerelateerde content (24)
Moderatie-faq Wijzig weergave

Reacties (71)

dus ze hebben eindelijk wat geleerd die nVidia, hopelijk blijft het zo, want dit is alleen maar leuk en eerlijk.
En uiteindelijk het best voor de consument.
Nou het ligt hier om.
nVidia heeft blijk baar een "There can only be one" mentaliteit tweede plaats wilden ze ten alle kosten vermijden.

Tja en als je top produkt op de tweede plaats draaied kan je alleen de eerste halen door te cheaten.
Maar dat is nog niet alles maar ook als een botte boer Game/bnench software firma's aanvallen omdat ze niet de meest ideale nV path kiezen.
4x2 vs 8x1 dus multi texturing afdwingen. etc

Nu zijn ze de nr uno misschien ook als de R420 er is, maar Owee als ze weer achter lopen.

Daarnaast is de markt nu op de hoogte van de cheats dus nVidia zal niet zo snel in herhaling vervallen tenzij ze de kritiek prefereren waar de massa geen weet van heeft of wel die bench marking geloofd en daar zit de volume verkoop in dan die enkele tweakers die daar van op de hoogte zijn en zich aan storen.
Inderdaad nu hebben ze even geen cheats.

Maar o wee als ATI sneller blijkt te zijn, dan komen de cheats meteen weer terug.

Nvidia heeft zich het afgelopen jaar niets aangetrokken van de cheats en is ze vrolijk blijven maken tot en met de laatste driverrelease voor deze aan toe.
Ik zie geen enkele reden om aan te nemen dat er iets van geleerd hebben, en geen enkele reden om aan te nemen dat ze geen cheats zullen gebruiken als de ATI kaart sneller blijkt te zijn.
want dit is alleen maar leuk en eerlijk.
Helaas gaat commercie nu eenmaal niet om leuk, da's de -enige- reden waarom dergelijke praktijken voorkomen...
daarom heeft futuremark deze druk ook op nvidia gezet, ze zien namenlijk dat hun prog niet meer verkoopt dankzei gecheat van beide partijen
beide partijen? En partij zal je bedoelen.

En de reden dat dat prog niet meer verkoopt is omdat Nvidia de review sites zwaar onder druk heeft gezet, Futuremark bedreigt met een leger advocaten en ondertussen vrolijk door is blijven gaan met cheaten.

De druk van Futuremark heeft NVidia zich het afgelopen jaar niet druk om gemaakt.
De enige reden dat ze nu geen cheat hebben is omdat ze het nu niet nodig hebben.
De druk van Futuremark heeft daar helemaal niets mee te maken gehad.
@mjtdevries
beide partijen? En partij zal je bedoelen.
Met beide partijen bedoeld DKasemier dat zowel nvidia als ati cheats gebruikte
Kwestie van interpretatie.

nVidia heeft enorme truken uitgehaald ( laat de helft weg en hij lijkt sneller ) om de benchmarkresultaten te benvloeden. Bij mijn weten heeft ATi optimalisaties gedaan waardoor er niets aan kwaliteit of funtionaliteit werd ingeboet, maar routines in andere volgordes werden uitgevoerd, die een positief resultaat hadden op de algehele performance.

Maar goed, da's eigenlijk een adere discussie ............. blijkbaar heeft nVidia er maar een heel klein beetje van geleerd, want de cheats voor de oudere kaarten zitten dus gewoon nog steeds ingebakken in de nieuwste drivers.
Ik zou eerder zeggen dat NVidia geen zin heeft om codepaden voor oudere kaarten te wijzigen. Ze richten zich compleet op de NV40 en dat is helemaal niet zo verkeerd (ik heb liever dat ze betere nieuwe dingen maken dan oude zooi weer gaan fixen, tenzij het echt stuk is natuurlijk :))
En toch gebruiken allen nog steeds optimalisaties voor bepaalde dingen.

Voorbeeldje :

ATI, deze wordt tegenwoordig door iedereen als een "schoon" bedrijf gezien. Echter wat men vergeten is. Is dat ATI een aantal renderingstechnieken eruit laat om sneller te zijn dan de concurrent.

Al vanaf de introductie van de Radeon .x.x serie heeft ATI de ondersteuning voor FOG Tables eruit gelaten. FOG Tables zijn een manier om in spellen mist te tonen. Er wordt dus per pixel gekeken hoeveel lumen het beeld zou moeten degraderen. En dat moet dus in 3D gedaan worden. Je kunt zowiezo wel natellen dat dit enorm zwaar is. ATI Ondersteunt dit tegenwoordig gewoonweg niet meer omdat dit gewoon een enorme domper is op de performance. Echter wat ze WEL ondersteunen is FOG Layers. Dit is eenzelfde soort techniek, ook om mist te tonen maar deze maakt gebruik van lagen polygonen die hij achter elkaar zet. Het resultaat is vele malen minder mooi dan bij FOG Tables maar het is beiden mist.

Een voorbeeld is :

FOG Tables =>

http://www.battlefront.com/products/cmak/gallery/images/27.jpg

FOG Layers =>

http://www.ati.com/developer/images/1771-3866LRG.jpg

Op de laatste is het verschil nogal slecht te zien. Aangezien ik op dit moment geen ATI kaart in mijn pc heb kan ik geen screenshot maken. Maar je kunt het je voorstellen dat als een lange bus in een dichte mist staat in een spel dat je letterlijk de bus in lagen ziet. Laag 1 dichtbij (helder) laag 2 iets verder (iets vager) laag 3 nog iets verder (nog iets vager) etc etc etc. Maar elke keer lijkt het alsof iemand er met een mes doorheen gesneden heeft en dat gedeelte iets doffer heeft gemaakt. Letterlijk lagen. Dit is ook waar het de naam vandaan heeft MIST LAGEN. Het is daarom ook erg jammer dat ATI alleen FOG Layers ondersteunt want in spellen die alleen FOG Tables ondersteunen zoals het spel in het eerste screenshot krijg je geen mist te zien in het spel wanneer je een Radeon gebruikt. (Of FireGL) Een Nvidia ondersteunt weer beiden.

Uiteraard wil ik niet de nadruk leggen dat ATI alleen dit soort dingen heeft. Nvidia heeft ze vast en zeker ook wel. Ik ben ze echter nog niet tegengekomen. Noem ze daarom gerust in een reply worden we allen wijzer van.
Zoals nvidia het doet is het inderdaad eerlijk. Maar dan wel een eerlijk, wie kan zijn videokaart het best overclocken, kaart. De score is indurkwekkend(redelijk), maar een 9800pro haalt het ook. zei het met wat moeite, en een erg ver overgeclockt systeem. Maar die kaart is ook al weer een jaar oud, en van een andere generatie.(gaat erg snel dit).
erg ver overgeclockt systeem
als zo ati het ook haald wat gebeurd er dan als je dat met de 6800 doet oftewel nog een hogere score
En nu kijken of ze in de latere versies geen gekke dingen gaan doen.

Benchmarken is alleen leuk als het goed gebeurt en vooral eerlijk!

We wachten nu met smart op ATi om te zien wat hun kaart gaat doen.....
Wat denkt nVidia en ATI eigenlijk ook met hun valsspelen te bereiken??
Het slaat nergens op en der zal altijd wel iemand achter komen. Net zo als de laatste paar keer dat ze het geprobeerd hebben.
Volgens mij snappen ze het nog steeds niet daar bij hun marketingafdelingen. Als je allebei valsspeelt om de hogere scores te halen zal je een consument alleen maar teleurstellen als die erachter komt dat de prijs/kwaliteit van de strontdure 3D kaart die hij net gekocht heeft toch iets lager lag dan je zou vermoeden.
Ofwel, ze komen zichzelf vanzelf wel tegen.
Maar niet in mijn pc, want daar komt die nVidia mooi niet in :)
Maar wal l*l je nou... dit nieuwsbericht gaat toch over dat de drivers in combi met de NV40 geen optimalistaties gebruikt... kom jij met een heel verhaal dat ze het allemaal nog steeds niet snappen.
maar wel worden bepaalde pixel- en vertexshaders vervangen voor versies met lagere precisie om sneller uit de bus te komen
Oke dit is ook nog wel een beetje raar, maar daar zijn ze dus wel open in nu en als er met die kleine tweak nog een super kwaliteiteit gehaald wordt (die je misschien niet eens terug ziet op je scherm), who cares....
Volgens mij bedoeld ie dat de huidige cheats voor de NV30 niet meer die clip planes zijn, maar het vervangen van pixelshaders.

En blijkbaar heb jij na een jaar nog steeds niet in de gaten dat dat soort tweaks niet in spellen gebruikt worden, en dat dan de benchmarks resultaten niet overeenkomen met wat je in werkelijkheid in spellen ervaart.

Sommige mensen leren het blijkbaar nooit.
En blijkbaar heb jij na een jaar nog steeds niet in de gaten dat dat soort tweaks niet in spellen gebruikt worden, en dat dan de benchmarks resultaten niet overeenkomen met wat je in werkelijkheid in spellen ervaart.
En dat is dus volstrekt gelul.

Zowel nVidia als ATI checken binnen welk proces ze aan het draaien zijn, en als ze Quake3 herkennen doen ze allebei optimalisaties voor Q3. Als ze Splinter Cell herkennen ook. Vanzelfsprekend is het minder netjes dat ze het allebei (!!!) bij een benchmarksuite als 3DMark ook hebben gedaan, maar kom niet aan met de onzin dat het voor de spelletjes niet uitmaakt.

Want als nVidia visueel onopgemerkt 25% uit 3DMark kan trekken door driveroptimalisaties hebben ze blijkbaar een verdomd goed driverteam dat exact hetzelfde kan doen voor Doom3. Ik wil jou zien klagen als door driveroptimalisaties je Doom3 dadelijk 25% harder loopt :z
[off topic]
Doordat ATI geen gebruik kan maken van de gepatenteerde Ultrashadow techniek van nVidia, die in DOOM3 extensief gebruikt wordt, vrees ik dat er inderdaad zo'n performance verschil zal zijn. En als de DOOM3-engine dan zo populair zal worden als de Quake3-engine van weleer, dan ziet het er niet zo goed uit voor ATI, al is deze bedenking waarschijnlijk nog veel te voorbarig. :?
[/off topic]
Voor de rest vind ik het ergerlijk dat dit topic weer eens moest ontaarden in "ATI vs nVidia". |:( Wie de goeie is en wie de slechte doet niet ter zake. Beide fabrikanten zijn gewoon het slachtoffer van hun onderlinge bikkelharde concurrentie en durven daarvoor nogal eens over de schreef gaan.
@curry:

Zoals ik al zei: sommige mensen leren het blijkbaar nooit.

Voor doom3 helpt Nvidia mee voor de optimalisaties. Voor 95% van alle andere spellen helpen ze niet mee. Dat vindt Nvidia namelijk alleen maar interessant voor applicaties die in benchmarks worden gebruikt.
En verder zijn de optimalisaties van Doom3 ook niet bruikbaar voor spellen die op die engine gebaseerd zijn. Dat zie je bv ook heel duidelijk in quakeIII. Daar zitten zeer veel Pentium4 optimalisaties in. Maar in alle spellen gebaseerd op die engine is er van die optimalisaties helemaal niets te merken.

Dat je uit 3DMark 25% onopgemerkt er uit kan trekken is niet moeilijk. Een benchmark is niet gemaakt om vreselijk efficient te zijn, maar om een videokaart zwaar te belasten.
ATI had dat ook kunnen doen als ze dat gewild hadden. Maar dat maakt een benchmark compleet nutteloos. Als ze toch hun eigen code gaan gebruiken dan kunnen ATI en NVidia net zo goed hun eigen benchmark.
Is dat dan een betrouwbare benchmark? Nee, natuurlijk niet, maar het is in wezen precies hetzelfde als wat Nvidia nu heeft gedaan bij 3DMark03.
@Xerazor:
Waarom doet het niet ter zake wie de goede en de kwade is?
Als benchmarks niet te vertrouwen zijn, hoe ga jij dan als klant een verstandige keus maken tussen die twee? Doet dat ook niet ter zake?

En noem eens de zaken waarin ATI het afgelopen jaar over de schreef is gegaan? Als je iemand van zoiets ernstigs beschuldigd dan moet je het wel kunnen onderbouwen.
Een ATi wel dan?

ATi cheat net zo goed, zoek maar rond op Google o.i.d. en gij zult verbaasd staan.
Ik denk dat hij een xgi kaartje in z'n pc heeft, die zijn pas eerlijk :+
Sinds die grote ophef met de NV30 anderhalf jaar geleden heeft ATI niet meer gecheat.

Daarvoor hebben beide bedrijven in veel mindere mate wel gecheat. En daar is bijna nooit iemand achter gekomen. En als je concurrent cheat dan moet je wel mee, want anders verlies je marktaandeel.

Pas als de cheats bekent zijn bij de consument en review sites er op gaan letten, DAN kan je er als bedrijf voor kiezen geen cheats te gebruiken terwijl je concurrent dat wel doet.

Dat is waar ATI voor heeft gekozen.

Helaas zie je een jaar na dato dat veel review sites het te lastig vinden om cheats boven water te halen en gewoon klakkeloos met drivers met cheats testen.
Daardoor zie je dan ook dat bij de ene review site de ATI kaarten de snelste zijn, en dat bij de andere review site de Nvidia kaarten de snelsten zijn.
Ik denk dat dat voor een heleboel mensen erg verwarrend is.
12.500 3Dmark03 marks.. Laten we zeggen dat de komende Ati kaarten 13.000 halen.
Dat is bijna 2x sneller dan mijn systeem, en die is ook niet mis.. (6800 3Dmark03 marks).
Als de ontwikkelingen zich blijven versnellen als nu (70% snellere grafische kaart elk jaar) verwacht ik dat de games de ontwikkelingen niet kunnen bijbenen (hoe lang wachten we al op Doom 3 en HL2, 3,5 resp. 2,5 jaar ? DirectX 10.xx over 1,5 a 2 jaar ?)
De ontwikkelingen zullen toch ergens moeten stagneren, de drang om in n0-time een snellere chip op de markt te zetten.
Als de ontwikkelingen zich blijven versnellen als nu (70% snellere grafische kaart elk jaar) verwacht ik dat de games de ontwikkelingen niet kunnen bijbenen
duurt natuurlijk een tijd om die games te maken, net als het een tijd duurt om zo'n kaart te ontwikkelen. Nu zijn er dus ook weer net unreal tournament 2004 uit en Far Cry draait alleen op de nieuwere systemen smooth met volledige graphics.
duurt een tijd voor doom3 etc etc etc, maar je moet ook eens zien wat ze met die spellen doen... ziet er extreem uit imho. Unreal 3 engine demo al gezien?
(post hier wat mirrors naar dezelfde file, minder overbodige replies :+) is een 12mb filmpje...
kwijl :9~
http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv
http://files.filefront.com/2586425
http://www.scifience.net/unreal3_0002.wmv
onzin.
Far Cry draait prima op me GF4 Ti4200 (in opengl tenmiste - d3d is 3x zo traag), en UT2004 ook, dus je heb helemaal niet t nieuwste nodig voor de nieuwste games.
Farcry draait hier op een Athlon Thoroughbred 2GHz, een GF Ti4800SE @310/660 met alle detail op very high, met uitzondering van textures (deze staan "slechts" op medium. Dit is verder ook op D3D met dus ook de DX 8 effecten, ik begrijp niet echt waarom dat met een Ti4200 niet lukt :?.
Dus de vorige generatie kaarten kan nog prima mee, althans in games die goed en dus efficint geprogrammeerd zijn.
Ik draai FarCry op een 1500+ Athlon systeem met GF4 Ti4200. Het draait zeer soepel en is uitstekend speelbaar met de meeste settings op medium (niet eens laag nee).
Game-development..

Zeg eens eerlijk, wie van jullie koopt hun spellen? Spelmakers hebben namelijk geld nodig om games te ontwikkelen (niet dat ik ook maar iets koop, daar niet van).

Dacht ik zo ineens aan, na teveel alcohol & laat op de avond :+ ..
ik heb UT2004 *GEKOCHT*, omdat t gewoon een ownage spel is en ik t ook met me clan wil spelen....
er zijn wel mensen die hun spellen kopen, alhoewel ik t meeste dl, omdat t de moeite van t kopen niet is.
linuxuser:
"Een ATi wel dan?
ATi cheat net zo goed, zoek maar rond op Google o.i.d. en gij zult verbaasd staan"
ATi cheat dus niet. De laatste keer dat ze zogenaamd gecheat hebben was met Quake 3, en dat was alleen lagere kwaliteit textures gebruiken. Dus niet zoals nvidia het heeft gedaan.
Alphablending in Jedi Knight 2
Halo: probleempjes met ATi
aquamark

Wie weet zijn deze kwaliteitsverschillen wel cheats :?. Het is in elk geval wel denkbaar dat de ATikaart in deze gevallen iets minder te berekenen heeft en dat het dus een positief effect op de framerate van deze kaarten kan hebben. Heeft er iemand een idee of deze problemen al van de baan zijn? :?
Hier nog de conclusie van Anandtech:
There is no real-time 3D engine or hardware in existence that does everything the right way to all things visible all the time. In order to affect real-time 3D rendering, trade-offs must be made. Only when these trade-offs become highly perceptible are they a problem.
It is the GPU makers' responsibility to implement optimizations in ways that don't negatively impact the image quality of a scene, but there really isn't a way to quantitatively make a decision about any given optimization. That which is acceptable to one person may not be acceptable to another, and it is a tough call to make.
Ook ATi maakt logischerwijs gebruik van optimalisaties en ook bij ATi hebben deze soms een negatieve impact op de beeldkwaliteit.
Geen van beide fabrikanten is heilig. :Y)
Hoe kan een BETERE alphablending in godsnaam een cheat zijn?
Anandtech mag dan blind zijn, maar ik niet. Kijk nou eens beter naar dat screenshot. Bij Nvidia schijnt de glow van de lightsaber DOOR HET HOOFD HEEN.
Dat is gewoon een bug. Bij ATI is die bug er niet.

als je dan naar cheats wilt zoeken in dat screenshot dan is de enige aanleiding juist in het Nvidia plaatje te zien.
Anand denkt dat meer glow beter is, maar als je een beetje Star Wars fan bent dan weet je dat de glow van de ATI saber is zoals ie hoort te zijn en die van de Nvidia saber niet. Overigens is het ook nogal dom van Anand daar een uitspraak over te doen zonder te weten hoe de developer het bedoeld heeft. (En dat heeft ie niet nagevraagd)

Bij Halo is later gebleken bij andere review sites (HardOCP) dat het juist ATI is die de flashlight afbeeld zoals de reference en NVidia niet.

Bij Aquamark zit inderdaad een verschil. Maar dat is geen cheat, want het zit overal. Zowel in de benchmark als in de game zelf. Persoonlijk vind ik het beeld er mooier door worden, maar het zit inderdaad minder dicht bij de dx9 reference dan een NVidia kaart waar de cheats omzeild zijn.

De conclusie van serieuze reviewers (bv van Beyond3D) was dan ook dat dit artikel van Anand zwaar biased was.
En daarbij is het zelfs niet waarschijnlijk dat het een cheat was aangezien het bij de eerstevolgende driver gefixed was zonder verlies in prestatie
Zelfs ForceWare 60.72 is niet volledig vrij van optimalisaties: de lijst van approved drivers meldt nadrukkelijk dat alleen de GeForce 6800 is goedgekeurd, oudere nVidia-kaarten met deze driver zullen dus hoogstwaarschijnlijk nog steeds hetzelfde gedrag vertonen
Drivers zijn toch drivers? als ze met kaart 3x "cheaten" dan "cheaten" ze toch ook met een N4x kaart ?
Forceware is een pakket van drivers voor alle nvidia grafische kaarten, dus de drivers per kaart verschillen.
de forceware driver moet alle nv kaarten aan kunnen sturen van de TNT2 tot en met de GeForce 6800. Elke idioot met een beetje verstand van computers zal snappen dat de GeForce 6800 bepaalde instructies op een andere manier afhandelt dan de TNT2. Ook zullen bepaalde functies anders aangeroepen worden. Als nv dus cheat in een bepaalde functie aanroep die wel gebruikt wordt bij de NV3x, maar niet bij de NV4x, dan is dit best mogelijk ... :)
Mischien is dit een hele domme vraag maar, ze kunnen toch alle shaders etc forceren op bv v&ls 3. Want als die benchmark dat soort dingen 'forceert' kunnen ze minder moeilijk cheaten of niet?
de benchmark stuurd instructies naar de drivers, de driver vertaald ze en stuurd ze naar de vid kaart die ze verwerkt en op je scherm zet.
de benchmark/spel kan wel zeggen : "gebruik deze shader" en de driver zegt ok
maar stuurd vervolgens andere instructies naar de videokaart dan kan de benchmark nog niks.

p.s. bij farcry waren er ook "problemen" met de shaders. kan goed zijn dat ze in de volgende driver versie worden opgelost omdat de huidige drivers nog niet perfect werken met de nieuwe shaders of het programa de kaart nog niet goed herkend als zijnde een nv40 en denkt dat het een nv3x kaart is.
(edit: te laat...)

Je kunt hooguit aan de kaart vragen wat je wilt, en hem programmeren. Maar omdat vrijwel alles via de drivers loopt kan die dus dingen aanpassen of anders doen.

Het direct programmeren van de kaart is in principe mogelijk, maar dan ben je effectief je eigen drivers aan het ontwikkelen. Behalve dat daar enorm veel tijd in gaat zitten, worden ook de prestaties anders.

Je zou dus alle 'eerlijke' optimalisaties van de fabrikant over moeten nemen. Omdat de drivers onder 'handelsgeheimen' vallen wordt de broncode daarvan niet vrijgegeven en is het dus veel te moeilijk uit te zoeken wat er allemaal gebeurt.

(Vandaar dat het ook zo lastig is om de cheats te vinden en daar iets tegen te doen)
Benchmarken is leuk, maar ik zie liever dat ze de drivers optimaliseren voor de games dus ze moeten er gewoon geen optimalisaties voor 3dmark in doen.
Het probleem is dat veel mensen, en ook bedrijven dit programma als een maatstaf gebruikten om te laten zien hoe goed de kaarten waren.

Nvidia wist dit en maakte er cheats voor zodat 3dmark veel betere scores neerzette terwijl dit totaal niet representatief was/is voor de in-game prestatie.

Helaas maar waar :'(

Edit: wel ja.. dubbepost.. kan ik ook als die gozer boven me het later add. :(
FutureMark: "nVidia GeForce 6800 gebruikt geen cheats".

Het is de eerste keer dat een driver van nVidia wordt goedgekeurd sinds 52.16, maar zelfs die was eigenlijk niet 'schoon'. De enige reden dat hij toch werd goedgekeurd is dat de nieuwste build van de benchmark de cheats van deze versie kent en ontwijkt.
Rare titel: ze zeggen dat er cheats in de driver zit, maar de benchmark kan deze cheats detecteren, dus het is clean?

ff vertalen naar CS-termen: een speler gebruikt ogc, maar cheating-death kan die ogc-versie detecteren, dus de speler is clean? (ik hoor/zie al iemand buitenvliegen).
Tja, dat krijg je als je een klein bedrijf bent dat vervelende dingen wil zeggen over een gigant als NVidia.
Zodra je de waarheid duidelijk naar buiten brengt word je vermorzeld door een legertje advocaten van Nvidia, en dus moet je dit soort omslachtige dingen gaan doen.

Wat voor keus heb je? Of je gaat failliet en bent werkloos, of je gaat op een hele omslachtige manier de cheats van NVida aanpakken en hoopt dat de beter geinformeerde review sites en je klanten snappen wat er aan de hand is.

Helaas blijkt dus dat dat niet meevalt.
Maar waarom is 12550 3dmarks zo hoog? ik haal het ook met mn radeon9600xt(12776). En daar hoef ik niet voor te cheaten. Dom van ze dat ze dat doen, ik heb veel op irc gezien dat mensen geen nvidia meer kochten vanwege dit soort praktijken. Nou is de schare nvidia aanhangers nog wel hoog.

Ik denk dat t voor veel mensen niet zoveel uitmaakt, veel mensen zijn geen gamer of semi-gamer(Daarom nam ik in eerste instantie ATI) en ik denk dat veel mensen(lees: niet-tweakers) niet eens weten wat een benchmark is, laat staan dat ze de scores of cheats kennen. Ik hou me maar aan de fps in ut2k4 en farcry, dat gaat t beste :)

--edit-- sorry, was idd 3dmark2001 :)
* 786562 Llanorant
I'm ashame
Zoek het verschil tussen 3D mark '03 en 3D mark 2001 ff ;)
Ja ik denk dat die het een beetje door elkaar haalt.
Ik zit op 6548 in '03.
Maar mij interesseert het me niet echt zo, als UT2k4 goed loop op 1280x1024x32 en alles op highest vind ik het goed :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True