Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 127 reacties
Bron: X-Bit Labs

Nadat een statement van Futuremark, maker van het benchmark-programma 3DMark2003, eerder bekend maakte dat nVidia mogelijk met zijn drivers heeft lopen spelen om beter uit de bus te komen bij de bovengenoemde benchmark-tool, meldt X-Bit Labs dat ATi nu heeft toegegeven dat de drivers dermate zijn aangepast om een betere score te behalen in 3DMark2003. Deze precaire zaak werd aan het rollen gebracht door een artikel van ExtremeTech waarin het de behaalde scores van de nVidia GeForceFX 5900 Ultra ter discussie stelt. Hierna kwam nVidia met een verklaring waarin het stelt dat Futuremark een situatie heeft proberen te creëren waarin nVidia-producten in een kwaad daglicht kwamen te staan.

ATi logo (klein, mooi met drop)Futuremark heeft inmiddels een patch uitgebracht waarin de optimalisaties van beide videokaart-fabrikanten ongedaan worden gemaakt. nVidia's score daalt met 24,1 procent, ATi's score neemt met 1,9 procent af. ATi blijft er echter bij dat dit percentage het resultaat is van instructies die dankzij de eigen architectuur overgeslagen konden worden en dus ook in echte game-performance merkbaar is. Desondanks zullen de optimalisaties in de nieuwe Catalyst-release ongedaan worden gemaakt.

Moderatie-faq Wijzig weergave

Reacties (127)

1 2 3 ... 6
Pfff. 90% van de mensen hier begrijpt echt totaal niet waar het over gaat. Het nivo van de gemiddelde tweaker valt me vies tegen.

Maar weer een uitleg geven:

1) Er is een groot verschil tussen cheaten en optimaliseren.
Bij optimaliseren zorg je dat de driver sneller exact hetzelfde eindresultaat oplevert. Bij cheaten lever je een ander eindresultaat sneller op.

2) Om te cheaten of te optimaliseren voor een specifiek programma zul je moeten detecteren welke programma er draait.

Futuremark heeft vastgesteld dat zowel ATI als Nvidia detecteren dat een bepaald onderdeel van 3DMark draait. (dus punt 2) Maar dit betekent dus nog niet dat je cheat. Het kan ook voor een optimalisatie zijn.

Futuremark heeft daarnaast vastgesteld dat Nvidia die detectie gebruikt om te cheaten. (zie het audit rapport voor duidelijke en precieze uitleg hoe ze gecheat hebben)

Futuremark heeft van ATI alleen maar vastgesteld dat ze detectie doen, maar heeft (nog) geen cheats vastgesteld.

ATI heeft zelf inmiddels verteld wat ze doen:
Ze veranderen de volgorde waarin de commando's worden uitgevoerd.

Ze laten dus niets weg zoals anderen hier beweerd hebben. De volgorde veranderen betekent dat de ze exact dezelfde berekeningen uitvoeren en dat de uitkomst dus ook exact hetzelfde is.
Als dat waar is dan is het dus geen cheat maar een optimalisatie.

Je moet het als volgt zien. Als je 1 +1 +1 -2 +1 doet, dan kan 1 +1 +1 +1 -2 een optimalisatie zijn. Dezelfde commando's, maar dan in een andere volgorde. De hoeveelheid en soort berekeningen is precies gelijk en de uitkomst is ook precies gelijk.
(In screenshots zie je dan ook duidelijk dat de ATI screenshots met en zonder de update van 3DMark precies gelijk zijn, terwijl je bij Nvidia een heel groot verschil ziet)

Iemand die programmeert weet dat volgorde verandering een kleine winst kan opleveren. Zo levert de ene compiler ook wat sneller code af als de andere.

Dit soort optimalisaties worden ook in echte spellen gebruikt. Zo heeft ATI al vanaf de orginele Radeon (R100) specifieke optimalisaties voor spellen met de quake engine in hun drivers zitten. (omdat die in zoveel spellen gebruikt wordt)
Bij de R200 kwam er een bug in en daar kwam die "ATI Quack cheat" hetze over. Maar dat ging dus over een optimalisatie die al in 8! eerdere drivers had gezeten en die daarvoor nooit een beeldkwaliteit vermindering had gegeven.
Die optimalisatie is ook daarna altijd blijven zitten, maar de bug die de beeldkwaliteit verminderde is er uit gehaald.


Benchmark puristen zullen stellen dat je helemaal niets mag doen om voor een benchmark te optimaliseren.

Daarom heeft ATI besloten om de optimalisatie in de volgende driver release te verwijderen.

En verder zijn er zoals hier wel blijkt ontelbare mensen die het verschil tussen een optimalisatie en cheat niet begrijpen, en ook dat is een reden voor ATI om de optimalisatie te verwijderen.


Nu een implicatie van dit alles dat niemand schijnt te beseffen:
Het is nu bewezen dat Nvidia geld en resources heeft gespandeerd om te cheaten in 3DMark. (ondanks dat ze officieel hebben gezegd dat ze niet eens optimaliseren voor 3DMark)

Als je als bedrijf besluit te cheaten bij een benchmark, dan doe je dat niet in 1 benchmark.
Dan doe je dat in dat handjevol benchmarks dat gebruikt wordt door de review sites.
Aangezien 99% van de review sites altijd maar dezelfde 5 benchmarks gebruikt is het zeeeeeer verlijdelijk om voor die 5 benchmarks cheats te maken.

Is er nu iemand hier die werkelijk denkt dat Nvidia alleen maar bij 3DMark cheat?

Kijk eens naar de benchmarks bij de 5900 review bij extremetech. Is het niet opvallen dat zowel de benchmark resultaten van 3DMark, maar ook die van de 5 meeste gebruikte benchmarks allemaal zo'n 20% hoger zijn (in relatie tot de 9800) dan de benchmark resultaten van de weinig gebruikte benchmarks?: NHL, Nascar, Dungeon siege etc.

Het zouden optimalisaties kunnen zijn voor de meeste gebruikte game engines. Maar de kans is minstens even groot dat dat ook cheats zijn.
Een cheat voor een timedemo maken is immers even makkelijk als voor 3DMark. En bij een timedemo is ie ook nog eens minder makkelijk te vinden.

De enige manier om er nu achter te komen wat de werkelijke performance van de Nvidia kaarten in die veelgebruikte spellen is, is door nieuwe timedemo's te maken en met dezelfde drivers naar het performanceverschil met de oude timedemo's te kijken. De review sites krijgen het druk...
maw ATI kan net evengoed als NVIDIA cheaten in games, zij zijn immers "king of cheats" na hun cheat in de quake 3 timedemo.

ATI oogst nu enkel wat het zelf vroeger gezaaid heeft ...
Met het risico dat dit als flamebait wordt gewaardeerd...

Maar heb jij uberhaupt de vorige reacties in dit topic gelezen, waarin werd uitgelegd hoe de Quake/Quack affaire in elkaar zit? |:(
Een echte nivida fan gelooft natuurlijk de werkelijke verklaring van de quake/quack affaire niet.

Maar afgezien daarvan heeft ie gelijk dat het evengoed mogelijk dat ATI cheat in games.

Het verschil is dat het van Nvidia nu uberhaupt een keer bewezen is dat ze cheaten en dat is bij ATI nooit gebeurd.

Dat quake verhaal kan (of je het nu gelooft of niet) afgedaan worden als een bug. Er is nooit een bewijs geweest dat er een opzettelijke cheat in zat.
Nvidia probeerde dit 3DMark schandaal ook een bug te noemen, maar hier is nu wel het bewijs geleverd dat er een opzettelijke cheat in zit.

Hoe dan ook, de conclusie blijft gelijk. Review sites moeten stappen ondernemen om dit soort cheats tegen te gaan aangezien geen van de bekende benchmarks nu nog te vertrouwen is.
Alleen 3DMark is nu eventjes te vertrouwen tot de volgende detonator release.
Perfect verklaard. Had het niet mooier kunnen opschrijven. Kan bovenstaande posting niet in de nieuws sectie gezet worden zodat eindelijk iedereen snapt wat er aan de hand is?

Dat scheelt weer veel hersenloze "Nvidia rules want ATI cheat ook en sux0rs dus" (of andersom) en "3Dmark is toch geen spel, gebruik timedemo van xxxx spel" opmerkingen.
wat is dat toch met die ati en nvidia?

tegenwoordig kun je gewoon geen befrijf meer vertrouwen.
we kunnen alleen nog maar de benches van mede tweakers vertrouwen
Het gaat allemaal om cold hard $$$. :( En veel gamers kiezen hardware op pure performance ratings, benchmarks, ed. En in deze harde tijden zijn 10 of 20 miljoen dollar omzet een te grote verlijding om te kunnen weerstaan... Sad but true.
Tja, dan hoop ik dat de gamer nu eens begrijpt wat de waarde van deze benchmark is... Ik beschouw het als een goede maat voor hoe stabiel je systeem is, want het is en blijft een zware benchmark, maar daar blijft het dan ook bij...
Niet akkoord. Wat heeft dat nu met schending van vertrouwen te maken. Ik vind het best goed dat drivers geoptimaliseerd worden; of modder jij liefst aan met drivers die maanden geleden zijn uitgekomen?

Enneh ... of die drivers nu geoptimaliseerd worden voor een of andere game of voor 3DMark, het zal mij worst wezen.
Omdat het geen optimalisaties waren, maar er werden gewoon complete dingen niet gerendert en de beeldkwaliteit was minder.
nexhill heeft dus wel een punt te pakken, alleen is de consument heir eigenlijk de enige dupe van. Hoe moeten wij bepalen wat de beste/snelste videokaart is als je geen goede vergelijkingsprogramma's hebt?
Jij denkt wel heel erg goed over DOOM III zeg...

Als er 1 programma is wat zo goed als alle functies van videokaarten zal gebruiken is dat 3Dmark03 wel. Doom 3 is zelfs nog directX 8.1 met een heeeeel klein beetje 9. in termen van functies van videokaarten die worden gebruikt. Ik weet dat het openGL is maar zo is dit het best te vergelijken.
DOOM III doet dingen met een videokaart waar ze bij 3DMark de ballen verstand van hebben.
Klinkt lekker ;) Maar het is andersom.


Doom 3.. als je het mij vraagt.. gaat ie tegenvallen, let maar op ;)

oja opengl :P
Ehhm, DOOM III = opengl
Ik snap niet dat iedereen steeds de schuld bij ATI en nVidia probeert te leggen. Als je naar echte games kijkt (UT2003 e.d.) blijkt gewoon dat nVidia voor nu de snelste is. Al stuivertje wisselend met ATI.

Het echte probleem is volgens mij dat 3DMark2003 gewoon niet realistisch is. Ze denken dat ze de games van de toekomst representeren maar dat is een totale ilussie. We weten allemaal dat DOOM III de komende jaren de enige echte benchmark zal worden net als Quake dat lange tijd geweest is. DOOM III doet dingen met een videokaart waar ze bij 3DMark de ballen verstand van hebben.
lol, idd, daar gaat zn theorie over dé benchmark standaard }>
Hooguit dé OpenGL benchmark standaard. Net zoals Quake dat is geweest. Maar het zal toch altijd vergezeld worden door (zwaarder meewegende) DirectX benchmarcs..
UT2003 is dan ook geen DX 9 spel he !
dus daar kan je ook niets aan aflezen
het geeft alleen maar aan dat de FX sneller is met oude game !
3Dmark is dx9 en kan vergeleken worden met de spelen die uit gaan komen !
Iets beters is er gewoon niet
totdat er een spel uitkomt die echt gebruik maakt van DX 9
Ja, driver optimalisaties voor een bepaald spel zijn erg leuk ja, maar driverupdates voor een benchmark programma zijn compleet nutteloos. Leuk dat je videokaart dan ineens 10% beter presteert, maar als je in een spel die snelheid weer kwijt bent, hou je in feite alleen jezelf voor de gek natuurlijk :)

Beide bedrijven moeten elkaar gewoon beconcurreren in games, niet in benchmarks. Helaas kijkt de helft van de kopers eerst naar de benchmarks in 3D mark en gaan ze dus blind op getalletjes af, je ziet wat er van komt :)
Totdat die ook gebruik maken van die ge-optimaliseerde drivers. :)

Maar als de score van ATI nog maar heel winig daalt terwijl die van Nvidia omlaagstort na een update van 3D-mark dan is er toch duidelijkheid:

ATI is beter!!!
ATI is beter!!!
Mee eens. ATi kaarten zijn sneller dan nVidia kaarten van dezelfde prijsklasse. Maar dat kun je niet gaan roepen op basis van dit bericht.

Ook moet ff gemeld worden dat het nu duidelijk is dat 3DMark03 niet langer een betrouwbare benchmark tool is. Maargoed, de beste benchmark is IMO ook gewoon een game. Daar zijn dat soort kaarten immers voor gemaakt.
ATi kaarten zijn sneller dan nVidia kaarten van dezelfde prijsklasse.
Mee eens, maar ook mee oneens. Het is helemaal afhankelijk van je toepassing en in welke prijsklasse je kijkt. Pak je de (low-)budget kaarten, dan komt nVidia er wat beter uit. Bij de meanstream en high-end kaarten is dat idd ATi. Let wel: als je kijkt naar games... voor gebruikers die naast games ook (niet professioneel) programma's als 3d Studio, Maya e.d. gebruiken is dat weer heel anders... De nVidia-kaarten presteren hier namelijk vele malen beter.
Aanklagen?

"Mijnheer de rechter, deze fabrikanten maken drivers speciaal geoptimaliseerd voor mijn programma (3DMark). Kunt U dat verbieden?"

:7
Eigenlijk is het een soort van fraude wat deze bedrijven plegen. Wat mij betreft mag Futuremark dit soort zaken best aanklagen.
Nu ja, je moet ook een beetje relativeren. Je hebt wel gelijk dat ze in zekere zin de klant bedotten. Maar als het waar is dat de aanpassingen van de ATI-drivers ook in games kunnen gebruikt worden zonder verlies aan kwaliteit, dan vind ik het nog wel kunnen. Het is trouwens ook "maar" 2 procent.
De aanpassingen van nVidia daarentegen kunnen echt wel niet, maar nVidia beweert dat Futuremark de 3DMark zo heeft aangepast dat de nVidia kaarten er slechter uitkomen. Het is een feit dat het al een tijdje niet botert tussen die 2, dus misschien kan het wel kloppen. :?

Je weet inderdaad niet meer welke benchmarks je moet geloven, maar eerlijk gezegd denk ik toch dat geen van beide (nVidia noch ATI) slechte kaarten maken. Mijn persoonlijke voorkeur gaat op dit moment uit naar ATI, 2 jaar geleden nog naar nVidia, en over weer eens 2 jaar ...
ATi, nVidia, ik denk dat er maar één verliezer is met dit geklooi (nou okay 2). Wij de consument, we kunnen niet meer makkelijk bekijken of ons systeempje een beetje loopt zoals het zou moeten aan de hand van de database bij Futuremark.

Maar de grote verliezer zal Futuremark zijn, wie gaat er nog investeren in iets als 3dmark als de resultaten toch niet te vertrouwen zijn?
Welke reviewer gaat nog 3dmark gebruiken in zijn review, geloofwaardig ben je er toch niet meer mee. Ik heb Raymond Koning van C!T al horen zeggen dat hij 3dmark voorlopig links laat liggen en alleen nog spellen gaat gebruiken (toch grootste blad van nl) en Hilbert van Guru3d had ook al een soort gelijk statement, hij plaatste alleen nog maar de 3dmark score omdat hij anders toch tig verzoeken zou krijgen voor die score.

Dus Futuremark, hoelang houden jullie het nog vol?
En terecht.

Jij koopt grafische kaarten om benchmarks te draaien zeker? Of om games te spelen? Laat die kaarten alsjeblieft getest worden met de applicaties waarvoor ze bedoeld zijn. Ik heb toch al nooit begrepen waarom een stom benchmark bedrijf zoveel macht heeft gekregen. En al helemaal met dat kinderachtige driver gezeik. Laat de gamesindustrie maar weer de driving force worden van de vernieuwing van de grafische kaarten.
Nog een tweede punt is dat benchmarks meer kwantitatief gericht is... ik zie in de toekomst liever kaarten waar mooiere polygonen (of misschien wel een hele nieuwe approach van 3d) uit komen, dan meer meer meer polygonen.... en die trend zal een benchmark bedrijf nooit ontketenen. Dus weg met het fenomeen benchmark software!!!!
Futuremark is de grote winnaar. Ze hebben namelijk hiermee bewezen dat ze cheaters kunnen ontmaskeren en dat ze ook tegen de marktleider hard op durfen te treden.

De 3DMark resultaten zijn op dit moment beter te vertrouwen dan de timedemo's van Splinter Cell, Quake, UT2003 en Serious Sam.

In die timedemo's is een cheat veel moeilijker op te sporen.

Als C!T hierdoor besluit 3DMark niet gebruiken dan geeft dat alleen maar aan dat ze niet de kennis in huis hebben om te begrijpen wat hier aan de hand is.
(Maar ach, daarom is het ook C!T en niet c't...)

Waarom denk je dat alle review sites in alle staten zijn? Zij hebben wel in de gaten dat geen enkele benchmark nu nog zomaar te vertrouwen is.
Ik vind zelf dat ATI niet gecheat heeft.

Wat ATI heeft gedaan zijn shader routines herkennen en ze in een betere vorm omschrijven. De uitkomst van de shader is precies hetzelfde alleen dan geoptimaliseerd voor de ATI hardware. Ze veranderen dus alleen de VOLGORDE van de shader instructies. Alles wordt met precies hetzelfde resultaat gerendered.

Daarnaast kan deze optimalisatie ook in games gebruikt worden. het gaat hier namelijk om veel gebruikte routines in shaders die ten allertijde herkent kunnen worden.

Dit is GEEN cheat.

Ook Tim Sweeney van Epic vind dat dit soort optimalisaties mogen en kunnen.

Kijk voor zijn reactie op http://www.beyond3d.com/#news6041
Wat je vindt moet je naar de politie brengen.... :9

Nee, je kan alles mooi vertellen en het ligt er net aan hoe je het uitlegt. Nvidia heeft ook zo'n verhaaltje over het kunnen toepassen van hun gemodde instructies. Het is en blijft van beide partijen niet netjes, maar als iedereen op benchmarks van soortgelijke programma's af blijft gaan bij het kopen van een videokaart is het ook logisch dat beide partijen het geluk een beetje naar hun kant proberen te trekken.
Of het nu 2% is of 80%, de principes achter het aanpassen van een instructieset o.i.d. blijven hetzelfde.
wat voor gezeik is dat nu ? aanpassen mag dus ni volgens u ?
De video kaart moet dus 100% draaien zoals hij gemaakt is zonder ooit enige aanpassinge te mogen doen aan de drivers dat zou leiden tot een betere performance over de hele lijn, want dat zou cheaten zijn ? .. ff serieus blijven hé. Als Nvidia het klaar speelt om hun methode bruikbaar te maken in games dan is dat ook zo, het is gewoon het geval niet en puur gemaakt om 3DMark te foolen in zen punten berekening.
Waarom ATI de procedure uit hun drivers haalt is puur uit medeleven (commerciëel noobie belang) en ( zoals hierrvoor vernoemd ) het nu toch geen moer uithaalt omdat de games er nog geen gebruik van make. Vanaf ze het wel doen mag je zeker zijn, nadat de storm is gaan liggen over dat pruts bench proggie, dat de procedures ( al dan niet verbeterd ) terug in de drivers zullen zitten.

IMHO: Als ze instructies anders kunnen formuleren/veranderen/aanpassen en dit geen enkel visueel effect heeft op alle software die het gebruikt, of aan te passen is in de instellingen, dan vind ik het enkel maar vooruitgang. Als ze dat kunnen op driver niveau is het teken dat DX9 toch niet zo goed ineen steekt dan men dacht bij het maken ervan. Can't be simpeler.
De video kaart moet dus 100% draaien zoals hij gemaakt is zonder ooit enige aanpassinge te mogen doen aan de drivers dat zou leiden tot een betere performance over de hele lijn, want dat zou cheaten zijn ?
Het leidt tot betere performance in 1 specifiek geval dat niet bruikbaar is een game en uitsluitend gebaseerd is op dat je van te voren exact weet wat er gerenderd moet worden, dat kan je bijna beschouwen als pre-rendered graphics ipv real-time!

Wat nVidia gedaan heeft is net zo cheaten als dat ze een mpeg hadden uitgebracht van de complete 3dmark ipv het echt real-time te renderen, that's the point.
De cheats van Nvidia zijn per definitie nooit in games te gebruiken, maar alleen maar in timedemo's en 3Dmark.

Daarmee is wat ze gedaan hebben gewoon niet toelaatbaar en niet verdedigbaar.
Can't be simpler.
Nvidia heeft ook zo'n verhaaltje over het kunnen toepassen van hun gemodde instructies
Als je de complete verklaring van 3dmark leest, zie je dat er wel degelijk verschil is tussen het cheaten van nvidia en het optimisen van aTi, kort gezegd het eindresultaat op het scherm bij ati was hetzelfde, bij nvidia niet omdat bij een Freelook camera bleek dat in sommige gevallen dingen buiten beeld niet werden gedaan, dat is wel handig als een spel dat doet maar dat is een optimalisatie waar ALLE videokaarten van zouden profitreren dus zegt niets over het vergelijken van hardware maar alleen maar iets over het vergelijken van drivers.

Als nVidia zo overtuigd was van de geniale 'optimalisaties' dan hadden ze dat van te voren wel verkondigd.

Als een benchmark ONNODIG 100.000 polygonen buiten beeld wil renderen dan moet de kaart dat ook doen, anders meet je de prestatie niet, het gaat om de eindscore niet om het aantal frames per seconde.

Bovendien is het terwijl een spel runt veel lastiger om precies te kijken wanneer welke sterrenhemel toevallig in beeld is (ook al zijn daar al optimalisaties voor) , omdat de speler dat beinvloedt, dus dat moeten ze dan elke miliseconde uitrekenen, terwijl ze met deze benchmark gewoon de tijden dat iets niet in beeld was in de driver hebben ingebakken!
Ik denk dat dit vooral komt door de populariteit van 3dmark, als een andere bench populair wordt (lees heel veel gebruikt) dan zullen daar optimalisaties voor komen.
Op zich vind ik dit geen probleem zolang ze diezelfde optimalisatie ook voor een game gebruiken.
Het probleem is dat die optimalisaties niet bruikbaar zijn voor een game..
Bij FutureMark werd niet de volledige scene op een juiste manier gerenderd omdat ze wisten dat de rest toch niet in beeld kwam.

Met zo'n render moet je maar eens proberen te gamen..
Dat soort cheats worden ook bij de game benchmarks gebruikt.

Je kan gewoon vaststellen of je de game zelf, of de timedemo aan het draaien bent. (net zoals in 3DMark werd vastgesteld of GT1 of GT4 gedraaid werd)

Dan krijg je dus opgeblazen scores in de gamebenchmark, en lage prestaties als je het spel daadwerkelijk zelf gaat spelen.
Dit is hartstikke oud en door Xbitlabs gerecycled nieuws. Dit hele verhaal stond al zondag op http://www.beyond3d.com (check out forums).

Punt is dat ATI het nodig vond om bepaalde pixel shader proggies van Futuremark wat te "optimaliseren" in hun driver. Zelfde input, zelfde output, levert alleen meer FPS'en => hogere score.

Dit vind ik nog gaan, wat NVIDIA gedaan heeft, dus dingen weglaten ( "clippen", niet clearen van buffers) is nog schandaliger.

Er gaan ook al geruchten (zie beyond3D) dat NVIDIA mensen in dienst heeft, die niets anders doen dan Splintercell optimalisaties zitten te zoeken, met als enige doel benchmarks te flessen.
Dat ze spellen optimaliseren is natuurlijk niet zo heel erg. Ik bedoel als ik in Splinter Cell een boost krijg van 24% zit ik daar niet zo heel erg mee.

Maar benchmarks worden gebruikt om de kracht van een kaart aan te tonen. En hoewel benchmarks niet alles zeggen, speelt het toch mee als je een videokaart gaat kopen... zeker voor de overgrote meerderheid.

Daarom is die truck die nVidia hier uithaalt gewoon ronduit smerig, ze presenteren je klinkende resultaten en als je vervolgens een game speelt blijkt er maar de helft van waar te zijn.
Ligt eraan hoe ze boosten, het staat me nog goed bij dat Ati quake3 gewoon hard fleste door hem vast te zetten op low-resolution textures voor meer performance en betere benchmarcs. Jammer dat het een dusdanig verschil dat het de performance tweak voor de meesten écht niet waard was.
Ligt eraan hoe ze boosten, het staat me nog goed bij dat Ati quake3 gewoon hard fleste door hem vast te zetten op low-resolution textures voor meer performance en betere benchmarcs. Jammer dat het een dusdanig verschil dat het de performance tweak voor de meesten écht niet waard was.
Dat klopt dus niet helemaal. Er zijn blijkbaar nog wat onduidelijkheden over Quake/Quack, dus tijd om die even uit de weg te ruimen.

Wat ATi heeft gedaan is in totaal maar 5 textures uit de hele game verlagen naar een lagere resolutie om snelheid te winnen. De rest van alle andere textures zijn gewoon goed.

Dit doet ATi al sinds de R100 en het was niemand opgevallen omdat de output gewoon goed was, alleen toen de R200 uit kwam, bleken deze optimalisaties niet helemaal correct te werken op de R200, aangezien er duidelijk zichtbaar was, dat er kwaliteitsverlies op trad.

En hier kwam men achter, nadat nVidia had gelekt aan reviewsites, dat mensen Quake3.exe maar eens moesten renamen naar Quack3.exe, zodat de drivers de game niet meer herkenden en dus alles op high-quality renderde, waardoor opeens de snelheid omlaag ging.

In de volgende drivers herstelde ATi zich en was er geen kwaliteits-verlies meer zichtbaar, maar bleef de snelheid behouden.

Deze optimalisaties (verlagen van texturekwaliteit op momenten dat het niet opvalt, zonder beeldkwaliteitsverlies) zitten nog steeds in de drivers, maar nu niet alleen maar voor Quake3, maar voor elke op Quake3 gebaseerde game, dus ook RCTW, Jedi Knight2, MOHAA, etc. En hier hebben alle ATi-bezitters voordeel van, zonder dat ze nadelige effecten beleven.

Nu merk je echter niets van de verlaging van texturekwaliteit, en dat is het verschil met nVidia. En dat is (zoals Hiostu al eerder opmerkte) ook wat Tim Sweeney van Epic (UT2k3) zei, namelijk dat ATi een legale optimalisatie had uitgevoerd, omdat de output precies hetzelfde was zoals bedoeld, maar er toch snelheid werd gewonnen.

Bij nVidia echter kan er niet "off the rail" worden gegaan in 3DMark2k3 zonder grote renderingerrors. Dat is CHEATEN en niet "optimaliseren".

En het punt is ook dat als nVidia voor 3DMark2k3 optimaliseert, men dit ook voor ingame benchmarks kan doen, zoals de UT2K3 flyby en Dungeon Siege benchmark, aangezien deze ook een vaste route volgen.

Verder petje af voor ATi, omdat ze een duidelijke statement hebben gegeven. In mijn ogen hadden ze de optimalisatie niet uit de drivers hoeven te halen, aangezien de beeldkwaliteit niet onderuit wordt gehaald en de output precies hetzelfde is. Maar goed, ik kan me goed voorstellen dat ze het wel doen, omdat ze de wind uit de zeilen willen nemen van mensen die zelfs over die 1.9% vallen.
Je verhaal is bijna goed. Het enige foutje is dat bij de R200 die optimalisatie naar buiten kwam doordat 5 textures verziekt weden en daardoor de beeldkwaliteit omlaag ging.
In de volgende driver versie werden die textures niet meer verziekt en was de boel weer opgelost.

Er zit inderdaad nog steeds een quake engine optimalisatie in de driver, maar die optimalisatie bestaat er dus niet uit dat ze de textures een lagere kwaliteit geven.
Ja ok, dat soort trucks moeten ze natuurlijk niet uit gaan halen. Maar ik denk dat ATi van die move wel geleerd heeft. Ze hebben aardig de wind van voren gehad toen ze dat uithaalden.

Wat ik bedoel is dat optimaliseren voor bepaalde games (hoeft niet eens allen) prima is... uiteindelijk heeft de consument hier wat aan.

Optimaliseren voor enkel en alleen benchmarks is gewoon fout, je creeert hierdoor een fout beeld over de kracht van de hardware.
Er gaan ook al geruchten (zie beyond3D) dat NVIDIA mensen in dienst heeft, die niets anders doen dan Splintercell optimalisaties zitten te zoeken, met als enige doel benchmarks te flessen.
Oh? ik vondt hem al zo soepel gaan op mijn 1700+ en TI4200 :+
Grr... :( verbetering van je drivers ok..

Maar dit is niet leuk. Beetje mensen voor de gek houden... Foei foei foei, Ati en Nvidia
Niks foei ATi, ATi heeft dit bekend gemaakt in de catalyst 3.4 drivers release notes :z :z
DirectX 9 Performance Improvements
The following is a list of DirectX9 Performance Improvements noticed in the latest release of CATALYST™.

3DMark03 scores are improved as much as 8% across our entire DirectX 9 (dx9) product line
The difficult Mother Nature (dx9) test now runs as much as 20% faster than previous drivers
Wat wordt hier weer over ATi en nVidia gezeurd zeg!

Het echte probleem is dat er gewoon veel te veel mensen blij worden als 3DMark weer wat hoger scoort op hun systeem, oftewel de score van 1 bepaalde benchmark wordt gewoon zwaar overgewaardeerd. Dit ligt niet aan 3DMark, ATi of nVidia maar aan (excuse my language) een stelletje n00bs van de 1e orde...

En die gekregen hebben wat ze wilden: hogere 3DMark-scores, om stoer te doen tegenover hun vriendjes!

dankzij deze "rel" dringt er nu hopelijk eindelijk eens door hoe gevoelig 3DMark (en natuurlijk ook elke andere non-realworld benchmark) voor tweaks is, en hoe weinig je er uiteindelijk aan hebt voor de apps waar het werkelijk om draait!

Ik hoop daarom dat er voortaan meer aandacht wordt besteed aan het "echte" werk, UT2003, DOOM3 en hopelijk ook Half-Life 2, zodat ATi en nVidia hun kostbare tijd gaan besteden aan het tweaken (jawel!) van hun drivers voor dat soort applicaties!
ow ja? hoe eerlijk zijn zijn GAME-benchmarks als de een 100% getuned is voor Geforce-kaarten en de andere 100% voor Radeon's ? Hoe goed zijn de verschillende programmeurs van die spel-ontwikkelaars ? Hoe goed zijn ze op de hoogte en weten ze het ook nog te gebruiken ?

Het grootste probleem is juist dat de chaos groter word. Programmeerbare pixel & vertex shaders, prachtig. Behalve als het weer in 4 smaken gemaakt word. De vrije keus tussen 16/24/64/32 bit precisie, lang leve de vrijheid. Maar weer meer chaos....
hoe groter de verschillen, hoe moeilijker het word om het te vergelijken.

Hoe zou jij het vinden als er bijv. 4 smaken PAL waren ? Ze doen het allemaal, alleen de 1 sneeuwt iets meer, de ander geeft meer blauw...etcetc.

Waarom is er bijv. VESA ontwikkelt ? Juist om dingen duidelijk en unfiform te maken. Maw. de standaard....
Deze "optimalisaties" moeten er dan toch uit komen als de frame rate van games gemeten wordt? :?
Ja, in DirectX 9 games waarschijnlijk.
Dat is ook een beetje het verschil tussen de optimalisatie van ATi en die van nVidia. nVidia renderd 3dmark met voorkennis zeg maar. Ze weten al wat niet in beeld komt en dat renderen ze dus ook niet. Dit kun je NOOIT in spellen doen.... daarom is het echt wel valsspelen, want deze (24%) performance boost zul je alleen in 3dmark terug zien en niet in je games.

ATi optimaliseert gewoon zijn shaders, dit geeft een wat mindere performance boost (1.9%), maar die zie je zeker wel terug in games (DX9), alleen zijn die games er op het moment nog niet.

Ik vind dat er dan ook wel duidelijk een verschil zit in de optimalisatie methoden van beide bedrijven.
http://www.tweakers.net/nieuws/27117

Hierin staat beschreven hoe ze te werk gingen:
Het gaat daarbij vooral om het niet renderen van scenes die zich net buiten het camerastandpunt bevinden en om het versimpelen van verschillende vertex shaders.
Als je die scenes niet rendert, dan haal je atomatisch een hoger aantal fps
Dit heeft Nvidia gedaan, niet ATI. Wel eerst even goed lezen.
dat is dus van nVdia deed, ATi had gewoon een aantal routines in de drivers aangepast met als resultaat een algehele prestatieverbetering.

Wat nVidia deed was gewoon valsspelen, wast ATi deed was imho gewoon optimaliseren..
Wat nVidia deed was gewoon valsspelen, wast ATi deed was imho gewoon optimaliseren..
Het is maar net wie/wat je wilt geloven .. :z
Hallo schaijik & Arfman ?

ATi heeft er anders nooit een geheim van gemaakt.
Het staat nota bene zelfs in de release notes van de Catalyst 3.4 drivers...
DirectX 9 Performance Improvements
The following is a list of DirectX9 Performance Improvements noticed in the latest release of CATALYST™.

3DMark03 scores are improved as much as 8% across our entire DirectX 9 (dx9) product line
The difficult Mother Nature (dx9) test now runs as much as 20% faster than previous drivers
Bron: http://mirror.ati.com/support/drivers/winxp/radeonnowdm-xp.html?cboOS= Windows+XP&cboProducts=RADEON+8500&eula=&choice=agree&cmdNext=Next
in zekere zin natuurlijk wel, maar bij nvidia waren de 'optimalisatie' veeeeeeeel extremer en volledig onbruikbaar in echt games, en bij ati kan het ook in games van pas komen. is imho minder mis mee dan wat nvidia doet.

ik vind en halve scene nabouwen en een paar shaders optimaliseren toch een wereld van verschil.
Als het alleen maar optimaliseren is, waarom halen ze deze er in de volgende versie dan uit?
Juist, omdat het een 3DMark03 optimalisatie is en geen algehele, dus nog steeds valsspelen, alleen met minder resultaat dan het valsspelen van NVidia.

Als je valsspeeld, doe het dan goed.
(niet dat NVidia het goed deed, aangezien men hier vrij makkelijk achter kwam).
Er staat toch duidelijk in de tekst dat het WEL een algehele optimalisatie is?

Tering zeg, leest men hier nietmeer?

Kijk nu eens goed en zit Nvidia niet zo verdomde zielig te verdedigen.. 24% is gewoon ZEER slecht waarbij die 1.9 van ATi zo goed als geen ruk uitmaakt, zit zelfs binnen de foutgrens van 3% Zou dus geen fuck uit moeten maken.
ATi's score neemt met 1,9 procent af. ATi blijft er echter bij dat dit percentage het resultaat is van instructies die dankzij de eigen architectuur overgeslagen konden worden en dus ook in echte game-performance merkbaar is.
Zit niet zo te zeiken over ATi.. nvidia zit hier FOUT en durft dat in tegenstelling tot ATi niet toe te geven, DAT vind ik nog het meest zielige.

Kleine edit: Ik weet dat ik flamend over gaat komen maar het moet er even uit.. WAT ZIJN SOMMIGE MENSEN GRUWELIJK DOM HIER

Dank u wel ;)

Oja en nu waarom:
Er staan hier zooveeel reacties met ONZIN erin waaruit gewoon blijkt dat mensen niet lezen. Lees eerst het bericht DAN PAS posten, en niet zoveel onzin droppen zonder dat je weet waar het over gaat.

Just my 2 dollars :P
hoe is dingen die niet op het scherm verschijnen niet renderen fout?

dit heet toch gewoon slimme aanpak? het is zelfs de strategie van powervr, al gebeurd het daar hardwarematig
Niet dus ............

Dit werkt alleen als je van tevoren weet welke beelden er gaan komen en welke richting de camera gaat volgen.

Aangezien de drivers van Nvidia precies weten hoe die lijnen in 3D Mark 2003 lopen ( nVidia beschikt over de broncode van 3D Mark 2003 ), kunnen ze gewoon alle omliggende delen van de scene vergeten en slechts een deel van de scene renderen. En daar komt dus die 24% performancewinst vandaan.

Aangezien de drivers van nVidia niet weten welke kant jij op gaat in een game, zal de kaart in een echte situatie dus wel de buiten met camerarichting moeten renderen en die 24% performancewinst uit 3D Mark zo weer in moeten leveren, simpelweg omdat je game anders maar half gerenderd op het scherm komt, en pas na een draai in het game de rest gaat renderen.
Ik vind dit een behoorlijke vooruitgang. Als ze de drivers nu zo aanpassen dat de dingen die toch niet opvallen ook niet gerenderd worden dan is dat een behoorlijke optimalisatie.

De mensen die Nvidia zo belachelijk maakten staan nu wel een beetje te kijk vind ik. Gisteren was Nvidia niks omdat ze vals spelen, en vandaag zijn ze niks omdat ze MEER vals spelen dan ATi. Zo ken ik er nog wel een paar hoor jongens :Z
Dat is net wat de Z-buffer van PowerVR deed, met het enige verschil dat dit wel realtime gebeurde en niet bij het schrijven van de drivers !!!
gevolg:
als je de scene roteert op een PowerVR-gpu, dan worden er andere objecten niet gerenderd.
als je de scene roteert op een nividia-gpu, dan worden de andere (onzichtbare) objecten WEL gerenderd en diegene die je juist moet zien NIET.

mss makkelijker om te begrijpen: zet een stoel in de kamer naast de jouwe: als je in je kamer zit zullen geen van beide gpu's de stoel renderen en de stoel waar je in je kamer op zit wel. als je naar de kamer ernaast gaat, rendert de PowerVR de stoel die daar staat wel en diegene waar je oorspronkelijk op zat niet, terwijl nvidia de stoel daar niet rendert, maar wel diegene waar je op zat.
25% perfomance loss of 1.9% is nogal een verschil hoor.
Die procenten zeggen helemaal niks.

Je moet het zo zien: 2 personen doen examen in een bepaald vak. Het vak = de werkelijkheid, en het examen = de benchmark.

Het zou zomaar kunnen, dat persoon 1 een cijfer haalt dat 20% hoger ligt, dan het cijfer van persoon 2. Is die persoon 1 dan per definitie ook beter in dat vak? Nee, theoretisch zou hij beter moeten zijn, maar je kunt hier pas in een praktijksituatie echt over oordelen. En dan zul je dus ook zien, dat in verschillende situaties, de prestaties van de beide personen ook nog eens verschillen.

Zo'n benchmark is heel erg handig om even snel een eerste indruk te krijgen van de prestaties. Je zult achteraf toch zelf moeten bepalen, welke kaart voor jouw situatie het beste is.

Ik ben geen gamer, maar als ik nu zou beslissen om een nieuwe videokaart en wat games te gaan kopen, dan zou ik dus never nooit niet uitgaan van een benchmark.
Ben je nou werkelijk zo stom?

Wat NVidea doet heeft nietsmet optimalisatie te maken. Het kan per definitie niet in een game gebruikt worden. NVidea laat renderdata weg. De reden waarom ze weten welke data weg kan worden gelaten, is omdat ze weten welke weg de player in de timedemo aflegt, en welke kant hij op kijkt. In een echte game, bepaalt de speler welke weg er bewandelt wordt, en welke kant er op gekeken wordt. Dit is dus absoluut niet toepasbaar op games. Dit is dus gewoon cheaten. Dit is niet anders, dan dat de driver een vooraf gerenderde MPEG movie zou beginnen af te spelen op het moment dat hij de benchmark herkent. Het heeft niets meer met de daadwerkelijke prestaties van de videokaart te maken.

Wat ATI doet is lijkt gewoon pure optimalisatie te zijn. De driver herkent programma structuren, en herrangschikt het zaakje om het sneller te maken. Er wordt geen voorkennis gebruikt. En dat merk je dan ook, omdat bij de ATI optimalisatie de player ook rustig een andere weg mag bewandelen, en andere kanten kan uitkijken. In principe werkt deze optimalisatie niet alleen voor deze benchmark, maar ook voor andere spellen waar dezelfde soort structuren gebruikt worden.

En aan de performance merk je ook duidelijk waar er gecheat wordt, en waar geoptimaliseerd.

Zielige poging op ATI in een kwaad daglicht te stellen, terwijl NVidea hier wel degelijk de enige boosdoener is.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True