Door Hielko van der Hoorn

Sparkle GeForce 8800 GTX en GTS getest

08-11-2006 • 20:02

116

Multipage-opmaak

Inleiding

Aankondigingspicje Sparkle GeForce 8800-reviewVandaag heeft nVidia de GeForce 8800-familie, bestaand uit de GeForce 8800 GTX en GeForce 8800 GTS, officieel geïntroduceerd. Deze kaarten zijn gebaseerd op de G80-core en zijn daarmee de eerste videokaarten die de DirectX 10-standaard ondersteunen. Wij kregen enkele dagen geleden de kans om de Sparkle GeForce 8800 GTX en GTS te testen. Onze bevindingen vind je hier.

* De kaarten

nVidia heeft vandaag twee kaarten geïntroduceerd. Het topmodel is zoals gebruikelijk de GTX-versie en een voor het model dat een stapje lager op de ladder staat is het GTS-achtervoegsel, voor het laatst gebruikt bij de GeForce 2, uit een stoffige kast getrokken. De GeForce 8800 GTS ondersteunt dezelfde features als zijn grote broer, maar moet het doen met een lagere kloksnelheid, minder rekeneenheden en minder geheugen. De belangrijkste specificaties van de twee kaarten zijn in de onderstaande tabel vermeld.

GeForce 8800 GTX GeForce 8800 GTS
Gpu-kloksnelheid 575MHz 500MHz
Geheugenkloksnelheid 1800MHz 1600MHz
Shaderkloksnelheid 1350MHz 1200MHz
Streamprocessors 128 96
Geheugencapaciteit 768MB 640MB
Geheugenbus 384-bit 320-bit
Geheugenbandbreedte 86,4GB/sec 64,0GB/sec
Fillrate 36.8 gigapixel/sec 24,0 gigapixel/sec

De architectuur van de GeForce 8800-familie verschilt flink met de huidige generatie nVidia-kaarten. De G80 maakt gebruik van een ‘unified architecture’ wat inhoudt dat er geen onderscheid meer gemaakt wordt tussen pixel- en vertexshaders. De GeForce 8800 GTX is uitgerust met 128 streamprocessors die met beide shadertypes overweg kunnen. Hierdoor hangen de prestaties van de gpu minder af van het type belasting dan voorheen. De 7900 GTX is uitgerust met 24 pixelprocessors en 8 vertexprocessors en als een programma veel gebruikt maakt van pixelshaders zitten de vertexprocessors te slapen of omgekeerd. Gezien het feit dat DirectX 10 ook nog een derde shadertype kent is een ‘unified architecture’ des te voordeliger.

Sparkle GeForce 8800 GTX pcb
Sparkle GeForce 8800 GTX

Een ander opmerkelijk gegeven is de hoeveelheid geheugen en de breedte van de geheugenbus. Meestal hebben videokaarten en andere computercomponenten een geheugenbus en een geheugencapaciteit die een macht van twee is. De huidige generatie high-end videokaarten biedt 512MB geheugen en een 256-bit brede geheugenbus. Het verdubbelen van deze getallen is een dure zaak waardoor nVidia gekozen heeft voor een tussenoplossing: de GeForce 8800 GTX heeft 768MB geheugen en een 384-bit brede geheugenbus en de GTS-versie heeft 640MB geheugen en een 320-bit brede geheugenbus. Tezamen met een geheugenkloksnelheid van respectievelijk 1,8GHz en 1,6GHz resulteert dat in een bandbreedte van 86,4GB/sec en 64GB/sec. De gpu zelf loopt op 575MHz in het geval van de GTX-variant en de GTS-variant werkt op 500MHz. Hiermee is de kloksnelheid iets lager dan bij de GeForce 7900 GTX die op 650MHz zijn werk doet, maar dat wordt meer dan goed gemaakt doordat de shaderprocessors zelf op een veel hogere snelheid geklokt zijn (respectievelijk 1350MHz en 1200MHz).

Sparkle GeForce 8800 GTS pcb
Sparkle GeForce 8800 GTS

Nieuwe features

Eén van de belangrijkste nieuwe features van de GeForce 8800-familie is de ondersteuning voor DirectX 10. DirectX 10 werkt in combinatie met het nieuwe drivermodel van Windows Vista waardoor de drivers geen onderdeel meer zullen zijn van de systeemkernel, maar in usermode zullen draaien. Dit maakt het onder andere mogelijk dat een crash van de driver niet meteen resulteert in een blauw scherm, maar dat deze weer opgestart kan worden zonder crash. Een ander voordeel van het nieuwe drivermodel is dat de overhead van de API en de driver aanzienlijk lager is. Een prestatiewinst van maar liefst 20 procent zou alleen al mogelijk zijn door een applicatie de overstap van DirectX 9 naar DirectX 10 te laten maken.

Een andere nieuwigheid is dat DirectX 10 een nieuw type shader ondersteunt. Naast de bekende pixel- en vertexshaders is het nu ook mogelijk om geometryshaders op de gpu te laten draaien. Dit type shader is in staat om zelf nieuwe geometrie aan te maken waardoor het mogelijk is om nieuwe effecten door de gpu te laten berekenen. Met de geometryshader is het bijvoorbeeld mogelijk om displacement mapping, het toevoegen van hoogte aan een platte texture, te implementeren. De pixel- en vertexshaders zijn in grote lijnen gelijk gebleven ten opzichte van DirectX 9, maar uiteraard zijn er wel verbeteringen toegevoegd. De shaders kunnen nu uit meer instructies bestaan, gebruik maken van meer registers en een enkele shader kan oneindig veel instructies uitvoeren (in plaats van 65536). Hoewel er geen twijfel over mogelijk is dat DirectX 10 een verbetering is ten opzichte van DirectX 9 is er natuurlijk wel een probleem: Vista is nog niet geïntroduceerd, DirectX 10 is nog niet geïntroduceerd en games die gebruik maken van DirectX 10 zijn helemaal nog in geen velden of wegen te bekennen. In deze review zullen we ons dan ook alleen maar richten op de prestaties van de kaart in combinatie met DirectX 9.

Microsoft Flight Simulator X met DirectX 9
Microsoft Flight Simulator X met DirectX 10
DirectX 9 (boven) versus DirectX 10 (onder). Bron: Microsoft

De flexibelere DirectX 10-pipeline maakt de gpu ook geschikter voor andere soorten berekeningen dan het tekenen van een plaatje. Onder de naam ‘Quantum Effects Technology’ promoot nVidia de mogelijkheid om de kaart te gebruiken voor het versnellen van natuurkundige berekeningen. Een half jaar geleden kwam Ageia met een losse insteekkaart voor het versnellen van natuurkundige berekeningen, maar veel marktaandeel heeft het bedrijf nog niet kunnen veroveren. Nu nVidia en ATi zich ook op dit terrein gaan begeven is het twijfelachtig of Ageia nog voet aan de grond kan krijgen, tenzij zal blijken dat de meeste videokaarten deze taak niet goed kunnen combineren met het produceren van plaatjes.

De laatste noemenswaardige vernieuwing is de mogelijkheid om high dynamic-range (HDR) plaatjes met een precisie van 128-bit te tekenen in combinatie met 16x anti-aliasing. De Radeon-familie van ATi is al langer in staat om HDR-rendering te combineren met anti-aliasing, maar voor nVidia is het een nieuwe feature. Daarnaast is de precisie verdubbeld door van 64-bit naar 128-bit te gaan en ook de mogelijkheid om 16x anti-aliasing te gebruiken is nieuw. Voorheen kon 16x anti-aliasing alleen gebruikt worden met een SLI-opstelling en was 8x het maximale mogelijk met een enkele kaart.

Benchmarks (1)

We hebben de Sparkle SPPX88GTX GeForce 8800 GTX en de Sparkle SPPX88GTS GeForce 8800 GTS getest met behulp van onze VideoMark 2006-testmethodiek. Deze benchmark maakt gebruik van enkele populaire spellen waaruit uiteindelijk een gewogen en geïndexeerd score wordt berekend. De gebruikte games zijn The Elder Scrolls IV: Oblivion, Call of Duty 2, F.E.A.R., Half-Life 2: Lost Coast, Quake 4 en Splinter Cell: Chaos Theory. De prestaties worden normaliter getest op twee verschillende widescreenresoluties: 1680x1050 en 1280x800. Voor deze review hebben we de 1280x800 benchmarks echter niet gedraaid aangezien een dergelijke lage resolutie geen uitdaging is voor de krachtpatsers die hier de revue passeren. Zelfs op 1680x1050 zullen de kaarten waarschijnlijk niet helemaal volledig belast worden. Met uitzondering van Oblivion worden alle games getest met en zonder anti-aliasing. Helaas hadden we niet de beschikking over de snelste videokaart uit de ATi-stal, de Radeon 1950XTX, waardoor we de focus van de vergelijking gelegd hebben op de prestaties van de GeForce 8800 in vergelijking met de GeForce 7900 GTX en GeForce 7950 GX2.

* Call of Duty 2

De eerste benchmark die we gedraaid hebben is Call of Duty 2. De benchmark laat direct zien dat de GeForce 8800 GTX een significante verbetering is ten opzichte van de GeForce 7900 GTX: zonder anti-aliasing is de kaart 35 procent sneller en met anti-aliasing is het verschil 43 procent. In vergelijking met de GeForce 7950 GX2, die bestaat uit twee GeForce 7900 GT-kaarten in SLI, is de winst respectievelijk 17 en 18 procent. De GeForce 8800 GTS presteert op het zelfde niveau als de GeForce 7950 GX2.

* F.E.A.R.

In F.E.A.R. weet de GeForce 8800 GTX uitstekende prestaties neer te zetten. Ten opzichte van de GeForce 7900 GTX is de kaart al 35 procent sneller wanneer er geen anti-aliasing wordt gebruikt, maar wanneer dit wordt ingeschakeld neemt de kaart een voorsprong van maar liefst 82 procent. De GeForce 8800 GTS is ook aanzienlijk sneller dan de 7900 GTX, maar moet wel zijn meerdere erkennen in de GeForce 7950 GX2.

* Half -Life 2: Lost Coast

In Half-Life 2: Lost Coast zijn de verschillen tussen de videokaarten minder groot, maar desondanks weten de twee GeForce 8800-kaarten een gezonde voorsprong te nemen op de competitie. Wanneer we kijken naar de resultaten met anti-aliasing is de GeForce 8800 GTX ruim 28 procent sneller dan de GeForce 7900 GTX en 20 procent sneller dan de GeForce 7950 GX2. De GeForce 8800 GTS is net iets langzamer en noteert een voorsprong van respectievelijk 24 en 15 procent.

Benchmarks (2)

* Quake 4

In Quake 4 is het plaatje niet veel anders: de GeForce 8800 GTX is zonder twijfel de snelste kaart en is 64 procent sneller dan de GeForce 7900 GTX. In vergelijking met de GeForce 7950 GX2 is het verschil echter een stuk minder groot en de GeForce 8800 GTS is zelfs praktisch even snel als de GeForce 7950 GX2.

* Splinter Cell: Chaos Theory

In Splinter Cell: Chaos Theory zet de GeForce 8800 GTX goede resultaten neer, maar voor het eerst zien we dat de GeForce 7950 GX2 nauwelijks voorbijgestreefd wordt. Zonder anti-aliasing is de GeForce 7950 GX2 net 2,6 procent sneller en met anti-aliasing is de GeForce 8800 GTX maar 2,0 procent sneller. Ook de GeForce 8800 GTS heeft moeite om indruk te maken. Zonder anti-aliasing is zelfs de GeForce 7900 GTX sneller en met anti-aliasing is de kaart slechts 7 procent sneller. Waardoor de relatief tegenvallende prestaties in Splinter Cell veroorzaakt worden is niet duidelijk, maar wellicht dat een driverupdate hier in de toekomst nog wat aan kan doen.

* The Elder Scrolls IV: Oblivion

Het laatste spel dat we getest hebben is The Elder Scrolls IV: Oblivion. Dit spel biedt de GeForce 8800-kaarten een goede kans om te laten zien wat ze in huis hebben. Vergeleken met de GeForce 7900 GTX is de GeForce 8800 GTX maar liefst 79 procent sneller en vergeleken met de GeForce 7950 GX2 wordt een respectabele voorsprong van 29 procent neergezet. De GeForce 8800 GTS doet het ook goed en presteert 19 procent beter dan de GeForce 7950 GX2.

Conclusie

Zoals de benchmarks op de vorige pagina's laten zien is er geen twijfel mogelijk: de snelste videokaart van dit moment is de GeForce 8800 GTX. In sommige gevallen loopt het verschil met de GeForce 7900 GTX op tot meer dan 80 procent en ook de GeForce 7950 GX2 moet zijn meerdere erkennen in de nieuwe kaart. Naast de prima prestaties biedt de GeForce 8800 GTX ook verschillende nieuwe features. Ondersteuning voor DirectX 10, de mogelijkheid om natuurkundige bewerkingen te versnellen en de optie om HDR-rendering te gebruiken in combinatie met anti-aliasing zijn allen welkome features. Helaas zijn deze features niet allen direct te gebruiken, DirectX 10-games zullen bijvoorbeeld voorlopig nog niet geïntroduceerd worden, maar dat zal komend jaar ongetwijfeld veranderen.

Helaas kost het nieuwe snelheidsmonster wel een flinke bom duiten. De eerste GeForce 8800 GTX-kaarten staan momenteel voor rond de 600 euro in de Tweakers.net Pricewatch. Voor de gamers die wel een snelle videokaart willen hebben, maar 600 euro toch net te dol vinden heeft nVidia de GeForce 8800 GTS in het assortiment. Deze kaart kost rond de 450 euro en is daarmee goedkoper dan de GeForce 7950 GX2 en maar enkele tientjes duurder dan de Radeon 1950 XTX. De GeForce 8800 GTS is overduidelijk de beste optie van deze drie kaarten. Het is de verwachting dat dit plaatje de komende maanden in ieder geval niet zal veranderen. De eerste DirectX 10-kaarten van ATi, gebaseerd op de R600-core, zullen pas begin 2007 geïntroduceerd worden. Verwacht wordt dat nVidia rond die tijd de 8800-familie ook verder zal uitbreiden, maar wat voor type kaart het wordt is nog onbekend. Het is mogelijk dat het een langzamere en goedkopere variant wordt, maar een multi-gpu-oplossing zoals de GeForce 7950 GX2 behoort ook tot de mogelijkheden.

Sparkle GeForce 8800 GTX ventilator en voedingsconnectors

Dankwoord: Met dank aan Dollarshop voor het leveren van de GeForce 8800-kaarten.

Reacties (116)

116
114
65
9
2
33
Wijzig sortering
Anoniem: 128143 8 november 2006 20:33
Leuke prestaties maar wat ik me als eerst afvraag is; wat de geluidsproductie is van zo'n monster, idle en onder full load. Met andere woorden, is hij ook geschikt voor gamers met een stille systeem (geen WC) ?

Zijn er eigenlijk al games die DX10 ondersteunen ? Koop je anders zo'n kaart en moet je maanden wachten tot een game uitkomt die DX10 ondersteund...

Edit: Volgens Guru3D produceert de kaart 46 dBa, afstand van 75 Cm en meetapparaat gericht naar de fan. Volgens mij gaat het om Idle situatie maar valt opzich reuze mee alleen wordt de kaart volgens de review 57 graden idle, of dit aan brakke drivers liggen is niet bekend.

Misschien ook belangrijk om te weten...
Some information on the GeForce 8800 GTX recall. There has been a production error with the first btach of 8800 GTX cards. As a result all cards have been returned before they hit the stores, the ones that you'll find in the stores however are 100% okay. Here's something NVIDIA asked us to let you guys know
Darkasantion, bedankt voor de link.
Voor wat betreft beschikbaar komen van DX10-games zullen we het eerst wel van Microsoft Games moeten hebben. Op een van de eerste bladzijden van deze review staan plaatjes van Flight Simulator X met DX10. Toevallig(?) was de lead developer van FS X, Paul Lange, afgelopen weekend in Nederland en vertelde dat de DX10-features voor FS X die te zien zijn in deze afbeeldingen gerealiseerd gaan worden met een update voor FS X die redelijk snel zal komen. Iemand anders hoorde ik vertellen dat een major FS X-update voorzichtig gepland staat voor maart. NB: minder dan half jaar na release!
Anoniem: 136863 @Arno19 november 2006 17:27
Ik heb anders al wat DX10 voorbeelden, opzich kunnen makers van spellen vandaag nog een spel uitbrengen met speciale DX10 functies maar het laat allemaal nog opzich wachten tot dat Vista DX10 driver matig volledig laat ondersteunen..
Zijn er eigenlijk al games die DX10 ondersteunen ? Koop je anders zo'n kaart en moet je maanden wachten tot een game uitkomt die DX10 ondersteund...
Nee, die zijn er nog niet, en aangezien DX10 Vista only is zul je sowieso tot 2007 moeten wachten voor ze zullen verschijnen.

Als je de architectuur van de 8800GTX echter goed bekijkt zul je zien dat deze kaart niet echt ontworpen is voor DX10, het is eerder een general purpose stream processor, die 'toevallig' ook nog eens goed is in het tekenen van mooie directx en opengl plaatjes.

Wat wil ik daar mee zeggen? Nou, dat het in feite niet heel veel uit maakt of je nu DX9 of DX10 op dit monstertje los laat, zoals je uit de benchmarks al af kunt lezen is dit gewoon verreweg de snelste grafische kaart van dit moment.
Niet veel uitmaakt? We weten nu nog helemaal niks van de DX10 prestaties van deze kaart. Voor hetzelfde geld is deze kaart zwaar matig in DX10 en presteert de ATi 200% beter. Misschien is het wel omgekeerd. Imho maakt dat aardig uit als je deze kaart aanschaft en er langer dan 3 maanden mee wil doen.

Waarschijnlijk valt het allemaal wel mee maar persoonlijk wacht ik nog eventjes tot de R600 en Vista/DX10 er daadwerkelijk zijn zodat we een 'informed' aankoop kunnen maken!
Als deze kaart matig presteert in DX10 zal dat volgens mij eerder een driverprobleem zijn dan een architectuurprobleem. Maar daar had ik het niet over. Ik bedoelde met mijn opmerking te zeggen dat de aanschaf van deze kaart geen verspild geld is, ook al is er nog geen DX10 de komende maanden. Het is namelijk de snelste kaart op dit moment.

Als je echt een kaart voor Vista/DX10 wilt hebben kan je inderdaad beter afwachten tot de nieuwe ATI er ook is, maar dan nog heb ik op dit moment het volste vertrouwen in deze 8800 GTX. ATI mag wel iets heel interessants op de markt zetten om deze 'ronde' te winnen.
In de pricewatch staan sommige 8800 kaarten met gddr4 vermeld en andere met gddr3. Volgens mij wordt ie met gddr3 gemaakt, of heeft nVidia de fabrikanten daar vrij in gelaten (kan ik me niet voorstellen)?
worden geleverd met GDDR3

specs test en benchmark tegenover X1950XTX op tom's hardware http://www.tomshardware.com/2006/11/08/geforce_8800/
In de benchmarks staat dat de nVidia GeForce 7950 GX2 512MB VRAM heeft maar heeft deze geen 1024MB VRAM?
Ja ik weet dat hij bestaat uit 2 apparte videokaarten met elk 512MB maar toch... je stopt 'm in je pc als 1 kaart...
Je kunt het beter zien als 512MB met 512-bit (2x256-bit) geheugenbandbreedte.
Volgens mij komt het omdat er in het ene geheugen van de kaart het zelde in zit als in de andere. 2 keer het zelfde 512MB geheugen wordt volgens mij beschouwd als 1x512MB.
Verbeter me als ik het mis heb..
Mooie review!

Maar voor als je echt alles wilt weten+SLI( en zelfs even kleine overclock :7 )
http://www.guru3d.com/article/Videocards/391/
Guru3D is je beste vriend :Y)

Maar het is gewoon een beest van een kaart zowel qua prestaties, uiterlijk en innerlijk, en vooral voor je bankrekening, als je wilt presteren moet je wel 1600x1200 of hoger gaan wil je hem echt laten werken en presteren! Eb dat kost geld;)
Ik zit me net te orienteren op een 7900 GTX voor een laptop terwijl de 7950 eigenlijk nu het snelst is....en dan komt er zo'n verhaal achteraan.
de GeForce 8800 GTX een significante verbetering is ten opzichte van de GeForce 7900 GTX: zonder anti-aliasing is de kaart 35 procent sneller en met anti-aliasing is het verschil 43 procent.
Iedere keer als je denkt nu ga ik wat kopen op updaten dan zie je het eind alweer en loop je een jaar later weer achter de feiten aan.... :? :'(
8800GTX kopen, nu, snel! Niet wachten, niet denken, nu! :+
een jaar later... een jaar later kun je wel dood zijn, is octocore een feit (2xquadcore), heeft een links kabinet alle prive computers van meer dan 200 Watt verbruik in beslag laten nemen... Een jaar is veel te lang voor dit soort kaartjes, nu telt, morgen niet.
Als een links kabinet dan toch alle PC's die meer dan 200 Watt verstoken in beslag gaan nemen moet je deze kaart dus juist niet kopen. Zonde van je geld!

Verder heb je natuurlijk wel gelijk, mensen die lopen te zeuren dat ze wachten op het nieuwste van het nieuwste moeten gewoon nergens naar kijken en niets kopen want ze lopen uiteindelijk toch altijd achter de feiten aan!
waar komt dat fabeltje nou weer vandaan??
uit de hoofden van een zootje domme VVD'ers ofzo? kijk maar ff naar engeland daar gaat het toch veel beter dan in nederland "met een links kabinent...".

VVD noemt vooral de gevaren "ja die zijn er" vooral dat het zo goed gaat dat de VVD nooit meer aan de macht komt..
Hoe wil je een pci-e formaat kaart in je laptop gaan stoppen, vroeg ik me af? Deze 8800 is vooralsnog niet gelanceerd voor laptops, en die gx2 ook niet.
Blijft jammer van die Ati 1950, wordt deze later alsnog opgenomen in deze benchmark?
ook heel mooi gerendeerd deze dame: http://www.nvidia.com/page/home.html
Ja heel mooi, ziet er ook zo uit op mijn S3Trio 64...
En dat modden ze als interesant..
Vroeger, in de tijd van de Matrox G400 MAX, was Quake 2 een geweldig spel! Ik geloof dat ik het speelde op 1024 x 768 met 16-bits kleuren.
Ik vraag me af hoeveel fps zo'n GeForce 8800 GTX kan scoren in Quake 2 op 640 x 480 met 16-bits kleuren. Is het mogelijk om dit te testen, of ondersteunt de 8800 geen DirectX ½? Kan Tweakers.net dit testen en zou de 1000 fps-grens gebroken worden?
Anoniem: 136863 @Roland789 november 2006 17:25
Waarschijnlijk niet zo snel want als ik al een simpel proggie maak met een paar honderd poly's dan eindigt het ergens op 1200 fps, denk gewoon een reken limiet
@ ddbruijn

Getest met een Geforce 8800 GTS van Asus. Hij hikt continu tegen de 8000 FPS aan bij de ShaderClaw, en 3200 FPS bij de CSG3
Batch batch batch!
Mijn GeForce 7600GT gaat bij mij regelmatig over de 1000 fps-grens heen, en dat vaak met duizenden polys met per-pixel lighting.
Dit ding bv haalt bij mij bv al zo'n 2600 fps: http://scali.eu.org/~bohemiq/ShaderClaw.rar

En daar zitten zo'n 5000 polys in, met per-pixel phong shading. Volgens mij is dat complexer dan een heel Quake-level :)

Zelfs dit ding met complexe multipass rendering (de CSG-bewerkingen worden realtime gedaan op de GPU) haalt nog zo'n 1500 fps: http://scali.eu.org/~bohemiq/CSG3.rar

Het gaat er vooral om hoe efficient je de polygons naar je videokaart stuurt. nVidia heeft daar vele artikels en presentaties over gepubliceerd, waaronder dus de Batch Batch Batch...
hehe jah lol quake2 is tegenwoordig grappig om te benchen, dat deed ik vroeger altijd, met de SLI Voodoo2 setups die ik had. Tegenwoordig zit er nauwelijks verschil in framerate tussen lage resolutie en hoge resolutie. Laatst even 1600x1200 zonder AA/AF getest op mijn 7800GS AGP en nForce2 plank + AthlonXP-M @ 2475MHz en dat resulteert in ~630 FPS in demo1.dm2
800x600 doet dan ~650FPS.

Wat een pret niet :D

Met 16xAA en 16xAF blijft er op 1600x1200 nog zo'n ~170 FPS over en dat speelt uiteraard prima en is alsnog sneller dan de ~100fps die een SLI voodoo2 setup haalt op 1024x786 (destijds)! Wat is er toch wat veranderd heh in de tussentijd ;)

En dit is al niet eens zo'n snelle videokaart op een al verouderd systeem. Ik denk dat de 8800 in combo met een Core2duo inderdaad makkelijk de 1200+fps haalt.
Met deze settings zijn de framerates meer afhankelijk van de CPU dan van de GPU, dus de framerates zullen ongeveer hetzelfde zijn als de 7950 of de 7900
Jammer dat het energieverbruik niet gemeten is.

(Hoewel het voor mensen met dit budget misschien minder interresant is.)

Daarnaast vindt ik het ook altijd wel leuk als er iets over de geluidsproductie geroepen wordt.
Anoniem: 128143 @djbraas8 november 2006 20:47
Energieverbruik was al bekend. Idle 75 Watt en 135 Watt onder Full Load.

(Stroomverbruik van videokaart only)

AvWijk, 9 van de 10 keer is een passief gekoelde kaart trager dan hetzelfde kaart die gewoon gekoeld wordt door fans.
Weet je het zeker? Ook al zou de airflow juist uitstekend zijn, dat de kaart niet erg warm wordt? Want de 7950 heeft een mega koelblok, en zeker icm. de 120mm fans in mijn kast wordt de warme lucht netjes weggeleid. Bij de XFX Geforce 7950GT kun je tevens zien dat er een extra koelblok buiten het kaartoppervlak zit, zegmaar meer van de print af. In mijn geval, en bij veel andere moderne cases, wordt de warme lucht dan afgezogen door de achterste (120mm) fan.
Zier hier: http://myarticle.enet.com...162430578150/DSCN0424.jpg :)
@ djbraas: Inderdaad. Stilte heeft bij mij een hoge prioriteit, net als dat ik Nvidia liever boven ATI verkies ivm. de betere drivers, ook voor Linux. Ik ben heel benieuwd wanneer er een passief gekoelde kaart uit de 8800 serie op de markt komt, zoals nu ook al bij de 7950GT het geval is.
Ga je echt zo een monsterkaart kopen voor te draaien onder Linux?
Edit was niet meer mogelijk, maar uit de frontpage uit: nieuws: Nvidia heeft samples van mobiele G80-core in huis

"In desktopvorm slurpt de chip namelijk niet minder dan 177W"

Het is een trend, dat is bekend, maar het gaat hard. Het is ook 100 Watt meer dan een 7900GT!

Als je uitgaat van van 2 uur gamen per dag dan kost dat alleen voor dit beest € 14,60 éxtra per jaar.
(met een stroomprijs van 20 cent)

trouwens uit jullie "Testlog april/mei 2006: Videokaarten & harde schijven":
"De huidige high-end videokaarten lusten flink wat prik. Metingen van het energieverbruik mogen daarom niet ontbreken in reviews."
En Vista vraagt om Direct X10. Da's handig voor de marketeers !
Ik kies dan nog liever voor de stabiele XP en stap later wel over. Dan is dit kaartje ook weer een stuk goedkoper.
Nee, da's niet waar. Vista werkt perfect onder DX9 (met Aero), hoe denk je anders dat het nu al werkt?
Hij bedoelt dat DX10 om Vista vraagt.
Inderdeed, waarschijnlijk gaan we nog wel betere resultaten zien in de toekomst met de DX10 api, de nieuwe generatie videokaarten in combinatie met Vista gaan ons denk ik nog wel versteld doen staan op gebied van performance en grafische pracht !
Ik vraag me af of die plaatjes niet bewerkt zijn :?
Want dat water ziet er anders wel errug goed uit :P,
Ik heb al veel zogezegde DX10 screens gezien, waar er toch veel bewerkt waren.
Ik vraag me af wat de framerates waren..en instellingen...etc..etc!

Ik denk dat je het echt pas in spellen kan vergelijken.. Dx9 versus Dx10. ;) Natuurlijk oblivion als dat naar Dx10 zou gaan...als ze bij bethasoft dat zouden doen zou het spel zelfs NOG beter worden!
Anoniem: 54785 @Lima9 november 2006 09:22
Bewerkt? Het is geen in-game render, het is gewoon een artwork*! Ik hoop dat het met DX10 deze kwaliteit wel zal benaderen, maar zo gedetailleerd met witte schuimkoppen op de golven? Ik vraag het me af!

*Bron: KIJK! oktober 2006
Zie hierboven ergens mijn reactie over de sreenshots van Flight Simulator X. Ter toevoeging: Paul Lange van Microsoft vertelde afgelopen weekend dat hij eerst ook niet geloofde dat dit artwork zelfs maar in de buurt kwam van het te verwachten resultaat. Door de ontwikkelaars van DX10 werd hem echter verzekerd dat dit artwork nog maar een conservatieve weergave is van hoe het gaat worden. Dat water gaat er dus zeker zo realistisch uitzien.
ten eerste betwijfel ik dat ten zeerste, ten tweede heeft dit weinig te maken met DX9 of DX10, want technisch gezien is dit allang mogelijk. wat momenteel ontbreekt is de brute renderkracht om zo gedetailleerd een omgeving te renderen.

wat wel mogelijk is is dat bepaalde shaders en textures(bijv de wolken?) uitgeschakeld worden wanneer je een DX9 kaart hebt, maar dit is niet omdat het niet anders kan, maar om DX10 te promoten!
Anoniem: 175509 8 november 2006 23:21
Ik vind het maar erg erg erg snel gaan allemaal! :?
Een tijd terug was ik de man met m'n 7900GT, toen WAT? een dual-GPU!?!? (8> WOW
Nu weer de 8800-serie met 768MB? }:O

Aan de ene kant vind ik het natuurlijk prachtig om te zien dat het vordert, en hoe!
Maar ik baal ook als een tierelier dat ik niet gewacht heb tot het nieuwe tijdperk, in Vista-land met DX10 en een 8800-serie in de bak..

Het upgraden nu moet wel weer flink wat eurie gaan kosten, dual-CPU-tje hier, een dual-GPU-tje daar, en de tijd dat 1gig DDR zat was lijkt wel 10 jaar geleden.. |:(

Het mag voor mij wel iets langzamer gaan, dat game-makers zich maar eens een keer goed richten op een "betaalbare" serie, ipv games uit 2005 die zelfs met een 8800-serie moeite hebben om volledig te performen.

(zo..frustratie en opwinding in één keer kwijt ;) )
BIj Nvidia is het vaak zo dat je de oneven aantallen moet laten liggen. Dus in het verleden: TNT2, GF2, GF4, GF6, GF8, enz.

Zo doe ik het tenminste, en het is me niet tegengevallen. ;) De oneven series zijn vaak minder (GF5 was sle3cht, GF7 was er heel kort) en zijn je geld niet echt waard. :)
als je dit niet wil moet je gewoon een xbox360 of later een ps3 gaan halen. op de pc blijf je gewoon altijd achter de feiten aanlopen, maar daar heb je wel de mooiste spellen voor terug natuurlijk. (als je het kan betalen)

Op dit item kan niet meer gereageerd worden.