Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties
Bron: Xbit Labs

Een nVidia 8800 GeForce GTX met 768MB geheugen kost minstens 500 euro, maar met de introductie van de 8800 GTS 640MB en de 8800 GTS 320MB wordt een snelle DirectX 10-videokaart aanmerkelijk betaalbaarder. Vraag is hoe het zit met de onderlinge prestaties.

X-bit labs legde de twee typen 8800 GTS-kaarten, beide van MSI, op de testbank. Ten opzichte van de GTX is de pcb van een GTS met 22,8 centimeter ruim vijf centimeter korter. Dit komt onder andere omdat de MSI's slechts één extra voedingsaansluiting hebben. De kaarten gebruiken tien Samsung-gddr3-geheugenchips die draaien op 850MHz - 1700MHz effectief - en een vanuit de fabriek overklokte G80-gpu op 576MHZ en 1350MHz voor de shaderprocessor. De chips worden met een conventionele 75mm fan koelgehouden. De reviewers noemen het koelelement opvallend stil, terwijl tijdens maximale belasting beide kaarten 102 tot 106 watt verstoken, tegenover 131,5 watt voor een 8800 GTX. De gpu kan prima nog wat extra overgeklokt worden, maar het gddr3-geheugen heeft minder speelruimte: X-bit labs wist de G80 van 576/1350MHz naar 675/1566MHz te krijgen, het geheugen maakte een sprongetje van 850MHz naar 900MHz.

Na een flinke serie tests met actuele games en de bekende benchmarks blijken de MSI's ten opzichte van het grafische GTX-geweld stevig in hun schoenen te staan met een in de ogen van de reviewers uitstekende prijs/prestatie-verhouding. Het model met 640MB werkgeheugen weet een groot deel van de concurrentie, bijvoorbeeld de AMD Radeon X1950 XTX, vrijwel altijd achter zich te laten. Ook de 320MB-versie weet zich in de veelgebruikte resoluties 1280x1024 en 1600x1200 prima staande te houden, maar heeft nog wel te kampen met buggy drivers. X-bit labs geeft MSI tenslotte nog een pluim omdat het de veelgeprezen rts-titel Company of Heroes in de doos stopt.

MSI GeForce 8800 GTS
Moderatie-faq Wijzig weergave

Reacties (42)

Die 100 watt is nog steeds teveel. Ik hoop dat ze nu de performance lat weer hoger is gelegd daar ook naar gaan kijken.
En zeker netjes dat je er company of heroes bij krijgt. Bij mijn X1950 van HIS kreeg ik flatout 1 terwijl 2 alweer bijna oud is.
Wat boeien die 100 watt nou?
Tis niet zo dat je 24/7 aan het gamen bent.

1 x de wasmachine een was laten draaien gebruikt net zo veel als 2 weken lang 2 uur per dag gamen met die 8800 GTS.

Altijd dat gezeur over die wattages en ondertussen iedereen aan de airco in de zomer.

Mensen vragen toch ook niet om een Bugatti Veyron die 1 op 40 loopt en óók nog es de snelste is.

Wil je performance dan verbruikt het ook iets meer dan gemiddeld. Wil je zuinig koop dan een GF 7600 ofzo.

-edit- : Deze kaarten zij ook nog eens ruim 2 a 3 keer zo snel in vergelijking met de vorige generatie gpu's en gebruiken maar een paar watt meer. Dus de performance per watt neemt keihard toe.
Ware het niet dat deze kaart nog steeds flink wat lust als ie nagenoeg idle is.

En als je bedenkt wat een beetje moderne PC met wat simpele randapparatuur verbruikt, dan vergelijk je dat niet met een wasmachine, want de wasmachine hier in huis wordt dik voorbij gestreefd door het verbruik van de Computers hier.

Zelf als je maar 1 computer hebt is een continue verbruk van 300 Watt per uur een reeël verbruik te noemen en dan heb je echt geen racebeest. Een dikke gamebak gaat hier uiteraard met gemak overheen. Als er dan ook nog es meerdere gebruikers zijn en de computer makkelijk de nodige uren maakt kan de wasmachine dat verbruik niet meer matchen hoor.
300 watt uhuh, waar haal je die onzin vandaan?

Heb je wel eens je pc verbruik gemeten? Een gemiddelde pc gebruikt inclusief monitor onder load lang geen 300watt.
Misschien dat je wel een flinke voeding erin hebt zitten maar die trekt dat lang niet uit het stopcontact. M'n overgeklokte pc incl 2 monitors en X850XT PE die "toen" ook zo veel zou verbruiken en waar ook iedereen over het verbuik klaagde gebruikt onder full load en 3d nog geen 230 watt voor het hele systeem incl 5 Hd's, verlichting, en andere zooi in de pc.
Een gewone office pc komt inclusief monitor nog nieteens aan de 150 watt onder load.


Alles wordt hier altijd zo zwaar overdreven. Die opgegeven wattages van die videokaarten zijn allemaal theoretische piekwaardes die je mobo en voeding aan moeten kunnen.
in 99% van de gevallen gebruiken die kaarten nieteens de helft daarvan tijdens 3D.

Daarbij zijn dit de highend kaarten in het artikel. Er zijn zat zuinige andere videokaarten maar die zitten meer in het midden segment.
Een nieuwe Dell Optiplex hier op kantoor heeft maar een voeding van 220W. Die is snel zat met een Pentium D met 1 gig geheugen en verbruikt lang geen 300Watt.
Lijkt me ook niet zo prettig met een 220w voeding :+
Ik vraag me af hoe je die vergelijking tussen auto's en grafische kaarten kan maken.....
Maar weinig mensen hebben zo'n auto, zijn van plan er 1 aan te schaffen. Maar heel veel mensen willen een grafische kaart. Daarnaast is het ook nog eens zo dat deze kaart straks mainstream wordt, Zo'n auto wordt nooit mainstream.
Als dit zo doorgaat dan gaan straks de pc's (beetje overdreven) 10x meer gebruiken dan die wasmachine. Druk maken om het wattage is daardoor VEEL belangrijker dan jij denkt. Daarnaast vind ik het ook nog eens jammer dat jij je blijkbaar ook niet druk maakt om het mileu.
Deze voorwerpen komen allemaal uit het top-segment van hun klasse. Daarnaast zijn er in verhouding heel weinig computer gebruikers die tot aanschaf van zo'n videokaart overgaan.

Net als bij snel willen rijden komt ook bij de snelste videokaart wat nadelige verbruikskosten kijken. Als je ten eerste al meer dan 300 euro voor een videokaart (en een evenredig systeem koopt) dan vind ik het vreemd dat je gaat zeuren over de elektriciteitsrekening, 1kWh is 20 cent hè (fluctueerd door die privatisering).
Dan vergelijk je die kaart toch met een BMW M3, dat is ook een middensegment snelheidsbeest. Daar ga je net zo min bij vragen of ie ook 1 op 30 loopt.

Op zich loopt iedere vergelijking met auto's mank, maar aangezien het een makkelijk object is waar iedereen wel wat over (denkt te) weet(en) wordt deze makkelijk gepakt.

Natuurlijk zijn er meer mensen die een topkaart kopen dan er mensen zijn die een dure snelle auto kopen. Dat verschil komt ook doordat er veel meer voor zo'n auto moet worden neergeteld. Als de prijsverschillen bij videokaarten net zo extreem zouden zijn dan wordt de vergelijking al weer een stuk makkelijker.

Soms is een vergelijking juist nodig om iets duidelijk te maken. Als jij (en anderen) de vergelijking met de Bugatti Veyron belachelijk vinden dan moet je misschien eens nagaan hoeveel hout de opmerkingen over het gebruik van de Graka's snijden. Misschien ook niet helemaal koosjer?

Om iets duidelijk te maken is soms juist een overdrijving nodig om alles weer in een juist perspectief te zetten.
prachtig gezegd, ben het er helemaal mee eens.


ok het verbruik van zo'n kaart is idle misschien ook hoog maar veel mensen laten pc ook 24/7 draaien en dan gaan ze niet klagen dat hij veel verbruikt.

zet als eerste de pc eens uit of in slaapstand en niet 24/7 laten draaien.
~100 watt voor de GTS-kaarten, dus 10 uur gamen is 1 kWh

Mijn wasmachine verbruikt 1 kWh bij een was op 60 graden...

Dus als jij twee per dag games speelt op je PC, verbruik je in één week al meer dan 1 wasbeurt van een wasmachine. :)

Je hebt wel weer gelijk dat de snelheid per watt is toegenomen. :)
spreek voor je zelf !
omdat jij nu zo,n gebruik hebt wil niet zeggen dat een ander net zo is en doet zoals jij.

net als of iedereen een airco heeft, je geen video kaart nodig zou hebben buiten het game om en de rest van de mensen naast als dit gebruik ook maling hebben aan het miljeu.

spreek voor je zelf.
Tuurlijk...
Jij zet zeker je monitor uit en denkt dan dat je die resterende 12 uur, dat je Pc draait, zodat je kunt downloaden van bittorrent site, geen stroom verbruikt omdat het signaal afkomstig van je zeker wel slurpende videokaart niet zichtbaar is ?!

|:(

Ennuh allemaal mooi praten maar wanneer puntje bij paaltje komt wil straks (wanneer goed betaalbaar) iedereen wel een Quad core (die flink overclocked moet kunnen worden) incl tenminste 2 gig intern geheugen, 1 terrabyte HDD ruimte, minimaal één 22inch Flatscreen LCD monitor een 800 Watt voeding en die nieuw te verwachten monster slurper van ATI.
Om over de flinke speakerset en de externe 500 Gig hdd maar niet te spreken...
..
Niks mis met MSI maar wel met hun afbeeldingen imho. :P Ik heb liever een kale koeler en zwarte PCB. Als MSI en ook andere fabrikanten ook nou eens bedachten dat die afbeeldingen echt niet meer thuishoren in dit tijdperk.
Die afbeelding zou inderdaad zomaar op de schouder van een woonwagenkampbewoonster kunnen staan ja. Gelukkig zit het in de kast en zie je hem maar 2 keer: als je hem inbouwt en hem er een tijd later weer uithaalt :P
niet als je een btx kast gebruikt, mobo op z'n kop, dan zie je de koeler altijd :)
Misschien moet je dan ook je kast eens dicht doen :?
Of gordijntjes voor het raampje in je kast :z
Dan koop je toch de variant van Club3D?
Zwarte sticker op de koeler en een zwarte pcb
Inderdaad, of EVGA gewoon lekker zwart met alleen
het logo eruit gestanst + de koelsleufen uiteraard.
Bovendien een van de echt snelste kaarten. Dan wel de 8800GTX versie.
Daarentegen verkoopt dit in china en japan wel stukken beter, mede omdat dit "vette" plaatje er op staat ;)
****Een nVidia 8800 GeForce GTX met 768MB geheugen kost minstens 500 euro, maar met de introductie van de 8800 GTS 640MB en de 8800 GTS 320MB wordt een snelle DirectX 10-videokaart aanmerkelijk betaalbaarder. ***


Je mag natuurlijk best het gene waar het grotendeels ook om gaat, het prijs verschil, weergeven in dit stukje, het staat in de bron natuurlijk wel, maar waarom zou je het hier weglaten....


Maar het is dus de dure +/- 600 $ en de budgets versies $449 and $299
$449 vind ik toch niet echt budget hoor :)
Volgens mij heb ik de 320mb versie al voor 260 euro in de pricewatch zien staan...en voor die prijs is het zeker een leuke kaart :Y)
Was even verkeerd, deze 8800 GTS reviews zijn nu toch niet echt nieuw: ben aan 't wachten op de eerste reviews van de 8600 GT en GTS. Die worden toch morgen gereleased (17 april)? Zou mooi zijn om daarmee eens de prestaties te vergelijken. Zeker wat betreft prijsverhouding. Als de 8800 GTS voor ongeveer 300 ¤ over de toonbank gaat, wat mogen dan de 8600 modellen kosten? En wat presteren ze?
Persoonlijk ben ik meer geintereseerd wat de nieuwe ATI kaarten gaan presteren...Want dat de 8600 iets minder goed zal presteren dan de 8800 GTS, da's wel duidelijk...en ook dat de prijs daarnaar zal zijn...Maar het is inmiddels half april...en bij AMD vandaan blijft het weer verdacht stil ;(
De prestaties van de 8600 GTS staan hier: http://www.tcmagazine.com/comments.php?shownews=14178

De prijs is ongeveer 180-200 euro ;)
Ik heb dus de 640 MB versie gekocht ( nog niet binnen helaas)
Maar die 3D mark punten zeggen mij dus echt helemaal niks ..

Waar zijn die op gebaseerd ?
even er van uit gaan dat ik zelfde mobo en proc en geheugen heb als die gast.

* Leeg systeem met alleen OS + relevante drivers? en echt alleen maar de videokaart (geen netwerk meuk of geluidskaarten) 1 HD enzo .. kaal dus

OF

* zoals bij mij : 3 hd's tot nokkie vol .. brakke xp instal ( al 2 jaar oud)

want ik neem aan dat alles op je PC invloed heeft op die score ?

mja ik zal wel teveel denken .. maar die punten zijn iig nooit en never hetzelfde als bij anderen. Kan bij de ene VEEL hoger of juis veel lager uitvallen.. toch ?
Hoe hoger je punten uitvallen hoe beter je 3D games op je pc kan spelen, praktisch alle onderdelen hebben daar invloed op, maar het meeste wel je videokaart, dan je CPU en RAM geheugen.

De punten worden berekent uit de FPS ofzo van de tests die worden gedraait met 3Dmark.
Vergeet je Mobo niet, ook redelijk relevant ;)
Staat hier niet bij, maar ik kan uit de test ook concluderen dat als je met hele hoge resoluties werkt en je anti-aliasing en aniostrophic filtering op vol wilt hebben dat je dan de 640MB versie moet hebben.
Dat was al bekend bij de 128mb vs 256mb 6800..
over dat wattage gebeuren nog ff, mijn systeempje met c2d6600 en 5 hdd en x1950 en andere meuk komt net op 110 watt
Die 3Dmark score zegt alleen iets over de prestatie van je kaart ten opzichte van andere kaarten en dat is natuurlijk wel handig als je een keuze moet gaan maken.

Die tests zijn namelijk allemaal gedaan op een clean install (dus zo min mogelijk veschillen)
Mjah maar mij MSI 8800gts 640mb klokt toch wel ff een stuk lekkerder over, dan de MSI uit het artikel en ik heb dezelfde sticker :P

@warmonger welke varianten ken jij nog meer dan?
naar 675/1566MHz te krijgen, het geheugen maakte een sprongetje van 850MHz naar 900MHz.


het geheugen = de gpu..

wel handig om deze fout te verbeteren
Of jouw fout? ;)

Core=675MHz
(Core) Shader Domain=1566MHz
Geheugen=900MHz (effectief 1800MHz)

Wat klopt er dan niet?
edit: moet sneller lezen :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True