Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties

FiringSquad heeft een Geforce 8800GT met 1GB videogeheugen in handen gekregen en deze vergeleken met de 256MB- en de 512MB-variant van deze kaart. Daarnaast is de overklokbaarheid van de 1GB-kaart getest.

De mensen van FiringSquad hebben de Palit Geforce 8800GT 1GB getest. De prestaties van deze Palit werden onder Windows XP met Forceware-versie 169.21 vergeleken met die van 8800GT's met 512MB en 256MB videogeheugen. De Geforce-kaarten werden onder andere beproefd met Call of Duty 4, Half-Life 2: Episode Two en Crysis.

Het extra geheugen zou op papier voor betere prestaties moeten zorgen, maar in de praktijk pakt dit volgens de site anders uit. De drie kaarten hebben elk spel op drie resoluties gedraaid, maar slechts een enkele keer wist de Geforce 8800GT 1GB iets betere prestaties neer te zetten dan de 512MB-variant. De enige spellen die significant voordeel hadden uit het 1GB videogeheugen waren Crysis en Oblivion, waar de Palit-videokaart in een resolutie van 2560 bij 1600 pixels respectievelijk 12,9 en 22,8fps wist te halen. De 512MB-kaart behaalde in dezelfde resolutie een framerate van respectievelijk 2 en 7,9fps.

De 8800GT 1GB werkt standaard op 600/1800MHz, maar FiringSquad wist deze snelheid op te schroeven naar 718/2012MHz. De prestatiewinst van de overgeklokte 1GB-kaart ten opzichte van de standaarduitvoering varieert van zeven procent in Company of Heroes tot zestien procent in Crysis.

FiringSquad komt tot de conclusie dat de Palit Geforce 8800GT Super+1GB, zoals de kaart voluit heet, weliswaar een goede kaart is, maar dat er voor dat geld beter een Geforce 8800GT 512MB gekocht kan worden. De site prijst daarentegen wel de koeling en meegeleverde accessoires. De 1GB-kaart is voorzien van dual-slotkoeling en een dvi-naar-hdmi-verloopstekker. Voor gebruik in een htpc of een kleine pc is de videokaart vanwege het formaat van de koeler overigens ongeschikt.

Palit GeForce 8800GT retaildoos
Moderatie-faq Wijzig weergave

Reacties (74)

Expreview heeft een vergelijkbare benchmark uitgevoerd en kwam tot dezelfde conclusie: 1GB biedt geen voordeel tov 512MB.

de review van Expreview vond ik wel beter aangezien ze ook de 256MB versie meegetest en daaruit blijkt dat MEER wel degelijk BETER is. :P
ook heeft Expreview een pak meer games getest. Ik was zelfs verbaasd om te zien dat er zelfs games bestonden die een NOG slechtere framerate hadden dan crysis :)

interessant aan deze review van Firing squad vind ik de overclocking:
met ongeveer 20% overclocking halen ze een 17% betere framerate onder crysis!

jammer aan beide is dat ze voor crysis maar de "medium" settings hebben uitgeprobeerd.
voor zover ik weet hebben de high en very high een pak grotere texturen...

note:

het gerucht gaat de ronde dat Nvidia met een verbeterde Forceware driver gaat uitkomen die het verschil tussen de 256MB en 512MB zou wegwerken.
wel vreemd dan anderzijds dat er een ander gerucht is dat de 9800GTX 2GB aan memory zou hebben...tja...het zullen wel geruchten blijven zeker? :D

[Reactie gewijzigd door cool_deepblue op 2 januari 2008 14:43]

1024MB heeft maar zelden nuttig effect.

UT3 - 512mb wint
Halflife 2 - wisselende resultaten, 512MB wint vaker
FEAR - wisselende resultaten, 512MB wint vaker
DiRT:Colin McRae off Road - wisselende resultaten, 512MB wint vaker
Enemy Territory Quake Wars - wisselende resultaten, 512MB wint vaker
Bioshock - wisselende resultaten, 512MB wint vaker
Lost Planet - wisselende resultaten - 512MB wint vaker
Crysis - gelijkspel

Call of Duty 4 - wisselende resultaten, 1024MB wint vaker
World In Conflict - wisselende resultaten, 1024MB wint vaker
Call of Juarez - wisselende resultaten, 1024MB wint vaker

Company of Heroes OF - 1024MB wint
PT Boats:Knigts of the Sea - 1024MB wint

Waar de reviewers vier spellen aanwijzen als "1024MB recommended" hou ik er hooguit maar twee over; PT Boats en in minder mate Company of Heroes O; waar het ook met een 512MB kaart nog goed te spelen is. De winst in de twee andere spellen word vooral op hoge resoluties geboekt, maar zelfs dan blijft het onspeelbaar met een FPs van onder de 20. Dat noem ik dus "nutteloze' winst. De verschillen zijn in zo'n 90% van de gevallen slechts enkele frames, dat is niet noemenswaardig.

Conclusie moet dus zijn; meer is zeker niet altijd beter, integendeel!

Overzicht: http://en.expreview.com/?p=159&page=16

ps: (HJvK)
Echter uit dit artikel blijkt wel weer dat bijvoorbeeld crysis dan waarschijnlijk weer wel relatief veel grote en zware textures gebruikt
Bij Crysis zijn de scores al beroert genoeg, waarom zou je nog slechtere, onspeelbare scores willen zien 8)7 Wat het vooral aantoont is dat zelfs de 1024MB kaart, op hoge resoluties nog steeds niet snel genoeg is voor spellen als Crysis. M.a.w.; nu een 8800GT kopen heeft weinig toekomstgerichte waarde.

Dat 256MB algauw te weinig is is niks nieuws, dat was al een poosje bekend. Daar hebben we deze review dan ook niet voor nodig. Wel leuk voor de statistieken.

[Reactie gewijzigd door Madrox op 2 januari 2008 21:18]

Dat was niet eens een gerucht te noemen, maar een verzindsel van een 12-jarige in een forumpost. Het was totaal onduidelijk waarom dit op de frontpage stond.

512mb is in de meeste gevallen al overkill (zelfs in resoluties als 1680x1050). 768mb+? pure marketingonzin de komende 2 jaar.
Ben ik de enige die vind dat er wel erg veel soorten versies komen van deze kaart? Heb het gevoel dat als je in de winkel een 8800GT(s)(x) vraagt geluk moet hebben dat je de goede krijgt als je niet goed op de hoogte bent.

Het lijkt me sterk dat alle gamers precies weten hoever de ontwikkeling van deze kaart is. Noem zo'n kaart dan de 8810GT of iets dergelijks. Dan weet iedereen wat die krijgt en aangezien deze kaarten voor een doelgroep is die beste van beste willen hebben is het nog een goede marketing ook lijkt mij.
enige nadeel van die benaming is dat dan niemand meer de high-end 8800GTX gaat kopen (8810GT klinkt beter), en daar hebben ze juist de grootste marges op :)
Ik denk eigenlijk dat het voor mensen die niet goed op de hoogte zijn ook niet zoveel uitmaakt of ze een 8800GT(S)(X) krijgen... Zolang je niet weet dat er wat beters is voldoet het toch wel.
Dat is tenminste mijn ervaring bij mensen die er allemaal niet zoveel verstand van hebben. Een vriend van mij denk nog steeds dattie een wereld kaart in zn pc heeft zitten (is een 7600 GT).
Een groter grafisch geheugen zal vrijwel alleen maar vooruitgang boeken als er grote en zware textures gebruikt zullen worden. Dus vanuit die visie gezien zal deze kaart vrijwel geen vooruitgang leveren bij de meeste games omdat die games simpelweg bijna geen echt zware textures gebruiken. Echter uit dit artikel blijkt wel weer dat bijvoorbeeld crysis dan waarschijnlijk weer wel relatief veel grote en zware textures gebruikt.

@cool_deepblue: Aan dit feit kan geen driver wat veranderen, een driver kan hooguit zorgen dat een kaart veel tactischer omgaat met het bufferen van textures, maar een kaart met weinig geheugen zal simpelweg gewoon sneller problemen krijgen met veel grote textures.

Kortom, waarschijnlijk zullen we nu nog niet zoveel baat hebben bij 1gig grafisch geheugen, maar reken maar dat we misschien over 2 jaar 1 gig niks meer vinden, omdat de games gewoon veel gratere textures zijn gaan gebruiken
Ben ik de enige die deze bench niet zo interessant vind? Zelfde verhaal met GTS320MB en GTS640MB, dus de resultaten van deze bench waren toch enigzins voorspelbaar...

De 8800GT 1GB werkt standaard op 600/1800MHz, maar FiringSquad wist deze snelheid op te schroeven naar 718/2012MHz. De prestatiewinst van de overgeklokte 1GB-kaart ten opzichte van de standaarduitvoering varieert van zeven procent in Company of Heroes tot zestien procent in Crysis.

Ok, In het originele artikel worden alleen resultaten van de overgeklokte 1GB exemplaar getoond en niet van een overgeklokte 512MB versie. Dus wordt de overgeklokte 1GB versie dan vergeleken met een standaard uitvoering 512MB @ stock snelheden? Ja zo kan ik het ook wel, een prestatiewinst van 7 á 16% tegenover de 512MB versie @ stock.. :+
ze vergelijken met de stock 1 GB, en niet met de stock 512

die prestatie winst is dus van 1gb vs 1 gb OC
Lekker belangrijk allemaal ?

Waar het om gaat is dat er een kaart is met 1 Gig geheugen, niet of ie nu al nut heeft.
Omdat er nu een kaart is met 1 Gig geheugen, kunnen gamedevelopers er nu vanuit gaan dat er meer van dat soort kaarten zullen komen, en hun toekomstige games daar dus op aanpassen.
Er staat nergens iets over de DX10.1 support bij deze kaart. Het werd toch laatst bekend dat de huidige 8 series géén DX10.1 support hebben!

DX10 is slechts een tussenstapje, blijkt.

[Reactie gewijzigd door 1000bit op 2 januari 2008 17:03]

Ja, dat is het grootste voordeel van de HD3870, zeker als je nog een tijdje met je kaart wil kunnen gamen, wat ik me wel voor kan stellen voor die prijs als je kijkt vanuit het perspectief van de "normale" koper.

De crossfire performance en de onderliggende technologie is een klein pluspunt, de grotere keuze in relatief goede moederboeden (soms zelfs beter) die crossfire ondersteunen is ook een klein pluspuntje, maar de DirectX 10.1 is het grootste pluspunt als je redelijk lang met je videoplank zoet wil zijn zonder een nieuwe te hoeven kopen.
Rond de tijd dat DX10.1 echt een meerwaarde is voor games is een 3870 of 8800 allang niet meer snel genoeg om die games een beetje redelijk te kunnen draaien.. ik vind het dus nogal een non-issue of een videokaart op dit moment al DX10.1 ondersteunt..
Echter voor de consument die 1x in de 2 of 3 jaar een high-end kaart koopt en daarmee gerust jaren zoet is op de nieuwste games is het wel een issue. Die spelen dan op een gegeven moment niet meer op de hoogste resolutie en/of beeldkwaliteit maar die blijven gewoon met de kaart doorspelen.
nou ja, tussenstapje, op zich werkt die vooruitgang toch altijd zo? van 9.0 naar 9.1 enzo ging toch net zo ongeveer?
In SLI opstelling 2x 8800GT met 1gb kan dit voor grote schermen als de 30" wel een goede combinatie zijn voor Crysis.
Nutteloos!

Kijk eens goed hiernaar: http://firingsquad.com/ha...er+_1gb_review/page13.asp

Crysis op 2560x1600 scoort 13 fps, wat met SLI bar weinig sneller gaat; als het al sneller gaat. SLI en Crysis werkt net lekker. Maar stel dat het 40% sneller gaat, dan nog zit je onder de 20 FPS. Hoe denk je dat dat eruit gaat zien op nog hogere resoluties ?

World in Conflict scoort ook al zo slecht. SLI draaien om deze spellen op de knie te krijgen met de 8800GT, op zulke hoge resoluties los je niet op met meer geheugen.
Het blijft een teleurstellende ervaring. Er zal toch echt gekeken moeten worden naar meer GPU power.
Waarom heeft iedereen het over zulke ontzagelijk hoge resoluties? Wie speelt er op die resuloties? Ja enkele tweakers, maar zijn we dan niet een beetje veel-eisend en vooruitstrevend als we op een goede framerate van ongeveer 50fps wilt spelen op deze resoluties? Dat gaat gewoon simpelweg nog niet... Maargoed tweakers zijn natuurlijk niet snel tevreden. (no-offence, no flame)
2560 * 1600 Wie gamet er op die resolutie? geen hond.

Ze kunnen beter een standaard resolutie pakken van 1680 * 1050 en 1920 * 1080.
Ik zal wel in een grot wonen, maar standaard vind ik 1280*1024.
Ik zal wel in een grot wonen, maar standaard vind ik 1280*1024.
Dat ligt redelijk in het stenen tijdperk inderdaad; al enige tijd worden de high-end BBG-systemen uitgeleverd met breedbeeld monitoren die in ieder geval een hogere reso aankunnen dan 1280x1024.
Haha, stenen tijdperk? Dat er drie mensen zijn die 8800GTXen in quad SLI draaien op hun 30" schermen wil niet zeggen dat dit standaard is. Valve's hardware onderzoek onder Steam-gebruikers laat zien dat 1024x768 en 1280*960 samen voor meer dan 70% van de gebruikers zorgen.
Maar er komen steeds meer 20" en 22", bijna elke nieuwe systeem (zeker game systemen) heeft een monitor die groter is dan 17" en de daarbij horende resolutie. De budget systemen krijgen vaak nog wel een 17" monitor mee om de prijs wat te drukken, maar dat zal eerdaags ook niet meer hoeven.

Er zijn nog wel veel oudjes 15" en 17" in omloop die de komende jaren nog wel aan kop blijven.

Vind de uitslag dat 256MB vaak te weinig is veel interessanter om te zien dan de vergelijking van 512MB en 1GB. :)

[Reactie gewijzigd door mad_max234 op 2 januari 2008 15:01]

gebruikers jah... we hebben het hier over de gebruikersGROEP gamers. kantoorgebruikers rekenen we dus niet mee.
Doh! Steam wordt gebruikt om games mee te spelen, dus je mag er wel vanuit gaan dat bijna elke Steamgebruiker een gamer is.. ;)
als je keek naar het overzicht van tweakers.net van reso's zie je dat bijna niemand zo'n hoge resos heeft, 1280x1024 is nog altijd de standaard gevolgd door 1024x786.
Als we het zo gaan stellen heeft ook bijna niemand een 8800GT :| kortom de vergelijking is gewoon waardeloos weer.

De mensen die nu een nieuw systeem samenstellen met deze videokaart die hebben ook vast wel een 20"+ scherm erbij. Kosten daarvan zijn maar ongeveer 250 euro voor een goed 20" scherm. Dat is op de totaalprijs van een pc minimaal.

Daarbij er is ook al gezegd dat er ook lagere resoluties zijn getest maar dat het verschil dus minimaal tot niets is.

De techniek gaat bijna altijd vooruit en maar heel zelden achteruit.
1280*1024 is nog steeds het meest gebruikte formaat (daarna komt 1024*768...) gezien 17" monitors de meest gebruikte zijn op dit moment.

Ikzelf zit sinds kort echter op 1680*1050 :9
ik ook op een 15.4" inch scherm en ik moet zeggen dat door de hoge resolutie het scherm groter lijkt dan een 17". 17" inch had ik zowiezo niet erg graag gehad voor een laptop scherm, formaat laptop wordt een beetje onhandelbaar dan. Dus ik ben blij dat ze ook de kleinere schermen tegenwoordig met betere resoluties uitvoeren.
Ik heb een grot nog in de aanbieding.... :+
En anders kan je ook altijd naar 320*200, 640*400, 640*480, 800*600 ... :o
* ]Byte[ is al tijdje verhuisd naar nieuwe grot 1680*1050... 8-)
800x600 is voor een fps game ook best lekker trouwens. Daar speel ik nog met veel genot counterstrike op
op een 17" of kleiner zeker, op een 19" scherm is het zeker niet fijn om op 800*600 te gamen (of je moet er erg ver vanaf zitten)
Inderdaad, ik speel nog steeds Unreal 2k4 on-line op een resolutie van 640x480 met de meeste settings op normaal en een stel settings op Low en raad eens ik kanl ze allemaal van het veld af met mijn grafbakkie waarin een Geforce mx200 64mb draait , meestal bevindt ik mij met deze voor prehistorische computer tussen de plaatsen 2 en 5 8-)
Ze hebben getest op resoluties 1280 * 1024, 1600 * 1200, 1920 * 1200 en 2560 * 1600.
Dus dit is een goede test om de mythe van 1GB grafisch geheugen maar weer eens te doorbreken. Als men op minder dan een 30" scherm speelt (en zelfs alleen bij bepaalde games) hebben deze kaarten weinig meerwaarde ten opzichte van 521MB.

1680*1050 en 1920*1600 worden trouwens nog altijd minder gebruikt dan 1280*1024 en 1600*1200 schermen, het zijn ook breedbeeldresoluties (hoewel ik zelf ook een Samsung 206BW heb :) ).
dat 1GB een "mythe" is is niet echt juist. games gaan steeds gedetailleerdere textures gebruiken, en op die manier stijgt dus ook het geheugengebruik.
Ik voorspel dat 1GB over 2 jaar standaard is voor een beetje PC :)
En dan loop je al weer hopeloos achter met deze kaart... Kortom: is dit wel zo'n goed idee?
Deze kaart een goed idee? Waarom niet? De test toont aan dat er winst is in enkele spellen op hoge resoluties.
Akkoord, niet iedereen gaat daarom deze kaart kopen, maar zij die het willen kunnen het doen.

Keuze is imo nooit slecht.

Als er nu nergens snelheidswinst was volgde ik je, maar ik zie niet aan waarom deze kaart als nutteloos wordt beschouwd. Ik persoonlijk vind 2 schermen nutteloos, maar ik hou nVidia niet tegen om videokaarten met meerdere uitgangen te maken, want als het bestaat en eht maakt een verschil, zijn er vast mensen die het willen, net zoals bij deze kaart :)
als je ook even de test zelf had gelezen dan had je kunnen zien dat er ook lagere standaard resoluties zijn getest.
OVerigens heeft het testen op lage resoluties bijna geen zin met dit soort snelle kaarten, de verschillen ontstaan pas bij hoge resoluties.
Deze hond gamed met veel plezier op 2560 x 1600, dank je. :)

Supreme Commander, Warhammer, Call of Duty 4, etc. Dikke pret op die resolutie.
[offtopic]
Hij zei dat er géén hond op die resolutie gamed. Dat jij dat wel doet:
-sluit zijn bewering niet uit
of
-geeft hem ongelijk en jij bent een hond...
[\offtopic]

Ik kom zelf overigens niet verder dan 1600x1200. Het effect van die extreme resoluties lijkt me beperkt. Hetzelfde is toch vaak ook te behalen met anti-aliasing of zie ik dan nog iets over het hoofd.
[offtopic]
Oops. (En dat terwijl ik toch katten prefereer..)
[\offtopic]

Je hebt gelijk qua anti-aliasing. Op zulke hoge resoluties is AA van minder belang. Op een gezonde afstand van de monitor heb je het niet meer nodig.
Het gaat ook beetje om het aspect zo vind ik het heerlijk om op 1920x1200 te gamen en is dat een grote vooruitgang tov 1280x1024. Het breedbeeld aspect (maar natuurlijk ook het bijbehorende formaat) van het scherm zorgt ervoor dat je meer in de game zit. Voor mij is 2560x1600 net een stapje te ver om nog redelijke framerates te halen (heb toch liever 60+ fps met uitzondering van Crysis dat op 25 fps ook nog speelbaar is).
imo zijn de meeste games toch goed speelbaar vanaf 25 à 30 fps, en is het maar een minderheid die 60+ nodig heeft
daar moet ik je gelijk geven. Speelbaar is wat anders dan de 60+ die ik lekker vind om competatief bezig te zijn. Vooral single player games vind ik 25 fps goed acceptabel
30" displays maken gebruik van deze resolutie. Als ik de plaats had voor een 30" monitor dan had ik ook op deze resos willen gamen. En gezien de prijzen van dit soort monitoren is het niet onwaarschijnlijk dat meer en meer mensen op zo'n formaat gaan werken natuurlijk.
Plaats heb ik wel, het gaat me eerder om de kosten.1200 Euro voor een monitor is voor mij (en een hoop andere mensen) toch iets te veel van het goede...
dual scherm opstelling van 1280x1024 per scherm (=2560x1024) :p
of een apple 30"natuurlijk

[Reactie gewijzigd door tilt op 2 januari 2008 14:30]

ik zit hier ook op zo'n resolutie, nou eigenlijk nog iets groter... (twee maal 22" goeie ouwe CRT schermen), in dual screen dus 4096*1536 :)

maar op die resoluties trekt mijn pc crysis ook niet meer speelbaar
Nou als mijn monitor het aan zou kunnen had ik ook alles op die resolutie gezet.... maar ik moet het nu doen met 2048x1536... ook niet slecht...
IK! Als m'n video kaart het aan kan. Zo'n monitor kost nu zo'n 1300 euro en daarvoor speel je in bioscoop formaat games.
Tja, we zijn immers nog niet zover dat we daadwerkelijk 1GB aan textures gebruiken, tenzij je dus op een reso van 2500*1600 gaat spelen (voor de enkeling die een 30" display heeft). Maar goed, mensen kijken vaak naar het geheugen en denken dat 1GB wel goed zal zijn, terwijl het dus vrijwel niets uitmaakt.
En tegen de tijd dat we de 1GB daadwerkelijk nodig hebben voor games e.d. is de snelheid van de kaart al weer flink achterhaald.
Handheld/console emulators hebben ook profijt aan 1GB geheugen (waaronder: pcsx2, vba-m) voor het verhogen van de resolutie en texture scaling ;)
En daarvoor zal ook deze kaart weer te langzaam zijn...

Je moet minstens 1 generatie verder zijn, wanneer het extra geheugen van een eerdere generatie nut heeft. Echter de eerdere generatie kaarten hebben er niet zoveel profijt van.

Ze presteren wellicht dan 2x beter dan een kaart met minder geheugen, maar de framerate blijft toch onder de 20fps liggen. Dat speelt niet echt lekker.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True