Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties
Bron: Legion Hardware

Legion Hardware heeft in een direct duel nVidia’s GeForce 7800 GTX en 7800 GT tegenover elkaar gezet. Uit eerdere recensies was al gebleken dat de 7800 GT een betaalbaar alternatief vormt voor gamers die het 475 euro kostende GTX-model te prijzig vinden. Het 7800 GT-model blijkt namelijk alle 6800-modellen en ATI-gebaseerde kaarten te verslaan. Legion Hardware wilde daarom weten hoe het prijsverschil van grofweg 100 euro tussen de GT- en de GTX-versie zich vertaalt in prestaties. Dit werd gedaan met de 256MB-versies van een Albatron 7800 GT en een Gigabyte 7800 GTX in een systeem met een naar 4GHz overklokte Pentium 4 660, 2GB Corsair PC3200-geheugen en het Asus P5LD2 Deluxe-moederbord. Het weer te geven materiaal bestond uit 3DMark 05, CodeCreatures, Doom3, FarCry, Halo en UT2004. Per programma werd er op een resolutie van 1600x1200 beeldpunten getest zonder AA en AF, met 4xAA en 8xAF en met 8xAA en 16xAF.

GeForce 7800 GT (front klein)Uit de resultaten blijkt dat de 7800 GTX in alle gevallen beter presteert dan zijn 7800 GT-broertje. Het is alleen opmerkelijk dat bij sommige spellen de twee modellen slechts een minimaal verschil vertonen als AA & AF uitgeschakeld zijn. Hieruit concludeert Legion Hardware dat zelfs met een 4GHz Pentium 4 in deze gevallen de processor de beperkende factor vormt op het gebied van beeldprestaties. Systemen met een minder snelle processor zullen daarom niet volledig gebruik kunnen maken van het potentieel van de 7800 GTX. In combinatie met de lagere aanschafprijs vormt nVidia’s 7800 GT daarom momenteel een interessante kaart voor gamers.

Moderatie-faq Wijzig weergave

Reacties (90)

Volgens mij kunnen die kaarten zowieso nog wel een jaar of 5 mee, met gemak, omdat er nog vrijwel geen games zijn die de kaart optimaal benutten heb ik het idee. 't Is in ieder geval een kaart die de huidige generatie games op zeer hoge settings kan draaien!
Na 5 jaar is harware helemaal afgeschreven. Systemen van 5 jaar geleden heb ik nu aan mijn muur hangen als decoratie. Bovendien zijn er wel degelijk games die de kaart optimaal benutten, als je een game op ze hoogst zet, en de framerate onder de 30 komt heb je een game die de kaart optimaal benut (er van uitgaand dat je processor niet de beperkende factor is )
Na 5 jaar is harware helemaal afgeschreven. Systemen van 5 jaar geleden heb ik nu aan mijn muur hangen als decoratie. Bovendien zijn er wel degelijk games die de kaart optimaal benutten, als je een game op ze hoogst zet, en de framerate onder de 30 komt heb je een game die de kaart optimaal benut (er van uitgaand dat je processor niet de beperkende factor is )
Met die laatste zin ontkracht je je hele post :) Zoals uit de review blijkt, is zelfs een Pentium 770 op 4GHz niet snel genoeg om deze kaart bij te benen, en is er dus geen enkele mogelijkheid (tenzij je dagelijks je systeem met vloeibare stikstof wilt koelen zodat je processor op 6GHz kan lopen) om de videokaart wťl volledig te benutten.
Beste Jan,

Als een CPU de limiterende factor zou zijn in een geval van een framerate van 30-, dan zou dat uit de test gebleken moeten zijn, aangezien een 7800gtx altijd meer frames dan de 7800gt heeft, behalve als AA en AF uit staan. Maar een spel moet wel heel zwaar zijn wil een pentium 4ghz de GPU zo limiteren dat je onder de 30 FPS komt.

Groetjes,
ToppieJoppie
En jij denkt dat serieus? Jaartje of 2 maximaal, dan kan je waarschijnlijk spellen al niet meer op maximaal draaien. met 1600x1200 en full AA en AF waarschijnlijk zelfs korter
Okay daar heb je inderdaad wel gelijk in. Maargoed ik speelde met m'n FX5700 ook nog wat spellen van de 'ena nieuwste generatie' en dat ging nog wel op medium settings. Echter BF 2 of zo kon alleen op z'n allerlaagst. Nu met m'n 7800 kan ik die weer op maximaal spelen. En over een jaar of 3 is BF 2 net zo oud als CoD nu bijvoorbeeld is die ik op m'n FX5700 nog aardig kon draaien. En BF 2 zal over een jaar of 3 ook nog wel lekker draaien op m'n 7800 ;). Die vergelijking probeerde ik eigenlijk te maken. Maar dit gaat inderdaad niet voor iedereen op. Ik zal ook wel weer wat beters willen hebben over een jaar of 2, 3.
Sja, aangezien de gemiddelde 17" CRT of TFT toch geen 1600X1200 aan kan, vind ik die resoluties leuk voor testdoeleinden. Maar ik denk dat er toch het meeste gegamed wordt op 1280X1024 waar bv een FX5900XT of 6600GT nog heel erg leuk mee kunnen komen als je budget wat beperkter is. Buiten een aantal nog steeds leuke kaartjes op basis van ATi GPU's natuurlijk.
dat denkt iedereen elke keer als diegene 400 - 500 euro in zijn kaartje pompt. Over 2 jaar wil je toch weer een andere, als het niet eerder is :P
Ben ik de enige die 400-600 euro voor een videokaart teveel vind? Ik bedoel, komop, daar betaal je tegenwoordig een heel nieuw systeem voor.
Ben ik de enige die 400-600 euro voor een videokaart teveel vindt?
Ja. Ik heb van het weekend dan ook een 6800LE voor 125 euro gekocht en daarna unlocked (25% performance winst). In combinatie met mijn AMD64 3200+ (S754) levert dit een alleraardigst systeem op voor iemand die af en toe wel een gamepje speelt. Doom3 op 1024x768, High settings, 4x AA = 59fps onder Linux (windows ~55fps). Fable loopt perfect op 1024x768, kwaliteit op High (allerhoogste noem ik maar Ultra, zijn 4 standen en ik draai de 3e).

De bedoeling was Quake4 te kunnen draaien straks en daar zal ik wel in slagen. Ik kan wel een 400-euro kaartje kopen, maar misschien speel ik over een jaar geen spel meer (dat fluctueerd nogal bij mij). Kan ik beter 2 keer een kaart van ~125-175 euro kopen die het ook prima doet. Gamen op 1280+ reso's heeft voor mij geen toegevoegde waarde t.o.v. 1024. (Monitor stopt toch bij 1280x1024)
Succes met je 6800LE; ik weet dat je met een unlockte versie Doom3 redelijk tot goed kan spelen maar de algemene concensus over Quake4 is dat 'ie toch stuk meer eist dan Doom3 vanwege de grote "outdoors" scenes... 256MB VRAM is dan geen luxe meer.
Hangt van het systeem af :P
Mijn mobo was §110,- mijn kast §100,-, mijn voeding §90,-, mijn monitor(2-hands) §150,- geheugen §180,-, processor §300,, geluidskaart §120,-... dan nog voor §300,- aan harde schijven erin en dan valt de §500,- voor de videokaart nog niet eens zo heel erg uit de toon.
High-end videokaarten zijn inderdaad duur, maar je zal ze nooit en te nimmer stoppen in een systeem van §500,- want dan ben je inderdaad gewoon geld aan het weggooien.
Om de snelste grafische kaart te hebben moet je diep in je buidel tasten, dat is altijd al zo geweest. Maar ik heb goed nieuws voor je: je moet deze kaarten niet kopen!
Ja, een budget systeem, daar ben je als gamer lekker mee. Fijn BF2 spelen op 1280x1024 met AA en AF aan en je dan afvragen waarom het zo stottert met 512Mb geheugen en je X300se kaartje |:(

edit: Er wordt lekker 'inzichtvol' gemod....
Een dell internet pc'tje misschien met crappy cpu, te weinig geheugen en een hd van niks ... als je alles max wil kunnen draaien moet je daarvoor (blijven) betalen.
:? Halo heeft een hogere framerate op 1600x1200 dan op 1280x1024?? :?
het is inderdaad vreemd maar dat zie je wel vaker peregrine. ook dat een slechtere kaart beter presteert met full aa en af dan de betere kaart op een bepaalde resolutie. kwestie van onderstuening.

BTW die videokaart producenten moeten ipv snellere video kaarten te maken misschien kleinere of koelere videokaarten omdat ze toch al ver vooruit lopen op de huidige cpu's
De 7800 is al een stuk koeler en energiezuiniger als zijn voorganger, maar dan zijn 6600/6800 ook wel echte energievreters en hittemonsters.
handige test maar waarom op een Pentium (niet dat daar wat mis mee is hoor) maar AMD heeft met spellen toch een betere reputatie. En een goede geklokte FX-57 @ 3,5GHz doet het denk ik beter dan een P4 @ 4GHz?
Om nog maar te zwijgen over de top 10 op AMDwallpapers.com :+ http://amdwallpapers.luna...serpics/averageCPUHL2.png
, waar de 3000+ en de P4 3.8 Ghz gelijk staan...
Wat dus complete onzin is, want een P4 3.8Ghz Prescott is echt wel sneller dan een AMD 64 3000+.. AMD is sneller in games ja, maar het verschil is nou ook weer niet zo enorm groot.. Om een P4 3.8Ghz te evenaren zal je toch echt richting de 3500+ moeten..
als je zo'n kaart hebt zul je ongetwijfeld gebruik willen maken van AA en AF, anders kun je makkelijk met een mindere kaart (die overigens nog stukken goedkoper zal zijn dan een van deze twee) toe.
Volgens mij komen er geen AGP-kaarten meer bij. Het natuurlijk een stuk goedkoper om alleen pci-versies te produceren. Aangezien je ook over een flinke CPU moet beschikken om optimaal gebruik te kunnen maken van de 7800-versies denk ik niet dat een AGP-versie een aanvulling zal zijn.
De huidge game-systemen zijn zowiezo PCI-gebaseerd, en dat is toch de markt voor deze kaarten.
he leuk, hebben ze tegenwoordig ook weer PCI high-end kaarten? :+

De AGP markt voor deze kaarten is eigenlijk alleen geschikt voor AMD bordjes op basis van oudere chipsets van VIA en Nvidia (Nforce 3), maar er zijn zelfs Nforce 4 socket 754 bordjes. Aangezien er volgens mij weinig mensen zijn met een 4200+ en een Nforce 3 bordje valt de markt daar een beetje weg. Enig ander bord hiervoor (dwz een S478 of S423 bordje) wordt of gelimiteerd door de processor of geplaagd door hitteproblemen (P4 Prescott @S478).

@W4rr10r: Nvidia zelf had misschien dat standpunt over AGP, producten kunnen zelf nog kiezen voor AGP dmv een bridge-chip. De vraag is of er een markt voor is (is het financieŽl verantwoord?).
Was dat niet precies de bedoeling van de hele PCI-E strategie van nVidia? Ze hebben ooit die hele HSI bridge chip ontwikkeld zodat ze in eerste instantie AGP kaarten op PCI-E voet konden aanbieden, en later (indien nodig) een PCI-E kaart op een AGP voet.
For many prospective buyers, a simple graphics card upgrade with a AGP model will therefore surely be the preferred (read: less expensive) solution. Since this is the case, the chipmakers would suddenly have to design, manufacture and advertise two versions of the same chip, one each for AGP and PCI Express. Considering that a chip tape-out is anything but cheap, it would be logical to focus development of new chips for he PCI Express versions. Should there be demand for an AGP version, it could be implemented by using a bridge chip, which would be far less expensive than creating a second version of the same chip. NVIDIA has all its bases covered, since it had the foresight to design its bridge to work in both directions. This way, it can either link a PCI Express chip to an AGP bus or vice versa. In effect, the HSI bridge allows NVIDIA to present a full complement of PCI Express cards right from the start with very little financial input.
bron
Je hebt ook nog intel 865 bordjes met Socket 775 (bijvoorbeeld asus P5P800) en de VIA AGP planken zoals de Asus A8V worden nog veel verkocht hoor :o
Nou stel je hebt een dual socket A systeem met AGP en er komt volgend jaar Unreal Tournament 2009 uit die zwaar geoptimaliseerd is voor 2 cores en de PCI Physx kaart die je erbij prikt. Dan weet ik niet of de processor nog wel het knelpunt blijft.

Of stel je wilt gebruik maken van een HDMI aansluiting en wil HDTV accelereren op een HTPC met AGP?

Ik denk dat er nog wel een markt is, getuige de posts hier, alleen eerst moet ATI met hun nieuwe kaart komen, die ook een AGP smaak zou hebben en dan komt nVidia wel.
Of je hebt een mooie 3500+ gekocht op S939 met een Nf3 chipset (=AGP), en je wilt geen nieuw mobo kopen.

Vooral als je van een oudere socket komt wordt het erg duur upgraden, nieuwe cpu, mobo en videokaart.

Dit was ook de reden dat ik maar heb besloten een AGP kaart te kopen (6800GT, komt binnenkort binnen) voor zo'n 220 euro, om het uit te zingen tot er echt leuk spul komt.
Ik denk zoiezo niet dat 't zin heeft een 7800 te produceren voor AGP. Volgens mij haal je dan maar 25% performance uit de kaart en betaal je dus 300 euro teveel... Overigens is het al een tijdje officieel dat na de GF6 serie er geen AGP meer geproduceerd zou worden.
Alles wat je zegt klopt niet :)
De volledige AGP8X bandbreedte was nog meer dan genoeg voor de huidige kaarten, en zelfs als je je systeem op AGP4X zette, dan maakte het aan prestaties niks uit. Dit zelfde geldt natuurlijk voor PCIe, want SLI was eerst alleen maar op PCIe 8X, en niet op PCIe 16X. Dus er is ruimte zat in AGP8X voor deze kaarten.
Over de AGP kaarten, nVidia heeft nog steeds toegegeven dat 'As the market requires', ze nog wel AGP kaarten gaan maken...
Qua bandbreedte kan het wel, maar dan moet je weer een aparte kaart maken met een agp brug ertussen(zijn allemaal native PCIe chips) etc etc.

Ik zal niet klagen hoor als ze komen, maar ze zullen wel duurder zijn...


offtopic:
overigens zijn er ook nog 6800 ultra's etc voor agp verkrijgbaar, snel zat voor alle huidige games en die van volgend jaar d8 ik zo....
Ja, hoopte ik ook op, maar dat zal m'n zielig Northwoodje aan 3.7Ghz niet meer trekken :(
Denk dat de processors en de games gewoon te langzaam worden voor de videokaarten.

AMD en Intel krijgen niet echt snellere processors (single core) voor gamers. Dit gaat pas weg als games ook voor meerdere cores wordt geschreven
Ze kunnen waarschijnlijk wel snellere cpu's maken, maar dan kom je weer in de ghz race waar we nu eindelijk vanaf zijn...
Gelukkig zijn ze nu over gegaan om te kijken hoe ze zoveel mogelijk performance uit een cpu kunnen halen zonder 5ghz te halen...
Dat het leuk kan gaan worden wanneer de games dual-core's gaan ondersteunen ben ik helemaal met je eens... :)
Games zelf hoeven niet zo zeer multi-threaded te worden.
Veel leuker als je de gebruikte API's (zoals DirectX)
Multi-threaded maakt (geen idee in hoeverre dit al zo is)

Want ook bij niet multi-threaded applicaties heb je voordelen aan dual-core/proc :)
Heel leuk dat games meerdere core's gaan ondersteunen, jammer alleen dat dual-core's hiervoor eigenlijk niet gemaakt zijn.
Want zo kan je nog geen film coderen en tegelijk een game spelen.
Ik zeg niet dat dual-core ondersteuning in games niet goed is, want je krijgt meer performance, maar volgens mij is dit nooit de bedoeling geweest van een dual-core processor.
Welke processor zou de beste prestaties geven bij een GTX of GT kaart om binnen het budget van 375§ te vallen voor een processor ?

GT=4000+ of 3800+ X2?


GTX=4000+ of 3800+ X2?

Iemand een idee of een test ergens ?
Zonder enige twijfel de 4000+ (single core) als het is om games te spelen, hetgeen ik sterk vermoed, vermits je geen 7800GT in je systeem nodig hebt om Notepad op te starten :)

De 4000+ draait aan 2,4 GHz intern, de 3800+ X2 aan 2,0 GHz. Misschien is dit over een jaar anders, maar de huidige generatie van games maken slechts gebruik van 1 vd 2 cores van een X2, dus de single core 4000+ gaat het hier winnen. De 4000+ komt qua kloksnelheid overeen met de 4800+ X2 (tja, AMD's naamgeving is echt wel logisch de laatste tijd :) ). Merk ook nog op dat de 3800+ per core maar 512KB L2 cache heeft en de 4000+ Singe Core 1 MB. Hoe meer cache, hoe sneller (normaliter; zeker niet trager).
Maar ondertussen vergeet je dat die 4000+ alle processen moet draaien (ook alle background tasks) terwijl je met een dual-core nogal wat kan spelen om core1 te ontlasten voor het spelen van spellen (of zelfs core2 kan toewijzen aan een spel en core1 aan Windows + tasks).

*edit*
Per saldo kan je dus misschien meer CPU-power voor een game toewijzen dan dat je met een single-core kan realiseren. Tja, wat is cache dan aan toegevoegde waarde als je puur 2GHz kan toewijzen aan 1 proces ipv 2.6GHz aan al je processen?
Je bedoelt dat je operating system dat voor je doet ;) . Maar ik snap de commotie niet zo, je hebt toch ook al tijden multiprocessormachines?
Je operating system doet dat echt niet voor je zolang het OS & de betreffende applicatie niet beiden overweg kunnen met multi-CPU's/dual-core. Je zal echt aan de gang moeten met aparte toewijzing middels batches of services om iets als (bijvoorbeeld) Daemon Tools op core2 te laten draaien maar MSN op core1 ofzo.

PC/server waar inderdaad multiprocessor inzit, is meestal voorzien van een multi-threaded OS alsmede applicaties die "snappen" dat er simpelweg 6GHz beschikbaar is in een dual 3GHz server.
de x800xt is al meer dan een jaar oud en draait bijna alles met max instellingen.
en ook hier vormt de prosesor meestal de botelnek.

het probleem is als we in eind 2006 begin 2007 aan direct x 10 beginnen.

en deze kaarten houden het zeker tot die tijd uit zolang je maar geen wonderen verwacht.

en vergeet niet dat de gafiks niet achter uit gaan maar het gaat langzamer.

over een jaar ziet medium er beter uit dan nu ultra high
Er komt geen DX10, niet onder die naam tenminste , ik geloof dat ze het Windows Graphics Foundation gaan noemen en De GF7800GT en de GF7800GTX ondersteunen dat nu al.

Tevens denk ik neit dat je over een jaar alle games nog op full detail 1600*1200 met AA en AF kan spelen. Ik merk nu al dat de kaart het in BF2 al erg oastig krijgt op die instellingen. Het is wel prima speelbaar, maar zeker als er zwaardere spellen dan BF2 gaan uitkomen dan kan t wel eens licht probleemmatisch worden.
Geachte Tha_Killer,

Jij zegt in je post dat Battlefield 2 bij jou op 1600x1200 met AA en AF niet goed getrokken wordt door je Nvidia Geforce 7800GTX(/GT), ik denk zo maar eens dat de rest van je systeem de bottleneck vormt, Battlefield lust op die resoluties namelijk best 2 GB geheugen en een FX-57. Bij mij draait deze kaart Battlefield 2 wel op 1600x1200 4XFSAA en 16XAF. Dus...

Goedenavond,
ToppieJoppie
Maar zelfs kaarten van 600 euro en het zo goed als beste systeem van nu kan farcry op 1600x1200 8xAA 16xAF met gemiddled 27,7 fps draaien. Daar betaal je toch geen 600 euro voor? Zijn games nou te zwaar, of videokaarten/cpu's etc te langzaam?
Euhm nee hoor cpu's en videokaarten zijn meer dan snel genoeg, gamedevelopers zijn alleen erg lui meestal :+
En =??`=?`"ß$&/%/= bedrijven als EA pushen studios nogal hard om snel alles af te ronden, dat veroorzaakt gamerampen (iemand die wel vaker EA spellen speelt kan dit wel beamen). :+

Met een geforce 2/3 is half life 2 nog aardig te spelen.
Nu vind ik FEAR niet echt veel mooier maar dat kan ik niet eens draaien met een geforce 2, mooi lopen zou het denk ik ook niet. Dit is maar een voorbeeld, er zijn er vast meer.
Zoals in het bovenstaande stuk staat is de cpu de beperkende factor. Maar op 1600x1200 met 8xAA 16xAF spelen weinig mensen hun games, dus dit is meer ter illustratie, het is niet zo dat er geen andere resoluties ter beschikking staan.

Lezen graag.

[typo fix]
Maar de GTX haalt wel 6 meer fps, dus wel degelijk een videokaart die een verschil maakt, ook al is de cpu de bottleneck. De videokaart haalt dus ~22% betere prestaties dan de gt
Toch is het jammer dat de 7800 serie niet op AGP uitkomt. Stel je koopt nu een Athlon 64 3700+ (is nu namelijk niet zo duur meer) op S754 die je ook nog eens 200 Mhz overclockt dan is zo'n 7800 best nog wel een optie aangezien je aardig wat geld bespaard op je MB+CPU t.o.v. S939 (handig voor mensen zonder ongelimiteerd budget, zoals ik :P).

Imho is er best nog wel markt voor AGP kaarten, ATI heeft ook al aangekondigd dat de X900 er ook nog komt voor AGP dus als Nvidia dit niet doet geven ze toch weer een deel van de markt prijs aan ATI.
Waar heb je gelezen dat ze geen agp versie gaan uitbrengen? En waar heb je gelezen dat ATi dat wel zal doen? Ik heb namelijk iets anders gelezen, dat ze wel een AGP versie gaan uitbrengen als de markt daar om vroeg.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True