Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties

Nog geen twee maanden nadat nVidia de GeForce 7800 GTX op de markt bracht heeft het bedrijf vandaag de lichte variant van deze kaart te koop gezet: de GeForce 7800 GT. 'Licht' is eigenlijk wel een understatement: de kaart beschikt over een op minstens 400MHz geklokte G70-core met 20 pixelpipelines en 256MB GDDR3-geheugen dat op 1000MHz data rondpompt. De kaart is een flink stuk goedkoper dan de grote GTX-broer: met 450 euro zal de GT rond de honderdvijftig euro goedkoper uitpakken. Dat prijsverschil suggereert een groter verschil dan er in werkelijkheid is: de GeForce 7800 GT is in feite wel degelijk een van de zware jongens.

GeForce 7800 GT (front klein) De kaart is van alle hard- en softwarematige gemakken voorzien: twee DVI-aansluitingen, VIVO, HDTV, Shader Model 3.0, SLI, en alles waar ook de GTX over kan beschikken: Natuurlijk zijn een aantal specificaties iets minder dan die van de grote broer: de GTX heeft vier pipelines extra, de core loopt 30MHz harder, het geheugen loopt zelfs 200MHz harder; en de GT levert maar 8 gigatexels tegen de 10,3 gigatexels van de GTX. Maar het beste nieuws is toch wel dat de kaart vrij soepel overklokt - zelfs zo soepel dat een aantal modellen al in de fabriek op overklokkoers worden gezet. HardOCP beschikte over een BFGTech die op 425/1050MHz was geklokt; en TechReport bechikte men over een XFX-model dat op 450MHz liep.

GeForce 7800 GT (back klein) Veel concurrentie heeft de 7800 GT niet. Uiteraard, van twee kaarten in SLI-opstelling wordt verloren en ook de GTX moet voorgelaten worden, maar dan? De 6800 kwam af en toe een beetje in de buurt, en de ATi 850 XT PE kon de nieuwe GeForce-loot met enige regelmaat bijhouden, maar ervoorbij was meestal toch teveel gevraagd. Diverse sites controleerden hoever de nieuwe kaart overgeklokt kon worden, en hoewel 450/1050 er misschien niet direct spectaculair uitziet, waren er genoeg sites die een dergelijke overclock realiseerden om te verwachten dat er nog wel wat marge in de core zit. Nu al moeten de GTX'en het in heel wat benchmarks afleggen tegen een opgevoerde GT.

Diverse sites waarschuwen de lezer dat wie in de afgelopen maanden een nieuwe kaart heeft gekocht, zich vandaag bekocht voelt: nVidia heeft met de 7800 GT een relatief voordelige en ijzersterke troef in handen. Als men zich dan realiseert dat naast de krachtpatserij van de 7800's de 6800-modellen ook nog een lagere prijs krijgen, is het niet gek om te veronderstellen dat de fabrikant de komende tijd aardig wat marktaandeel op concurrent ATi kan veroveren. Het is voor dat bedrijf dan ook te hopen dat CrossFire of de langverwachte X900 binnenkort op de markt komt - nVidia zou eens lui van deze voorsprong kunnen worden.

GeForce 7800 GT en concurrenten: prestaties in Doom 3
prestaties in Doom 3 vergeleken op TechReport

Een greep uit de grote hoeveelheid reviews:

Moderatie-faq Wijzig weergave

Reacties (90)

De kaart is een flink stuk goedkoper dan de grote GTX-broer: met 450 euro zal de GT rond de honderdvijftig euro goedkoper uitpakken.
kijken julie zelf wel eens op pricewatch?

daar kun je zien dat gemiddeld de prijs van de GTX rond de 500 is en dat is dus mar 50 euro duurder dan de GT

en als je toch zoveel betaald kun je netzogoed de GTX nemen.

edit:
offtopic:
ik heb de XFX 7800GTX extreme besteld en komt morgen
en daar betaal ik 513 voor (net optijd besteld trouwens want hij was eerst 565 toen ineens 513, en de dag na mn bestelling was ie alweer 529 en de dag daarop 544)
extreme heeft 490 MHZ klok
Duh, ooit wel eens van adviesprijs gehoord?

Als de adviesprijs van de GTX 600 is en voor 500 over de toonbalk gaat dan zal de GT met een adviesprijs van 450 wel voor 375 verkocht worden
toonbalk? dat is een mooie woordspeling, ook toepasselijk voor electronica (omdat het amper 2 jaar volhoud)
Via duitsland staan de GTX al aan 480, heb er zelf één zien staan voor 475. Denk dat de prijs toch grondig moet droppen van de GT.
wat moet je met 3? een trli opstelling
De advertenties van nvidia nog niet gezien :) "the power of three"???
Thnx... Er net 3 besteld. :)

Reply op onderstaande reactie's:

3 systemen hier staan, dus vandaar.
Jij blij dat je voor slechts 513 euro een nieuwe videokaart hebt gekocht. Zullen we dat maar niet omrekenen? :z
1200 gulden voor een stuk plastic/zand/metaal...

*masteriiz gaat 'WSaeNoTSoCK' mailen, heb nog water te koop...
oh, zelfs met een x800 hoot je er niet meer bij, zie ik.. gaat ERG hard allemaal...
Eerst brachten ATi en Nvidia nog sneller achter elkaar nieuwe generaties kaarten uit, dus opzich valt het nog wel mee :9
ja maar de prijs daling van de 7800GTX was zo snel dat die van de 7800GT ook wel heel snel zal dalen, al gezien voor 419,- bij alternate ;)
*was reactie op verwijderde post, ignore.*
En laten we niet vergeten dat die dit de 2de maal op rij is dat nvidia meteen bij de lancering de kaarten in winkel heeft liggen.
GT, GTX who cares zonde van je geld. Tis uiteindelijk gewoon wachten op de nieuwe 6800le dat zijn de kaarten waar je wat aan hebt, flink wat performance (met een beetje mazzel) voor een eurotje of 200. Het is echt belacheljik om rond de 500 euro te betalen voor een kaart die een jaar later nog maar 250 euro waard is en wordt wegeblazen door de "nieuwe generatie" kaarten. Ik zou het ook doen als ik fabrikant was maar het is een grote grap :*)
Goede zaak van nVidia, maar ik baal wel een beetje.

Ik heb zo'n 2 maanden geleden een 6800GT gekocht. Geweldige kaart dat zondermeer, maar een maand later was hij 100 euro goedkoper en nu lees ik dit! Had ik nou meer 2 a 3 maandjes gewacht..

Ach ja, zo blijf je bezig natuurlijk :'(
Toen ik mijn X800 pro kocht was twee maand later de X850 XT PE er...

Doe je helemaal niks aan, en ik ben gewoon blij met mijn topkaart, want dat is het nog steeds, ook al zijn er kaarten die stukken beter zijn.

Kan mij niks schelen of ik in Doom III 95 of160 fps haal. Nu kun je zeggen, deze kaart draait over twee jaar ook nog alle nieuwe spellen, maar dan koop ik over twee jaar wel een nieuwe kaart.

Dit zal altijd zo zijn op pc gebied, telkens als je iets koopt zal er een korte tijd later iets beter zijn, dat ben ik al lang gewoon.
Jah, logisch dat dit zo op pc gebied zal blijven, als iedereen stug mee blijft doen zo :?

Hardware hoeft helemaal niet zo snel venieuwd te worden door de developers, dat willen hun zelf, logisch, tis lekker poen strijken ;) In al die jaren van hardware vernieuwing is er GEEN 1 game developer geweest die, welke gravische kaart dan ook, 100% benut heeft qua mogelijkheden, en toch maar nieuwe kaartjes blijven kopen.

Wie is er nu lijp, de developer of de gebruiker ?

Darrom zie ik straks ook meer winst voor de console's, gewoon een aantal jaren op dezelfde doos gamen zonder poes pas upgrade's en na een aantal een daadwerkelijke upgrade, niet zoals het gaat met pc's. Vind de Xbox en de nieuwe 360 een aardig verschil in hardware, zo ook met de PS1 en PS2. DAT zijn nu upgrade's waar je wat aan hebt, ipv om de 2 maanden een nieuw modelletje graka met een paar megahertzen meer !
Er zullen maar heel weinig mensen zijn die elke twee maanden nieuwe spullen kopen. Ook tweakers niet, die weten meestal maar al te goed wat ze nodig hebben.
Verder zorgt die vernieuwing er toch maar wel weer voor dat je bij je twee/drie jaarlijkse vernieuwing een upgrade hebt waar het verschil ook echt te merken is en het het geld ook waard is.
Ja goed, maar als je op 640x480 gaat spelen kan je waarschijnlijk met een nieuwe videokaart ook wel een x aantal jaar doen.

Het is inderdaad wel zo dat consoles gewoon één hardware profiel hebben en alles daar op afgestemd kan worden. Daar kunnen PCspellen nooit tegenop. Potentieel is het altijd wel zo geweest dat PC spellen mede dankzij hun mogelijke hoge resolutie mooier eruit konden zien. Ook hadden consoles het best wel eens moeilijk. GTA3 op de playstation had regelmatig framedrops en borden waren eigenlijk nauwelijks te lezen.

Maar die hoge resolutie is weggelegd voor mensen die het beste van het beste willen natuurlijk :)

maar iedereen kan voor zich de afweging maken tussen een console en een PC. Ik persoonlijk vind consoles gewoon minder vanwege het gemist van een toetsenbord en muis en de relatief slechte graphics (in verhouding met de mogelijkheden op een PC). Ik ben echter wel benieuwd naar de XBox360 met HDTV, dan wordt het natuurlijk interessanter :)
De hardwarefabrikanten -met name nvidia en ATI in deze context- hebben dan ook geen andere keuze dan om de overklap met nieuwe grafische chips op de proppen te komen.
Natuurlijk kan je beweren dat beide bedrijven hun inkomsten niet puur uit de grafische sector halen, omdat ze bv. ook moederbord chipsets en multmedia chips produceren. Natuurlijk is dat zo, maar voor een bedrijf is het interessant om de bedrijfsactiviteit zo veel mogelijk te spreiden. Als één vitale inkomstenbron plots wegvalt (tengevolge van crises in de sector bv.), dan blijven nog een waaier andere mogelijkheden gevrijwaard.
Dus is het ook logisch dat zowel ATI en Nvidia dat ene marktsegment van de gamers en dus ook van de harcore gamers (dan zitten we dus in de categorie 7800 GTX/GT
:) )naar zich toe willen trekken.
Het is dus voor hen niet zuiver een kwestie van meer of minder winst maken. Het gaat er in wezen om het hoofd boven water te houden, ervoor te zorgen dat potentiële klanten niet overlopen naar de concurrentie.
Het is precies die angst om belangrijke marktsegmenten te moeten prijsgeven -omdat beide bedrijven wéten dat de concurrentie zéér goede producten op de markt brengt- die ervoor zorgt dat we nu veel sneller dan vroeger nieuwe grafische cores ontmoeten.
Mijns inzien is deze trend pas goed op gang gekomen toen ATI met zijn Radeon 9700 PRO alle bestaande Nvidea chips in de pan hakte (evenals de veel later uitgekomen wanhoopsdaad van Nvidea aka FX 5800).
Ik ben ervan overtuigd dat Nvidia hier een flinke les uit heeft getrokken en dat de consument hier van profiteert.
Sinds de 9700 PRO heeft Nvidia geleerd dat het haar prijzen competitiever moest stellen en dat kan toch alleen maar positief uitdraaien voor de eindgebruiker, nietwaar?

Dat we ons nu zo snel in de zak gezet voelen bij de aankoop van een VGA-kaart, omdat deze 2 maanden na aankoop al hopeloos achter zit (oke, nu overdrijf ik) is iets wat zelfs zonder die concurrentiestrijd ook was gebeurd -hetzij in meer beperkte maten. De technologie evolueert, ingenieurs ontdekken continu nieuwe mogelijkheden, boren die aan en bouwen voort op bestaande technologie. De grafische pracht in games is in enkele jaren explosief gestegen en dat is toch wel een trend die we mogen toejuichen, hoor! Was iedereen dan liever in het Commander Keen tijdperk gebleven? Er is één regel: vooruitgang = vernieuwing.
De spel ontwikkelaars maken hun spel aan de hand van reeds bestaande technologie. Stel dat een team zo'n 2 jaar werkt aan een game. Stel dat dat game werd ontwikkeld net toen de 9800 PRO uitkwam. Dat is da de maatstaf, naar die norm moet je je engine ontwikkelen. Twee jaar later is het spel af, volledig ontworpen naar de 9800 PRO. Plots is daar dan een 6800 GT op de markt, die natuurlijk veel geavenceerder is dan de 9800 PRO. Het is dan ook logisch dat -hoe modern dat spel ook is- niet alle functies van de 6800 GT worden aangesproken (dat is wat wss nu met de 9800 PRO wel gebeurt). Dit is doodnormaal! Als je een spel wil dat alle toeters en bellen van een grafische kaart gebruikt, dan zou je dat game a.h.w. bij de hardware designer zelf moeten ontwikkelen.
Hetzelfde zie je nu erg duidelijk bij het dualcoredilemma in games. De eerste dualcore processoren zijn er al enige tijd en toch is de werkelijke toepassing ervan in games erg beperkt, net omdat de game-ontwikkelaars eerst de technologie in handen moeten krijgen alvorens dat ze die optimaal kunnen integreren in hun software (engine).
Het is dus een hele complexe materie waar we zo maar niet lichtvoetig over heen kunnen. Je moet je er wel kritisch tegenover opstellen om zodoende een juiste visie op de hele materie te ontwikkelen.

Je zou kunnen besluiten: niettegenstaande de hetse van de opvolginsrace, blijven de mooie games binnenstromen die zijn ontwikkeld op basis van technologie van gemiddeld 2 jaar oud en dus kan je vers aangeschafte 7800 GT heus nog wel een hele tijd mee :+ !

Leve de consument!
Jij bent een van de velen die het voor mij laat overkomen alsof er geen wereld bestaat waar consoles en pc's samen kunnen zijn. Ik ben een echte pc'er en tweaker noem maar op, al mijn hele leven. En waarom zou ik dan niet ook een xbox kunnen hebben? Het is niet het een of het ander, het is gewoon allebij! Zo'n console heb je er los bij, kost immers geen drol vergeleken met je pc hardware, dus wat is het probleem. Kun je nog leuk wat dingetjes aan editen ook, lekker ftp'en naar je xbox en van alles uitproberen. Ik vind dat een leuke bezigheid, zou niet weten waarom dat niet zou kunnen. Heb je immers nog wat afwisseling. En ook handig dat mijn vriendin even makkelijk een spelletje kan spelen zonder eerst 80 video-instellingen te doorlopen. Ik zie er weldegelijk een voordeel in.
Wat jij ook beschrijft over de prestaties en het optimale draaien van een console is iets wat bij erg boeit. Een console is werkelijk een prestatie-wonder vergeleken met een pc, pc's ken ik nu al 23 jaar, en ik ben 23 jaar oud, consoles zijn in mijn ogen vernieuwend, had er nog nooit eerder een gehad, maar damn die 'efficientie' is echt heerlijk! Daarom kan ik ook niet wachten op de 360, ben erg benieuwd.
De X800 Pro kwam tegelijker tijd met de X800XT en X800XTPE, enkel was de X800 Pro de enige die verkrijgbaar was. Anyway, er zat toch iets meer tijd tussen X800 en X850 als jij wilt voordoen, deze kaarten zijn net nieuw nu.
Gepost door Carnman - donderdag 11 augustus 2005 - 20:17 Score: 1
Toen ik mijn X800 pro kocht was twee maand later de X850 XT PE er...
dat is geen vergelijking, ik had een halfjaar op mn x800xtpe gewacht en toen ik hem had was 1 maand later de x850xtpe uit VOOR DEZELFDE PRIJS en volop leverbaar
De benchmarks op deze grafiek zijn niet helemaal representatief. Doom3 & nVidia is 1 kamp net als HalfLife2 & ATi.

Ik geloof wel dat de 7800GTX sneller is dan de X850 maar,
als je HL2, benchmarks zou neerzetten of liever nog CS:S zal die grafiek er een stuk anders uitzien.
Toch meer de reviews van HardOCP lezen jongens. Die gaan voor de real performance en niet wat een kaart toevallig als hoogste FPS haalt. Want dat is slechts een moment opname.

Overigens is de 7800GT(X) wellicht niet zoveel sneller als een X850XT, de IQ is wel aanmerkelijk hoger. Als je naar de plaatjes kijkt die HardOCP bij haar reviews heeft gedaan dan val je gewoon stijl achterover :)

Singel 7800GTX:
http://www.hardocp.com/image.html?image=MTEyMjkxODk2N0VqV1hBTHhqMVVfNV 81X2wuanBn

Sli:
http://www.hardocp.com/image.html?image=MTEyMjkxODk2N0VqV1hBTHhqMVVfNV 84X2wuanBn

Maar goed, het is maar waar je voor gaat natuurlijk....
hmm opvallend om te zien dat hij single mooiere graphics heeft als SLI :P gooi de 2 plaatjes maar in FF in 2 tabbladen en zoek de verschillen, de single is vooral scherper (goed te zien aan het muurtje links onderin)
Toch is-tie verfijnder, kijk maar naar het hekwerk en de hangende kabels met name boven de poort. Realistischer naar mijn bescheiden mening......
En dat geld ook voor Farcry en Splintercel. Dit komt mede door de zeer grote vertex power bij de ATI kaarten.

http://techreport.com/reviews/2005q3/geforce-7800gt/index.x?pg=8

Natuurlijk zijn de 7800 kaarten van nVidia gemiddeld sneller, toch vind ik dat ATi op dit punt wel een compliment verdiend.
( Als je bedenkt dat een 7800GTX met 2 vertex pipes meer toch een stuk minder presteerd op dit gebied.)

De X850xtpe ligt voor 349 euro bij Alternate, ATI hoeft zich dus niet te schamen.
Ja de AGP versie, een 6800GT is in AGP formaat ook maar 240 euro. De PCIE van de X850XT PE is nog altijd minstens 450 euro terwijl de 7800GT al voor 370 euro in Duistalnd te krijgen is.
Het is gewoon zinloos om nu nog een high end ATi kaart te kopen.
Wat een gelul zeg, http://www.xbitlabs.com/articles/video/display/geforce7800-gt_12.html

hier heb je je HF2 uitslagen.

Ow en vergeet niet het 90MHz snelheids voordeel dat een X850XT heeft.
En als je de review zelf een doorleest kom je er vanzelf ook wel achter, dat zelfs in HF2 nog redelijk meekomt.

Doom3 is OGL en gebruikt veel shaduw technieken, in beide loopt een heel klein beetje voor ten opzichte van ATi, HF2 is simpelweg omgekocht voor heel veel geld.

In tegenstelling tot ATi heeft nVidia erg veel respect bij de devs gewonnen over de jare. Zowel de ID lead software engineer als de Epic Lead software engineer zijn nVidia biassed, en dat is niet omdat ze de naam mooier vinden klinken. Om Doom3 en nVidia 1 kamt te noemen is dus niet eerlijk.
misschien bedoel jij dat nvidia voor elke game optimalisaties heeft met hun 'meant to be played'?

ik zal het strax weten hopen dat hypershadow ook bij BF2 werkt. ik ben zat van die troep schaduwen
Nee, dat bedoel ik niet. Driver optimalisaties zijn slecht, maar op het moment bijna ontzichtbaar.

Het heet ultrashadow. En het versneld. Maar het mooi maken van dat soort dingen is aan de dev.
ik las wel op nvidia site dat ultrashadow ook de edges van de shadows antialiased (smooth maakt)
Dat zouden ze je ook graag laten geloven ook, maar het mooi maken van schaduwen moet echt eerst door de programeur van het spel erin gezet worden. Mooiere schaduwen worden nu mogelijk zonder dat de performance binnen de 1 cijferige getallen komt.
3dmark is minder bevooroordeeld
Nu hopen dat er een softmod mogelijk om toch die 4 pipelines toch te kunnen inschakelen :Y)
Kan niet, helaas

http://www.digit-life.com/articles2/video/g70-4.html
You can see well that the chips look absolutely identical. No bridges or substrate differences can be seen on the GPU. Thus, the four pixel pipelines and one vertex pipeline are locked either inside the die or with the help of programmable registers, or in BIOS. The last two options provide a chance to unlock them. In case of the first option you may kiss goodbye the chance to update GT into GTX. To the pity of overclockers, NVIDIA designers used the first option. But it will be described below.
Of course, I tried to unlock 1 quad and 1 vertex pipeline, but this attempt was a failure, as I have already mentioned. Even though this register can be programmed, the number of pipelines is hardcoded in the core. NVIDIA got rid of the problems it had experienced since the NV4x. Information that unlocking 6800/6800LE pipelines was no longer possible appeared at the time of late NV40 (there is a chance that these cards are already equipped with NV48, manufactured by TSMC using the 0.11 micron process technology, where the number of pipelines is hardcoded at the testing stage or even earlier). NV41/NV42 chips for the 6800LE (8 pipelines) cannot be unlocked anymore (12 pipelines). So this is bad time for users who prefer buying cheap video cards and then overclock them to get capacities of more expensive models for free.
De enige die ons nu nog kan redden is Unwinder, maar die is op het moment op vakantie.
Hoevaak moet ik nu nog lezen over een ultra?

Wanneer begrijpen mensen toch eens dat Nv afgestapt is van de ultra en de nieuwe naam GTX is?
Wanneer nVidia een Ultra uitbrengt, dan snappen ze het......

nVidia komt sporadies steeds weer terug op het ultra gedoe, TNT1 en 2 hadden ultra's, GeForce 2 had een Ultra, GFFX had een Ultra (nouja, eigenlijk had de serie er 6) en GeForce 6 had een Ultra, de rest niet. Maar in de toekomst zal nVidia zeker nog terug komen op de Ultra.

Verder weten we bijna zeker dat nVidia net na het uitkomen van de R520 een tegenstander ervoor zal maken, gebaseerd op G70, en die zou best wel eens Ultra kunnen gaan heten, maar natuurlijk net zo goed, GTO :D.
De 'Ultra' versie zit er wel degelijk aan te komen onder de code naam G71 Die kaart zal overigens 512MB en 32 pipelines bevatten, blijkt ook (zeer) goed overclockbaar te zijn. Het zal er dus tijdens de feestdagen om spannnen.
In dat artikel wordt flink gespeculeerd, maar we weten nog niet of hij uiltra gaat heten en we weten ook nog niet of de R520 X900 zal worden genoemd (lijkt mij eigenlijk niet).
Meer dan 60 frames kun je in Doom3 helemaal niet halen:
At a recent NVIDIA Editors' Day, id Software CEO Todd Hollenshead announced that DOOM 3 will be capped to 60 frames per second in the rendering engine.
bron: <a href=\"http://pc.ign.com/articles/456/456054p1.html\" target=\"_blank\">http://pc.ign.com/articles/456/456054p1.html</a>
Dus ga die kaart niet kopen als je Doom3 vloeiender wil spelen ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True