Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 136 reacties
Bron: The Inquirer

De eerste berichten over de prestaties van de GeForce 7900 GTX zijn niet onverdeeld positief, schrijft The Inquirer. De bedrijven die zulke kaarten op basis van nVidia's G71-chip gaan maken, hebben 'beperkte' aantallen besteld, en beduidend minder dan ze voor een normale nieuwe kaart zouden afnemen. Volgens de site presteren de testexemplaren van de fabrikanten ongeveer acht tot tien procent beter dan de 7800 GTX 512, wat reden voor de kaartenmakers zou zijn om hun productie met de nodige voorzichtigheid te plannen. Het is dan ook maar de vraag of nVidia's nieuwe topmodel de strijd met ATi's X1900 XTX in zijn voordeel kan beslissen. Zoals het er nu uitziet is de 7900 GTX hooguit even snel als de in januari geïntroduceerde ATi-kaart.

nVidia logo Ook de prijsdaling die de 7800 GTX zal ondergaan lijkt de kaartenfabrikanten dwars te zitten. Als de 7800 GTX 512 inderdaad voor minder dan 400 dollar leverbaar wordt, zouden slechts weinigen de hoofdprijs willen betalen voor een paar procent meer snelheid. Het is echter nog steeds niet duidelijk wat de precieze specificaties van de 7900 GTX zullen zijn, dus het wachten blijft op de definitieve release. Dan moet ook duidelijk worden of er van de 7900 een 1024MB-versie zal verschijnen, zoals een van de geruchten luidt, en uiteraard ook wat het effect daavan op de prestaties zal zijn. De nVidia's zullen naar verwachting eind volgende week op de CeBit-beurs gepresenteerd worden. Op die beurs zal ATi overigens, naar eigen zeggen om financiŰle redenen, niet vertegenwoordigd zijn.

Moderatie-faq Wijzig weergave

Reacties (136)

Een 1024MB-versie lijkt mij een beetje overdreven, welk spel maakt er nou gebruik van zoveel geheugen :?
Ik ga mee met PilatuSSS, welk spel heeft in godsnaam nu iets aan zoveel geheugen? Wie een spel weet mag het me vertellen.

In de toekomst zullen ze het ongetwijfeld gaan gebruiken, maar als ik een technisch onderdeel koop kop ik het voor NU en de nabije toekomst, niet voor de verdere toekomst. We hebben het immers wel over een tijdsspanne waarin je kaart allang weer verouderd is op alle andere vlakken. 1024MB Staat totaal niet evenredig aan de overige componenten van de kaart (al is het op dit moment het topmodel van Nvidia).
tis heel simpel.
er zullen echt wel afspraakjes gemaakt worden tussen kaartbakkers en game developers,zodat jij(als je nieuwe spelletjes wil spelen)regelmatig in de buidel moet tasten |:(
imho
Vind je dat erg dan? Niemand verplicht je om de nieuwste spellen te kopen.
Nu haast geen....nog niet.
Maar in de toekomst zullen ze dat wel gaan gebruiken dus je kan er nog op vooruit.
En het staat nog stoer ook
Ik ben daar mee opgehouden, om kaarten aan te schaffen die klaar zijn voor de spellen van de toekomst. Heel leuk om mee te patsen met een aantal tech demo's. Maar tegen de tijd dat die spellen werkelijk uitkomen, is je kaart of al veel goedkoper te krijgen, of zelfs al verouderd. Ik koop liever een kaart die voldoet voor de huidige spellen, met een beetje extra marge. Dan bekijk ik tegen de tijd dat die nieuwe spellen uitzijn wel wat voor kaart ik dan weer nodig heb.

Zolang de patsfactor je niet interreseert, kan je dat behoorlijk wat geld schelen, wat je weer kunt steken in andere hardware.

Maar goed, van The Inquirer is wel vaker nieuws gekomen dat niet helemaal accuraat bleek te zijn (kuch..kuch). Eerst maar eens de real-life testen afwachten....Just my 2 cents
Ja 1GB is idd een beetje overkill. Ik heb liever sneller geheugen dan meer geheugen. :+
Bijv. als ik bij mijn graka het geheugen overclock scheelt dat best wat punten in 3dmark.
Met de komst van call of duty 2 zijn er spellen verschenen die baat hebben bij meer videogeheugen, ik kan me goed voorstellen dat die er best wel wat aan zou hebben maar goed het merendeel van de spellen doet dat op het moment nog niet.
Met de komst van call of duty 2 zijn er spellen verschenen die baat hebben bij meer videogeheugen
Dat zeiden ze in de media, maar dat is niet waar. Ik kan Call of Duty 2 makkelijk op m'n 6600GT met 128 MB geheugen spelen. Natuurlijk niet met 16xFSAA 16xASF, maar wel met 2QxAA, 8xASF op 1280x1024.
Ja, op DirectX 9. Volgens mij zijn er in de media teveel sterke verhalen verteld dat je een supercomputer of zo nodig hebt voor CoD2. Ik heb het gewoon op m'n 3500+ met 128MB 6600GT en DirectX 9 prima draaien. Ik hoef niet eens low settings te gebruiken. Dat 512MB-verhaal is grote onzin.
Het gaat er niet om of cod2 goed draait of niet, het gaat er om dat het spel wat beter draait met 512MB VRAM.
Iets dat bewezen is door vele benchmarks.
Ik heb een vriend die speelt CoD2 gewoon op zijn Ti4400.
Dat hij het niet op de allerhoogste resolutie kan spelen so bee it.

Maar hij speelt hem wel . :?
directX 8.0 ipv 9.0 ;)
Dat is qua grafische kwijlbaarheidsfactor toch Úcht een stuk minder :P
Omdat er dan waarschijnlijk ook een Quadro komt met 1GB en daar zal zeker wel vraag naar zijn hoor!
Unreal Engine 3 bijvoorbeeld. En zodra 512 "mainstream" word zal 1024 MB wel weer wat extra eye candy geven oid. ;)
Een 1024MB-versie lijkt mij een beetje overdreven, welk spel maakt er nou gebruik van zoveel geheugen
Daar heb je helemaal gelijk in, 640 kbyte is niet alleen genoeg voor elke applicatie maar ook voor elk spel. :)
Hmm, ik kom uit op 5MB voor mijn tft'tje :), mijn berekening:

1280(b)x1024(h)x32(kleurwaarde) =41943040 bit = 5242880 byte = 5120 KiB = 5 MiB

Bij 1600x1200 zou dat op 7,5MiB uitkomen :)

Laten we allemaal teruggaan naar de TNT met 8MiB geheugen! :P
en dan? 1 afbeelding per seconde weergeven :?

als je die 5mb 60x perseconde moet weergeven, heb je al 300mb nodig voor iedere seconde...

daarnaast heb jij het over rauwe (analoge) video-output, da's heel wat anders dan daadwerkelijk textures op een draamodel plakken, rekening houden met textures, lightning(raytracing), perspectief, bump-mapping,anisotropische filtering, schaduwen en dynamic lightning, om maar even wat functies te noemen
@Rey:

Juist.... en als ik een uur film wil kunnen kijken heb ik 3600*300 mb nodig?

In de praktijk heb je een frontbuffer (wordt naar de monitor gestuurd) en een backbuffer (waar het nieuwe beeld opgebouw wordt) nodig. Dus 2x die 5 MB. De rest is voor texturen en pixel programs. Of wil jij beweren dat je met een 256 MB-kaart geen 60 fps kunt tekenen? Lukt de mijne anders prima...
Dat heeft niets met de capaciteit te maken, enkel met de bandbreedte.
B*H*bpp*FSAA
Deze formule houdt rekening met double buffering en 8xFSAA
=(1600*1200*32*9)/(1024*1024)
=527,34375MB
Dus 527 MB is benodigd voor de frame buffer!
Voor de textures is er uiteraard nog niks gereserveerd.
Tel daarbij op dat moderne games zoals quake4 een ultra mode hebben waarbij texture compressie uitstaat en het wordt meteen duidelijk dat voor extreme instellingen 1024MB nuttig is.
De vraag is natuurlijk of er voldoende bandbreedte is om nog een goede framerate te behalen. 50GB/s+ lijkt me in dit geval ook al geen overbodige luxe meer.
Het is opmerkelijk dat tegenwoordig games draaiien op een 64MB kaart terwijl de details kunnen opgevoerd worden zodat zelfs een 512MB kaart door de knieŰn gaat.
Quake 4 kan eruit zien als de mooiste game ooit maar ook lelijker dan quake2. :)
@corpseflayer

Er bestaat ook nog zoiets als datacompressie in de geheugencontroller van de grafische kaart. Deze compressie kan met overvloed aan transistors in de grafische chip snel afgehandeld worden.
Deze compressie zorgt er voor dat bandbreedte bespaard wordt.
Dat zeiden ze 10 jaar geleden met 16 MB videokaarten ook.
Bill Gates:
64K should be enough for anybody ;)
[offtoppic]
Actually he never said that - it is usually quoted as "640K should be enought..." really when it came down to it - they designed MS-DOS for the 8086 processor - which was capable of addressing 1 MB of memory in it's 16bit address space, they had to decide where to put the operating system in that address space - and Bill G. made the decision to put the interface to DOS at the 640KB mark - this would allow some growth underneath but in hindsight - it seems like a silly decision and it did start impacting programmers from the time of the first 80286.
[/offtoppic]

(van Geek.com)
Leuk dat je dat aanhaalt, maar we hebben het over videogeheugen hier en niet over werkgeheugen van de PC zelf... :) En dat zijn (naar mijn weten) toch echt twee verschillende toepassingen van geheugen... :)

Snap sowieso niet waarom er iedere keer gezegt moet worden "X MB, wat moeten we ermee?" Dat rijmt ook nog is :9 Bij de 512MB 7800GTX was het al zo... En met de 256MB kaarten, 128MB kaarten, 64MB kaarten en ga zo maar... Er komen altijd ooit wel applicaties of games die er echt bij (gaan) hebben...

En reken maar dat de 3D applicaties zoals 3D Studio Max en dergelijke er wel degelijk baat bij zullen hebben, ook nu al ja... ;)
1GB Vidmem maakt 'n kaart meer future proof.
Houd in.
A ) Alleen van belang voor diegene die hun G-kaartje en PC setje lang gaan aanhouden.
B ) 512GB zal vaak wel even snel als 256MB voor hi-end kaarten. Zal ook zo zijn bij 1GB vs 512MB voor high-end. Bij midrange produktlijn is dit anders, meer geheugen maar dan goedkoop langzamer geheugen.
7800GTX512 is weer 'n uitzondering anders om. Zou eigenlijk 'Ultra extreem' moeten heten, aangezien er nog 'n gewone Ultra tussen past.
Midrange is sowieso minder future proof door minder Performance reserve.
C ) Je koopt dan nu high-end zodat het wat langer kan meegaan. Je kiest voor Max geheugen en de meest future proof gerichte architektuur. Blijft nog steeds 'n gokje maar dat blijf je houden.
D ) De meeste games dev's houden een groot mainstream target system in de peiling. Houd in dat er zeker drie API generaties ondersteund worden uiteraard zijn er uitzonderingen op de regel. Met meer en minder.
Dus Minimum DX7, rec. Dx8.1, optimum DX9.

Dus je high-en kaart vervalt automatisch van High-end naar midrange naar budged en dan ben je al snel weer grof gezien 4 jaar verder.
En dan komt weer de tijd om 'n nieuw setje te halen.

Veel geheugen heeft dus zin maar niet voor iedereen.
Een 1024MB-versie lijkt mij een beetje overdreven, welk spel maakt er nou gebruik van zoveel geheugen
1024MB lijkt misschien overdreven, maar het is zeker geen overbodige luxe voor de toekomst. Ik ben zelf toevallig net bezig met een tooltje voor 'volume textures'. Dat zijn 3D textures (in tegenstelling tot de normale 2D textures) die worden gebruik voor fog effecten, wolken, video textures etc etc. en die slurpen je video geheugen zo op.

In de NVidia Vulcan tech demo gebruiken ze deze textures om vuur te maken (ala de LotR Balrog) met twee 256x256x64 32bpp volume textures, wat dan neer komt op zo'n 16 MB per texture. Als je hiervan de kwaliteit en aantal z-slices wat opvoert, dan kom je zo aan honderden MB's. Voeg hier nog een hoge resolutie shadow map en de normale vertex/index/texture data aan toe en dan wordt 512 MB al krap-an voor een volledige spelomgeving.

Tuurlijk, je heb het misschien niet nu nodig, maar video geheugen is net als RAM, je kunt er nooit genoeg van hebben. IMO in ieder geval ;)
Ik snap niet dat mensen het nut van 1024MB niet inzien.

Tegenwoordig heb je in games dat texture resoluties kleiner worden naarmate een object van je verwijdert. Bijvoorbeeld bergen aan de horizon hebben een laag resolutie texture omdat dit anders gigantisch veel geheugen zal vreten.

Wanneer je dus gigantisch veel geheugen op je kaart hebt kun je texture resoluties voor verre afstanden flink verbeteren, wat natuurlijk veel mooier is.

Kijk maar naar FarCry, in de verte hebben de bomen en bergen een lage texture resolutie, dit kan met meer geheugen op de videokaart verbeterd worden.

Kortom, wanneer meer geheugen op een videokaart standaard wordt zullen games-producenten hogere resolutie textures toepassen in hun spellen.
Inderdaad, dat viel me ontzettend op in CoD2, met alles op hoogst en 1600x1200, dat er een hele duidelijke "overstap" was, tussen 4 en 5 meter afstand van een lijk zag je duidelijk het model switchen van hoog-polygonen naar laag-polygonen.

Stel je voor dat alles altijd overal om je heen max is, dat zou zoveel mooier zijn. Dus het heeft zeker wel zin, want om alle (zichtbare) textures in een level in te laden op max resolutie en model, ga je hard richting meer dan 1 GB!
Polygonen heeft niks met texturegeheugen te maken.

De makers kiezen zelf om meerdere lods (level of detail) voor objecten te gebruiken. Nadeel is dat je die overstap ziet wanneer de makers het te grof toepassen, voordeel is betere fps.

Met kleinere textures in de verte heb je geen nadeel want het is toch zo klein dat je geen detail ziet.
Hmmm. laat ze maar eens een GPU en CPU ter groote van een moederbord maken }> . Als je dan geen enkel spel op 80 fps kan spelen weet ik het ook niet meer!

en als je dan 1/2 gig aan RAM voor je GPU hebt en 4 gig voor je CPU (das de max van windows), kan je bij ELK spel ALLES op max hebben (zelfs dingen in de verte) :P
[off topic]
Dat is niet iets van tegenwoordig hoor. Dat heet mip-mapping en bestaat (pak 'm beet) al 10 jaar in games.

Het heeft geen zin om toch high-res textures te gebruiken voor objecten die ver weg zijn. Het wordt toch gereduceerd tot een paar pixels op je scherm.
[/off topic]

edit:
@BT Racing
Oh ja? Ga jij maar eens de blaadjes aan een boom tellen bij een boom die 10 km van je verwijderd is. (Dat heeft overigens niets met scherp/onscherp te maken, maar met met "hoeveel details" je nog kunt waarnemen).
Maar het is wel duidelijk zo dat je nu kunt zien dat de achtergrond in 'low-res' wordt weergegeven. In de 'echte' wereld vervagen dingen ook niet naarmate je verder kijkt. Een boom op 10 km is nog steeds scherp. Met 'high-res' textures (en 'high-poly' objecten) kun je dit effect wel dichter benaderen.
een boom op 10 kilometer afstand zie ik niet hoor :z
Ter info: het menselijke oog kan nog net zaken onderscheiden waarvan de invallende lichtstralen een hoek maken van ongeveer 1', zonder rekening te houden met verstrooiingseffecten...
Nu nog meer details per pixel! :Z
met een Sniper rifle misschien nog net? :P
Daarom heb je ook anistrophic filtering die zorgt ervoor dat de hoek waarop een texture bekeken in acht wordt genomen bij het filteren dacht ik. Je kunt mipmapping, LOD en AF ook uitzetten dmv vid drivers maar geeft een ongelovelijk onrealistisch beeld omdat de pixels heel snel switchen aangezien er zoveel informatie(pixels op polygonen) onder ligt. Mip mapping en de nieuwere techniek AF zorgen ervoor dat de informatie op correct manier gecropped wordt als het ware. Daardoor switch de pixel niet onrealistich snel als je rond kijkt. Het is lastig uit te leggen, maar ik denk dat het wel duidelijk is.

Edit: verduidelijking
Alsjeblieft niet... Die mip-mapping (zoals Walter de Rochebrun al uit heeft gelegd) is een goede techniek die niet zomaar kan verdwijnen als je veel geheugen op je videokaart hebt =>
als je mip-mapping zou 'uitschakelen' DAN zou je in theorie idd wel profijt hebben aan die 1024MB op je videokaart, maar dan draait het spel toch allang voor geen meter meer =>
Het heeft immers geen nut om mip-mapping weg te halen als je level of detail niet ook weghaalt, wat resulteert in een polygonenfeest waar je meest moderne computer geen enkele partij voor is.
Ze zijn gewoon renders gewent waar in dat wel gebeurt ;), suffe real-time render-sletjes.. :P

\[droom-modus]woah... een spel voor op een zware 32 x de FX-60 cluster, dat real-time Finding Nemo voorbij schiet op grafisch gebied...\[/droom-modus]

\[halve-droom-modus]Dit moet toch redelijk te doen met de Half Life engine? Sublieme CPU only engine software rendered.. :)\[/halve-droom-modus]
Mipmapping is toch geen techniek om geheugen te besparen ? Naar ik mij weet te herinneren, wordt de volledige mipmap (een texture in verschillende resoluties dus) ingeladen in het geheugen (dus meer geheugengebruik).

Is het net niet de bedoeling om de hoeveelheid pixels (of beter, texels) die de GPU moet verwerken, te verkleinen, door net objecten die ver verwijderd zijn in een lagere texture resolutie te renderen (wat nauwelijks een zichtbaar verschil geeft..) ?
ja volgens mij komt dit verhaal (van Nitro_mule) nog het dichts bij de werkelijkheid (ik weet het zelf ook niet). maar het zou niet logisch zijn dat er een boom in de verte de texture niet geladen is d.m.v. mip-mapping. dit zou betekenen dat als je dichterbij zou lopen de volledige hoge reso texture van de HD af gehaald moet worden wat dus een trage boel word. dus mip-mapping zal wel meer rekenkracht besparend werken dan geheugen.
Inderdaad,

ik ben het met refragmental eens,
Aangezien de technologie er [blijkbaar] zo snel op vooruitgaat, zullen de game-producers niet achterblijven en die graphics eens flink oppompen, de technologie is er, dus zal het echt niet meer lang duren tot die nieuwe generatie games er zijn. (met nieuwe generatie bedoel ik vooral de verbeterde graphics natuurlijk).

Want wat wil je, als je de technologie al in huis hebt, dan heb je toch ook graag de mooiste graphics in huis. :?
Ik stel voor dat de The Inquirer van Tweakers verbannen wordt en de Úchte benchmarks afwachten :Y)

Aangezien de 7900 op 'n (iets) hogere frequentie zou gaan lopen met als 't goed is een verbeterde core kan ik 't me niet voorstellen dat 't verschil echt zo marginaal zal zijn. De tijd zal te leren...
verbeterde core?
niet echt. er is eigenlijk bijna niks veranderd.
'maar' 24 pipelines en iets hogere clocksnelheid.
het grootste verschil is het productie process dat van 110nm naar 90nm is gegaan.
Ik geloof er ook weinig van. De 512mb GTX is dan niet zoveel slechter dan de 7900, maar is zo slecht verkrijgbaar dat de 7900 dat probleem zou moeten oplossen...

Als er zou staan dat de 7900 maar weinig is ingekocht omdat deze ook slecht verkrijgbaar is, zou ik daar meer van geloven! Dus hoe zit dat? We zien het vanzelf in maart.
Ik wil wel even benadrukken dat de 7800GTX 256mb dus langzamer is dan de 7900GT.

7800GTX 256mb:
-24 pipelines
-430 MHz core
-1200 MHz mem

7900GT 256mb:
-24 pipelines
-450 MHz core
-1320 MHz mem

De 7900GT zal hier ongeveer 350 euro gaan kosten en is gewoon sneller dan de huidige 7800GTX 256mb die nu voor 443 euro (point of view) over de toonbank gaat.
Een 1024MB-versie lijkt mij een beetje overdreven, welk spel maakt er nou gebruik van zoveel geheugen
Ja en dan 4 van die kaarten samen in 1 PC he ;)
Volgens de site presteren de testexemplaren van de fabrikanten ongeveer acht tot tien procent beter dan de 7800 GTX 512
Zoals het er nu uitziet is de 7900 GTX hooguit even snel als de in januari ge´ntroduceerde ATi-kaart.
Dat is natuurlijk totale onzin want de 7800GTX 512 is in de meeste benches sneller dan de X1900XTX en daar dan nog eens 8-10% bovenop.
Kijk maar naar de Hall of Fame bij Futuremark het zijn alleen maar 7800GTX kaarten.
yup de 7800GTX 512 is sneller in de meeste benchmarks.
tot je wat dieper gaat kijken.

jammer voor nvidia zijn de meeste van die benchmarks oudere games, en haal je, hoeveel eyecandy je ook aan zet, ook op de ATI, altijd ruim voldoende FPS.

kijk je vervolgens naar nieuwe games met veel shaders dan doet de GTX512 het minder goed, zeker als je kijkt naar de minimum FPS.
telkens als je in een flink gevecht zit (wat meestal betekend dat er veel shaders worden gebruikt) en je dus je FPS het hards nodig hebt laat de GTX512 het afweten.

sta je vervolgens in een lege gang zal de FPS van de gtx512 weer flink hoger zijn, wat het gemiddelde van de GTX512 weer flink opvezeld.
maarja daar heb ik dus niks aan als gamer.

komt er op neer dat de manier van werken bij nvidia (3 texture units per 2 shaders) gewoon verouderd is.
meer texture units zijn gewoon niet meer nodig tegenwoordig.
de shaders zijn de nieuwe bottlenek in games.

edit @ inn87 : haha vaker de f5 knop gebruiken :Y)
Onder welke steen leef jij dan ? De X1900 XTX verslaat de 7800 GTX 512 is na genoeg alles behalve de echte Nvidia games.

Vooal nieuwe games als FEAR laten vele hogere scores zien voor de X1900 kaarten.
Lees eens wat reviews en doe eens nuttige uitspraken zoals Countess hieronder.
Ik zou de de 7900GTX niet tegen de 7800GTX512 zetten.
Ten eerste is de 7800GTX512 meer 'n LimetedEdition/Emergency/HalvePapierentijger. Wat heel normaal is voor 'n Ultra Extreem edition. De reden dat ze het toch maar GTX hebben genoemd.

Ik zou met wat voor 'Ultra Extreem' G71, nV uit zou komen tegen de 7800GTX512 zetten. Die Optie staat nog open voor ATI & nV.

High-end is niet zo'n volume produkt. Maar 'n 7800GT(X)256 X1900XT(X) 7900GTX zijn voor high-end wel 'n stuk meer Volume dan zo'n extreem ding.

Misschien ook wel de reden dat ATI niet met 'n PE komt. Anders kreeg je X1900XT vs 'n X1800XTPE waarbij de laaste wel eens vaker sneller zou zijn.
nV heeft dus 'n probleem dat de 7800GTX(UEE)512 'n hoop van de G71 basis lijn kwa schaling heeft weg gesnoept.

Alleen moet je niet vergeten dat je 7900GTX wel goed verkrijgbaar zal zijn tov van die 7800GTX512 die nooit echt goed verkrijgbaar was eerder beperkte oplage en ook nog eens snel EOL. Sneller dan de rest van de g70 reeks.
edit: countess is me altijd voor...
Als de 7900GTX maar 8-10% sneller als de 7800GTX 512 is
dan begin ik aan het feit te twijfelen als de makers wel goed bezig zijn.. 7800GTX daalt ernorm in prijs voor een iets mindere prestatie. Ik zou dan zeker voor een 7800GTX gaan :). Wat betreft de 7900GT zal dus niet sneller dan een gewone 7800GTX 256 zijn , maar gewoon een rename voor het geld ;)
De 7800GTX gaat niet in prijs dalen, die gaat er gewoon uit. Je kan beter een 7900GT kopen, kost bijna half zoveel en heeft ieets betere prestaties naar verwacht. Plus door de 90nm architectuur zal het overklokpotentieel veel groter zijn.
ik denk niet dat je nog veel 7800's zult vinden. de 7900's zijn dankzij het verkleinde productie process een stuk goedkoper te maken voor nvidia als de 7800's
nvidia zou dus wel gek zijn als ze die nog dingen nog maken.

zodra de voorraad 7800's op is is het gedaan met de 7800's vermoed ik.
Denk het niet, of Nvidia laat iedereen met SLI nu in de steek! Zou erg lullig zijn...

Blij dat ik een "gewoon" a8n-e bordje gekocht heb. }>
ik denk dat je als je later nog SLI wilt met een 7800 toch echt zult moeten zoeken op de 2de hands sites.
ik vind dat ze zich beter kunnen gaan concentreren op de spellen, misschien deze wat lichter maken. Bijvoorbeeld de HL2 engine, die heeft niet een top videokaart nodig om hard te draaien. Doom 3 is toch wel een stuk zwaarder en deze vind ik zelf niet zo heel veel mooier.
HL2 engine is nogal CPU bound, daarom 'helpt' een betere video kaart nauwelijks tenzei je de res en IQ omhoog gooit.

Spellen en videokaarten zijn verschillend, vormen heel verschillende lagen, en zouden niets direct met mekaar te maken moeten hebben.
Zou het? Op mijn x600xt is HL2 het enige spel (van nfsmw, gta:sa, cod2, bf2 en rollercoaster 3) dat echt niet lekker speelbaar is (hoge settings welliswaar), hetzelfde geldt voor black & white 2 die ik niet eens op 800x600 soepel kan draaien.
Mijn cpu draait op 2750mhz en ik denk niet dat de cpu de bottleneck vormt, dan zou bij minimale systeemeisen een FX-processor staan :? lijkt me niet!

@Countess: zou goed kunnen, 1280x1024 of 800x600 maakt maar 2-3 fps uit (het is dus 12 of 9 fps), ik heb alleen geen mogelijkheid tot updaten omdat het een illegale versie is... Maar ik vindt het toch geen leuk spel, ook geen reden voor mij om te kopen dus. HL2 heb ik overigens wel gekocht (eerste versie zat ook vol bugs), maar er zat geen bugfix in tegen het langzaam draaien van het spel.
er zat (zit nogsteeds?) een bug ergens in black en white 2 waardoor de FPS erg laag zijn met een ATI kaarten.

edit : ook de illigale versie is te updaten.
met daemontools 4 en de goede (mini) cd-image ben je al een heel eind. (veel meer mag ik niet zeggen denk ik, als ik al niet te veel gezegt heb)
*Ik probeer je niet te beledigen.,

Maar, een x600 is niet meer wat je onder fatsoenlijke video kaart verstaat, 2750MHz zegt ook niet zoveel, P4's kunnen op die snelheid nog steeds grote bottlenecks vormen, ik ga er even voor het gemakt van uit dat het een A64 betreft, in dit geval houd inderdaad je x600xt het niet bij, maar die is dan ook meer dan 5x zo langzaam (in alle opzichten) als de kaart waar deze duscussie over gaat.
beetje voorzichtig gezegd he 5 keer }>
Ik zei ook 'meer dan' :+
Ik zie iedereen roepen van "Ja dan heb ik liever de 7800 GTX" maar dat wil je NIET als je al zoveel geld over hebt voor een videokaart !!!
Als je High-End koopt wil je nauurlijk HDR+AA en dat kunnen alleen de nieuwste kaarten (8>

Just a thought ...
De 7800GT(X) serie kan juist geen HDR+AA aan. Dat kan alleen de Ati x1900/x1800 serie.

Correct me if I am wrong.
Hij is verkeerd. Nvidia kaarten doen gewoon HDR+AA zoals ATi kaarten, enkel FP HDR +AA lukt niet.
FP HDR + AA is niet bruikbaar bij de X1800 kaarten, de FPS zijn zo laag dat het niet speelbaar is. Enkel de X1900 kaarten kunnen dit aan aanvaardbare snelheden en dan nog maar in 2 games die niet meer gespeeld worden3
hij zegt toch niet "correct me if im right"

dus waarom corrigeer je hem dan ? :+
1024 MB, ik weet nog goed dat ik helemaal uit mijn dak ging toen ik een Voodoo van 16Mb in mijn P2 mocht prikken om daarna lekker Driver te gaan spelen, videokaarten hebben straks meer geheugen dan je pc zelf :D

Wel valt het me tegen deze kaart, 10% is niet heel veel, straks heb je het zelfde verhaal als bij ATI de 9700/9800 Serie die gemiddeld 5% verschillenden. Dat is wel erg weinig vind ik. Maar goed niks is nog zeker natuurlijk, het blijft afwachten.
Als je zoon graka kan kopen koop je ook wel 4GB aan ram hoor ;)
Met de prijs van dat soort high end kaarten hou je alleen nog budget over voor 256 mb RAM hoor ;)
videokaarten hebben straks meer geheugen dan je pc zelf
Een hedendaagse high-end pc heeft 2 GB systeemgeheugen. Het videogeheugen is al jaren ongeveer de helft of een kwart van het systeemgeheugen.
Verschil tussen 1 en 2 GB is al bewezen dat het bijna 0,0% verschil uitmaakt op dit moment dus High end of niet het blijft zinloos voor games waar deze kaarten voor gemaakt zijn ;)
Behalve BF2 ;) en ik schat nog een aantal titels die dit jaar uitkomen
Sorry maar dit is echt onzin.

Draai jij Battlefield 2 maar eens met 1GB en 2GB intern.

Moet jij raden met welke hoeveelheid deze veel soepeler loopt.
videokaarten hebben straks meer geheugen dan je pc zelf
Ach, zo'n pc is toch alleen maar bedoeld om je videokaart in kwijt te kunnen? Ik weet eigenlijk niet wat dat ding verder doet hoor. :+
mja... 10%..
tis een beetje hoe je het bekijkt..

10% van 10 euro (voodoo1) is niets natuurlijk..
10% van 100000 (7800gtx) is ook 10%... maar toch..
tis vooruitgang..

Had die 7900 niet nog wat nieuwe snufjes aan boord?
1024 MB, ik weet nog goed dat ik helemaal uit mijn dak ging toen ik een Voodoo van 16Mb in mijn P2 mocht prikken om daarna lekker Driver te gaan spelen
pfff, wat dacht je van je Gravis UltraSound upgraden door extra geheugen van een oude Tsenglab ET4000 af te solderen om van 256k naar 1Mb te gaan.
Even iets wat in me opkomt....

Hoe groot was het "performancewinst-gat" tussen de geforce 6800gt en een 7800gt toen die werd ge´ntroduceerd? Was dat ook rond de 10 procent of was dat meer? (misschien zijn de stappen altijd gemiddeld rond de 10 procent, of niet?) Wie weet het?
21% 3DMark05 Pure speed...

Bron: http://www.xbitlabs.com/a...ay/asus-en7800gtx_26.html

Maaruh... Waar blijven al die fanboys nou met hun: Oei wacht maar tot de 7900 uit komt. Dan is de X1900 helemaal niets meer... Ondertussen staat de X1900 al wel op de markt, iest wat NVidea met een gelijkwaardige kaart toch ook wel had willen hebben denk ik.
Nvidea bestaat nog altijd niet.
En HDR + FSAA kunnen de nvidia kaarten ook hoor, enkel FP HDR + AA lukt niet. En dat is enkel in 2 compleet verouderde games van toepassing.

Waarom voor een 7900 gaan? Omdat die gewoon de beste prijs/prestaties geeft.
FP HDR + AA is op alle moderne games die gebruik maken van de SM3 implementatie van HDR van toepassing.

Alleen wanneer HDR geimplementeerd is via SM2 (alleen HL2) werkt het ook op een Nvidia kaart.

En zoals Nvidia iedereen zo duidelijk heeft laten weten is HDR makkelijker (netter) te implementeren via SM3.
SM3 en (FP) HDR hebben niets met mekaar te maken.
Maaruh... Waar blijven al die fanboys nou met hun: Oei wacht maar tot de 7900 uit komt.
Voor zover ik weet ondersteund de 7900 nog altijd geen HDR+FSAA en aangezien de x1900xt toch al loeitjehard gaat, waarom zou je dan de 7900 willen (er van uitgaande dat je niet perse een nvidia kaart wilt :P), ook als is hij sneller.

Lijkt me toch dat je graag HDR+FSAA wilt hebben, tenzij je monitor 2048x1536 aankan :9
HDR is niet iets dat vast staat, het is niet een implementatie, het heeft juist veel meer implemtaties, waarvan sommige alleen op nVidia kaarten werken, sommigen alleen op SM3.0 sommigen wel AA ondersteunen en sommigen dat niet doen.

Een computer systeem is opgebouwd uit een gelaagd model, niet iedere functie die een spel gebruikt moet persee al in je CPU of GPU zitten, programeurs mogen dat zelf in mekaar flansen.
Zo goed als gelijke architecturen op 550 en 650MHz, das volgensmij ook dichter bij een 20% boost dan een 10% boost...
Alleen als dat de enige factor is die de snelheid beinvloed.

Maar een X1900 heeft ook geen 300% boost omdat ie 3x zoveel shader units heeft.

Andere zaken beperken de boost in de praktijk.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True