Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 126 reacties
Submitter: webfreakz.nl

De volgende videokaart met G92-core van Nvidia zal de naam Geforce 9800GTX dragen. Deze grafische kaart zou voorzien zijn van twee sli-connectors en in een tri-sli-opstelling geplaatst kunnen worden.

Nvidia heeft een nieuwe videokaart in ontwikkeling die gebruik maakt van de G92-core, zo bericht Fudzilla. De nieuwe kaart zou de huidige Geforce 8800GT of 8800GTS moeten vervangen en van een tweede sli-connector voorzien zijn. De Geforce 9800GTX zou hierdoor niet alleen in sli gezet kunnen worden, maar drie 9800GTX-kaarten zouden ook een zogenoemde tri-sli-opstelling kunnen vormen.

Meer informatie over de Geforce 9800GTX is door Nvidia nog steeds niet losgelaten. Eind vorig jaar doken de eerste geruchten over de grafische kaart op. Zo zou de videokaart de codenaam G100 dragen en van 2GB videogeheugen voorzien zijn. De core en het geheugen zouden op respectievelijk 780MHz en 3,2GHz zijn geklokt.

De Geforce 9800GTX is samen met de Geforce 9800GX2, die met twee gpu's uitgerust is, voor de high-endmarkt bedoeld. De 9600GT bedient de midrangemarkt, terwijl de 9500GT op de lowendmarkt gericht is.

nVidia GeForce 8800GT (G92) chippies
Moderatie-faq Wijzig weergave

Reacties (126)

WAT een tegenvaller dit zeg. Ik ging er van uit dat de 9800GTX een ECHT nieuwe kaart zou worden met dus een nieuwe architectuur, maar wederom worden we dus opgezadeld met een opgewaardeerde versie van de vorige generatie. Dat terwijl ze wel de naamduiding gebruiken van de volgende generatie, nou lekker duidelijk allemaal. En tri-SLI, wie zit daar nou in Godsnaam op te wachten? 1 kaart is al bijna niet te betalen, laat staan 3. En dan heb je er 3 en dan ondersteund je spel dat 3 kaarten vereist tri-SLI niet eens!
Ondertussen hebben ze een mierennest aan verschillende kaarten uitgebracht die elkaar allemaal nauwelijks ontlopen qua prestaties. Ik krijg steeds minder trek in Nvidia, denk dat ik maar op de volgende ATI ga wachten, kans is groot dat die kaart wel vernieuwend is en een stuk beter betaalbaar. bah bah.
Waarom denk je dat mensen als ik gewoon ATI blijven kopen, ook al haalt nVidia hier en daar wat meer FPS'jes? Wij ATI-mensen zien gewoon dat een graka meer moet doen dan enkel veel FPS uitstoten. Verkrijgbaarheid, doorzichtige drivers, niet meteen vastkoppelen aan halfbakken chipsets ed hebben daarmee te maken :) Niet in de laatste plaats bang for buck (3850/3870)...
Het is niet optimaal maar kan wel zeggen dat tri-sli heerlijk loopt op hoge resoluties.
Bovendien is het een redelijk voordelige upgrade als je al 2 kaarten hebt.
Hierdoor sla ik dus juist de 9 serie over en wacht op de echt nieuwe techniek van de g100
Bovendien had ik niet anders verwacht van een gtx en hoger dan dat deze tri sli gingen ondersteunen, dat is immers duidelijk bekend gemaakt door nvidia tijdens de introductie hiervan.
Wat de prijs betreft gok ik meer op 500-650 euro.
(introductieprijs 8800gtx in december 2006: 640 euro)

[Reactie gewijzigd door justifire op 23 februari 2008 17:55]

Volgens deze vandaag verschenen, door Google vertaalde link op de Chinese site Expreview zouden de specificaties voor de 9800GTX als volgt zijn:
GPU core: G92-420.
Core/SP/Memory clock: 675/1688/1100MHz
Een 256bit geheugen interface en 512MB 0.8ns GDDR3 geheugen.
Eerlijk gezegd verwacht ik meer/beter, maar wie weet.


Bovendien kan je in deze post op ocworkbench.com de zogezegde 'Final Specifications' van de 9800 GX2 lezen.

[Reactie gewijzigd door 3phemeral op 24 februari 2008 01:02]

Lijkt me niet, dan zou elke huis-tuin en keukenoverklokker zijn 8800GTS even snel kunnen maken als een 9800GTX, of zie ik iets over het hoofd ?

Ik snap niet dat deze kaart voorzien is van een G92 chip, lijkt me niet dat er nog erg veel speling over is op de 650mhz waarop de GTS loopt, denkend aan de standaardkoeling en dat alle chips 200% stabiel moeten zijn.

Ik denk, en hoop vooral dat Nvidia gewoon gaat doen wat ze moeten doen en de 8800GTS/GTX/Ultra stof laten bijten ,maar met een G92?
En hier staat weer net wat anders.

@ AirJonn: Ik hoop het ook, maar denk het niet. Alle informatie die bekent is heeft het over een G92 core, en zoals je zelf al zegt, die kan een 8800Ultra niet in het stof laten bijten. (Hij kan sneller zijn, maar niet vergeleke met een video-kaart die een echte nieuwe core zou hebben.)

[Reactie gewijzigd door Devata op 25 februari 2008 00:55]

Hoeveel watt gaat dit beestje wel niet verstoken?
580W, dus je hebt een flinke voeding nodig om deze in tri-sli te draaien :)

The minimum power requirement to operate the card is 580W with a minimum of 40A on it's 12V line.

//edit

oeps mijn fout, de 9800 GX2 verbruikt 580W, dit bericht gaat het over de GTX :P

[Reactie gewijzigd door Crp op 23 februari 2008 19:49]

Wat de fck man... dat ze eens leren een architectuur te bouwen die snel is zonder een eigen kolencentrale te vereisen. Dat heeft Intel ook goed geleerd de laatste tijd, waarom gaat hij bij videokaarten nog steeds zo debiel? "Oh, ik kan geen snellere kaart bouwen, nou, dan voer ik er toch 3x zoveel stroom doorheen. WAUW! Wat knap van ons! We hebben een snelle kaart!"...

Ik kijk helemaal uit naar die nieuwe AMD kaarten die 10W idle verbruiken en 125W onder full load. Dat zullen dan wel niet de high-end kaarten zijn, maar dat zijn wel de niet buitensporige onzuinige en overdreven kaarten.
Wat een lekkere onzin weer... je moet een voeding hebben die 580 W kan leveren. En dat is heel ruim genomen. Ze hebben het zo berekent dat binnen die 580 W niet alleen de kaart, maar ook een high-end Quadcore-cpu, een stapel geheugenreepjes, een hoop harde schijven etcetera vallen. Daarnaast moeten ze natuurljk nog overhead hebben.
Vergelijk het verbruik van de huidige kaarten maar eens met de 'recomended' voedingswaarden!
Weet je dit zeker? Zo ja dan is er niks mis met 580 watt, maar als dit voor de GX2 kaart is... Met een Q9450 of een E8500, 4 tot 8 G geheugen (en 4G is echt niet veel, 4G is tegenwoordig hetzelfde als 5 jaar geleden zo'n 512M, zeker gezien de sterke prijsdaling van de afgelopen tijd van geheugen) en nog wat andere leuke spulletjes kom je denk ik toch snel aan de 300 watt, zonder videokaart. Als je een wat extremere computer gaat bouwen dan mag je hier wel snel een paar honder watt bij optellen...
En ook interessant: hoe warm gaat dat worden? En kan je dat nog wel efficient koelen? De huidige G92's verstoken ook al heel wat watts en worden (daardoor) behoorlijk warm. Als je nu een aantal nog hoger geklokte G92's dicht op elkaar zet, lijkt me dat niet bevorderlijk voor de temperaturen.
geldklopperij jong, nie normaal... waar is de tijd da je met 1 videokaart vlot alles kon trekken. Toen kwamen 2 videokaarten, hmm okee ja misschien wel nodig voor die paar heel zware games en nu: wow tripple SLI! belachelijk, ze moeten zich maar meer focussne op het uitbrengen van een echte killerkaart ipv de consument 3 maal een dure kaart late kope... voor die 3 kaarten heb je al een nieuwe deftige pc...
Buiten Crysis draait echt elke game de dag van vandaag goed op full detail hoor als je een kaart als de 8800Ultra hebt (en die is 1.5 jaar oud!). Die SLI en Triple-SLI is gewoon voor gasten met:
  • Te veel geld
  • Pimp-your-PC-and-brag-about-it gedrag
  • fps-verslaving (hoe meer frames hoe beter, en eens je een grens passeert heb je er weer meer nodig)
Ik heb nog nooit SLI gebruikt, maar die 8800GT die ik een tijdje heb gebruikt draaide al mijn games (wederom Crysis uitgezonderd) @60fps op full detail 1280x1024. Hoger kan mijn monitor toch niet, dus waarom zou ik in godsnaam SLI nodig hebben?

SLI is bv. ook goed als je in extreme resoluties wil beginnen games, bv. op 2 of 3 monitors.
1280x1024 is tegenwoordig bijna laag te noemen. Elke 15 " laptop van boven de 300 euro heeft tegenwoordig een resolutie van 1280x800, wat nog net iets lager is dan je eigen scherm, alles wat iets prijziger is heeft minstens 1440x900 of 1680x1050 of 1600x1200 en de echt prijzige laptops hebben een resolutie van 1920x1200. Als we kijken naar losse schermen dan is het zelfs zo dat je voor een heel redelijke prijs een monitor koopt met een resolutie van 1680x1050. Rond de zomervakantie van afgelopen jaar heb ik zelfs voor EUR 159 een 22 inch monitor gekocht met diezelfde resolutie waar 1 dode subpixel in zit. Mijn samsung 226BW die ik een half jaar eerder kocht was EUR 340 (de goedkope monitor was voor m'n vriendin), dus ik vind dat je wel mag zeggen dat onder de 200 euro goed betaalbaar is in dit geval. Wil je niet krenterig zijn dan koop je nu gewoon een 24 " monitor zoals de samsung 245B, met een resolutie van 1920x1200. Elke consument kan die nu al voor onder de 400 euro kopen, over een half jaar zijn er waarschijnlijk genoeg 24 " monitoren op de markt die voor 250 over de toonbank gaan. Juist bij deze resoluties merk je dus wel dat een single kaart moeite kan hebben, zeker als je ook nog AA en AF aanzet...
Mja. Mensen die nog voor kwaliteit gaan tasten toch wel iets dieper in de buidel. Die spotgoedkope 24" 'ers zijn voorzien van een TN paneel en op zo'n groot formaat moet je toch echt last gaan krijgen van de slechtere kijkhoek. Dat de kleuren rechts er anders uit zien dan links....
Zeker nooit sli gehad he?

Gamen op op multi monitor wordt nl niet ondersteund door sli. Geloof je me niet?

Kom maar langs, kun je het bij mij, te veel geld nodig, pc weggeduwd in een hoekje en fps raings ken ik niet..., komen testen op een sli-ultra setup.
Het is niet omdat je videokaarten dit niet kunnen in SLI dat je er niet meerdere schermen kunt aanhangen. Matrox Triplehead2go ring a bell? Systeem ziet het als 1 monitor. Wel beperkt tot 3x1280x1024 maar het kan dus wel.

Ik gebruik zelf ook geen SLI of Crossfire. Niet omdat ik het overkill of geldverspilling vind maar simpelweg omdat het niet 100% met alle applicaties werkt. Ik heb hier nog spellen liggen die niet juist werken met SLI of juist wel maar dan zonder enige snelheidswinst. Zolang Nvidia of ATI niet kunnen garanderen dat elke applicatie er een deftig voordeel uit haalt komt SLI of Crossfire er bij mij niet in.

[Reactie gewijzigd door VTOLfreak op 23 februari 2008 21:02]

Ik gebruik zelf ook geen SLI of Crossfire. Niet omdat ik het overkill of geldverspilling vind maar simpelweg omdat het niet 100% met alle applicaties werkt. Ik heb hier nog spellen liggen die niet juist werken met SLI of juist wel maar dan zonder enige snelheidswinst. Zolang Nvidia of ATI niet kunnen garanderen dat elke applicatie er een deftig voordeel uit haalt komt SLI of Crossfire er bij mij niet in.
Dus vind je het wel geldverspilling? 8)7
Nee, hij vind het een techniek die nog verder ontwikkeld moet worden.
Ik zelf zit in het middenkamp, vind nl ook dat het moet werken voordat ik het erin prop anders is het zonde van het geld. Ik stop er geen 2e 8800gtx in voor het pimp my pc gehalte. Het moet wel nut hebben
En daarom koop je dan ook een Ati kaart, want multi-monitor (tot 4 monitoren) werkt vlekkeloos met Crossfire :)
Je hoeft niet 3 kaarten te kopen, je kunt ook enkele eisen die je hebt vaststellen en dan wachten tot er 1 enkele kaart is met die prestaties.
Klinkt alsof die 9800GTX een aardig klapje meer power heeft dan een 8800GT of GTS, een waardige opvolger (al is het wel wat snel, hoe oud is de G92 nou?)

Bugger... is net mijn 8800GT onderweg... zal ik hem nu cancellen en nog even wachten? Dilemma!!!
@ tijgert.

Je haalt wat door elkaar

8800gtx 768Mb was de high end van de 8 serie.

Jouw 8800gt is wat meer een snelle midrange kaart van de nieuwe serie.
Nieuwe serie: 9800gtx, 8800gts 512mb, 8800gt
Oude serie: 8800ultra, 8800gtx,8800gts 640/320mb

Ook al heet hij 9800 het is net als jouw 8800gt met een G92 core.
Maar ze konden hem geen 8800gtx noemen want die was er al natuurlijk.

Het was slimmer als de 8800gts 512mb 9800gts had geheten.
8800gt---- 9800gt had geheten.

Dan kreeg je:
9800gtx, 9800gts, 9800gt, nieuwe serie, ze zijn allemaal G92 core dus waarom niet?


Ze maken het erg onduidelijk voor de minder pc update personen.

Kortom de 9800gtx vervangt jouw 8800gt niet het is een zelfde serie met hogere specs en gaat dus ook rond de 500 kosten.

Met een 8800gt @ 200 heb je zeker een goede koop.
De hele 8800 Serie is High end. En de verschillen zijn marginaal in GT/GTS/GTX

Midrange is als we praten over een 128 BIt of lagere kaart met bv 256 DDR3 32 stream CPU's etc

Ben zelf in het bezit van de ASUS 8800GTS 512 DDR3 met een G92 core op een wat lage 256 Bit maar dan wel weer met 128 stream CPU's. En die kaart die rockt toch echt wel. op bijna een teraflop. :P
@ Extrema:

Ja en nee.

Tuurlijk kun je bij een 8800gt ook nog spreken van een high end.

Maar ook weer niet.
Want:

8800gtx, 8800gts 640mb was high end bij lancering.

8800gt is veel later geintroduceerd.


9800gtx + 9800gx2 8800gts 512mb zijn de echte high ends van deze generatie.
De 8800gt ligt dan meer aan midrange/high end gezien de nieuwe kaarten.
Ook nu deze rond de 195 te koop is en de nieuwere rond de 300+ en hoger zijn.

Van de echte top high end kaarten, hoort de 8800gt daar niet bij.

Deel je het in: low, med, high-- end tja dan kun je hem er nog wel bij zetten.

De 8800gtx was echt high end bij intro, 1.5 jaar terug. 500+
Een 8800gt die minder presteerd 1.5 jaar later voor 200 kun je niet gelijk op zien uiteraad.

Het is de minst snelle G92 core vga.
De 9800gtx is de topper van de G92 core editie.
En misschien komt er ook nog wel een 9800ultra

[Reactie gewijzigd door r.marijnissen op 23 februari 2008 23:44]

Bekijk je de benchmarks, dan zie je dan de 8800GT praktisch niet moet onder doen en is die echt wel top qua prijs/kwaliteit !
bekijk diezelfde benchmarks s weer op een reso van 1920*1200 en je weet direct waarom mijn 8800gtx niet vervangen gaat worden.
Al die 3dmarkjes zijn gedaan in een reso van 1280*1024. Alleen als je een reso gebruikt van 1600*1200 of hoger dan zakt de 8800gt harder als de gtx.
De 8800gt heeft een prachtige prijs/prestatieverhouding, maar in hogere resos zie je waarom het een midrange is en geen highend
Reken er maar op dat een 9800GTX minimaal 2x meer kost dan de kaart die je nu besteld hebt. Het zal mij niets verbazen als de 9800GTX 450 euro of meer kost.
ik gok op 500 euro voor de9800GTX
en op 700/750 euro voor de 9800GX2
Goedeavond h!
Als jij marketing manager wordt met die prijzen verkoop je niet veel!
9800GX2 is namelijk 2 8800gts, die dus samen 400 euro kosten, en jij gaat er 700 euro voor vragen?
Het is eerder andersom lijk mij...
Als jij wiskundige wordt stort de hele wereld in. 2 x 1 is niet hetzelfde als 2 x 0.3. de 9800GX2 is een kaart met 2 x de 9800GTX chip erop. De prijs van 500 euro voor een 9800GTX lijkt mij een goede schatting, gezien het feit dat je mag verwachten dat deze kaart een stuk sneller is dan een 8800 ultra. 2 x 500 is samen dan dus 1000 euro en geen 400, misschien dat die 750 dan zelfs wel wat aan de goedkope kant is, vind je niet?
Euh, je hebt 't mis op. De 9800GX2 is niet 2x 9800GTX, maar 2x 8800GTS. In principe mag die dus niet veel meer dan 500 gaan kosten, aangezien je dan anders dezelfde performance hebt voor minder geld (8800GTS SLI). 9800GX2 zal wss rond de 500-550 euro kosten, 9800GTX ongeveer 400.
Prijs van de 9800GX2 wordt overal op iets meer dan 500 gegokt.
Hangt ervan af wat je precies wilt zou ik zeggen. Ja die nieuwe kaarten zijn sneller maar de 8800GTX/Ultra was ook sneller dan de 8800GT(S) dus, gezien jou keuze voor de 8800GT en niet de 8800GTS of nog sneller, of twee stuks geeft denk ik al aan dat jij niet het allerbeste wenst/wilt betalen.
8800GTS is niet sneller dan de 8800GT, misschien de 512MB versie wel want die beschikt ook over de nieuwe core, maar de 8800GT is volgens mij op dit moment nog steeds de meeste bang for bucks!
de oude GTS is allang EOL dus daar praten we niet meer over... Hij had het over de G92 GTS ;)
En om shadowillusions aan te vullen, de nieuwe GTS is in alle voordelen gelijk aan de GT (dezelfde G92 core) maar is verder qua specificaties nog wat stapjes beter, vandaar dat deze van nvidia ook niet langer ovegeklokt mogen worden verkocht (dan zijn ze directe concurrentie voor GTX en ultra voor lagere prijs...)
De XT en PRO versie zijn al op de markt en een stuk goedkoper.

[Reactie gewijzigd door Soldaatje op 23 februari 2008 18:46]

Lol, ik denk dat je hier een beetje in de war raakt met de Ati Radeon 9800-serie van 34 jaar terug. Vanzelfsprekend zijn die al een tijdje op de markt en een stuk goedkoper, zou je er wel eens Crysis op zien spelen :+

XT en Pro zijn al jaren de aanhangsels die Ati gebruikt, terwijl nVidia al een tijdje dingen als GT/GTS/GTX/ gebruikt.
Toch gebruikt ATI ook wel es GT...
ATI of bedrijven die ATI kaarten verkopen? Enige GT die ik me kan herinneren is de X800 maar het zou me niets verbazen als dit gewoon marketing van Sapphire of een dergelijk merk is geweest... Overigens verkoopt Medion ook altijd computers waar rare namen gebruikt worden, hier staat er nog 1 met een 9600 TX (die TX is dus geen spelfout).
X1950GT anyone? Of pas nog de 2900GT... Die laatste is al te koop vanaf pakweg 90 euro :D
Die TX was als ik het me goed herinner een opgevoerde 9500Pro. Was gewoon een marketingtrucje toen de nieuwe Radeon 9600 uitkwamen en ze vreesden die 9500's niet meer kwijt te raken.
over welke XT en PRO versie heb je het.... er bestaan alleen ATI 9800 kaarten en dat zijn indderdaad een XT & PRO.....
Beste kaart die ik ooit heb gehad... Hoewel m'n 7900gt het ook prima doet.
heheh en dit vind ik nou een leuke reactie :)
Heb na een ongelukje met mn waterkoeling de 9800XT ten grave mogen brengen.
Hehe en hoeveel zijn er nu die de mop niet snappen :D. Goed gevonden ;).
ben erg benieuwd naar de priijzen van deze kaart maar toch vind ik op dit moment 2 gb er wel erg overkill want later heb je het misschien wel nodig maar dan is de chip weer te langzaam dus over 4/5 jaar is het misschien beter op zijn plaats
Vergeet niet dat de geruchten waarin over 2GB aan RAM werd gesproken ook over een ECHT nieuwe video-kaart gingen (G100 of G200 core).

Dus dan heb je ook al een snellere chip. (Kans is dus redelijk dat op deze kaart minder komt te zitten) al hoop ik toch dat er wel 2GB op komt te zitten.

Een van de grote nadelen van huidige kaarten is dat ze enerom terugvallen in frames zodra je met AA en AF begint te werken.

Een oplossing daarvoor is DirectX10.1 (Daar zitten bepaalde truckjes in om dat te verminderen) een andere is gewoon een snellere core. Maar wat ook en hele belangrijke oplossing (misschien we de belangrijkste) voor dit probleem is, is meer RAM op de video-kaart.
RAM helpt niet bepaald voor AA of AF. RAM helpt vooral als je kaart te vaak objecten weg moet swappen omdat al het geheugen van je kaart vol zit. AF en AA moeten elke keer berekend worden als objecten bewegen, dus is dit een beetje zinloos om ergens in het geheugen bij te houden. Hoe groot is namelijk de kans dat die tank in de 2e keer dat hij over je heen rijdt er voor jou precies hetzelfde uitziet?
ik heb de specs gezien en ik ben nogal teleurgesteld...
Deze kaart verschilt weinig van een 8800GT\GTS, heb zelfs gelezen dat deze kaart een geheugenbus van 256bit heeft..
Erg teleurstellend, ik had wel weer eens wat nieuws, zoals de 8800 serie een jaar geleden verwacht.
Tri sli, is leuk maar een zon kaart is al erg duur dus op een enkelling na.....en 2Gb, dat is ooit wel nodig maar voor komende games van voor hoe lang deze vga meegaat is 1Gb echt wel genoeg voor de games van komend 1.5 jaar.
En als 2Gb nodig is dan is de vga weer te traag om 2Gb te benutten.

Het belangrijkste de core is gewoon de G92 core en dat vind ik wel echt minder.
Niet echt een vernieuwing uiteraad.
Wel een nieuwe naam maar meer een opgevoerde 8800gts 512mb met extra geheugen als totaal plaatje.

Vind het ook jammer omdat het vga wereldje erg achter loopt kwa prestaties.
Gezien huidigge games.

Iedereen weet dat de huidigge vga,s veel moeite hebben met b.v crysis.
Deze is wel sneller maar draaid die game ook niet op 1920 reso + Alles open.

[Reactie gewijzigd door r.marijnissen op 23 februari 2008 20:03]

2GB lijkt me gewoon *%@& op een videokaart.

In Windows 32Bit (en 64Bit) wordt videokaart werkgeheugen mee gerekend met gewoon werkgeheugen. (Daarom heb je met 4GB ram + 512MB Videoram maar 3,2GB beschikbaar in Windows32bit en niet 3,7)

Met een 2GB videokaart kun je dus max 1,7GB Werkgeheugen hebben (wat onder Vista toch langzaam aan een beetje aan de krappe kant wordt).. Deze kaarten lijken me dus alleen nuttig onder Linux 64Bit /Vista 64Bit.

Ik zie het persoonlijk dus als een nadeel, en hoeveel de videokaart er nu echt sneller wordt op dit moment. Nv is zelf van 768 teruggekomen naar 512mb op zijn snelste videokaarten. En het zelfde voor ATI de 2900XT max 1GB, de HD3870 512MB.

:/ dus tsja...

Trouwens @ r.marijnissen, een HD3870 draait hier Crysis op aller hoogste @ 1440x900 (zonder AA dat wel) op 30fps+ dus zo heel veel zitten de beste videokaart atm niet af van Crysis @ max (dat en dat AA op hogere resoluties gewoon niet al te veel zin heeft)
De 8800GT en HD3870 zijn geen echte high end kaarten, meer leuke opvullers tot de nieuwe high end kaarten komen. 1440x900 is natuurlijk ook een vrij lage resolutie vergeleken met 2560x1600 waar ik op game. Bij een hoop titels zie je op die resolutie duidelijk verschil tussen 512 (8800GT) en 768 (8800GTX) MB. Als je op een lagere resolutie speelt heb je die high-end kaart misschien ook helemaal niet nodig, dat kan. Maar dat is een andere discussie dan dat meer dan 512MB toch wel nuttig is voor high-end gaming. Ik had 1GB ook wel genoeg gevonden, maar 512MB te weinig, zeker voor een nieuwe generatie high-end kaarten.
En dat die 1GB of 2GB van je maximale 4GB werkgeheugen onder 32-bit OS'en afgaat is inderdaad erg jammer. Van de andere kant bereikt de 32 bits adresseringsruimte langzamerhand toch al op steeds meer computers zijn limiet door de lage geheugenprijzen en mensen die makkelijk even 4GB kopen. Hopelijk komen de 64-bit drivers van AMD en NVidia en 64-bit patches voor spellen daardoor wat hoger op de prioriteitenlijst en wordt het prestatieverschil tussen XP en Vista steeds kleiner. Op dit moment denk ik echter dat er prima te gamen valt met 2GB Ram en 2GB videogeheugen, ook zal er ongetwijfeld een iets goedkopere versie van de 9800GTX met 1GB videogeheugen verschijnen.
Ik zie het als een nadeel dat Microsoft het uberhaupt in hun kop gehaald hebben om een 32-bit versie van Vista uit te brengen. Een kleine geheugenupgrade en de klant moet alweer over naar 64-bit. Iets waar alle moderne CPU's gewoon toe in staat zijn. Doet de CPU dat niet, dan is de rest van de bak meestal ook te traag voor Vista...
Je had natuurlijk ook 64-bit kunnen nemen, jij hebt zelf de keus. Je moet niet microsoft de schuld geven dat ze je keuze hebben gegeven uit 32 en 64 bit. Daarnaast als microsoft geen 32 bit had uitgebracht, was vista enorm geflopt. 64-bit windows was bij de introductie nog niet standaard en instabiel.
begrijp ik geod dat je met 3 van deze kaarten in SLI dus toegang hebt tot 2*3=6GB videogeheugen? dat lijkt me redelijk insane...
Of, .. nouja, ik denk dat er nooit een nuttige toepassing is, tenzij je deze hele opstelling lang lang lang blijft gebruiken, maar iemand die 3*sli gebruikt, lijkt me iemand die graag high-end koopt en upgraded, dus dat gebeurt toch nooit.


Update/edit: Geen idee over hoe SLI gebruik maakt van geheugen, als onderstaande uitleg klopt, dat't 3x het zelfde is, dan lijkt het me niet heel efficient... al is het ergens wel logisch, dat iedere kaart toegang nodig heeft tot de meeste van de textures, enzo

[Reactie gewijzigd door Luxx op 23 februari 2008 20:10]

het is in totaal inderdaad 6 GB, maar je moet het niet optellen.
het is per kaart 2 GB, en dat 3 keer. iedere kaart heeft namelijk zijn eigen geheugen en zal het niet delen met een andere kaart ( die hetzelfde erin heeft staan).
Zo'n 256bit bus is totaal geen bottleneck meer mocht de GTX daadwerkelijk op 3,2GHz (!) geheugen lopen.
Die specs zijn al lang geleden op andere sites naar het rijk der fabelen verwezen.
Die specs zijn al lang geleden op andere sites naar het rijk der fabelen verwezen.
Samsung verklaarde vorig jaar 9 Februari 2007, dat massaproduktie voor GDDR4 geheugen op 2.8GHz gereed zou zijn voor de nieuwste videokaarten. En op 23 Feb. dat 4.0GHz al bereikt was en dat die aan het einde van 2007 gereed zou zijn voor massaproduktie.

Dat hebben ze niet helemaal gehaald, maar wel op 3.2Ghz, die nu dus door zowel nVidia als AMD in hun nieuwste produkten wordt toegepast (AMD was zelfs al eerder bezig met de 2.8GHz versie). Nu moet je het wel lezen als Gb/s, omdat er 2 bits per klokpuls worden gedaan en de feitelijke frequentie de helft is. Zo blijft er dus altijd ruimte over voor gezeik van "ja, maar het is dus geen GHz!", echter in alle vertalingen van blogs/sites zou het me niet verbazen als de originele specs het over 3.2Gb/s hebben.

http://www.samsung.com/gl...ducts_GraphicsMemory.html
pushing the limits
SAMSUNG GDDR4 is a hyper-synchronous, double data rate DRAM, operating at clock speeds up to 1.6GHz and delivering data at speeds up to 3.2Gb/second.
jup

maargoed ik hoop dat aangezien nvidea zo aankloot.
dat de amd r700 wel een flinke sprong gaat maken.
want die is wel revolutionair.
Heb je de nieuwspost wel gelezen? Als de specs van de rumors de daadwerkelijke specs worden, is dit echt wel een trapje hoger dan die van de 8800GTx. En al helemaal met een tri-sli-opstelling, hoewel je daarvoor wel erg diep in de buidel zal mogen tasten. :)
Ik heb het over specs te lezen op hardware.info, gisteren gepost ;)
Nividia heeft deze specs bekend gemaakt, namelijk dmv de roadmap.
Nvidia met hun naamgeving, beginnen ze direct alweer met GTX... maak het anders eerst is GT ofzo...... het zal wel high end zijn, maar omdat er nier direct over een GT of GTS praten zullen die later komen, en dan is weer de vraag of die niet net zo snel zijn als deze GTX.......

Neem tenminste aan dat ze de zelfde lijn aanhouden als bij de 8800 serie (eigenlijk de hele 8-serie) en dat GTX echt het high end stuff is wat eigenlijk te duur is voor de casual gamer, wat dus zo ongeveer rond de 400 euri ligt.
Nou was er bij de 8800 serie ook eerst de GTX en iets later de GTS voor de high-end en veel later kwam de 8800GT op de markt dus zo vreemd is deze naamgeving gezien het verleden niet ;-)
Best wel eigenlijk.

Normaal worden de kaarten in volgorde van snelheid aangegeven: GT -> GTS -> GTX -> Ultra

Met de 8800 Serie gaat het:

8800 GTS 320 -> 8800 GTS 640 -> 8800 GT 512 -> 8800 GTX 786 -> 8800GTS 512 -> 8800 Ultra
Verwarrend voor consument en lastig voor winkeliers die dit aan de consument moeten uitleggen, aangezien de consument al moeilijk kan begrijpen dat een kaart met 256MB sneller kan zijn dan eentje met 512MB :P

Dat is wat Gert Pronk bedoelt denk ik...

Ben op zich wel benieuwd naar de prestaties. Al heb ik wel even genoeg aan de 8800 GT TOP denk.. zo'n gamer ben ik nou ook weer niet.
Het probleem zit m dan ook in het feit dat de GT en GTS512 eigenlijk niet bij de 8800 reeks horen. Maar als ze het 8900 of 9800 genoemd hadden zou de consument volgens Nvidia denken dat die sneller waren dan de GTX en Ultra waardoor die kaarten moeilijk meer te verkopen zouden zijn geweest.
Haal je ogen uit je zakken en lees in het nieuws eerder deze week dat nvidia de 9600GT heeft gereleased. Deze kaart is nog toekomstverhaal, hij is er namelijk nog niet. Als het goed is duurt het niet lang meer, maar de 9600 GT is er dus al...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True