Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties
Submitter: webfreakz.nl

Dankzij het uitlekken van enkele presentatieslides zijn er meer details bekend geworden over de Geforce 9800GTX. De nieuwe grafische kaart van Nvidia moet volgens de planning op 25 maart uitkomen.

Nvidia heeft de G92-core op 675MHz geklokt, terwijl de 512MB aan gddr3-geheugen met een snelheid van 1,1GHz wordt aangesproken. De 9800GTX zal volgens Nvidia 128 processor cores bevatten die elk op een snelheid van 1,69GHz draaien. Met deze opmerkelijke nieuwe aanduiding, in plaats van de gebruikelijke term 'shaders', lijkt de fabrikant duidelijker uit te willen dragen dat zijn gpu's meer kunnen dan uitsluitend het uitvoeren van grafische berekeningen. De pci-e 2.0-kaart verbruikt verder 156W en heeft twee pci-e-voedingsconnectoren nodig om de elektronica van voldoende prik te voorzien.

De 26,7cm lange grafische kaart eist voor zijn koeling de ruimte van twee pci-e-slots op. Zoals al eerder bekend werd, is de 9800GTX voorzien van twee sli-connectors. Hierdoor kan de videokaart in een tri-sli-opstelling worden geplaatst.

Nvidia's nieuwste graka zal een prijskaartje van tussen de 299 en 349 dollar krijgen en wordt in de uitgelekte slides opvallend genoeg gepositioneerd tegenover de Ati Radeon 3870X2, een kaart met twee gpu's en een aanzienlijk hogere prijs. Over de uiteindelijke prestaties is nog niet veel te zeggen; hoewel in de slides ook enige benchmarkresultaten worden getoond, is de kaart niet afgezet tegen concurrerende grafische kaarten.

Uitgelekte slide met details over de Geforce 9800GTX
Moderatie-faq Wijzig weergave

Reacties (109)

Wat is de geheugen banbreedte van de 9800GTX ?
Ik hoop minstens 384 bit, liever 512 bit.
Toch geen 256 bit he! Dan is de 8800 GTX/Ultra altijd nog sneller op 'n hoge resolutie.

Dit is nou niet echt de monster kaart die ik verwacht had.
Ik had eerder een 192 of zelfs 256 aantal stream processor GPU verwacht met 384 of 512 bit geheugen bus en 768 of 1024 MB GDDR3 of GDDR4 op minstens 1200 tot 1300 Mhz (2.4 of 2.6 Ghz) geheugen.
Maar die komt ooit nog, hoop ik.

Ik vind het wel raar deze keer, nVidia goet er wel lang over om een nieuwe core uit te brengen. Ik zie de G92 niet als nieuwe core, maar als een verbetering van de G80 core, 90 tegen 65 nm. Als nVidia nu eens snel uitkomt (mits die snel is }> ) met de G100 core overweeg ik misschien om een nieuwe videokaart te kopen. Maar tot die tijd houd ik het wel bij mijn 8800GTX.
Altijd nog sneller als de 8800GS/GT/GTS640 alleen op 'n lage resolutie moet die de GTS512 voor laten gaan.
wss gewoon weer de afschuwelijke 256 bit bus, en ja 8800 Ultra gaat nogsteeds sneller wezen,

en btw je kan niet 320 bit of 384 bit bus niet zomaar op een 512 kaart gooien iig, dan moet je 256 of 512 bit bus gebruiken,

maja, als nvidia nou gewoon (wat jij al zei) core maakt met 256 ''processor cores'', 1 gb ram en 512 bit bus, dan gaan we er allemaal wezen, hoefd het niet eens ddr4 of 5 te zijn, 3 is dan in dat geval al snel zat.
wss gewoon weer de afschuwelijke 256 bit bus, en ja 8800 Ultra gaat nogsteeds sneller wezen,
Een beetje off topic, maar een 256bit bus hoeft helemaal geen probleem te zijn, het probleem zit hem in de combinatie met 2GHz GDDR3. De kans is namelijk groot dat de volgende generatie kaarten met GDDR5 ook gewoon een 256bit geheugenbus hebben. Dat is in dat geval echter geen probleem, omdat het geheugen dan minstens twee keer sneller is. Met andere woorden, maak niet te snel de vergissing om bandbreedte en busbreedte als het zelfde te zien :)
toch als je AA aanzet of op hogere resoluties speelt dan een 24 inch scherm dat je zeker wel fps gaat inleveren vergeleken een 320 bit of 384 bit bus, ook al is het geheugen 2 keer zo snel

het woordje high end betekent voor mij eigenlijk meer ''het maximale wat een fabrikant kan halen'', en dat is hier zeker niet het geval.
De prestaties zullen niet veel beter zijn met de specs waar jij het over hebt.Maar de prijs zal vele malen hoger zijn.
Het gaat om afzet en winstmarges, het heeft geen zin om verouderde achitectuur op zijn staart te trappen.
Is niemand blij met de 150MHz boost van het geheugen t.o.v. de 8800GTS G92? Dat is 15% sneller. De zwakte van de G92 t.o.v. de 8800GTX/Ultra is toch meestal wel de memory bandwidth en aangezien dit nu een redelijke boost krijgt wordt die bottleneck een stuk minder. Nu kun je natuurlijk zeggen dat je de GTS G92 al kunt OCen tot 1.1GHz maar ik denk dat de chips op deze kaart dan weer een stukje verder overgeklokt kunnen worden. MSI zal meteen wel weer een OC versie uitbrengen, dus ik ben benieuwd.

Daarbij optellende dat (gezien de richtprijs) deze kaart waarschijnlijk 250 euro zal gaan worden vind ik dit toch een zeer mooi alternatief voor de 8800GTS. Ik wacht in ieder geval nog even tot 25 maart.
Ik heb mijn 8800GTS ook makkelijk op 1,1Ghz geheugen hij kan zelfs nog wel wat verder ;)
Dat zei ik toch ook al in m'n post.

Analogie: Een Intel E2160 kan ook 3GHz halen en dat is dan dezelfde klok als de E8400 maar die E8400 gaat toch uiteindelijk echt wel een stukje harder als je ze allebei tot het maximum overklokt. Gezien het feit dat deze stock al zo hard loopt betekent 't dat ze waarschijnlijk met een OC op 1.2+ (of zelfs 1.3+) GHz kunnen draaien.

Kijk het neemt niet weg dat dit geen volwaarde ?800 GTX is (zoals de 8800 GTX en de 7800 GTX dat waren) maar als de prijs goed is heb ik niks te klagen.

@hieronder: Ik denk niet dat ie 300 euro wordt. de adviesprijs is 300 - 350 dollar, en dat vertaalt zich eerder naar 225-250 dan naar 300. En nee het smoesje van "maak van de dollar maar een euro" gaat echt niet meer op. Als ie 225 wordt zou ie onder de prijs van de 8800 GTS zitten. nVidia stelt de laatste tijd zeker niet teleur, een tijd geleden de 8800GT voor een spotprijs en onlangs nog de 9600GT voor 150 euro.

[Reactie gewijzigd door A Lurker op 15 maart 2008 18:06]

maarja als je een 8800GTS voor 240 euro ongeveer kan krijgen ( prijs zal nog wel dalen zodra de 9800GTX er is ) en de 9800GTX voor 300 euro. Dan snap ik niet waarom je de laatste zal kopen.

Het is toch vaak zo dat dollar euro wordt met dit soort dingen.
Kijk hier maar nieuws: Eerste benchmarks Geforce 9600GT duiken op

169 dollar 9600GT is goedkope versie voor 140 euro te krijgen. Dus die prijs van mij klopt wel.

[Reactie gewijzigd door Zenix op 15 maart 2008 18:24]

Het blijkt wel dat voor topprestaties niet langer de hoofdprijs betaald hoeft te worden. 299 a 349 dollar vind ik heel respectabel. :) Echter vind ik 512MB wel bedenkelijk, recente games kunnen met alle toeters en bellen aan al een behoorlijke druk leggen op deze hoeveelheid.
Zeker op wat hogere resoluties ligt er al druk op de 512mb. Als ik me niet vergis was dit oa ook een beperkende factor bij de 3870x2.

Verder had ik echt wel wat meer verwacht bij de GTX.
Vraagje, wat zijn nou hogere resoluties? Ik werk op 1140*900, is dat ook al hoog? Of is hoog meer richting de 1600*1200 denken?
1920x1200 is nog niet zo schrikbarend en zouden de 8800/9800 Nvidia kaarten met 512MB geen problemen mee moeten hebben (qua geheugen), maar met hogere wel (zoals 2048x1568 of 2560x1600). Wellicht dat er een of twee games die er wel moeite mee hebben op 'lagere' resoluties (1920x1200), maar die zijn momenteel eerder de uitzondering dan de regel...
Hoog is volgens mij 1920x1080 als je ook nog FSAA wilt
Waarom zou hij dat niet doen, maar ik denk persoonlijk zelf ook dat hij op 1440900 werkt, maar goed

19201200 is "hoog" en dit is al langzaam aan mainstream aan het worden, half jaartje terug nog de enigste in mijn omgeving met een 24" PC scherm, heb er nu al 5 gespot bij bekenden. Want ja waarom zou je voor 380 euro nog zo'n scherm laten liggen? :)

Verder vind ik het stroom verbruik niet eens zo hoog, maar wel duidelijk te zien dat ATi dan een betere core heeft qua verbruik, de 3870X2 verbruikt hetzelfde
Ik denk persoonlijk niet dat 1920x1200 echt mainstream te noemen is...

Bekijk bijvoorbeeld de resultaten van de steam survey's eens.. een percentage van 6.76 heeft een scherm groter dan 21inch en dan denk ik persoonlijk dat als je dat zou uitspitten het percentage wat op 24inch of hoger werkt te verwaarlozen valt :)

http://www.steampowered.com/status/survey.html
Je hebt niet helemaal goed gekeken. In de tabel daaronder zie je de gebruikers van een breedbeeldscherm. Meer dan de helft van hen gebruikt een scherm van meer dan 21". Er komt bij jouw 6,67% nog ongeveer 14% bij.
Na wat ingewikkelde berekeningen :P komt het totaal aantal gebruikers met 21" of meer uit op 24,598608% (4:3 en 16:9 percentages correct bij elkaar opgeteld) dat is dus een redelijke groep, en gaat eigenlijk alleen maar stijgen
Omdat er bij die goedkope meuk een TN paneel in zit? Beetje fatsoenlijk scherm kopen als je toch een berg geld uit gaat geven...
Verder vind ik het stroom verbruik niet eens zo hoog,
@PaddoSwarm: HIer ben ik het absoluut niet mee eens.
Toegegeven, er zijn zat kaarten die veel meer slurpen maar highend videokaarten zijn zo naderhand toch wel bij uitstek de pc-onderdelen die het meeste energie slurpen. Als AMD en Nvidia eens wat R&D zouden doen naar even significante energiebeheerverbeteringen als Intel dat deed met de Core2 series, dan zou een 400-500W PSU blijven voldoen.
idd, dat merkte ik bij cnc3 al met mijn 8800 gt, ik had een te groot leger (100 avatars+100mamoet tanks(buurjongen)+ 50 mamoet tanks (vader) en de tegenstader was hoogste moeilijkheids graad en bouwde gig legers.
Toen kreeg ik de error out of video memory :)
Maar dit is gewoon geen nieuw topmodel. En als Nvidia geen geld kan verdienen met een nieuw top model dan maar een goedkopere kaart. Vermits het geen nieuw ontwerp is dat poten breekt zoals de 8800 GTX, heeft Nvidia ook geen zware ontwikkelingskosten. Het lijkt toch wel dat de rek er bij GPU's een beetje uit is. Ik weet niet of er een soort van More wet was voor GPU's maar als die er was dan gaat die niet meer op. Een 3 tal jaar geleden bracht Nvidia bijna elk jaar een kaart uit die tenminste 25% sneller was. Soms zelfs 100% sneller als zijn voorganger. Maar hoeveel sneller gaat deze kaart zijn als een 8800 GTX? 10, 15% in games die niet met SLI overweg kunnen? Dat zou ik al veel vinden.
En misschien 30% in games die wel SLI ondersteunen. Ok, daarna zullen er wel weer betere drivers zien en komt er uiteindelijk steeds efficientere ondersteuning voor SLI.
Maar kom op zeg, breng nou aub nog eens een kaart uit die echt poten breekt ! 60 FPS met Vsync aan en alles op het maximum in Crysis. Geef mij zo'n kaart en ik betaal er zo 800 euro voor !
Welkom in de wereld zonder concurrentie. Als AMD een beetje tegengas had kunnen geven hadden we ongetwijfeld al lang een betere kaart gehad. :(
AMD heeft dat wel degelijk geprobeerd. De 3870X2 is toch echt wel de reden dat nVidia aan de 9xxx serie is begonnen. Anders hadden we daar ook nog een goed kwartaal of 2 op kunnen wachten.
Rek er uit? nee joh, gewoon deze generatie uitmelken en geld verdienen.
Wacht maar, volgend jaar hebben we 256 unified shaders eh.. processors.
opvallend genoeg gepositioneerd tegenover de Ati Radeon 3870X2, een kaart met twee gpu's en een aanzienlijk hogere prijs.
Sorry, maar dit is dus BS!

Je kunt voor 309 al een HD3870X2 vinden. http://tweakers.net/price...hire-radeon-hd3870x2.html

Ik weet dat de $ zwakker is dan de , maar meestal wordt het vuile spelletje gespeeld dat de $ = . |:(
De dollar staat nu dusdanig laag dat de regel $ = niet meer opgaat.

De naamgeving van de 9xxx kaarten vind ik trouwens nergens op slaan. Zal wel marketing zijn, maar ik verwachtte echt de opvolger van de 8-serie, en dit is in principe niks nieuws, en niet beduidend beter. Misschien dat de prijskwaliteitsverhouding goed wordt, maar qua vernieuwing of vooruitgang vind ik het tegenvallen. De 8-serie was echt een flinke stap vooruit. Misschien dat de volgende generatie weer echt interessant wordt.

[Reactie gewijzigd door geert1 op 14 maart 2008 16:48]

euro = $ gaat nog steeds op hoor. Kijk maar naar de 9600GT.

US : http://www.newegg.com/Pro...aspx?Item=N82E16814130328
nederland: http://tweakers.net/price...lub3d-geforce-9600gt.html
(wel naar het gemiddelde kijken in de pricewatch)
Wat een stroom zeg..
Waarom alleen maar meer.. bij processors gaat het toch alleen maar achteruit terwijl de prestaties omhoog gaan?

Maar goed, het beloofd wat.. tis weer een monster

[Reactie gewijzigd door stijnos1991 op 14 maart 2008 15:49]

De nieuwe ati kaarten kosten in idle minder dan 10 watt. ATi probeert in ieder geval het stroomverbruik in idle (wat toch het meest voor gaat komen) binnen de perken te houden. Ik ben dan ook benieuwd hoe deze het in idle gaat doen.

Verder kan je beeldbewerking gewoon goed schalen (beeld is een stuk makkelijker in stukjes op te delen dan een programma), waardoor topkaarten tijdens gamen voorlopig nog wel even bijzonder veel stroom gaan gebruiken. Daar zijn het ook topkaarten voor.
Heb jij de moeite genomen om op die link te klikken? Hij heeft het over de nieuwe ATI kaarten die het tweede kwartaal pas uitkomen. Er is nog maar weinig bekend over hoe de prestaties van die kaarten zich gaan verhouden met de nieuwe nvidia reeks. Anders gezegd, lees voor je iets gaat blaten...
is zuiniger dan eerder topmodellen hoor. kijk naar dual versies van 7800 en 7900
Of nog beter, kijk naar de HD2900XTX, die verbuikte ruim 200W in z'n eentje..

specificaties vallen me zeer tegen eigenijk, en verwacht ook niet veel van deze kaart, de specs zijn bijna hetzelfde als die van de de 8800GTS en is in veel gevallen maar amper sneller dan de 8800GT.
Zo wat is iedereen positief.. Ik heb nog geen benchmark gezien hoor, maar volgens deze specificaties is dit zoals ik al zei niet meer dan een 8800GTS met wat sneller geheugen.
De 8800GTX zal dus nog steeds sneller zijn op hoge resoluties en de ultra zeker.
Als de prijs ca. 275 euro wordt is dat op zich wel prima, maar verder vind ik het bedroevend voor een nieuwe serie!
512mb is ruim voldoende, tenzij je over een 30" scherm beschikt
Het geheugen van een videokaart heeft al jaren (zo goed als) niks meer met de resolutie te maken (neem aan dat je daar op doelt met 30"). Die mb's worden voornamelijk gebruikt om textures e.d. in op te slaan. De gebruikte resolutie maakt daar niks voor uit.
Onzin. Jouw stelling gaat alleen op voor spellen die helemaal niet zoveel videogeheugen snoepen, vaak oudere spelen dus. Bij spellen die wel veel videogeheugen nodig hebben zie je de videokaart met 256MB vrijwel altijd verliezen op de hogere resoluties en pas competatief word op lagere resoluties (1280x1024 en lager).

http://www.anandtech.com/video/showdoc.aspx?i=3175&p=5
(zelfde kaart, zelfde specs, alleen het geheugen verschilt)

De gebruikte resolutie heeft wel degelijk invloed op de prestaties, vooral met een videokaart die wat minder MB's heeft. Leg jij anders even uit waar dan volgens jou de verschillen vandaan komen :>
Hoho, ik zeg ook niet dat het niets uitmaakt. Tuurlijk is meer geheugen meestal sneller, maar kijk nou zelf ook even naar die grafiekjes. Gemiddeld genomen kan je eigenlijk zeggen dat meer geheugen inderdaad sneller is, maar de relatieve winst is gemiddeld gezien resolutie-onafhankelijk. Althans, het hangt van de situatie/applicatie af.

Dat meer geheugen meer rendabel is op hogere resoluties in veel gevallen kan ik ook nog in mee, maar het is simpelweg geen 1:1 "always true" statement.

Maar waar ik oorspronkelijk op reageerde was de ondertoon die gebaseerd was op een hardnekkig principe van videokaart geheugen van vroeger. En dat is dat je videokaart over minimaal (resolutie-x * resolutie-y * bits-kleuren-diepte) / (1024^2) Mb moet beschikken om die resolutie en kleurendiepte aan te kunnen.
Op dit ogenblik. Zijn nog te veel mensen die de duurste kaart kopen en denken dat ze er 3jaar de beste graphics mee gaan halen.
die prijs .. WOW .. vroeger was het standaard dat een top of the range meteen 600 was .. dit is bijna de helft. ik weet nog dat ik 545 voor mijn 7800GTX heb betaald back in the day
Dit is ook niet de top of the range, dat is de 9800GX2, die wel degelijk een dergelijk prijskaartje mee gaat krijgen
Zozo, dus het is toch niet meer dan een licht overgeklokte 8800GTS geworden. Applaus voor Nvidia 8)7
Ze zijn nu wel heel erg aan het uitmelken. Maar goed wij als consument doen er aan mee door de producten te kopen :)
Meer keuze is toch goed? Ik snap het probleem niet.
Niet als een product met slechts enkele verschillen even goed presteert als een ander, dat gewoon de voorganger is en dit product nog een beetje de uitmelker daarvan, das geen innovatie meer...
Waarschijnljik hebben ze voor de Geforce 10 (die de volgende in de telling is) flink wat grote veranderingen gepland. 10 is namelijk een mooi getal om flink wat inovatie in te passen ;)
(denk aan bijv. DX10: was ook een mooie verbetering)
Waarom zie ik je alleen nvidia nieuws positief belichten??

*post van een 8800 user voordat er weer fanboy flames komen*
Inderdaad. Ik heb al een hele tijd mijn 8800GTS (G92) op hogere snelheden draaien, afgezien van het geheugen. Dat loopt op 2140 MHz ipv 2200 bij de 9800 GTX. Dan kan ik nou officieus wel zeggen dat ik de 9800GTS heb. ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True