Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 92 reacties

Nvidia heeft een nieuwe variant van de Geforce 9800GTX in de planning om de concurrentie met de komende Radeon HD4850 van ATI beter aan te kunnen. De videokaart beschikt over een hogere kloksnelheid en moet halverwege juli uitkomen.

De Geforce 9800GTX+ krijgt van Nvidia een kloksnelheid van 738MHz mee terwijl de oorspronkelijke 9800GTX, die op 1 april werd geďntroduceerd, op 675MHz liep. Ook de shaderklok is opgeschroefd van 1688MHz naar 1836MHz. De kaart zal verder overweg kunnen met de Physx-api en applicaties voor het gpgpu-systeem Cuda, zoals Folding@home en de video-encodeersoftware Badaboom.

Nvidia heeft aan partners laten weten dat de introductie op 26 juni te verwachten is, schrijft Vr-zone, en dat de kaart half juli beschikbaar zal komen. De adviesprijs van de plusversie zal volgens de fabrikant 229 dollar bedragen, terwijl de 9800GTX momenteel gemiddeld 200 dollar kost. Het is de vraag of de Geforce 9800GTX+ enige impact weet te maken, aangezien de fabrikanten van grafische kaarten al de nodige overgeklokte modellen hebben uitgebracht en er verder geen noemenswaardige veranderingen lijken te zijn doorgevoerd.

Update 19.00: Volgens PC perspective is de Geforce 9800GTX+ niet meer op 65nm geproduceerd maar op 55nm zodat naast de hogere kloksnelheid mogelijk ook een lager verbruik in het verschiet ligt.

BFG 9800GTX
Moderatie-faq Wijzig weergave

Reacties (92)

krijgen ze dan niet een hele hoop uitval als ze gewoon dezelfde hardware gebruiken? of is dit het levende bewijs dat fabrikanten kaarten altijd onderclocken en dat er makkelijk meer uit te halen is met wat betere koeling oid...
Vind ik inderdaad ook een goede vraag!

Daarnaast, als NVidia de 9800GTX nu standaard overclockt uit gaat brengen, betekend dat dan ook dat je hem als consumer minder ver kunt overclocken? Met andere woorden: zouden de 9800GTX en de 9800GTX+ hetzelfde 'plafond' hebben met betrekking tot overclockwaarden? Anders kun je natuurlijk die 30 dollar verschil mooi in je broekzak houden...
Die kans zit er natuurlijk dik in.
Ik vind 738MHz ook wel een vreemde frequentie.

Dat lijkt me zo'n waarde waar je op komt als je hebt onderzocht tot welke waarde je de fequenties kan optillen zonder al te veel uitval te krijgen.
Dat zou dan meteen betekenen dat je maar een heel kleine veiligheidsmarge hebt en dat je overklokkken van dit ding kan vergeten...
Ik had 3 9800GTX XXX van XFX en die klokte standaard al 740Mhz...echter ze overclockte tot 810Mhz stabiel...En die kaart kost op t moment maar 249euro.

De standaard kaart zal altijd de slechtste chips krijgen...en de hoogst geklokte (volgens mij de XFX 9800GTX Black Edition, op 760Mhz) krijgt de beste chips geleverd(daar betaald de fabrikant ook extra voor...vandaar dat ze gewoon duurder zijn, je weet bijna zeker dat je plafond hoger is).. maar als deze 9800GTX+ máár 738Mhz draaid, dan zullen ze daar heus niet de beste chips voor gebruiken hoor, maar eerder de op 1 na slechtste die net een goeie yield hebben op 738Mhz om deze serie nog ff mooi te kunnen uitmelken ;)

Nou ik wacht wel mooi op me EVGA GTX 280 FTW...Heb me 9800GTX-en net de deur uit gedaan.

[Reactie gewijzigd door Kinzz op 19 juni 2008 16:28]

of is dit het levende bewijs dat fabrikanten kaarten altijd onderclocken en dat er makkelijk meer uit te halen is met wat betere koeling oid...
Dat valt best mee. Fabrikanten moeten wel, om goede yields te kunnen halen. Waar CPU bakkers allerlei apparatuur hebben om uitgebreid binning toe te passen moeten GPU bakkers het vaak doen met "werkt" of "werkt niet". Lagere clocks betekent dan hogere yields, en dat betekent weer lagere prijs per (werkende) chip. Uiteraard kunnen de meeste chips dan wel hoger clocken dan ze fabrieksgeclockt zijn.

Overigens zijn dit 55nm chips, en dus is de uitval (als het goed is) niet hoger.
Erg leuk hoor maar uhmm die memory bandbreedte wordt niet verhoogt en laat dat nu net het probleem zijn dat de G92 chips hebben en waardoor de oude G80 nog steeds sneller is op hogere resoluties of met AA en AF.

Volgens mij wil nV gewoon er voor zorgen dat ATi niet meer marktaandeel krijgt. Ookal moeten ze hun 9800 GTX voor 100 euro minder gaan verkopen. Op die kaarten zullen ze niet veel winst maken.

En HD4850 heeft wel UDV2 en DX10.1 wat toch best wel een voordeel is. Aangezien de prijs en prestaties ook gelijk zijn zou ik die mooi mee pakken. Met AA en AF verslaat de HD4850 de 9800 GTX nu.
Volgens mij wil nV gewoon er voor zorgen dat ATi niet meer marktaandeel krijgt. Ookal moeten ze hun 9800 GTX voor 100 euro minder gaan verkopen. Op die kaarten zullen ze niet veel winst maken.
Dat lijkt me een beetje het doel van elk bedrijf in een markt met competitie :P
Maar deze G92b GPU is op 55nm gebakken, en bedoeld als vervanging van de 65nm G92 chips. De chip is beduidend kleiner en goedkoper dan de G92, en kan dus beter de concurrentie met ATIs nieuwe kaarten aan. Waarschijnlijk worden er helemaal geen "oude" G92 chips meer gebakken en gaat NVIDIA zo snel mogelijk over naar een compleet 55nm aanbod, om zo toch goed te kunnen concurreren met ATI, die er nu opeens verrassend sterk voor staat.
Ik las hier http://www.pcper.com/comments.php?nid=5814 dat de hogere clocks met name komen door een ander procede, namelijk 55nm ipv 65nm
Zijn er hier meer bronnen van ?

Het lijkt mij toch dat ze (Tweakers.net) het wel in hun bericht hadden gezet als er een ander procede was gebruikt waardoor de hogere kloksnelheden behaalt worden.
Nee, maar het hele bericht is dan ook niets meer dan geruchten. NVIDIA heeft officieel nog niets naar buiten gebracht, en daarom is het onzeker of het 55nm chips zijn. De kans is echter wel heel groot, aangezien NVIDIA al een tijd lang bezig is met G92b, en omdat deze nieuwe chips opeens zo ontzettend veel hoger geclockt kunnen worden.
Vreemde actie van Nvidia... daar XFX al met de gelimiteerde Black Edition die nu al verkrijgbaar is het voor elkaar heeft gekregen om een 9800 GTX stabiel qua GPU op 760Mhz (tegen 738 Mhz) te laten lopen en qua geheugen op 2280 Mhz (tegenover 1836 Mhz). Deze kaarten worden dan ook door XFX ook wel hun kroonjuwelen genoemd ;)

Overigens mag ik ook wel zeggen dat het mijn kroonjuwelen zijn, ik heb er namelijk 2 :9~ en ik kan uit ervaring spreken dat ze ondanks de pittige overclock rocksolid zijn. Ik heb sinds het bouwen van mijn nieuwe machine urenlang lopen gamen, 3D Mark gedraaid, HD films afgespeeld en noem maar op zonder artifacts te zien of oververhitte kaarten in mijn system monitor :)

Als deze kaarten dus duurder worden dan bijvoorbeeld de Black Edition dan vrees ik dat veel gamers en andere enthousiastelingen de 9800GTX+ links laten liggen, en in plaats daarvan een goedkopere overclocked 9800GTX zullen kopen of eventueel een gelijkwaardige kaart van AMD/ATI.

[Reactie gewijzigd door mindcrash op 19 juni 2008 20:28]

vraag me inderdaad of dit zin heeft. Meestal hebben overgeclockte kaarten na een tijdje allemaal kuren
Klopt enigzins, maar zolang je maar binnen de specs blijft is er niets aan de hand.

Nvidia moet dus duidelijk een hogere clock in gaan stellen wat meer verbruik met zich meebrengt, en warmte-afgifte om iig nog concurrentie te kunnen doen met Ati's kaart(en). Er was in het verleden vaker gebleken dat océd kaarten vaker kuren hadden dan kaarten op stock, om bovenstaande redenen.

Das iig mooi, dat de 4850 het nog kan doen met een single-slot koeler en nvidia hiervoor een dubbelslots koeler nodig heeft :9 Beide maakt niet uit, het zegt wel wat over de kaarten. Laat Ati nu eens nvidia maar lekker zweten :)
de klok kan omhoog door een kleiner productieproces, normaal gaat hiermee de warmte produktie en het stroomverbruik ook naar beneden, zie geen reden waarom dat nu anders zou moeten zijn
Je zegt het zelf al: "Na een tijdje". De meeste mensen die dit soort kaarten kopen hebben de kaart al gewisseld voor een sneller exemplaar , lang voordat hij het laat afweten.
Jamaar ze gooien zo'n kaart dan toch niet in de prullenbak? Dus diegene die 2e hands zo'n ding heeft zit dan met zo'n kaart die dus, zoals gezegd, na een tijdje kuren gaat vertonen...
Mijn ervaring met het overclocken van gpu's:

Het zal de levensduurt verkorten, maar niet veel (mits je niet extreem ver gaat). Veruit de meeste mensen verhogen enkel de frequentie, en laten de Vgpu en Vmem lekker met rust. Door hogere voltages zal de chip namelijk wel een stuk sneller "slijten".

Ik zelf koop overigens nooit factory-overclocked kaarten, maar doe het liever zelf. Dit is stukken goedkoper en ik kan dan ook meteen zelf de heatsink en koelpasta vervangen. Mijn huidige 9800GX2 draait stock, ik ben nog geen goede vervangende heatsink tegengekomen (afgezien van een waterblock).

[Reactie gewijzigd door Janssen op 19 juni 2008 15:54]

@Janssen:
Je zegt het zelf al: "Na een tijdje". De meeste mensen die dit soort kaarten kopen hebben de kaart al gewisseld voor een sneller exemplaar , lang voordat hij het laat afweten.
Dat "Na een tijdje" zal korter zijn dan je denkt, als de kast vanaf dag 1 van binnen al (te) heet is. En daar zijn er genoeg van.

[Reactie gewijzigd door Fireshade op 19 juni 2008 16:50]

Mocht dat zo zijn, dan heb je er alsnog garantie op omdat je er zelf niet aangezeten hebt :)
Dat is zo voor high-end maar niet voor mainstream modellen, die zitten langer in een pc. De 9800gtx was weliswaar high maar moet het opnemen tegen de 4850 mid-range.
Yeah right.

Een driver die ineens veel performance winst oplevert kan maar een paar dingen betekenen:

1. er zat een gigantische performance bug in. Erg onwaarschijnlijk bij een kaart die al een tijd op de markt is en zeker niet voor alle games. Dan is het iets dat alleen in zeer beperkte gevallen helpt.
2. er wordt gecheat in de benchmarks. (in het verleden zeeeeeer vaak gebeurd)
3. de beeldkwaliteit wordt omlaag gehaald. (in het verleden ook regelmatig voor gekomen)

Resultaten uit het verleden geven in dit geval wel garanties voor de toekomst.
Drivers die zomaar een grote performance winst opleveren zijn zeer verdacht.
1 zo lang is de G92 nog niet op de markt

met 2 en 3 vallen ze zo door de mand en dat weten ze zelf ook echt wel

er is ook nog een optie 4 en dat is dat nvidia haar kaarten bewust minder heeft laten presteren om ati op een dwaalspoor te zetten en omdat het nog niet nodig was omdat nvidia zo wie zo al sneller was dan ati

optie 5 is een compleet nieuw geschreven of herschreven driver die zwaar geoptimaliseerd is voor de G92 en waarschijnlijk ook de GT200 chip
1. G92 is gebaseerd op de G80-core. Hoe oud was die ook alweer? ;)
2. een 3DMark-affaire laten ze denk ik niet meer gebeuren, het heeft ze toen veel goodwill gekost met de GeForceFX.
3. dat zou wel eens kunnen.

En zoals ze op de beurs zeggen: resultaten uit het verleden bieden geen garantie voor de toekomst. Zelfs videokaartbakkers kunnen nog wel eens verstandig worden. Dat wil natuurlijk niet zeggen dat een vos zijn streken verliest ;)
Optie 4 zou nergens op slaan, want waarom zou je een kaart minder laten lijken dan in werkelijkheid... Dat maakt de kans dat iemand naar de concurrent gaat alleen maar groter, en uiteindelijk kunnen alle bestaande kaarten dan alsnog sneller lopen.
Zulke keuzes maken ze alleen maar als het puur de hardware betreft, en niet de software.
Ik denk dat dit nog wel meevalt. Ik heb een ATi X800 XT-PE, in feite een overgeclockte X800 XT. De naam X800 zegt al hoe oud hij is (kan zowat in het museum ;)). Heb nog nooit problemen mee gehad, behalve dat hij echt niet meer verder te overclocken is. :)

[Reactie gewijzigd door Denizz op 19 juni 2008 15:43]

Ik heb hier een mooie 9700Pro van Sapphire er heeft ooit werkend een bios van de 9800 XT op gestaan. Kon de mhz niet maar hij draaide toen er niet ver van af. Maar heb dit kaartje al 6 jaar en werkt nog steeds. Ben wel lang gestopt met overklokken nu.
Dit zijn niet zomaar overgeclockte kaarten, dit zijn 55nm chips, die dus hoger geclockt kunnen worden.
Nvidia Moet dus haar high end model (GTX) sneller laten lopen om de MID RANGE kaart van AMD bij te kunnen benen. Dit betekent toch wel dat of Nvidia iets fout doet of AMD iets heel erg goed gedaan heeft bij het nieuwe ontwerp. Ik vraag me af wat Nvida tegen de HD4870 (wat dus het high end model is) in stelling wil brengen :)

De HD4850 gaat overigens ongeveer 165 euro kosten bij launch. Dus ongeveer hetzelfde wat de 9800GTX nu kost (die al een tijdje uit is.

Een andere mooie ontwikkeling is dat deze nieuwe kaarten van ATI zeer zuinig zijn in idle (wat je VGA meestal zal zijn bij desktop werk)

(overigens was en ben ik nog steeds een beetje Nvidia fan ;) )

[Reactie gewijzigd door jdm8 op 19 juni 2008 15:36]

G92 (9800GTX, 8800GT) is met 330mm2 moeilijk een high-end model te noemen. Dat NVIDIA het tijden lang als topkaart had spreekt van hele andere problemen (bovenal hun problemen om GT200 op tijd klaar te krijgen). Nu komt dus de G92b chip, die op 55nm gebakken is en vrijwel even groot is als ATI's RV770 chips, dus nu is het al helemaal geen high-end meer te noemen.
Ik vraag me af wat Nvida tegen de HD4870 (wat dus het high end model is) in stelling wil brengen
Waarschijnlijk op dit moment alleen de GT260, die waarschijnlijk wel in prijs gaat dalen om de concurrentie aan te gaan. Daarnaast is NVIDIA hoogstwaarschijnlijk hard aan het werk om de G200 chip te verkleinen naar 55nm, zodat de prijs verder omlaag gebracht kan worden zonder verlies te maken per kaart. Hoe lang deze nieuwe chips nog op zich zullen laten wachten is echter maar de vraag. De geruchten gaan van enkele maanden (september al), tot Q4 van dit jaar, tot zelfs pas voorjaar 2009. Het hangt waarschijnlijk ook af van hoe goed NVIDIA met hun chips nog kan concurreren, en hoeveel ze yields van GT200 omhoog kunnen krijgen.
Als tegenhanger van de 4870 is er de GTX 2x0 serie. Waar ATI vervolgens de 4870X2 tegenover zal zetten. nVidia zal hier niet meteen een antwoord op hebben, de G200 chips zijn namelijk te groot en vragen teveel power om samen op één kaart te plaatsen. Toch ben ik ervan overtuigd, dat nVidia snel een treffend antwoord zal hebben op de 4870X2.

(ook nVidia fan) :)

[Reactie gewijzigd door Janssen op 19 juni 2008 15:47]

Met er tegen over zetten, hebben we het over prijs classen, niet prestatie. De GTX 2*0 serie zijn zo danig veel duurder dat ATI daar helemaal (nog) geen concurent voor heeft qua prijs. Ergo: Nvidia concureerd met de 9800GTX+ op de HD4850 en voor de HD4870 hebben ze nog niets, mits ze de GTX260 drastisch in prijs verlagen of de GX2 in prijs verlagen. En die zijn bijde erg duur om te produceren, terwijl de ATI's goedkoop zijn te produceren.

[Reactie gewijzigd door Reinman op 19 juni 2008 16:49]

Het is lang geleden dat nVidia een model moet introduceren om sneller dan Ati/Amd te zijn. Het lijkt net alsof Ati de kloof ietwat gedicht heeft. En 230 dollar is nog niet eens zo'n zotte prijs.

[Reactie gewijzigd door maxi-pilot op 19 juni 2008 15:20]

en vergeet niet, de HD4850 is nog niet eens ATI's topmodel, eerder mid-end. De echte high-end kaart wordt de 4870
Nee.... de HD 4850 is mid-end inderdaad.. maar de HD 4870 is dat ook nog maar dan iets hoger geplaatst.. De echt High-end wordt de HD4870x2 Die waarschijnlijk nog wel even op zich laat wachtten.
De R700 :). Die staat in augustus op de planning, dus de wachttijd valt mee.

Volgens CJ op het forum:
De R700 scoort meer dan X5500 in Vantage op Extreme Preset. Hoeveel meer laat ik nog even in het midden.

[Reactie gewijzigd door dirkjesdirk op 19 juni 2008 16:12]

Het lijkt er eerder op dat ATI een nieuwe kloof gemaakt heeft dir Nvidia nu moet dichten.

Leuk, weer echte concurrentie op de GPU markt.
net nu nvidia heeft aangekondigd om hun benaming te vereenvoudigen, beginnen ze weer met hetzelfde spelletje :(
Het wordt zelfs nog erger.
gtx en gtx+, wie weet er het verschil
En dan ook nog gx2
Ik heb al lang genoeg naar dat soort kaarten gekeken om er goeden en slechten uit te pikken, maar dit...
Ik weet het nu ook niet meer hoor :?
Gelukkig bestaan er benchmarks.
Er is gewoon geen makkelijke manier om aan te geven dat dit een iets betere kaart is dan de vorige. Als ze er 9900GTX van hadden gemaakt zouden mensen zeuren omdat niet duidelijk zou zijn wat beter is, de nieuwe GTX260 & 280 of de 9900GTX.
Als ze er GTX-XXX van zouden hebben gemaakt zouden mensen zeuren omdat het de illusie zou geven van een nieuwe architectuur die beduidend beter is dan het oude.
Nu hebben ze er alleen een plusje achter geplakt, wat toch duidelijk aangeeft: "dit is iets beter dan de versie zonder plusje", en nu is het nog niet goed. Wat moeten ze dan doen?
De Radeon HD4850 kan ik goedkoper krijgen dan de 9800GTX+ voor waarschijnlijk dezelfde performance. Ik denk dat veel consumenten zullen weten wat te kopen..

Tenzij de 9800GTX+ uitzonderlijke prestaties weet neer te zetten :)

edit: typo ;)

[Reactie gewijzigd door Death1ord op 19 juni 2008 15:36]

Tenzij de 9800GTX+ uitzonderlijke prestaties weet neer te zetten :)
Dat valt niet te verwachten. Als je de conclusies in de computerbase review ziet is het op de lagere resoluties al stuivertje wisselen met de 9800GTX, terwijl als de resolutie wordt opgeschroeft of AA ingeschakeld, de HD4850 de 9800GTX met ruime marges weet te verslaan.

Zie hier de samenvatting van de rest van een groot aantal games.
http://www.computerbase.d..._radeon_hd_4850_rv770/20/

Lekker kaartje die HD4850. Zet veel druk op de prijs van de GF9 serie :9

[Reactie gewijzigd door dirkjesdirk op 19 juni 2008 16:09]

en mogelijkheid tot crossfire zonder nvidia chipset
al wacht ik op de x2 / 4870
Je kan hem goedkoper krijgen als voor ongeveer dezelfde prijs? Wat is het nou?

Verder lijkt het dat ATi hier weer een super inkomsten bron heeft gezien de 3xxx+ series allemaal 55nm zijn i.t.t. 65nm meer per wafer, en ze hadden ook nog eens slechte yields bij NVidia.

Al met al leuke ontwikkelingen, overklokt top model vs. underclocked top model :)
Dit zijn 55nm chips, en hoewel ze waarschijnlijk fractioneel groter zijn zal het qua kosten dus niet veel uitmaken.
Deze actie doet met denken aan de 8800Ultra, hij is iets sneller. 8800Ultra was zover ik weet (correct me if im wrong) een overgeclockte 8800GTX en toch een stuk duurder.

Vergeleken met de orignele 9800GTX heeft hij wel ondersteuning voor CUDA en Physx. Maar vraag me of er veel gebruik van wordt gemaakt. Deze twee zijn zover mij bekend nog geen gemeengoed.

<WildeGokToer>
Ik meende dat physx wel gebruikt werd voor Unreal 3 engine
</WildeGokToer>

/Edit: Zag net de prijsen dat valt me mee. Argument van 8800Ultra is weg.

[Reactie gewijzigd door Gert Pronk op 19 juni 2008 15:24]

He Gert,
Deze kaart heeft net als de 9800GTX de G92 core en heeft dus exact dezelfde functionaliteit. De originele 9800GTX heeft OOK ondersteuning voor CUDA en Physx.

Ik vind het een beetje een zwaktebod om deze videokaart uit te brengen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True