Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 66 reacties

Nvidia heeft de verkleining van de G92-gpu naar een 55nm-procedé aangewend voor een prestatieverhoging ten nadele van het energieverbruik, zo blijkt uit de eerste benchmarks van de Geforce 9800GTX+.

Nvidia gaat op 26 juni de Geforce 9800GTX+ lanceren als antwoord op de Radeon HD 4850 en HD 4870 van AMD. Volgens de reviewers van PC Perspective gaat de nieuwe kaart van Nvidia redelijk gelijk op met de HD 4850 in Call of Duty 4, met een licht voordeel voor eerstgenoemde, maar in Crysis haalt de 9800GTX+ opeens 10fps meer bij de gemeten maximale framerate ten opzichte van de HD 4850 en de 'gewone' 9800GTX met 65nm-gpu, terwijl de minimale framerates elkaar niet ontlopen. Ook in de nieuwe benchmark 3dMark Vantage sluit de 9800GTX+ af met een licht voordeel.

De verkleining van het gebruikte productieprocedé naar 55nm heeft Nvidia vooral aangegrepen om de kloksnelheid van de gpu te verhogen. Deze ging van 675MHz bij de 9800GTX naar 738MHz bij de nieuwe 9800GTX+. Het energieverbruik lijdt daar iets onder. De testers noteerden bij volle belasting van het testsysteem een opgenomen vermogen van 310W, tegenover 303W voor het systeem met zijn 65nm-voorganger. Het systeem met de HD 4850 verstookte bij volledige belasting 'slechts' 285W.

Hoe de 9800GTX+-videokaarten in Europa gepositioneerd zal worden is nog niet geheel duidelijk. In de Verenigde Staten is de adviesprijs 229 dollar, maar om tegenwicht te bieden aan de HD 4850, die momenteel leverbaar is voor een prijs vanaf ongeveer 160 euro, is een prijs van rond de 200 euro voor de nieuwe 9800GTX+ aannemelijk. Deze week kondigde Nvidia ook zijn nieuwe high-end Geforce GTX260 en GTX280 aan.

Nvidia G92b G92

Moderatie-faq Wijzig weergave

Reacties (66)

FiringSquad heeft overigens ook een interessante (meer uitvoerige) review van de 9800GTX+ gemaakt, voornamelijk vergelijkend met de HD4850:
Radeon HD 4850 512MB and GeForce 9800 GTX+ Performance Quick Take.

Vooral hun conclusie vind ik leuk/interessant:
[...]
Clearly the moral of this story if you’re AMD is to keep your plans quiet. If AMD had done a better job of keeping the details on RV770 under wraps, NVIDIA wouldn’t have had the opportunity to spoil their big launch. NVIDIA’s lesson learned is to not underestimate AMD. [...]
edit: nog een interessante review (@ Legit Reviews) die vooral weer met de HD4850 vergelijkt, en overclocken uitdiept:
ATI Radeon HD 4850 Versus NVIDIA GeForce 9800 GTX+

[Reactie gewijzigd door 3phemeral op 20 juni 2008 20:20]

Ik denk dat nvidia serieus verast is door de rv770. Even recapituleren wat pine magnoes hierboven zegt, de gtx+ kost meer, verbruikt meer & is nog niet beschikbaar.
Als nvidia echt klaar was dan hadden alle sites die kaart reeds gekregen en was de launch officieel geweest.

De complete lineup van nvidia is een zooitje geworden. De gtx+ is zo goedkoop dat de prijs van de GT260 helemaal ongerechtvaardigd is. Voor de prijs van een GT260 heb je bijna 2 gtx+ kaarten die in SLI gehakt maken van de gtx2 & de GT280. Ik vrees ook dat de gtx+ duur is om te produceren, hij heeft een zwaardere koeler, vereist meer stroom (en componenten) en niets wijst erop dat hij deftig beschikbaar wordt tot midden - eind julie.

Straks zullen de 4570 (~250 euro) reviews verschijnen en daar kan nvidia niets tegenover zetten. De performance zal dicht bij de GT260 zitten. De GT260 zal niet ver genoeg kunnen zakken in prijs en de gtx+ kan niet zover overgeklokt worden. Denk je dat nvidia dat zag aankomen? Welk antwoord?

/edit
De reviews van anandtech, thetechreport, extremetech geven trouwens een heel ander beeld dan de 2 sites die je aanhaalt.

/edit 2:
Als we de resultaten van hardwarefr nemen (berekend op b3d http://forum.beyond3d.com/showthread.php?t=48631&page=3)
gtx+ tov 4850
1920x1200: +6.38%
1920x1200 4xAA: -11.68%

Total System Power Consumption:
Idle: +8.69%
Load: +13.92%

[Reactie gewijzigd door oeLangOetan op 20 juni 2008 21:30]

Sorry, maar die waardes voor de total system power consumption onder load lijken me vrij onwaarschijnlijk. In die test zou er een verschil in absolute power draw zijn van 49 watt onder load. Andere reviews houden dit tussen 0% en max 4.7%
Trouwens volgens die grafiek op hardware.fr, bedraagt het verschil onder load tussen een 9800GTX en een GT260 maar 4 Watt........

Verschil onder load tussen 4850 en 9800GTX+ volgens:
Legitreviews: 1Watt
Anandtech: 1Watt (toegegeven enkel de 9800GTX niet de + versie)
Extremetech: identiek
Techreport: 11 Watt

[Reactie gewijzigd door -AzErTy- op 20 juni 2008 22:09]

Inderdaad. Ik zou ook zeker voor de Radeon 4850 gaan! De 9800GTX+ is alweer snel 25-40 euro duurder voor min of meer dezelfde prestaties. Voor het gemak vergeten we dan nog even dat de 9800GTX+ geen DX10.1 ondersteunt en de 4850 wel. Dat wordt nu misschien nog nauwelijks gebruikt, maar in de toekomst mogelijk wel. Nvidia zegt dat dx10.1 overbodig is, ik geloof dat Assasins Creed het tegendeel bewees. Jammer dat dx10.1 ondersteuning er na patch 1.2 weer uitgehaald is, misschien wel onder druk van Nvidia.
Ik zie dit echt als een wanhoop poging om maar in elk segment sneller dan Ati te blijven.
Sneller zijn ze nu wederom maar als ze echt rond de 200 euro gaan kosten en de 4850 die nu al voor 160 a 165 te krijgen is nog gaat zakken is de keuze voor mij snel gemaakt.
Voor jou is de keus snel gemaakt maar voor mensen die iets minder bij zijn met de ontwikkelingen heeft dit wel weer invloed. Aangezien NVIDIA al een groot marktaandeel heeft en ook een grotere naamsbekendheid (denk aan de reclame bij spellen), zal het een groter publiek bereiken. Als deze mensen wel (erg) gevoelig zijn voor dit soort trucjes dan hebben ze de centjes al in het laatje.

Nu is ATi voor zichzelf goed bezig maar ook voor de consument. De prijzen van NVIDIA dalen nu namelijk ook waardoor je de 9800GTX+(heel) goedkoop (200 euro vind ik goedkoop voor een mid/high-end kaart ;) ) kan halen.

Ik denk wel dat NVIDIA iets te laat is gekomen met deze kaart. Als de 9800GTX+ pas laat deze maand uitkomt en nog later pas in de schappen verschijnt dan zijn de verkopen en de voorraad van ATI's nieuwe kaarten al flink toegenomen. Tegen die tijd zal de HD4870 misschien al in prijs gedaald zijn (mits het GDDR5 voldoende wordt geleverd) waardoor die op het prijs niveau van de 9800GTX+ komt te liggen. Ik zal dan wel is willen weten hoe NVIDIA zich uit die benarde positie weet te halen. De GTX 260 en 280 zijn op het moment ook heel erg duur en het schijnt dat je met twee HD4850 kaarten in Crossfire opstelling geëvenaarde prestaties krijgt.
Nu is de P45 chipset laatst ook uitgekomen. Deze moederborden beschikken over PCI-e 2.0. Hierdoor kan de volle bandbreedte van deze HD4850 benut worden (in tegen stelling met de P35 waar je vaak nog één 16 en één 8 lanes PCI-e hebt) en is het opstellen van zo'n CF opstelling veel toegankelijker geworden.

Al met al vind ik het knap werk van ATI :)

[Reactie gewijzigd door Bolletje op 21 juni 2008 00:59]

NVIDIA reageert op de HD4850 door de prijs van de "gewone" 9800GTX te laten zakken naar 200 dollar, dezelfde prijs als de 4850. ATI heeft dus een verrassend goede chip gemaakt met de RV770, maar dat neemt niet weg dat NVIDIA nog steeds prima competitief meekomt. Het grootste probleem voor NVIDIA is dat ze een "gat" in de lineup hebben tussen 9800GTX (200 dollar) en GTX260 (400 dollar), terwijl ATI daar de veel redelijker geprijsde HD4870 heeft staan.
Wat bij dit bericht niet is gemeld is dat NVIDIA niet alleen de GTX+ introduceert voor 230 dollar, maar dat ze daarnaast ook de prijs van de gewone 9800GTX hebben verlaagd naar 200 dollar, wat dezelfde prijs is als de 4850 nu heeft. Aangezien de beide kaarten ongeveer gelijkwaarige performance geven kan NVIDIA dus nog steeds prima mee komen. Het enige dat erg lijdt onder de situatie zijn de marges van NVIDIA, die door de prijsverlaging flink zakken.
volgens legit reviews verbruikt de GeForce 9800 GTX+ juist weer 1W minder dan de Radeon HD 4850 onder load:

http://www.legitreviews.com/article/731/17/
Dit komt wellicht omdat de 2 review sites 'load' op een andere manier gemeten hebben. Bij geen van beide kan ik een uitleg vinden van wat zij als 'load' beschouwen - in dit grafiekje van Tom's Hardware kan je b.v. zien dat zij 'load' beschouwen/beschouwden als Test Drive Unlimited @ 2560x1600.

Uit eigen metingen heb ik gemerkt dat Crysis bij mij het meest verbuikt, ~185W @ load met m'n huidig systeem. Andere games, b.v. CoD4 kwamen tot ~160W. Dit is natuurlijk het energieverbruik van het volledig systeem, dus incl. CPU, die uiteraard meer verbruikt tijdens gaming dan idle.
Het verbruik is natuurlijk niet constant, dus had ik graag geweten hoe reviewers hun resultaten bekomen: gemiddeld verbruik bij het afspelen van een bepaalde standaardscene uit een bepaald spel, of...?
Dat komt omdat met de huidige drivers de powerplay functie van de 4850 nog niet werkt zodar dit opgelost is zal het idel energie verbruik ver dalen.
(in het ati nieuwsdiscussie topic valt hier meer over te lezen.
het regent de laatste tijd wel nieuwe kaartjes, die elkaar in rap tempo opvolgen...

wanneer komen de gtx260+ en gtx280+ :P?
die zouden denk ook wel baat hebben bij een procedee shrink ...
Daar zijn de geruchten nogal onduidelijk over. Sommigen zeggen dat ze zo snel mogelijk komen, binnen de paar maand, andere bronnen spreken van Q4, en sommigen zelfs van begin 2009 pas. Het hangt er waarschijnlijk ook van af hoe goed NVIDIA de yields van G200 kan krijgen. Als die maar hoog genoeg zijn is de prijs per werkende chip laag genoeg om de prijs van GTX260 en GTX280 omlaag te halen. Dat is namelijk duidelijk nodig om ATI te kunnen bestrijden.
Om de zoveel tijd kom ik even langs in videokaartenland om
te bekijken of er al een kaart is die verschrikkelijk veel sneller
is op hi-res met AA/AF dan mijn 8800GTX van al weer dik anderhalf jaar oud,
maar ik word keer op keer teleurgesteld. 't lijkt wel of de GPU bakkers tegen
een plafond aanzitten wat betreft rauwe performance.

Ik heb altijd al gedacht dat die 8800GTX een unieke kaart was, vergelijkbaar
met de toenmalige Radeon 9700Pro. Puur waar voor z'n geld. Een kaart die
lekker lang mee kan.

Ik kom over een half jaartje wel weer terug. :)

[Reactie gewijzigd door Apple op 21 juni 2008 01:13]

Ik zou eerder terug komen, of de reviews van de GTX280 lezen, alhoewel die videokaart nog wel belachelijk duur is. Binnenkort komt nog de Radeon 4870 uit en wellicht zelfs nog een groter broertje daarvan aan het einde van de zomer.

Daarnaast heb je dan wel al 1,5 jaar die 8800GTX, maar die heb je toen gekocht voor pakweg 450 euro? Nu kan je daar bijna 2 Radeon 4870's voor kopen in crossfire. Dan ben je wel 2x zo snel als wat je nu hebt voor hetzelfde geld. Dus in videokaarten land word toch wel weer een grote stap voorwaards gezet nu.

Je hebt wel gelijk dat het allemaal erg lang heeft geduurt voor het zover was. Normaal gesproken zien we ieder jaar zo'n vooruitgang. Maar door het grote Nvidia geweld in de afgelopen 2 jaar en de geflopte 2900XT van ATI is het even rustiger geweest.
De 8800GTX kon zo lang mee gaan omdat nV voor lange tijd geen top high-end competitie heeft. dan gaan ze de markt afroamen en houden ze wat achter de hand.
Nu ATI hard slaat in het midden segment daar goede Performance prijs leverd.
Merk je meteen dat nV daar direct op reageerd. Dat 9800GTX+ is dus zo'n achter de hand ding die je zonder ATI nooit zou zijn gekomen.
Dat brengt dus concurentie met zich mee. Snellere innovatie bij gunstigere prijs.

Ik vergelijk de 8800GTX(G80) met de GF4Ti4600 die had geen last van conqurentie.

BTW de GTX280 blaast de 8800GTX weg dus hoezo geen kaart.
Ik blijf de hoeveelheid stroom die die videokaarten tegenwoordig gebruiken echt belachelijk hoog noemen. Ieder andere component is tegenwoordig zoveel mogelijk op zuinig gericht behalve die chips die Nvidia en ATI/AMD maken. Terwijl AMD toch echt wel weet hoe het moet getuige hun CPU's. Okay ze zijn iets zuiniger dan de conculega maar toch...
Mijn 3870X2 is aan de achterkant gewoon een fohn zo warm :( Bij 100% gamen he)

[Reactie gewijzigd door bonus op 20 juni 2008 20:04]

Je kan zelf bepalen welk product je koop. De high-end kaarten verbruiken zo veel om veel te kunnen presteren. Geen van de twee bedrijven haalt het in zijn hoofd om de krachtpatsers te laten vallen en zo een heel segment van de markt te verliezen. Als je geen fohn wilt kies je toch gewoon voor een mid-range of zelfs een onboard grafische oplossing. Jij wilt nu veel prestaties met weinig energie. Dat zullen ATI en Nvidia ook wel willen, maar zoveel prestaties zijn er anders niet uit te persen. De HD3450 verbruikt max. 40 watt bij volledige belasting, HD3650 60W. Jouw kaart gaat naar de 200.
Als je minder energieverbruik wil moet je deze kaarten kopen, en niet zeuren.
Ik heb tegenwoordig zo'n leuk apparaatje om het stroomverbruik mee te meten: Ik krijg m'n PC nauwelijks boven de 200 watt uit met een Asus M2N32, 8800GT, dualcore 5200+, 4GB geheugen en 3 schijven. Ik snap niet zo goed hoe mensen aan zulke hoge getallen komen....
Dmv nieuwe technieken zoals hybrid SLI (de videokaart wordt alleen ingeschakeld bij games etc,, bij normaal desktopwerk wordt de onboard videochip gebruikt) wordt er wel degelijk aan het energieverbruik gewerkt.
Ja maar toch kijk eens een kaart verstookt 300 Watt, mijn internet pc draait hier op een 300 watt voeding en dat is de hele pc met 3 Hd's en een 6800GT.
Snap best dat prestatie stroom vraag maar dit is toch idioot...
dat is het hele systeem harry
Zet het stroomverbruik eens uit tegen het aantal MFlops, en het valt allemaal nogal mee.

Verder ook even goed lezen.... Het totale testsysteem verstookt 300 Watt, niet de kaart. Die 4850 verstookt maximaal 110W. Helemaal niet zo erg veel anders dan je eigen systeem dus.
Zolang die geheugenbus op 256Bit blijft zal het nooit niks worden voor op een 30" monitor. Ik blijf wel mooi bij m'n 8800GTX
Helaas voor jou is het marktaandeel; gamers met een 30" nou niet bepaald groot te noemen.
Nvidia heeft de verkleining van de G92-gpu naar een 55nm-procedé aangewend voor een prestatieverhoging ten nadele van het energieverbruik
Logisch denk ik, immers iedereen klaagt steen en been over het enorme verbruik van de GPU`s tegenwoordig. Maar als de keus moet worden gemaakt kiest het overgrote deel toch voor die 10% meer.
De testers noteerden bij volle belasting van het testsysteem een opgenomen vermogen van 310W, tegenover 303W voor het systeem met zijn 65nm-voorganger. Het systeem met de HD 4850 verstookte bij volledige belasting 'slechts' 285W.
En toch nog minder verbruiken, slim
Er komen steeds meer mensen die een 24" scherm hebben of met hoge AA en AF settings spelen en dan is die 8800 GTX zekers sneller.
Vind ik best fabelachtig, zie onderstaande onderzoeksresultaten bij steam gebruiker:

http://www.steampowered.com/status/survey.html

Weliswaar zegt ongeveer 20% een scherm groter te hebben dan 24 inch maar dat is alleen 20% van de 25% van alle gamers omdat het overgroot gedeelte (73.76%) 4:3 schermen gebruikt. Dan kom je dus uit op 5% van alle ondervraagden die op een scherm spelen groter dan 24 inch met een 16:9 verhouding.

Daaronder is ook te zien dat het overgroot gedeelte van gamers speelt op een resolutie van 1280x960 of 1024x768. De high end gebruikers zullen dus misschien meer hebben aan de grotere geheugenbus maar voor de gemiddelde gamer (waar de 4850 en 9800 GTX+ op gericht zijn met hun lage prijzen) zullen weinig merken van de verschillen bij hele hoge resoluties.

En dertig dollar per kaartje wil ik best wel kwijt voor die extra prestaties. De strijd gaat deze zomer voor mij worden: 9800 GTX+ SLI, HD4870X2 of GTX280b
Voor de 30" die gaan dan voor de HD4870 of GTX260 of GTX280
Voor 24" is de bandbreedte volgens de benchresultaten voldoende om mee te komen.
Maar dan zou ik toch eerder voor 'n high-end kaart gaan. Als het op native reso moet.

'n 30" heeft tov van 'n GTX280 'n veel grotere pats factor aangezien het 'n veelvoud kost van 'n GT280.

Mij lijkt het sterk dat de foruin gamer 'n heel dure 30" gaat matchen met 'n cheap HD4850. Kan natuurlijk. Maar de budged verdeling tussen componenten is dan scheef.
Zolang die geheugenbus op 256Bit blijft
Het gaat om de bandbreedte, busbreedte is geen doel op zich.
Het gaat om de bandbreedte, busbreedte is geen doel op zich.
En wat zorgt er juist voor een goede bandbreedte? Juistem, de busbreedte en bus snelheid! Kijk maar naar de 128bit kaarten en de 256bit kaarten (bepaald de breedte, wel met dezelfde GPU-chip meten), moet jij is opletten wat voor een verschil dat maakt... ;)

[Reactie gewijzigd door CH40S op 21 juni 2008 21:15]

dan zul je toch voor de GTX 280 moeten gaan, die heeft namelijk 1GB op een 512 bit bus...
Je beseft dat nooit niks hetzelfde betekent als altijd iets? Één 8800GTX op 30" blijft btw ook niet zaligmakend ;) .
Het lijkt erop dat nvidia snel een paperlaunch doet om schijnbaar competitief met amd/ati te blijven. Deze kaarten zullen maar met mondjesmaat beschikbaar zijn. Van de 4850 wordt er echter een ware vloed verwacht.

Qua performance zijn de kaarten erg gewaagd aan elkaar, het verschil is een 5-10% meestal in het voordeel van de GTX+. De naamgeving is wel een echt zooitje aan het worden voor nvidia.
Wat is je bron ter onderbouwing van je eerste stelling?
De availability staat hier op midden juli.
http://www.techreport.com...viewtopic.php?f=3&t=59785

Terwijl de officiële release date staat op 25 juni:

http://en.expreview.com/2...5nm-gpu-and-release-date/
Was wel te verwachten. Zodra er iets meer concurentie van ATI komt, staps Nvidia meteen weer af van de "hard-launches"

Maar ach, binnen 4 weken naar de launch vind ik prima hoor.
Marginaal betere prestaties voor een 20% prijsverschil. Verbruikt meer, heeft minder features en vooralsnog niet beschikbaar. Ik vraag me af waarom ik dit ding in huis zou halen...
Ik vraag mij eerder af hoe jij dit ding in huis zou willen halen ;) Je zegt het zelf al hij is niet beschikbaar.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True