Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 210 reacties
Bron: DailyTech

DailyTech heeft een artikel geplaatst waarin de eerste benchmarks van de binnenkort te verschijnen nVidia GeForce 8800 GTX worden besproken. Deze nieuwe gpu van nVidia is gebaseerd op de G80-core en wordt volgende week officieel geļntroduceerd. De videokaart met GeForce 8800 GTX-gpu die DailyTech kort in zijn bezit had, beschikte over 768MB GDDR3-videogeheugen met een 384-bit geheugenbus, overeenkomstig de eerder gemelde specificaties. Conform de specificaties die reeds eerder bekend waren, werkt de 8800 GTX van DailyTech op een kloksnelheid van 575MHz voor de core en 900MHz voor het geheugen.

nVidia GeForce 8800 GTXDe kaart is in staat om 128-bit HDR weer te geven met 16-voudige anti-aliasing. Verder wordt tezamen met de G80-core ook de nVidia Quantum Physics Engine geļntroduceerd. De GeForce 8800-reeks is de eerste videokaart die in zijn eentje in staat is om 16-voudige anti-aliasing toe te passen. Deze claim is door DailyTech getest, en blijkt te kloppen, aldus het artikel op de site. Zoals reeds eerder door Tweakers.net was vastgesteld zijn de GeForce 8800-kaarten groot in omvang. De kaart die DailyTech tot zijn beschikking had bleek bijna vier centimeter langer dan een ATI Radeon X1950-videokaart. Een ander opmerkelijke eigenschap is dat de kaart beschikt over twee SLI-aansluitingen, waardoor het wellicht mogelijk is om SLI-configuraties met drie videokaarten te realiseren.

DailyTech heeft de kaart getest in een Core 2 Extreme QX6700-systeem met een nForce 650i SLI-chipset en 2GB geheugen. De kaart is in de benchmarks vergeleken met de ATI Radeon X1950 XTX-videokaart van PowerColor. Weinig verrassend veegt de GeForce 8800 GTX de vloer aan met de Radeon X1950. In 3DMark06 presteert de 8800 GTX met 11200 punten 59 procent beter dan de X1950 die op 7026 punten uitkomt. Ook in Half Life 2, Quake 4 en Prey scoort de GeForce een stuk beter dan de Radeon met scores voor HL2 en Quake die zelfs 92 procent beter zijn. Ook het niet geringe energieverbruik van de videokaart is gemeten, hoewel volgens DailyTech dit niet zo slecht is als verwacht. Het systeem met de GeForce verbruikt 321 Watt wanneer hij wordt belast, tegen 308 Watt voor hetzelfde systeem met de Radeon. In 'idle'-toestand ligt dit verbruik op 229 Watt voor de 8800 GTX tegen 184 Watt voor de Radeon.

nVidia GeForce 8800 GTX met twee voedingspluggen

Update 21:42 - Meetresultaten voor het energieverbruik verduidelijkt.

Moderatie-faq Wijzig weergave

Reacties (210)

1 2 3 ... 10
In 'idle'-toestand verbruikt de 8800 GTX 229 Watt tegen 184 Watt voor de Radeon.
Daar kan ik dus drie 17" MBP's onder full load voor laten zwoegen :+ }:O
Power consumption was measured using a Kill-A-Watt power meter that measures a power supply’s power draw directly from the wall outlet.
Het is een systeem met Quadcore proc dus het staat een beetje scheef vermeld hier op tweakers.
Ook vind ik met 4% stressed and 24% idle als verschillen dat niet echt "van de zelfde orde" als 92%...

-EDIT-
Volgens deze review gebruikt een 1950XTX ongeveer 115W (stressed) dus zit de 8800GTX rond de 130W.
thnx en dat is dus iets van 38 watt idle, kan ik best mee leven

nvidia is al bezig met de ontwikkeling van de g80 naar 65nm, gaat het stroomverbruik weer een stuk verder naar beneden
eeermz...

SLI iemand?

3x 350 watt voeding voor een Triple SLI configuratie...

dit zijn geen kacheltjes meer, maar gewone straaljagers...

Voor mij zullen deze kaarten niet weggelegd zijn, want ze verbruiken gewoon té veel als je er gebruik van maakt, dan toch liever een iets goedkoper modelletje pakken dat niet zoveel Watt verbruikt.

binnenkort moeten we een aparte stroomgroep leggen speciaal voor 1 toestel: de PC
Hij verbruikt 13watt meer dan een ATi, big deal. Trouwens dit is een topkaart, verwacht je daar echt van dat die zuinig is?
Zat ik me net af te vragen; hebben GPU's ook een optie om de klokfrequentie on-the-fly aan te passen zoals moderne CPU's?
De moderne kaartjes wel.. Maar meer in de zin van 2D en 3D weergave.. in 2D op bijv. 200Mhz, en bij 3D beelden naar 450mHz (de core dan). tot zover ik weet kan dat vanaf de GF5...

Edit: Moest een reactie zijn voor kidde hierboven
Wat een gezeik over stroomverbruik zeg, wordt nu de "zoek naar negatieve dingen" hype die ook voor de PS3 wordt aangehaald doorgezet andere hight end apparatuur?
apparte stroomgroep??
dat valt wel mee, 3x350=1050.
de stofzuiger bij mij thuis kan op 1600 watt.
max stop in je meterkast is 16 Amp.

16A * 230V = 3680 Watt.

Per groep kun je dus in totaal 3680 Watt belasten (mits er geen grote pieken in verbruik zitten).
Heeft jullie magnetron een 'splits je eigen atomen' stand ofzo? :?
max stop in je meterkast is 16 Amp.

16A * 230V = 3680 Watt.

Per groep kun je dus in totaal 3680 Watt belasten (mits er geen grote pieken in verbruik zitten).
offtopic: je mag zekeringen van 20A steken en dan kan je een stukje hoger gaan.
Zijn dit eigenlijk geen nuteloze benchmarks aangezien er 1 generatie verschil op zit?
Nou ja, in de zomer zal je toch zeker weer boven de 500 Watt aan airco nodig hebben om dat grote deel van die 1050 Watt die omgezet wordt in warmte weer op te vangen, en aangezien de voeding ook geen 100% omzet en men nog wel meer stroometende apparaten rond een game-computer gebruikt (zoals een 19" beeldscherm bijv), zit je al snel richting de 2 tot 2,5 kW, alle randapparatuur erbijgeteld.
Een 19" TFT gebruikt maar 48W... (de mijne dan volgens de handleiding)
@ frieksk
Zijn dit eigenlijk geen nuteloze benchmarks aangezien er 1 generatie verschil op zit?
de GF4Ti werd indertijd toch ook vergeleken met de 1 generatie jongere R9700? Het gaat gewoon om de huidige top-end van de verschillende merken die met elkaar worden vergeleken.
Op een lanparty wordt anders gewoon 400 tot 500Watt gerekend per pc, overigens gebruikt een High end systeem een kleine 300watt, dit hebben we gemeten:

AMD5000+ Athlon64
Asus mobotje
2x 74GB Raptor
2x 320GB Seagate
3x 200GB Maxtor Diamond
1x 250GB Maxtor
1x 300GB Maxtor
GF7950GX2

En die 300is dan tijdens het draaien van 3D mark 2006.

Het zal je nog meevallen wat je systeem daadwerkelijk ECHT gebruikt, dit kun je meten met een watt meter van 15 euro van bij de blokker.
Lol Dark, als dat 300 watt gebruikt eet ik mijn schoen op.
Bon apetit, hierzo namelijk hetzelfde ;)
Amperes gemeten met een multimeter @ 230 Volt halen we full load 1.4A met:

X2 3800+ @ 2.8 GHz, 1.65 Vcore
DFI LP UT NF4 eXpert
2x 300GB RAID1
2x 250GB RAID0
7800GT SLi @ 490/1200

Full load @ 3DM05

1.4A x 230V = 322W
combi magnetron of oven op 3000W :P
@kidde
Je kunt ook gewoon je raam open zetten :P
Ze hebben het over het systeem.
Dat is dus niet alleen de videokaart...
Dus ook niet 3 x ...
Denk dat je voldoet met een 700W voeding.
Tenzij je het gekker maakt met extra hardware.

edit: Net verder gelezen.
Is al gereageerd ... :P
Erger lijkt me dan die 8-way SLI...of was dat gewoon foto soep?
ik geloof ook niet dat het nog interessant is om deze te overclocken, als ik kijk naar de toename bij cpu's die flink overclocked worden dan is dat bij deze echt niet meer te doen dan moet er gewoon minimaal waterkoeling op :S
ik geloof ook niet dat het nog interessant is om deze te overclocken....
....uhmmmm,.. al eens gekeken naar de titel van de website waarop je dat bericht gepost hebt? :?
Tweaken betekent "fijn afstellen" en niet alleen "sneller maken". Tweaken kan dus naast overklokken ook zijn: stiller maken, casemodden etc. Alles wat je doet met hardware om de dingen meer naar je zin te maken.
Waar gaat het heen met het energieverbruik.. De "community" moet echt hierover gaan nadenken. Ik heb het nog niet eens over warmte ontwikkelen maar gewoon puur over de kosten.
Wellicht is het handig om een tool te maken die de hardware op "economy" zet en als je gaat gamen de teugels laat vieren. Ik gebruik zelf al P4magicspeed die mn process afknijpt als er weinig gebeurd. Ideaal
Dit is natuurlijk de powerconsumptie van het gehele systeem....184w idle zou anders wel een super brak ontwerp zijn.
Volgens mij zijn deze verbruiken voor het gehele systeem dat deze kaart heeft, niet alleen de kaart zelf:

Het systeem met de GeForce verbruikt 321 Watt wanneer hij wordt belast, tegen 308 Watt voor hetzelfde systeem net de Radeon. In 'idle'-toestand ligt dit verbruik op 229 Watt voor de 8800 GTX tegen 184 Watt voor de Radeon.

Laat maar, dubbelpost... |:(
"Helaas zijn de verschillen in stroomverbruik ook van de zelfde orde, hoewel volgens DailyTech niet zo slecht als verwacht. De GeForce verbruikt 321 Watt wanneer hij wordt belast, tegen 308 Watt voor de Radeon."

13 watt extra tegenover prestaties met verbeteringen tot 92% lijkt me niet zo'n probleem...
Helemaal mee eens! Er is weer eens onterecht paniek gezaaid in hardware-land. nVidia zet hier gewoon een topprestatie neer. Iets meer stroomverbruik is alleen maar logisch ten opzichte van performance als dit. Het is tenslotte een high-end kaart, die gebruikt moet worden in een goed systeem met een goede voeding. En wie een zuinige kaart wil, gaat maar lekker voor een andere kaart. Kopen of liggen laten zeg ik dan.
Wat kost dit geintje ( 8800 ) eigenlijk ?
Waarschijnlijk ongeveer evenveel als elk nieuw vlaggenschip de laatste paar jaar wanneer ze geļntroduceerd werden.
tussen de 400 en de 600 euro.
Gelukkig komt de Sint al over een maandje... :+
En anders heb je wel de kerstman :9
tussen de 400 en 600 euro? je zou beter zeggen tegen de 600eur ;)
ook tussen de 100 en 600 euro |:(
Als ik jou was zou ik beginnen bij het checken van de pricewatch ;)
Niet alleen 2 SLI connectors, maar ook 2 PCI-E voedingconnectors :X

308 watt load, als je daar 3 van in SLI hebt, mag je wel 2 dikke voedingen in je pc gaan plaatsen :+

Ik hoop dat ze binnenkort ook standaard wattage bij videokaarten gaan vermelden, en dit ook gaan marketen. Zoals nu ook bij processors gebeurd.

Want al ga je van een prescot naar een core duo, de overgang naar een geforce 8 serie gpu maakt alles weer goed |:(
308 watt verbruikt de HELE systeem als hij onder full load zit staat er
Power consumption was measured using a Kill-A-Watt power meter that measures a power supply’s power draw directly from the wall outlet. The power supply used in the test system is a Thermaltake Toughpower that carries an efficiency rating up to 85%.
De GeForce verbruikt 321 Watt wanneer hij wordt belast, tegen 308 Watt voor de Radeon. In 'idle'-toestand verbruikt de 8800 GTX 229 Watt tegen 184 Watt voor de Radeon.
Dat staat er dus niet , of ben ik nou gek?

Dat wordt er waarschijnlijk wel bedoeld.

Ja nu is de reactie overbodig ja :)
Tis inderdaad een beetje raar vermeldt, maar het is (gelukkig :o ) het hele systeem. Kijk maar in het bronartikel.
Dat hoeft van mij niet hoor wattage te vermelden (echt iedereen is alleen nog maar bezig met de wattages maarja).

en ik denk ook niet dat veel mensen 3 kaarten kopen en in SLI zetten. beetje overdreven ofzo :P.
Time Watt is money :7
Je moet natuurlijk wel weten of jouw huidige configuratie deze kaart aan zou kunnen, CyberFreaked. Het moet niet zo zijn dat je niet eens kunt vertrouwen op een werkend systeem, simpelweg omdat de videokaart zoveel energie eet, dat je voeding het niet meer trekt.
Tis allemaal leuk en aardig die benchmarks, maar ze testen het wel op een nieuwe CPU + Mobo..
Ben benieuwt wat voor score eruit rolt als ik hem test op mijn X2 4200+
Ze kunnen onmogelijk testen op elke mogelijke config.
Het gaat om het verschil met de concurrentie. Met die CPU weet je tenminste zeker dat je processor je niet tegenhoudt; het verschil in prestatie is dus alleen van de videokaart afkomstig.
Tuurlijk Alleen 'n G80 geeft je 'n flinke stoot GPU power. wat 'n systeempje met 'n midrange CPU al snel CPU limited maakt voor bepaalde games de een iets meer dan de ander.

Nee niet alle 1000 CPU types hoeven getest te worden maar 'n CPU schaling bench is mooi megenomen van 3 tot 5 modellen. Wordt wel eens gedaan. Door bepaalde reviewers.
Met interpolatie kan je zelf inschatten wat 'n combo ongeveer gaat doen.
als je weet dat de meeste Dual Core CPU's de Intel D830 is en de AMD X2 3800+ is, snap ik meeste van deze bench ook niet aangezien minder dan 1% van de gebruikers dit soort CPU's heeft.
Je meent dan aan dat interpolatie te doen is. Mij is al eerder over gekomen dat ik door interpolatie er toch behoorlijk naast zat. Een ander architecteur kan plots rare dingen veroorzaken
Ehhm.. zelfs de snelste CPU kan nog een bottleneck worden, door de snelste CPU te kiezen sluiten ze dit zoveel mogelijk uit.
Than again....

Wat maakt het uit of hij nu al dan niet CPU limited is? Het is toch de bedoeling om deze videokaart te draaien op pc's met huidige mainstream CPU's die misschien "te traag" zijn voor deze kaart, maar er toch mee gebruikt zullen worden?

Je wil toch weten hoe het ding presteert met jouw CPU?

Uiteraard zal een systeem met een QX6700 beter presteren als mijn 4600+. Zelf wanneer hij dezelfde videokaart heeft als ik (7900GT). Hoeveel sneller zal mijn systeem echter zijn wanneer ik deze 8800GTX in mijn moederbord plug ipv mijn 7900GT? Dit kan ik helemaal niet afleiden uit dit bericht. Het is nochtans de overweging die ik moet doen om te weten of deze (serieuze) investering genoeg meerwaarde heeft.
Gelukkig hebben we tegenwoordig grote monitoren die hoge resoluties aankunnen ;)
Een ander opmerkelijke eigenschap is dat de kaart beschikt over twee SLI-aansluitingen, waardoor het wellicht mogelijk is om SLI-configuraties met drie videokaarten te realiseren.
SLI was toch one-way?
Dus op deze manier een full duplex verbinding zou meer voor de hand liggen?
Dat zou ook goed kunnen,
maar misschien is het zo dat ze een physics kaart eraan koppelen?
ik heb eigenlijjk geen idee,
Een full duplex zou een SLi opstelling vrijwel perfectioneren.
Ik ben ineens af van de wens om een SLi moederbord te hebben :+

Niet alleen het geklaag over het stroomgebruik (waar 90% van de posts nu over gaat :o het is idd hoog maar 10 jaar geleden was 100 watt nog ruim voldoende, dit hoort mijns inziens gewoon bij vooruitgang)
Maar ook door die score. Geen enkele CPU gaat dat ding bijhouden in SLi hoor. CPU bottleneck FTW. Ik denk dat met zo'n kaart SLi mobo's de eerste maanden wel in de winkels blijven liggen :+ tenzijn je geen 8800GTX koopt uiteraard :Y)
Klik om je wens met sli weer terug te krijgen ;)
Als je het artikel gelezen had dan wist je dat dat het verbruik is van het totale systeem, niet van de kaart alleen.
als ik et goed begrijp is het verbruik van het gehele systeem:

"Power consumption was measured using a Kill-A-Watt power meter that measures a power supply’s power draw directly from the wall outlet. The power supply used in the test system is a Thermaltake Toughpower that carries an efficiency rating up to 85%."

dan is het iets minder erg
maar bij de gpu's moeten ze ook maar eens aan de term prestatieperwatt gaan denken..
Hij ziet er echt heel erg bruut uit zeg! Ben benieuwd wanneer hij komt. Dit is echt een stukje hardware waarvoor je je complete systeem zou gaan upgraden.

Ik ben ook erg benieuwd hoe hij presteert t.o.v. de huidige flagship card, de 7950GX2. Hij heeft immers minder geheugen (maar sneller geheugen), een snellere core en uiteraard een verbeterde techniek.
Ben benieuwd hoe hij presteert tegen de nieuwe Radeon (DX10) :P
1 2 3 ... 10

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True