Meer details over nVidia's G80-gpu verschenen

DailyTech heeft meer informatie gepubliceerd over de specificaties van de GeForce 8800 GTX en de GeForce 8800 GTS die in de tweede week van november geïntroduceerd zullen worden. De GeForce 8800 GTX en GTS zijn gebaseerd op de G80-core en zijn volledig compatible met DirectX 10. De GeForce 8800 GTX is het topmodel van de serie met een core die op 575MHz geklokt zal worden en 768MB geheugen op 1,8GHz. Tezamen met een 384-bit brede geheugenbus zal dit resulteren in een bandbreedte van 86GB/sec. De GeForce 8800 GTS is het lager geklokte familielid en neemt de plaats in die voorheen gereserveerd was voor de GT-modellen. De GeForce 8800 GTS zal in het bezit zijn van een core met een 500MHz kloksnelheid, 640MB geheugen op 1,8GHz en een 320-bit geheugenbus waardoor de bandbreedte op 64GB/sec komt te liggen. De breedte van de geheugenbus is bij beide kaarten opmerkelijk aangezien het geen macht van twee betreft.

nVidia logo (60 pix)Een ander opmerkelijk gegeven is het verschil in kloksnelheid tussen de unified shaders en de rest van de core. De GeForce 8800 GTX die standaard op 550MHz zal lopen krijgt de beschikking over 128 shaders met een kloksnelheid van 1350MHz en de GTS-variant die op 500MHz zijn werk doet is uitgerust met 96 unified shaders op 1200MHz. De kaarten zullen high dynamic-range (HDR) plaatjes kunnen tekenen met een precisie van 128-bit, een verdubbeling ten opzichte van de huidige generatie. Daarnaast ondersteunt de G80 16x anti-aliasing, een feature die tot op heden alleen gebruikt kan worden met een SLI-opstelling. Hoeveel energie de kaarten zullen gebruiken is nog onbekend, maar het verbruik zal waarschijnlijk niet mals zijn gezien de aanbeveling van nVidia om een 450W-voeding te gebruiken voor een systeem met één GeForce 8800 GTX-kaart en een voeding van 800W voor een systeem met twee GeForce 8800 GTX-kaarten.

Door Hielko van der Hoorn

05-10-2006 • 21:23

103

Bron: DailyTech

Lees meer

Nvidia's Cuda-systeem nader bekeken
Nvidia's Cuda-systeem nader bekeken Nieuws van 28 februari 2007
'ATi's R600 verstookt 250W'
'ATi's R600 verstookt 250W' Nieuws van 18 september 2006
ATi's R600 en nVidia's G80 vertraagd
ATi's R600 en nVidia's G80 vertraagd Nieuws van 14 september 2006

Reacties (103)

103
99
25
6
2
41
Wijzig sortering
ALS hij straks 800 watt trekt kost je dat 295 euro (per jaar) wanneer de PC elke dag 5 uur aan staat. Daar moeten 2790 bomen weer voor werken om de CO2 uitstoot te compenseren; die gaat nVidia niet planten ;)
Effectief doet ie zoiezo geen 800, maar op zijn hoogst ~150W voor een kaart, in 3D modus, buiten 3D modus kan die een heel eind naar beneden clocken.

5 uur per dag gamen is meer dan genoeg.

300 euro per jaar is niet ZO erg.

En zoals al wordt opgemerkt, windmolens(ondanks de oneconomischheid van die dingen) of beter nog kerncentrales, leveren helemaal geen CO2 uitstoot.

nVidia's logo is al groen, dus ze doen hun best.
Hoeveel energie de kaarten zullen gebruiken is nog onbekend, maar het verbruik zal waarschijnlijk niet mals zijn gezien de aanbeveling van nVidia om een 450W-voeding te gebruiken voor een systeem met één GeForce 8800 GTX-kaart en een voeding van 800W voor een systeem met twee GeForce 8800 GTX-kaarten.
Even een rechtzetting ivm deze misquote. Zowat ieder site heeft dat nieuws overgenomen zonder eventje na te denken.

De orgineel aangegeven waarden zijn:

Geforce 8800GTX: Een voeding van 450w voor gans!! het systeem. Dat is inclussief moederbord, hd's, cpu, etc etc.

Nu, de vergissing is gebeurt toen één site eventje dachten de slimmerik te zijn, en tot de conclussie kwamen dat 1 8800gtx = 450W, maw, 2 * = 800W of meer.

Nee, de Geforce 8800GTX zou ongeveer hetzelfde verbruik hebben als een 7900GTX. De echte waarde voor een SLI opstelling is rond de 550W a 600W voeding.

En die 450W is nogwel de aangerade waarde van Nvidia, in werkelijkheid is dat meestal overroepen. Als je een el-cheapo prutsvoeding hebt, die niet genoeg amps kan leveren op haar 12v rail, dan moet je idd naar een hogere class gaan, om genoeg amps te hebben. Waartegen een deftige voeding, met "maar" 350W gerust datzelfde configuratie kan draaien.

Maar jammer genoeg moet men de specs richten naar de voedingen die mensen vaak kopen, en dat zijn jammer genoeg, de el-cheapo voedingen ( tweakers ofcourse excluded, die weten beter dan el-cheapo voedingen van 15 a 20€ te kopen, en dan daar voor 1000€ aan hardware aan te hangen ;) ).

Maar ik zal het nog eens zeggen, de 800W voor een SLI opstelling is foutief ( en te bedenken dat het nogwel een hardware site was die dat bericht eerst lanceerde ).
Ik hoop dat de meesten van jullie nu eens begrijpen hoe ontzettend krachtig deze GPUs zijn en bepaalde berekeningen zo velen malen sneller kunnen dan een duo core-tje, voordat men weer begint te zeuren over de prijs of over het stroom verbruik. Dit zijn ontzettende krachtpatsers en je hoeft ze niet te kopen...

Ze zijn bovendien uitermate geschikt voor wetenschappelijke visualizatie (op je desktop!)...parallelle algoritmen zullen hier keihard op los kunnen gaan en de resultaten meteen op je scherm getoverd kunnen worden. Nee, dat kan je CPU-tje echt niet...
Ik hoop dat de meesten van jullie nu eens begrijpen hoe ontzettend krachtig deze GPUs zijn en bepaalde berekeningen zo velen malen sneller kunnen dan een duo core-tje, voordat men weer begint te zeuren over de prijs of over het stroom verbruik.
Maar een dual coretje kan bepaalde andere berekeningen ook weer vele malen sneller...
Dat noemt men dan geen berekeningen maar iteraties in een programma. Want anders zou het in strijd zijn met het feit dat een GPU meer FLOPS heeft dan een cpu.
Ik wilde eigelijk idd net zeggen dat ik'm wel erg veel stroom vond gebruiken... maja hij zal idd wel'n beettie sneller wezen dan mij Geforce 6600GT
GPUs zijn erg krachtig. Maar ze worden in praktijk voornamelijk gebruikt voor 3D weergave. En deze 8800 serie is dan ook nog eens vooral bedoeld voor spelletjes. Ja, je kan er physics mee uitrekenen en voor bepaalde wetenschappelijke toepassingen kunnen ze bruikbaar zijn. Maar die functies worden in praktijk (nog) nergens toegepast.

Voor het overgrote deel van de gebruikers is een GPU dan ook niets meer dan een manier om beelden wat mooier weer te geven. Je kunt je afvragen of dat doel de prijs en het stroomverbruik van deze monsters rechtvaardigd.
Maar die functies worden in praktijk (nog) nergens toegepast.
heb jij het even mis,

www.gpgpu.org
zo lastig is het niet.
ding heeft gewoon 5 of 6 64bit memory controllers parallel
5x64=320
6x64=384
Is het mij of ben ik de enige die altijd nogal schrikt van het aantal Watt dat een nieuwe grafische kaart tegenwoordig slikt? Niet dat een Extreme edition pentium of een FX versie AMD zo weinig slikt, maar toch geen 400 extra watt in SLI zeg maar ;x
ik snap niet dat je schrikt. Die GPU's zijn simpelweg heel krachtig kunnen heel veel berekeningen tegelijk doen. Die g80 is een 64 Core processor, dus dan is het niet zo gek dat die wat stroom vraagt B-)
Maar de xbox360 heeft ook hele krachtige GPU, ook unified, kan iemand me dan vertellen waarom dan deze GPUs zoveel stroom nodig hebben en deze in XBOX360 niet?

Ze kunnen toch in dezelfde trend gaan als de XBOX360??

Want die verstookt bijlange niet zoveel en is toch ook best krachtig als je kijkt naar het grafische beeld dat je krijgt
een xbox360 is een dedicated machine specifiek gemaakt voor games, terwijl zoiets dat niet is. kijk bijvoorbeeld naar de oude xbox, daar zit een celeron 733mhz 64 mb ram en ik geloof een 32mb nvidia videokaart in en kijk eens naar die graphics! dat lukt jou niet op een normale celeron 733 mhz pc
Ik vind dat de XBox 360 anders aardig wat neemt, sodeju wat een adapter...

Maar een XBox 360 is als geheel ontworpen, dat scheelt. Bovendien overdrijft nVidia die wattages altijd gruwelijk. Ik denk dat hij echt niet meer verbruikt dan een 7800GTX..

Als je een beetje kijkt naar wat er op zit, en hoeveel procent hij sneller is, en je kijkt naar het verschil in productieprocede zou hij iig ongeveer 10% meer gebruiken dan een 7800GTX.. en er komt straks vast wel een G81 op een kleiner procede ;)
Het lijkt me dat overdrijven het laatse is wat ze willen gezien een hoger wattage iets is wat geinformeerde consumenten niet willen.
Die 350 watt zal het imho niet zijn gezien 400 tot 500 watt de standaart is qua voedingen en 150 watt voor de rest van de componenten wat krap is en ze de kaart ook bij grote PC bouwers kwijt willen.
De XBox360 GPU komt niet in de buurt van deze G80:

500Mz (G80: 575)
48 ALU'ss (G80: 64 ALU's aan dubbele snelheid?)
128 bit geheugenbus (G80: 384 bit)
22GB/s bandbreedte (G80: 86GB/s)
512MB 700Mhz GDDR3 geheugen (G80: 768MB 900Mhz GDDR3)
800 watt voor een SLI..

Als een systeem met een enkele kaart 400 watt verbruikt verbruikt een systeem met 2 kaarten nog geen 800 watt

Lijkt er op dat iemand zelf een conclusie heeft getrokken.
Ik denk dat voor SLI 650 watt of 700 watt voldoende is.
Ik denk dat hierin ook meegenomen is dat als je het geld er voor over hebt een 8800 in SLI te gaan draaien je ook wel een stuk meer andere hardware in je PC hebt zittten. (paar harde schijven meer, meer geheugen, insteekkaartjes enz)
ik denk dat nVidia gewoon bang is voor bv Q-tec's van 650Watt die in werkelijkheid een stuk minder leveren...
nvidia kent q-tec nieteens....


...ik wel.. learned it the hard way -.-
Lijkt er op dat iemand zelf een conclusie heeft getrokken.
Dat er meer onderdelen zijn dan videokaarten die stroom verbruiken?
van nVidia om een 450W-voeding te gebruiken voor een systeem met één GeForce 8800 GTX-kaart en een voeding van 800W voor een systeem met twee GeForce 8800 GTX-kaarten.
ff de zakjapanner pakken om 450 van 800 af te trekken...

ca. 350W voor 1 kaartje is niet echt ehm... weinig :o
Sjeeezus. Dit is geen videokaart maar een MOLEX-eindstation; een Black hole of power.. Defy phisics, energie kan dus toch verloren gaan.
Ik zie nergens staan dat de kaart zelf 450 watt trekt hoor :)
Hoeveel energie de kaarten zullen gebruiken is nog onbekend, maar het verbruik zal waarschijnlijk niet mals zijn gezien de aanbeveling van nVidia om een 450W-voeding te gebruiken voor een systeem met één GeForce 8800 GTX-kaart en een voeding van 800W voor een systeem met twee GeForce 8800 GTX-kaarten.
nVidia raadt mensen aan die een compleet systeem hebben met daarin een 8800 geprikt, een voeding te hebben van minimaal 450W. Dus niet dat de kaart zelf 450W trekt :)
OT: Vraagje @ dTw1zzzy, toevallig @ Hanze opleiding Elektrotechniek en Leupen gehad?

iig nog nooit van een zakjapanner gehoord voordat ik hem had, Heb btw nog nooit een zakjapanner met spellingscontrole gezien :P
OT @ Don ParanoiD: nope sorry ik zit in Hardenberg op het VC, VWO6 ;)

en alsjeblieft, zet je spellingscorrectie aan, het is dTw1zzy met 'maar' 2 z's ;) ;) ;)
DAt een voeding 350 watt meer vermogen heeft betekent toch niet per definitie dat ie dat allemaal op de lijnen naar de videokaarten zet/kan zetten? ik denk dat 200 watt eerder iets realistisch is (geen idee waarom maar vind het wel goed getal voro die videokaarten en als je zo naar de trend kijkt,... neemt niet weg dat ookal zou het maar 150 watt zijn ik het nog steeds belachelijk veel vind)
Ik denk dat men eerder naar de +12V lijn moet kijken dan je blindstaren op het aantal Watt. Je hebt voor je videokaart meer aan een Enermax 400W voeding met 22A op de +12V dan een goedkoop Nederlands merk als Sweex van 450W met 14A op de +12V.
ca. 350W voor 1 kaartje is niet echt ehm... weinig
Dit gaat waarschijnlijk over 350 Sweex Watts, niet over 350 echte Watts. :)

Heeft jouw zakjappanner geen spellingscontrole trouwens?
nee, sorry, uit mn hoofd gedaan :+

maar ehm weer even ontopic:

ik ga er echt wel vanuit dat nVidia kwaliteitswatts rekent hoor (sorry ik wil ff iets uitleggen maar ik kan niet echt de goeie woorden vinden om het te omschrijven :? ) 350 Sweex watts zijn misschien niet effectief 350W, maar die kaarten hebben in SLi dus 0.8 kW effectief nodig ;)

hopelijk snap je het nu, echt beter kan ik het niet omschrijven
Het lijkt me sterk dat NVidia in kwaliteits-watts rekent, dan kunnen ze waarschijnlijk rekenen op overuren op de "Helpdesk".
Ik weet niet welk SLI systeem jij dan met 100 Watt denkt te kunnen draaien hoor want als jou 350 watt klopt dan kom ik voor de rest van het systeem aan 100 watt.

cpu: 65 watt
moederbord + geheugen: 20 watt???? (geen idee)
harde schijf: 20 watt @ starten
cd/dvd etc
en tja een sli systeem is meestal toch wat meer high end dus eerder

cpu: 90 watt
wat extra geheugen enzo 30 watt
minimaal 2 hdd's 40 watt

oftewel ik denk dat je berekening niet helemaal klopt en Nvidia zal er dan ook vanuit gaan dat een SLI systeem ook qua overige componenten wat zwaarder is uitgevoerd ;)
Heeft hij zijn bericht nou gewijzigd of proberen jullie hem iets aan te leren dat niet helemaal klopt :+

zak·ja·pan·ner (de ~ (m.))
1 [inf.] zakrekenmachientje [van Japans fabricaat]
De breedte van de geheugenbus is bij beide kaarten opmerkelijk aangezien het geen macht van twee betreft.
Natuurlijk is dat wel een macht van twee!

log(384)/log(2) = ~8,585
log(320)/log(2) = ~8,322

Niet een natuurlijk getal, maar ach, weldegelijk als macht van 2 te schrijven die getallen! :+

Overigens vraag ik me af waarom (buiten dat het bijna altijd een machtsverheffing van twee met een natuurlijk getal is) een geheugenbus van 320bit of 384bit raar is?
*kuch* 2^8 + 2^7 = 384
en 2^8 + 2^6 = 320 *kuch*

ik denk dus eerder een 256 bits bus + een 128 bits bus,
misschien een kleuren (RGBA) bus en een depth (Z)+stencil bus ?
Wat ZUP probeert uit te leggen is dat:

256 plus 128 gewoon 384 is
en 256 + 64 mooi uitkomt op 320 ;)
Ik denk eerder dat het zoals altijd is, elke geheugenchip wordt apart aangesproken. Over het algemeen hebben de geheugenchips een bus van 32bits, dus 10 geheugenchips voor de 8800GTS = 320bits totaal als je ze parallel aanspreekt. Dat zou dus betekenen dat de 8800GTX 12 geheugenchips op de PCB heeft, een feit wat makkelijk te controleren is zodra er foto's/reviews zijn :).

Dat 32bits weet ik niet zeker, maar ik dacht dat dat standaard was voor iig gDDR3 chips.
Ja, ja. En pi is zeker ook een macht van 2 :)
2^x = 3,1415926535897932384626433832795028841971

x = 2log 3,1415926535897932384626433832795028841971

x = 1.65099 :*)
dan kom je niet uit op 2^3, 2^4, 2^5
jij neemt de wortel uit 320 met kwadraat 2

edit: erg laat, mod maar weg :)
dubbel...
@ flippy.nl

Ach er werd gezegd dat een 7800gt ook op een 350 watt moest draaien, mijn toenmalige budget 300watt voeding trok het makkelijk zonder problemen...

echter nu wel vervangen voor een coolermaster realpower 450 watt omdat er nog aantal componenten bij zijn gekomen...

Op dit item kan niet meer gereageerd worden.