Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 103 reacties
Bron: DailyTech, submitter: Renzo24

DailyTech heeft meer informatie gepubliceerd over de specificaties van de GeForce 8800 GTX en de GeForce 8800 GTS die in de tweede week van november geïntroduceerd zullen worden. De GeForce 8800 GTX en GTS zijn gebaseerd op de G80-core en zijn volledig compatible met DirectX 10. De GeForce 8800 GTX is het topmodel van de serie met een core die op 575MHz geklokt zal worden en 768MB geheugen op 1,8GHz. Tezamen met een 384-bit brede geheugenbus zal dit resulteren in een bandbreedte van 86GB/sec. De GeForce 8800 GTS is het lager geklokte familielid en neemt de plaats in die voorheen gereserveerd was voor de GT-modellen. De GeForce 8800 GTS zal in het bezit zijn van een core met een 500MHz kloksnelheid, 640MB geheugen op 1,8GHz en een 320-bit geheugenbus waardoor de bandbreedte op 64GB/sec komt te liggen. De breedte van de geheugenbus is bij beide kaarten opmerkelijk aangezien het geen macht van twee betreft.

nVidia logo (60 pix)Een ander opmerkelijk gegeven is het verschil in kloksnelheid tussen de unified shaders en de rest van de core. De GeForce 8800 GTX die standaard op 550MHz zal lopen krijgt de beschikking over 128 shaders met een kloksnelheid van 1350MHz en de GTS-variant die op 500MHz zijn werk doet is uitgerust met 96 unified shaders op 1200MHz. De kaarten zullen high dynamic-range (HDR) plaatjes kunnen tekenen met een precisie van 128-bit, een verdubbeling ten opzichte van de huidige generatie. Daarnaast ondersteunt de G80 16x anti-aliasing, een feature die tot op heden alleen gebruikt kan worden met een SLI-opstelling. Hoeveel energie de kaarten zullen gebruiken is nog onbekend, maar het verbruik zal waarschijnlijk niet mals zijn gezien de aanbeveling van nVidia om een 450W-voeding te gebruiken voor een systeem met één GeForce 8800 GTX-kaart en een voeding van 800W voor een systeem met twee GeForce 8800 GTX-kaarten.

Moderatie-faq Wijzig weergave

Reacties (103)

ALS hij straks 800 watt trekt kost je dat 295 euro (per jaar) wanneer de PC elke dag 5 uur aan staat. Daar moeten 2790 bomen weer voor werken om de CO2 uitstoot te compenseren; die gaat nVidia niet planten ;)
Effectief doet ie zoiezo geen 800, maar op zijn hoogst ~150W voor een kaart, in 3D modus, buiten 3D modus kan die een heel eind naar beneden clocken.

5 uur per dag gamen is meer dan genoeg.

300 euro per jaar is niet ZO erg.

En zoals al wordt opgemerkt, windmolens(ondanks de oneconomischheid van die dingen) of beter nog kerncentrales, leveren helemaal geen CO2 uitstoot.

nVidia's logo is al groen, dus ze doen hun best.
Hoeveel energie de kaarten zullen gebruiken is nog onbekend, maar het verbruik zal waarschijnlijk niet mals zijn gezien de aanbeveling van nVidia om een 450W-voeding te gebruiken voor een systeem met één GeForce 8800 GTX-kaart en een voeding van 800W voor een systeem met twee GeForce 8800 GTX-kaarten.
Even een rechtzetting ivm deze misquote. Zowat ieder site heeft dat nieuws overgenomen zonder eventje na te denken.

De orgineel aangegeven waarden zijn:

Geforce 8800GTX: Een voeding van 450w voor gans!! het systeem. Dat is inclussief moederbord, hd's, cpu, etc etc.

Nu, de vergissing is gebeurt toen één site eventje dachten de slimmerik te zijn, en tot de conclussie kwamen dat 1 8800gtx = 450W, maw, 2 * = 800W of meer.

Nee, de Geforce 8800GTX zou ongeveer hetzelfde verbruik hebben als een 7900GTX. De echte waarde voor een SLI opstelling is rond de 550W a 600W voeding.

En die 450W is nogwel de aangerade waarde van Nvidia, in werkelijkheid is dat meestal overroepen. Als je een el-cheapo prutsvoeding hebt, die niet genoeg amps kan leveren op haar 12v rail, dan moet je idd naar een hogere class gaan, om genoeg amps te hebben. Waartegen een deftige voeding, met "maar" 350W gerust datzelfde configuratie kan draaien.

Maar jammer genoeg moet men de specs richten naar de voedingen die mensen vaak kopen, en dat zijn jammer genoeg, de el-cheapo voedingen ( tweakers ofcourse excluded, die weten beter dan el-cheapo voedingen van 15 a 20¤ te kopen, en dan daar voor 1000¤ aan hardware aan te hangen ;) ).

Maar ik zal het nog eens zeggen, de 800W voor een SLI opstelling is foutief ( en te bedenken dat het nogwel een hardware site was die dat bericht eerst lanceerde ).
Ik hoop dat de meesten van jullie nu eens begrijpen hoe ontzettend krachtig deze GPUs zijn en bepaalde berekeningen zo velen malen sneller kunnen dan een duo core-tje, voordat men weer begint te zeuren over de prijs of over het stroom verbruik. Dit zijn ontzettende krachtpatsers en je hoeft ze niet te kopen...

Ze zijn bovendien uitermate geschikt voor wetenschappelijke visualizatie (op je desktop!)...parallelle algoritmen zullen hier keihard op los kunnen gaan en de resultaten meteen op je scherm getoverd kunnen worden. Nee, dat kan je CPU-tje echt niet...
GPUs zijn erg krachtig. Maar ze worden in praktijk voornamelijk gebruikt voor 3D weergave. En deze 8800 serie is dan ook nog eens vooral bedoeld voor spelletjes. Ja, je kan er physics mee uitrekenen en voor bepaalde wetenschappelijke toepassingen kunnen ze bruikbaar zijn. Maar die functies worden in praktijk (nog) nergens toegepast.

Voor het overgrote deel van de gebruikers is een GPU dan ook niets meer dan een manier om beelden wat mooier weer te geven. Je kunt je afvragen of dat doel de prijs en het stroomverbruik van deze monsters rechtvaardigd.
Maar die functies worden in praktijk (nog) nergens toegepast.
heb jij het even mis,

www.gpgpu.org
Ik hoop dat de meesten van jullie nu eens begrijpen hoe ontzettend krachtig deze GPUs zijn en bepaalde berekeningen zo velen malen sneller kunnen dan een duo core-tje, voordat men weer begint te zeuren over de prijs of over het stroom verbruik.
Maar een dual coretje kan bepaalde andere berekeningen ook weer vele malen sneller...
Dat noemt men dan geen berekeningen maar iteraties in een programma. Want anders zou het in strijd zijn met het feit dat een GPU meer FLOPS heeft dan een cpu.
Ik wilde eigelijk idd net zeggen dat ik'm wel erg veel stroom vond gebruiken... maja hij zal idd wel'n beettie sneller wezen dan mij Geforce 6600GT
Is het mij of ben ik de enige die altijd nogal schrikt van het aantal Watt dat een nieuwe grafische kaart tegenwoordig slikt? Niet dat een Extreme edition pentium of een FX versie AMD zo weinig slikt, maar toch geen 400 extra watt in SLI zeg maar ;x
ik snap niet dat je schrikt. Die GPU's zijn simpelweg heel krachtig kunnen heel veel berekeningen tegelijk doen. Die g80 is een 64 Core processor, dus dan is het niet zo gek dat die wat stroom vraagt B-)
zo lastig is het niet.
ding heeft gewoon 5 of 6 64bit memory controllers parallel
5x64=320
6x64=384
Maar de xbox360 heeft ook hele krachtige GPU, ook unified, kan iemand me dan vertellen waarom dan deze GPUs zoveel stroom nodig hebben en deze in XBOX360 niet?

Ze kunnen toch in dezelfde trend gaan als de XBOX360??

Want die verstookt bijlange niet zoveel en is toch ook best krachtig als je kijkt naar het grafische beeld dat je krijgt
een xbox360 is een dedicated machine specifiek gemaakt voor games, terwijl zoiets dat niet is. kijk bijvoorbeeld naar de oude xbox, daar zit een celeron 733mhz 64 mb ram en ik geloof een 32mb nvidia videokaart in en kijk eens naar die graphics! dat lukt jou niet op een normale celeron 733 mhz pc
De XBox360 GPU komt niet in de buurt van deze G80:

500Mz (G80: 575)
48 ALU'ss (G80: 64 ALU's aan dubbele snelheid?)
128 bit geheugenbus (G80: 384 bit)
22GB/s bandbreedte (G80: 86GB/s)
512MB 700Mhz GDDR3 geheugen (G80: 768MB 900Mhz GDDR3)
Ik vind dat de XBox 360 anders aardig wat neemt, sodeju wat een adapter...

Maar een XBox 360 is als geheel ontworpen, dat scheelt. Bovendien overdrijft nVidia die wattages altijd gruwelijk. Ik denk dat hij echt niet meer verbruikt dan een 7800GTX..

Als je een beetje kijkt naar wat er op zit, en hoeveel procent hij sneller is, en je kijkt naar het verschil in productieprocede zou hij iig ongeveer 10% meer gebruiken dan een 7800GTX.. en er komt straks vast wel een G81 op een kleiner procede ;)
Het lijkt me dat overdrijven het laatse is wat ze willen gezien een hoger wattage iets is wat geinformeerde consumenten niet willen.
Die 350 watt zal het imho niet zijn gezien 400 tot 500 watt de standaart is qua voedingen en 150 watt voor de rest van de componenten wat krap is en ze de kaart ook bij grote PC bouwers kwijt willen.
van nVidia om een 450W-voeding te gebruiken voor een systeem met één GeForce 8800 GTX-kaart en een voeding van 800W voor een systeem met twee GeForce 8800 GTX-kaarten.
ff de zakjapanner pakken om 450 van 800 af te trekken...

ca. 350W voor 1 kaartje is niet echt ehm... weinig :o
DAt een voeding 350 watt meer vermogen heeft betekent toch niet per definitie dat ie dat allemaal op de lijnen naar de videokaarten zet/kan zetten? ik denk dat 200 watt eerder iets realistisch is (geen idee waarom maar vind het wel goed getal voro die videokaarten en als je zo naar de trend kijkt,... neemt niet weg dat ookal zou het maar 150 watt zijn ik het nog steeds belachelijk veel vind)
Ik denk dat men eerder naar de +12V lijn moet kijken dan je blindstaren op het aantal Watt. Je hebt voor je videokaart meer aan een Enermax 400W voeding met 22A op de +12V dan een goedkoop Nederlands merk als Sweex van 450W met 14A op de +12V.
Sjeeezus. Dit is geen videokaart maar een MOLEX-eindstation; een Black hole of power.. Defy phisics, energie kan dus toch verloren gaan.
Ik zie nergens staan dat de kaart zelf 450 watt trekt hoor :)
Hoeveel energie de kaarten zullen gebruiken is nog onbekend, maar het verbruik zal waarschijnlijk niet mals zijn gezien de aanbeveling van nVidia om een 450W-voeding te gebruiken voor een systeem met één GeForce 8800 GTX-kaart en een voeding van 800W voor een systeem met twee GeForce 8800 GTX-kaarten.
nVidia raadt mensen aan die een compleet systeem hebben met daarin een 8800 geprikt, een voeding te hebben van minimaal 450W. Dus niet dat de kaart zelf 450W trekt :)
OT: Vraagje @ dTw1zzzy, toevallig @ Hanze opleiding Elektrotechniek en Leupen gehad?

iig nog nooit van een zakjapanner gehoord voordat ik hem had, Heb btw nog nooit een zakjapanner met spellingscontrole gezien :P
OT @ Don ParanoiD: nope sorry ik zit in Hardenberg op het VC, VWO6 ;)

en alsjeblieft, zet je spellingscorrectie aan, het is dTw1zzy met 'maar' 2 z's ;) ;) ;)
ca. 350W voor 1 kaartje is niet echt ehm... weinig
Dit gaat waarschijnlijk over 350 Sweex Watts, niet over 350 echte Watts. :)

Heeft jouw zakjappanner geen spellingscontrole trouwens?
nee, sorry, uit mn hoofd gedaan :+

maar ehm weer even ontopic:

ik ga er echt wel vanuit dat nVidia kwaliteitswatts rekent hoor (sorry ik wil ff iets uitleggen maar ik kan niet echt de goeie woorden vinden om het te omschrijven :? ) 350 Sweex watts zijn misschien niet effectief 350W, maar die kaarten hebben in SLi dus 0.8 kW effectief nodig ;)

hopelijk snap je het nu, echt beter kan ik het niet omschrijven
Ik weet niet welk SLI systeem jij dan met 100 Watt denkt te kunnen draaien hoor want als jou 350 watt klopt dan kom ik voor de rest van het systeem aan 100 watt.

cpu: 65 watt
moederbord + geheugen: 20 watt???? (geen idee)
harde schijf: 20 watt @ starten
cd/dvd etc
en tja een sli systeem is meestal toch wat meer high end dus eerder

cpu: 90 watt
wat extra geheugen enzo 30 watt
minimaal 2 hdd's 40 watt

oftewel ik denk dat je berekening niet helemaal klopt en Nvidia zal er dan ook vanuit gaan dat een SLI systeem ook qua overige componenten wat zwaarder is uitgevoerd ;)
Het lijkt me sterk dat NVidia in kwaliteits-watts rekent, dan kunnen ze waarschijnlijk rekenen op overuren op de "Helpdesk".
Heeft hij zijn bericht nou gewijzigd of proberen jullie hem iets aan te leren dat niet helemaal klopt :+

zak·ja·pan·ner (de ~ (m.))
1 \[inf.] zakrekenmachientje [van Japans fabricaat]
Bizar... 786 MB met een snelheid van 86 GB / sec.. das maar 4x zosnel als de toekomstig hypertransport 3.

Met zoveel snelheid.. waarom gaan we dat niet toepassen om het werkgeheugen?
Omdat een CPU daar niets mee kan en je dan geen sockets meer kunt gebruiken, maar het geheugen op het MoBo moet solderen.
En omdat 1GB van dit DDR3 geheugen op reepjes waarschijnlijk een euro of 1000 zou doen!
Met zoveel snelheid.. waarom gaan we dat niet toepassen om het werkgeheugen?
Doen ze toch ook?
G80 chip will intro TurboCache era
http://www.theinquirer.net/default.aspx?article=34885
Well, kijk naar de breedte van de bus. 384 bits tov 32 of 64 bit voor een processor.


Dit kun je dus mooi niet halen met een processor ;).
ehhh nee die 32 of 64bits is niet de bandbreedte van de processorbus.. dat is bij AMD hypertransport 3 en bij intel weet ik niet hoe het heet..
Die 32 of 64 bits is de grootte van de pakketjes data die de processor kan behappen. Hierdoor kan hij de meteen veel meer geheugenregisters aanspreken, ze hebben immers geen namen meer van 32bits maar van 64bits. Over hoeveel pinnetjes en met hoeveel bandbreedte dat binnenkomt staat daar los van!
AMD s940/939/AM2/F Athlons 64/Opterons hebben in principe een 128bits brede geheugenbus (2 geheugencontrollers met een 64bits bus elk). Het '32bits' of '64bits' -zijn van een processor heeft meer te maken met de breedte van het datapad en de interne registers, en daaruit vloeit vaak ook voort de (theoretische) grootte van de virtuele en fysieke adresruimte (hoewel die bij de x86-64 architectuur vooralsnog gelimiteerd zijn tot 48 of 40 bits met sign extension naar 64 bits, wat overigens laf is, lamers daar bij AMD ;)).
800 watt voor een SLI..

Als een systeem met een enkele kaart 400 watt verbruikt verbruikt een systeem met 2 kaarten nog geen 800 watt

Lijkt er op dat iemand zelf een conclusie heeft getrokken.
Ik denk dat voor SLI 650 watt of 700 watt voldoende is.
Ik denk dat hierin ook meegenomen is dat als je het geld er voor over hebt een 8800 in SLI te gaan draaien je ook wel een stuk meer andere hardware in je PC hebt zittten. (paar harde schijven meer, meer geheugen, insteekkaartjes enz)
ik denk dat nVidia gewoon bang is voor bv Q-tec's van 650Watt die in werkelijkheid een stuk minder leveren...
nvidia kent q-tec nieteens....


...ik wel.. learned it the hard way -.-
Lijkt er op dat iemand zelf een conclusie heeft getrokken.
Dat er meer onderdelen zijn dan videokaarten die stroom verbruiken?
800W voeding? :D

* flippy.nl rent naar winkel om zijn uber 500w enermax retour te sturen :P

maare, 800W in een kassie? das een beste partij heatpipes en fans om dat koel te houden, das gewoon een 1000W bouwlamp in je kast qua warmte.
en ik vorig jaar nog denken dat mijn black ice extreme 3 "voorlopig" wel voldoende reserves had |:(
verschil is dat die 1000W bouwlamp werkelijk 1000W doet, (en jouw voeding niet continu 800W, zou die ook niet kunnen)
en licht/straling/warmte is iets anders dan wat er in jouw voeding gebeurt
Wat denk je dat er met alle energie gebeurd die een systeem verbruikt? Dat wordt uiteindelijk allemaal in warmte omgezet.
Niet alles wordt in warmte omgezet! Dat ligt helemaal aan de efficientie van de componenten!

Zo zal bij die 1000 Watt bouwlamp 95 % worden omgezet in warmte maar je CPU zal minder warmte verstoken omdat die efficienter werkt!

Als je die getallen weet weet je ook wat er aan warmte vrijkomt!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True