Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties

De Hybrid SLI-feature ontbreekt bij Nvidia's nieuwe videokaarten, de GTX285 en de GTX295. De mogelijkheid bestaat dat Nvidia voor de consumentenmarkt geen videokaarten meer uit zal brengen die geschikt zijn voor Hybrid SLI.

Onderdeel van de een jaar geleden geïntroduceerde Hybrid SLI-feature is Hybrid Power, een functie die de discrete videokaart uitschakelt en de igp  inschakelt, om zo het energieverbruik te reduceren wanneer er weinig grafische rekenkracht nodig is. De GTX285 en de GTX295 moeten het echter zonder deze functie doen, terwijl de vorige generatie GTX-videokaarten nog wel over Hybrid SLI beschikte. Het ontbreken van de functionaliteit bij de GTX295 is nog te verklaren aan de hand van het gegeven dat die videokaart gebruik maakt van twee gpu's die al in sli draaien. Het ontbreken van de feature bij de GTX285 is daarentegen wel opmerkelijk, aangezien deze videokaart niet meer is dan een op 55nm geproduceerde GTX280 met hogere kloksnelheden.

Er liggen waarschijnlijk een aantal redenen ten grondslag aan het vermoedelijke verdwijnen van Hybrid SLI. In november sprak Microsoft zich al uit tegen zowel Hybrid SLI als Hybrid Crossfire van respectievelijk Nvidia en AMD. De softwaregigant raadt het systeembouwers af om computers met hybride gpu-opstellingen op de markt te brengen omdat die niet stabiel genoeg zouden zijn. Tegen ComputerBase zei Nvidia dat zowel systeembouwers als consumenten niet enthousiast zijn over Hybrid SLI, omdat de moederborden en videokaarten er duurder door worden. Voor de retail-desktopmarkt zou Hybrid SLI dan ook aan zijn einde zijn gekomen, of hetzelfde geldt voor de oem-desktopmarkt en de notebookmarkt is nog onduidelijk.

Hybrid SLI

Moderatie-faq Wijzig weergave

Reacties (51)

Begin me nu af te vragen of dit samenhangt met het feit dat Hybrid Power de videokaart constant aan en uit schakelt en nVidia juist zoveel uitval had door het vele uit en aanzetten van de GPU op notebooks.

Misschien dat er toch meer aan de hand was dan alleen de 'die' soldeer verbindingen.

Hybrid SLi heeft inderdaad weinig nut bij deze krachtige videokaarten, omdat de IGP compleet stil staat in vergelijking. Echter dan nog steeds kan de IGP voor simpele taken gebruikt worden, zoals AI.

Wat kosten betreft, een nVidia GeForce 9300 moederbord heb je al voor $119 en is dus aan de wat duurdere kant, echter snap ik niet waarom de zeer vergelijkbare AMD 780G moederborden dan voor $69 gemaakt kunnen worden. Het verbaasde me al dat nVidia nooit haast maakte om Hybrid Power werkend te krijgen op het Intel platform, want opzich zijn alle componenten aanwezig.

Hoop dat AMD blijft doortimmeren, want zeker voor een HTPC (die ook als game console dienst doet) die 24 uur per dag aanstaat, is het ideaal dat de videokaart volledig kan worden uitgeschakelt. Het tikt toch snel aan met een HD4870 kaart in idle stand wat verbruik betreft. Het kost hier op jaarbasis ongeveer exact 1$ per Watt die gebruikt wordt. Puur op het idle verbruik van een zeer krachtige videokaart opstelling scheelt dat dan al snel $150.
Hoop dat AMD blijft doortimmeren, want zeker voor een HTPC (die ook als game console dienst doet) die 24 uur per dag aanstaat, is het ideaal dat de videokaart volledig kan worden uitgeschakelt. Het tikt toch snel aan met een HD4870 kaart in idle stand wat verbruik betreft.
Ergens pak je het dan toch ook weer niet slim aan lijkt als je zo'n relatief zwaar systeem 24/7 aan gaat zetten.

Beter gebruik je daar een lichter systeempje voor. Wat je desnoods in de meterkast zet of zo. Maar goed, ieder z'n ding.
Puur op het idle verbruik van een zeer krachtige videokaart opstelling scheelt dat dan al snel $150.
Behalve dan dat een GTX285 idle niet veel meer dan 25-30 W verbruikt. En de IGP die je er extra voor in je systeempje moet hebben iets van 10 W extra verbruik oplevert? Je wint er effectief iets van 15 W mee.

Beter zet je een spaarlampje minder aan. :)

Er is een duidelijk dalende lijn in het idle verbruik van videokaarten, ook de brute zware kaarten. Ik zie véél liever een discrete kaart die idle nog maar 15 W opslurpt dan dat geklooi met een extra IGP. Laat nVidia daar z'n energie maar in steken.

[Reactie gewijzigd door houseparty op 26 januari 2009 20:57]

Begin me nu af te vragen of dit samenhangt met het feit dat Hybrid Power de videokaart constant aan en uit schakelt en nVidia juist zoveel uitval had door het vele uit en aanzetten van de GPU op notebooks.
Lijkt me toch sterk, ik denk niet dat NVIDIA nu ze op de hoogte zijn van de problemen gewoon door gaan met productie. Als we NVIDIA mogen geloven zijn het ook maar een beperkt aantal chips die er last van hebben, en is het probleem al (lang) opgelost.
Eigenlijk kan ik me weinig voorstellen bij het hele zuinigheids verhaal van mensen. Waar kijken verreweg de meeste mensen naar? de prijs! Het zal de consument een worst wezen of een processor of kaart iets zuiniger is of niet. Met welke techniek dan ook.
Er wordt gedaan alsof iedereen druk bezig is met het verbruik van hun apparatuur. Ik kan je verklappen: bijna niemand doet dat. Zuinige producten maken moet een keus zijn van de producenten en niet van de consumenten. Ga naar een winkel en kijk bijvoorbeeld naar een lcd tv. twee mooie beeldschermen naast elkaar: de een 600 euro en de ander 800 euro omdat zie zuiniger is. wie o wie legt 200 euro extra naar om in 10 jaar tijd dat geld terug te verdienen?

Geld hetzelfde voor hierboven. de moederborden worden duurder--> de consument heeft daar geen trek in. Met alle respect voor de milieu mensen. Energie voor je pc of tv of welk apparaat dan ook boeit bijna niemand met de huidige kosten voor stroom. (hoeveel voordeel levert een paar Watt verschil per jaar op?)

Als we echt wat voor het milieu willen doen moet je dat niet aan de consument overlaten. Zorg dat de zuinige producten goedkoper zijn dan de dure. Dat heeft effect!
Eigenlijk kan ik me weinig voorstellen bij het hele zuinigheids verhaal van mensen. Waar kijken verreweg de meeste mensen naar? de prijs! Het zal de consument een worst wezen of een processor of kaart iets zuiniger is of niet.

Als een product aangeprezen wordt om zijn energiezuinigheid en maar 10 euro duurder is, dan denk ik dat de consument in deze 'groene tijden' voor de energiezuinige variant gaat. Wist je al dat je op energie ook geld kunt besparen?
Je LCD tv vergelijking vind ik niet van toepassing op dit onderwerp, maar daarnaast is het ook nog discutabel of je die 200 euro eruit gaat halen. Mijn ouders hebben namelijk al 10 jaar dezelfde tv die van 18:00 tot 24:00 aanstaat.
Een mobo met onboard videokaart hoeft echt niet veel duurder te zijn, alleen kom je dan helaas vaak uit op een mATX model. Maar als je pc 24 uur per dag aanstaat zoals de mijne, is het wel zonde om je videokaart maar stroom te laten verstoken terwijl er een >1watt oplossing is van 5 euro.
99% van de consumenten weet dan ook niet hoe energiezuinig bepaalde onderdelen zijn, en laat zich daar ook evenmin over informeren. De meesten kijken gewoon naar het hoogste aantal megahertzen, de grootste hoeveelheid ram en de harde schijf. De videokaart wordt in veel gevallen zelfs vergeten te bekijken...

Als mensen zich informeerden (of geïnformeerd werden), dan zou bijna niemand nog een sweex / qtec voeding kopen, want met het "rendement" van die voedingen heb je na een paar jaar gewoon een degelijke kwaliteitsvolle merkvoeding terug. Hetzelfde met MedionPC's. Ik heb de voeding die in de medion van m'n zus zat eens doorgemeten; rendement was om van te huilen; ik ben namelijk niet verder dan 68% gekomen op zijn zuinigste punt. Die Medion mag dan lekker goedkoop zijn, als je hem vaak gebruikt kan je beter voor een duurder model met degelijke voeding gaan, betaalt zichzelf terug.

Ik ben dan ook een voorstander van 2 energielabels op kant en klare computers. 1 wat het rendement van je voeding aangeeft, en een wat het totale verbruik van je pc geeft. 2 labels omdat je anders 2 pc's met vb een C kan hebben; namelijk een degelijke gamebak en een lowbudget pc met rommelvoeding erin. Door 2 labels te hanteren kan je hier makkelijk onderscheid in maken.
Als die videokaart minder verstookt kan men ook de fans iets zachter zetten, wat dan weer minder geluid produceert. Afhankelijk van waar je pc staat kan dit een enorme opluchting zijn.
Opzich een logische stap aangezien Windows 7 Hybrid SLI en Crossfire-X niet ondersteunt.
En moderne higher end GPU's mooi zuinig zijn in idle toestand.

[Reactie gewijzigd door Luckster op 26 januari 2009 19:00]

Logische stap? Wat een onzin. In de groene hype die gaande is, is het juist logischer om Hybrid SLI en Crossfire-X wel door te stampen.

Ik vind het echt belachelijk dat een IDLE grafische kaart zoveel stroom zuigt. Geef mij maar gauw een hybrid opstelling. Nu heb ik 2x HD4850 aanstaan voor Aero, beetje onzinnig als het ook gewoon met een IGP prima kan.

Dat Microsoft het niet gaat ondersteunen vind ik een beetje vreemd, juist omdat ze bij de laptops er zo op zitten te hameren dat het een energiezuiniger platform is. Het enige wat ik zie gebeuren is dat het scherm dimt bij het te langzaam lezen van een pagina ;-).

Dus... Snel invoeren die handel. Hybrid ruled. Cores gaan toch ook lager draaien als ze niets hoeven te doen... en de Core i7 kun je zelfs per core opvoeren en heeft een weer beter energiesysteem dan de Core2 reeks. Grafische kaarten lopen tragisch achter met energiegebruik in IDLE. Ik weet dat performance per watt sterk gestegen is, maar als ik twee grafische kaarten in me systeem heb, wil ik best dat er gewoon 1 kaart uit zou gaan.

Hup hup hup, geef mij een efficiente GPU bij IDLE.
Ja de nieuwe nVidia GTX280 gebruikt niet zoveel meer, ok, zou misschien nog lager kunnen: http://benchmarkreviews.c...=72&limit=1&limitstart=13
Verder kunnen ze dit als het moet ook oplossen in de GPU zelf icm de drivers. Als de drivers detecteren dat er alleen maar Windows actief is met earo dat deze dan maar een paar streamprocessors gebruiken op een lagere snelheid, of zoiets dergelijks natuurlijk.
Niet zoveel meer? In vergelijking met jaren geleden niet nee, maar een GTX280 die 30W slurpt terwijl die in idle is vindt ik een heleboel!
In idle doet ie echt niet meer dan bijvoorbeeld een 780G welke volgens AMD maar 0,95W nodig heeft in idle. Dan heeft die GTX280 bijna 32x zoveel energie nodig om hetzelfde te doen als een 780G. Lijkt me nou typisch een reden om hybride SLI/Crossfire-X te blijven ondersteunen. Mijn netbook verbruikt ook zo'n 30W, ik begrijp dan écht niet waarom zo'n GTX280 niet íetsje zuiniger kan in idle.

[Reactie gewijzigd door -Elmer- op 26 januari 2009 19:37]

Alsof een hummer die 100 rijd in ze 5 net zoveel als een polo 1.2 die 100 rijd in ze 5... Die 2 dingen gaan gewoon niet samen... Ook niet met CPU's het wordt allemaal wel beter maar alsof een C2D net zo veel gebruikt als een ATOM als je tweakers leest...
Je moet een auto niet verwarren met computer chips. Een chip hoeft zijn eigen gewicht niet mee te torsen. Als een deel helemaal uitgeschakeld wordt hoeft het geen energie te gebruiken/kosten om het mee te zeulen. Een Hummer heeft meer weerstand/massa dan een Polo, meer/zwaardere cilinders die moeten bewegen. Transistors kunnen uitgezet worden.

Het probleem is wel dat de chip groter is, dus ook de afstanden zijn groter. Het kost meer energie om gegevens van A naar B te krijgen. In moderne chips gaat er een heleboel energie in transport zitten.

De hybrid oplossingen zijn er om de hele grafische kaart op non-actief te zetten. Waarna je hele andere transistors het werk over laat nemen. Nu zal er dus meer ontwikkeling moeten gaan zitten in het geschikt maken van een klein deel van de dedicated kaart om het over te nemen.
Daarom zit er met Hybrid SLI ook gewoon een brommertje in de koffer van je hummer.
Daarmee snor je dan rond als je die bruut niet nodig hebt ;)
dat is dus 30 Watt te veel of 60 Watt te veel als we van SLI opstelling uit gaan.
Verder kunnen ze dit als het moet ook oplossen in de GPU zelf icm de drivers. Als de drivers detecteren dat er alleen maar Windows actief is met earo dat deze dan maar een paar streamprocessors gebruiken op een lagere snelheid, of zoiets dergelijks natuurlijk.
Hier is een idee laten we alle streamprocessors uitzetten en alleen die van de onboard gebruiken. hmm dan kunnen we de hele kaart uitzetten, nu nog een naam er voor verzinnen... welke vind je beter hybride SLI of Hybrid Crossfire?
jup ik zie ook liever lagere tdp's en hybrid sli had best wel potentieel. want een IGP verstookt misschien een paar watt als ik mijn systeem voor internet en desktop doeleinden gebruik terwijl ik alleen de videokaart zou gebruiken als ik een spel of een zware film zou bekijken een heleboel meer verstookt. Dus ik vind het ook onlogisch.
ik zou ook graag zien wat FLuxtras zegt een hele zuinige high-end kaart in idle. opzich kun je zelf al gauw 40 watt besparen als je bijvoorbeeld een radeon 4870 hebt en deze terug klokt naar 100mhz core en 200mhz geheugen in idle. ik zou eigenlijk het liefste zien dat je een dikke kaart zoals de 4870x2 alleen gebruikt tijdens het gamen en een laag geclockte IGP als ik de pc voor desktop doeleinden gebruik want dan zou je met gemakt misschien maar 50-60 watt verstoken als je pc niks doet of download of whatever inplaats van 270watt ofzo ja scheelt toch enorm op je energie rekening. daarom heeft hybrid inderdaad veel potentieel het uitschakelen van een high-end kaart in idle is iets wat geweldig veel energie bespaard

[Reactie gewijzigd door Mietex op 27 januari 2009 07:38]

Dan mag Windows 7 het wel niet "out-of-the-box" ondersteunen, dat wilt niet zeggen dat het niet werkt natuurlijk. Hybrid-SLI werkt nu ook gewoon op Vista en zal ook gewoon onder Windows 7 werken. Kwestie van drivers installeren.
Dan mag Windows 7 het wel niet "out-of-the-box" ondersteunen, dat wilt niet zeggen dat het niet werkt natuurlijk. Hybrid-SLI werkt nu ook gewoon op Vista en zal ook gewoon onder Windows 7 werken. Kwestie van drivers installeren.
Totdat Microsoft besluit om niet je drivers WHQL te (laten) signen. Als hardwarefabrikant kan je het dan schudden. Weliswaar zijn er natuurlijk zat hacks om de 'verplichte' signing in 64-bits mode te ontwijken, maar dit is niet iets wat je wilt gebruiken in je drivers als hardwarefabrikant.
Ben er dus ook niet mee eens dat ze in Idle toestand zuinig zijn, en al helemaal niet als ze in SLI draaien. Voor mij dus verlopig geen sli en crossfire.
hybrid sli is vooral van belang voor laptops. in mn mac book pro zit ook de hybrid sli mogelijkheid (9400 on-chip met een discrete M9600GT). apple gaat in de komende os x versie (snow leopard) wel hybrid sli inbouwen en tevens support voor OpenCL zodat je de GFLOPS van de GPU's kunt aanwenden voor ander rekenwerk. hybrid sli is dus een mooie feature voor apple om zich te onderscheiden van windows omdat ms al aangegeven heeft niets te zien in hybrid sli.
hybrid sli is vooral van belang voor laptops
Klopt, voor desktops stelt het nog niet erg veel voor. Ik heb laatst speciaal zitten zoeken naar een mobo met de veelgeroemde GeForce Boost Technology en HybridPower Technology. Geen van beide technieken bleek te werken voor mijn GF 9600GT kaartjes. :|
zie hier: http://www.nvidia.com/object/hybrid_sli_desktop.html

Kortom, geen reden meer om een nvidiia chipset te nemen en dus maar gekozen voor een goedkoop P43 plankje. Veel marketing dus, maar let goed op voor je koopt.

[Reactie gewijzigd door dirkjesdirk op 26 januari 2009 20:13]

Zoals Rudie_V al zei is nvidia al redelijk goed bezig met energieverbruik in IDLE toestand, en hebben de GTX200 kaarten al verschillende powerstates.. zie guru3d, kopje power consumption voor meer details..

Hybrid SLI (die het systeem dan instabieler zou maken zoals micrsoft zegt) is dan niet eens meer nodig..
Heb je die link van Rudie_V wel gelezen? Ik quote er ff uit:
1.
Idle/2D power mode (approx 25 W)
2.
Blu-ray DVD playback mode (approx 35 W)
3.
Full 3D performance mode (varies-worst case TDP 236 W)
4.
HybridPower mode (effectively 0 W)
Is toch 25 watt die je wint, die anders gewoon niets staat te doen.

@hier onder:
Je normale chipset verbruik ook redelijk wat stroom, ik denk niet dat je met zon kaart op idle zuiniger gaat zijn dan een IGP gebruiken. 8)7 . Al is het 20 watt, dat is toch een redelijke besparing. Zeker omdat veel mensen hun game pc ook voor surfen gebruiken. Dan staat alles uit zijn neus te eten. Of het stabiel is of niet, sja... ik denk dat het over tijd net zo stabiel kan zijn als normaal.

[Reactie gewijzigd door Reinman op 26 januari 2009 19:48]

HybridPower mode (effectively 0 W)
En de IGP die je er extra voor moet hebben verbruikt geen energie?

Reken voor die Hybrid SLI mode even 10 W aub. Die je bij 1, 2 en 3 zonder IGP er niet bij op hoeft te tellen.
Is toch 25 watt die je wint, die anders gewoon niets staat te doen.
Alsof Hybrid SLI zomaar gratis uit de lucht komt vallen. Je hebt toch echt wel een IGP nodig die je anders niet nodig hebt. Je wint dus 15 Watt ongeveer. Daar kun je net zo goed een spaarlampje minder voor aanzetten.

Toen videokaarten in Idle nog meer dan 100 Watt opvraten had het misschien echt zin. Maar met een Idle verbruik van 25 Watt?

Bovendien, gezien de dalende lijn in het Idle verbruik de laatste tijd, wie zegt dat de volgende generaties videokaarten niet richting die 10 - 15 W in idle kunnen gaan? Laat ze zich daar maar op concentreren.
Dat zie ik véél liever dan met een extra IGP te moeten gaan klooien.

[Reactie gewijzigd door houseparty op 26 januari 2009 22:45]

Doe maar >20. Een 780G IGP chipset verbruik onder gewoon(surf) gebruik een ~watt of ander half. De geforce 8200 en 9300 zijn ongeveer even zuinig. Dus dat maakt nog steeds meer dan 20 watt.
AMD 690G (AM2) 34W
AMD 770 (AM2) 40W
Actual power consumption for the motherboard and chipset.
http://www.anandtech.com/casecoolingpsus/showdoc.aspx?i=3413
Tenopzichte van een 770 mainstream chipset tegen de onzuinigere en oudere chipset 6 watt minder. Dus je wint 31 watt.

Voor intel:
NVIDIA 8200 (775) 29W
NVIDIA 680i (775) 46W
Intel P35 (775) 37W
Je videokaart daar kunnen uitschakelen scheelt je tenopzichte van een high end nvidia chipset dus 42 watt en tenopzichte van de zuinigere P35 bespaar je 33 watt. Dus Aub reken daar dus maar 30 watt voor minimaal.

[Reactie gewijzigd door Reinman op 26 januari 2009 21:10]

http://www.tomshardware.c...lon-Efficient,1997-3.html

780G chipset heeft een TDP (= het theoretisch mogelijke, maar praktisch nooit haalbare verbruik) van 11W, de soutbridge daarbij geeft enkele watts meer. Geweten is dat AMD chipsets over het algemeen zuiniger zijn dan zowel Intel als nVidia chipsets.

In de charts van Anandtech is te zien dat een moederbord gebaseerd op de 690G chipset (geïntegreerde radeon X1250 oid, gebaseerd op de Radeon X700 reeks) 34W verbruikt. Op het silentpcreview forum is aangetoond dat 780G chipset gebaseerde moederborden nog minder vermogen vragen dan een 690G gebaseerd moederbord. Het is dus vrij veilig om te stellen dat een 780G gebaseerd moederbord maar 30W verbruikt, en dat is onder volledige belasting. Hier is meer leesvoer over de 780G, het verbruik ervan en het verbruik ervan vergeleken met oudere AMD chipsets. Tevens verbruikt de 790GX chipset nóg minder dan de 780G chipset, bron: http://www.tomshardware.c...grated-790gx,1988-12.html. Dit is nogal on par met de vorige kampioen, de nVidia chipset met onboard GF8200/8300.

De conclusie die houseparty maakt, dat een IGP altijd voor meer stroomkosten zal zorgen, is waar. Maar het is zo dat de consument bij de wens om een IGP te hebben niet zomaar de bestaande chipset zal uitbreiden met een IGP, maar de consument zal een moederbord met een IGP chipset kopen. Tom's Hardware heeft thans aangetoond dat een Athlon64 met 8W TDP gekoppeld met een 780G chipset toch nog iets meer dan 2W minder verbruikt dan een Intel Atom met 4W TDP gekoppeld aan een Intel 945 chipset met IGP, waarbij die IGP gigantisch veel slechter is dan die van de 780G chipset van AMD. Aangenomen dat het vermogen beider cpu's tegen de TDP grens aanzit bij belasting, kunnen we rustig aannemen dat onder de testomstandigheden bij Tom's Hardware de 780G chipset van AMD minstens 6W minder verbruikt dan de Intel chipset gekoppeld met de Atom.

Het verbruik van de HD3000 gebaseerde IGP van AMD is nogal verwaarloosbaar en zal volgens mij geen 10W bedragen.

Ook hebben nVidia en AMD aangetoond dat het best mogelijk is om een zuinige én krachtige chipset met IGP te ontwerpen en produceren. Intel doet gewoon geen moeite én probeert hopen stock van verouderd materiaal verkocht te krijgen, dus van hen moeten we niet direct zuinige high tech IGP chipsets verwachten, alhoewel de nieuwe G45 al iets beter scoort dan de vorige generatie.
Het verbruik van de HD3000 gebaseerde IGP van AMD is nogal verwaarloosbaar en zal volgens mij geen 10W bedragen.
Nee, maar je moet niet vergeten dat je ook andere bronnen in het systeem extra gaat aanspreken. Je gaat je RAM actief gebruiken als videogeheugen, niet dat dat veel vermogen opsnoept maar het doet het niet gratis, etcetera.

Voor zover ik weet is de TDP van de 780G 15W onder load, waar je bij normaal gebruik altijd onder blijft. Dus 10W lijkt me geen onredelijke aanname.

[edit.]
790GX chipset
Ik zit me inderdaad al een tijdje af te vragen of ik zo'n bordje wil halen om m'n 680G bordje te vervangen.

[Reactie gewijzigd door houseparty op 26 januari 2009 22:56]

Nee, maar je moet niet vergeten dat je ook andere bronnen in het systeem extra gaat aanspreken.
Dat valt je tegen, die gebruik je ook op een moederbord waar je een losse kaart gebruikt. Dus dat verschil is verwaarloosbaar.
Wat heb je precies aangetoond als ik het vragen mag? Ik zie alleen niet zo steekhoudende argumenten, uit z'n verband gerukte en halve quotes die je toevoegt.
Blijkbaar heb je er overheen gekeken.
Dat artikel was niet bedoeld om de "zuinigheid" van chipsets en/of moederborden ondeling te vergelijken.
Dat maakt niets uit, ik moet toch een ander moederbord hebben dan? Een zonder GPU? Dan laat ik toch zien dat die onzuiniger zijn. Waarom ze onzuiniger zijn boeit niet. Ze zijn gewoon onzuiniger.

AMD 690G (AM2) 34W
AMD 770 (AM2) 40W

Mainstreamchipset is onzuiniger dan de 690G(780G is nog zuiniger)

NVIDIA 8200 (775) 29W
NVIDIA 680i (775) 46W
Intel P35 (775) 37W

Geforce 8200 is zuiniger dan high end en mid end chipset.

Conclusie, je wint meer dan de 10 watt dat jij er van maakt, je wint dus 30+ als er op de 690G en gf8200 hybrid crossfire/sli gebruikt word.
Een chipset in een systeem is nooit in idle. Ook 2D versnelling van een desktop is géén idle. 3D versnelling met Aero is al helemáál geen idle.
Gebruik GPU-Z eens en kijk naar de load op je IGP, zelfs met aero nauwlijks load. Dus dat ding idled nog grootste deel van de tijd. Je verliest ook steeds uit het oog dat het alleen om de igp extra gaat. Alle southbridges en geheugen heeft een bord met apparte videokaart ook.

[Reactie gewijzigd door Reinman op 27 januari 2009 10:29]

die gebruik je ook op een moederbord waar je een losse kaart gebruikt.
Nou, nee. Daar heb je nu juist een discrete kaart voor.
Dat maakt niets uit, ik moet toch een ander moederbord hebben dan?
Ben je nu echt zo selectief van begrip?

Je kunt geen zuinigheid van chipsets onderling afleiden uit een artikel wat niet als doel had die zuinigheid te meten. De meting is er gewoon niet op afgesteld, ze waren op zoek naar andere waarden.

Je kunt geen chipsets onderling vergelijken zonder het verschil in moederborden mee te nemen. Zelfs in moederborden met dezelfde chipset zie je vaak al een verschil van 10W of meer in verbruik.
zelfs met aero nauwlijks load.
Nogmaals. Waarom wordt ie warm als ie zogezegd maar 1W verbruikt?
Conclusie, je wint meer dan de 10 watt dat jij er van maakt, je wint dus 30+ als er op de 690G en gf8200 hybrid crossfire/sli gebruikt word.
Nee, je verkoopt nog steeds onzin. Je kunt het tien keer formuleren, het blijft onzin.

Als je nou met iets steekhoudend zou komen zou ik graag met je meegaan. Maar op grond van onzin niet.
Nou, nee. Daar heb je nu juist een discrete kaart voor.
Dus je wilt zeggen dat jij je geheugen dan totaal niet gebruikt? Volgensmij staat er dan nog steeds gewoon stroom op hoor(elke dimm is ~5 watt) 8)7
Ben je nu echt zo selectief van begrip?

Je kunt geen zuinigheid van chipsets onderling afleiden uit een artikel wat niet als doel had die zuinigheid te meten. De meting is er gewoon niet op afgesteld, ze waren op zoek naar andere waarden.

Je kunt geen chipsets onderling vergelijken zonder het verschil in moederborden mee te nemen. Zelfs in moederborden met dezelfde chipset zie je vaak al een verschil van 10W of meer in verbruik.
Dat is gewoon dikke onzin. Als zij daar stellen dat ze zoveel watt nodig hebben voor zon chipset, dan hebben ze zo veel watt nodig, dat het per moederbord verschilt is waar, maar daar komen we niet om heen. Het probleem is dat er geen moederborden bestaan die precies het zelfde zijn waarbij de een een IGP heeft en de ander niet. Wat ik daar juist mee aan toon is dat moederborden met zon IGP JUIST zuiniger zijn. Waarbij jouw statement dat het verschil 10 watt zou zijn, dus totaal niet op gaat. Want als ik een ander moederbord neem zonder de IGP zou het verschil een stuk hoger zijn, en op het zelfde bord dus rond de 20+(er van uit gaande dat je de IGP gedeelte uit zet, maar de rest van de chip blijft actief).
Nogmaals. Waarom wordt ie warm als ie zogezegd maar 1W verbruikt?
Omdat er onder de heat sink meer gebeurt? Maar het verschil gaat HIER om de IGP NIET om de rest omdat de rest bij beide moederborden gebruikt gaat worden.
Nee, je verkoopt nog steeds onzin. Je kunt het tien keer formuleren, het blijft onzin.
Jij verkoopt onzin hier. Jij zegt dat het verschil maar 10 watt zou zijn, dat is en blijft onzin. Zeker als je ziet dat andere veel meer verbruiken. Blijkbaar durf je je verlies niet te nemen.

[Reactie gewijzigd door Reinman op 27 januari 2009 11:14]

Nee, maar je moet niet vergeten dat je ook andere bronnen in het systeem extra gaat aanspreken. Je gaat je RAM actief gebruiken als videogeheugen, niet dat dat veel vermogen opsnoept maar het doet het niet gratis, etcetera.
Ah, maar DRAM staat constant onder spanning en is door zijn volatiele ontwerp van flipflops verplicht zichzelf uit te lezen en terug te schrijven om de zoveel cycli, waardoor je dus infeite kunt stellen dat DRAM eigenlijk constant werkt aan zijn maximale vermogen.

Dat kunnen we dus al uit de vergelijking halen. ;)

bron: http://en.wikipedia.org/wiki/Dynamic_random_access_memory
Dynamic random access memory (DRAM) is a type of random access memory that stores each bit of data in a separate capacitor within an integrated circuit. Since real capacitors leak charge, the information eventually fades unless the capacitor charge is refreshed periodically. Because of this refresh requirement, it is a dynamic memory as opposed to SRAM and other static memory.

[...]

Typically, manufacturers specify that each row should be refreshed every 64 ms or less, according to the JEDEC (Foundation for developing Semiconductor Standards) standard. Refresh logic is commonly used with DRAMs to automate the periodic refresh. This makes the circuit more complicated, but this drawback is usually outweighed by the fact that DRAM is much cheaper and of greater capacity than SRAM. Some systems refresh every row in a tight loop that occurs once every 64 ms. Other systems refresh one row at a time – for example, a system with 213 = 8192 rows would require a refresh rate of one row every 7.8 µs (64 ms / 8192 rows).[...]
edit_1: typo's verbeterd

edit_2: bron + citaat toegevoegd

[Reactie gewijzigd door IveGotARuddyGun op 27 januari 2009 21:28]

1 Watt verbruik voor een desktop chipset is (nog) onmogelijk, zeker voor een chipset met IGP.
In idle misschien wel, maar een chipset is bijna nooit in idle zolang een PC aan staat.

Je hebt altijd wel 2D of 3D beeld versnelling, disk acces, PCI sloten in gebruik, netwerkverkeer, etc.

[edit.]
De 780G in m'n HTPC zou nooit mogen opwarmen als ie maar 1 W verbruikt. Toch wordt ie voelbaar warmer dan de omgevingstemperatuur, zelfs al staat de HTPC alleen maar aan te staan.
Met een beetje browsewerk en wat downloaden tijdens het kijken van een filmpje wordt het ding toch al behoorlijk warm. En als ik 'n Blu-ray op 1080p kijk wordt het ding gewoon heet. Laat staan als Aero aan staat, dan is het ding sowieso constant warm en af en toe bloedje heet.
Duidelijk > 1W dus. ;)


[edit.]@ Het stuk wat je hierboven er tussen geëdit hebt
Tenopzichte van een 770 mainstream chipset tegen de onzuinigere en oudere chipset 6 watt minder. Dus je wint 31 watt.
Twee totaal verschillende moederborden. Daar kun je niets uit afleiden. Die besparing kan net zo goed in het moederbord zitten, wat nog eens waarschijnlijker is ook.

Hetzelfde geldt uiteraard voor:
dus 42 watt en tenopzichte van de zuinigere P35 bespaar je 33 watt. Dus Aub reken daar dus maar 30 watt voor minimaal.
Dat artikel was niet bedoeld om de "zuinigheid" van chipsets en/of moederborden ondeling te vergelijken. Het is een uiteenzeting van de power requirements in moderne systemen. Heb je het zelf gelezen?

[Reactie gewijzigd door houseparty op 26 januari 2009 22:46]

Both chipsets feature an idle TDP of around 1.5W
http://www.anandtech.com/showdoc.aspx?i=3258&p=2

Zo veel heb je niet nodig om een webpagina te bekijken hoor. Dus zo veel meer dan ander half watt zal het niet zijn. Je mag de southbridges en alles wat ze gelijk hebben gewoon tegen elkaar weg strepen omdat ze die beiden hebben. Het ging dus ook puur om het IGP gedeelte van de 780G en om de vergelijking met een bord zonder IGP om het verschil in stroom verbruik bij hybrid sli/crossfire. Ik heb het ook verduidelijkt. Maar zoals ik al heb aangetoond kan zou hybrid sli/crossfire met zon chip dus wel voordeliger zijn, gezien ze nog zuiniger zijn dan mainstream chipsets. Dus deze
Reken voor die Hybrid SLI mode even 10 W aub
Kan de prullen bak in en vervangen worden door 30 watt. :>

[Reactie gewijzigd door Reinman op 26 januari 2009 21:19]

Zo veel heb je niet nodig om een webpagina te bekijken hoor.
Ik ken dat artikel bijna uit m'n hoofd man.

En je zegt het zelf wéér. Dat is idle verbruik.

Een chipset in een systeem is nooit in idle. Ook 2D versnelling van een desktop is géén idle. 3D versnelling met Aero is al helemáál geen idle.

Om je eigen quote compleet te maken:
Both chipsets feature an idle TDP of around 1.5W with load ratings being 15W for the 780G
Zie daar. Wat ik je ook al zei. Als 15W de TDP under load is dan is 10W een reëele situatie onder normaal gebruik.

[edit.]@ Edit hierboven
Maar zoals ik al heb aangetoond
Wat heb je precies aangetoond als ik het vragen mag? Ik zie alleen niet zo steekhoudende argumenten, uit z'n verband gerukte en halve quotes die je toevoegt.

Ik ga maar al te graag af op m'n biometrische vingertop-meetinstrument. Vinger op 680G, vinger is warm, opgenomen vermogen is >1W. Simpel.

[Reactie gewijzigd door houseparty op 26 januari 2009 22:58]

Het mag dan wel niet perfect zijn, ze zijn in ieder geval op de goede weg zo. En als microsoft niet liegt voorkom je zo veel stabiliteitsproblemen. Een IGP verbruikt trouwens ook wat energie in IDLE lijkt me zo, dus het is wel wat minder dan 25W. Ook weet niet ik niet wat er gebeurt bij het aan-uit switchen met stroomverbruik, en hoe vaak dit gebeurt.
Dit is jammer; was juist een van de grote verkooppunten.
was er niet nog ook een fabrikant van chips die het uberhaubt beter deed dan AMD en of NVidia (omdat deze er ongeacht welke graka - een sli-fire opstelling van kon maken ...

wat mij betreft een veel leukere optie omdat ik met zo'n chip gewoon m'n igp met alle andere kaatjes die ik maar kan vinden ... kan laten samen werken (nu zal dat in de practijk niet veel anders betekenen dan (al) je pci-express poorten + je igp - maar toch een prettige opzet
Ja de Hydra chip van Lucid, wat dus weer in het hokje van Intel zit, Intel wilde het voor de Larabee gebruiken.
Maar er lijkt dus misschien wel meer in te zitten voor Intel, ATI en NVidia lijken hiermee dus aardig in een lastig parket gemanouvreerd te zijn.
Jammer, dit was toch wel DE manier om extra stroom te besparen op een game systeem. Nu moeten ze zich maar (weer) meer richten op nog verder terug klokken + voltage naar beneden en meer delen van de GPU uitschakelen. Het nadeel was/is dat je een nvidia bord moet hebben.

[Reactie gewijzigd door Reinman op 26 januari 2009 19:02]

Ik vraag me af waar het probleem volgens Microsoft ligt. Is de hardware niet stabiel of krijgen ze het softwarematig onder Windows niet stabiel?

Ik heb als opvolger voor mijn huidige PC een AMD/ATI combo op het oog juist vanwege Crossfire-X, hopelijk gaat AMD er wel mee door en wordt het onder Linux wel ondersteund.
Het nadeel was/is dat je een nvidia bord moet hebben.
Wat dus niet meer zo is als ze het in de videokaart zelf oplossen.

Dat lijkt me nog een veel properdere oplossing ook dan verplicht op een nVidia moederbord met een extra IGP te moeten gaan klooien.

Het idle verbruik van discrete kaarten daalt echt rap de laatste tijd. Even geleden was een kaart nog "zuinig" zelfs al vrat ie in idle meer dan 100W, tegenwoordig verbruikt een GTX285 schijnbaar nog maar 25-30W in idle.
juist waar het het meest nodig was de high end markt
( zodat hij in idle niet 70 watt loopt te verstoken)
de extra prestaties in de low end markt zijn leuk maar vooral dat had mijn interesse
Hybrid SLi/CF houd ook in dat je retaail kaart moet doorlussen via de IGP wat performance verlies zou geven. Het is een trade off. Vraag me af hoeveel verlies er was.
Maar zag liever dat ze die optie er gewoon inhouden. Maakt PC toch weer ietje groener. Vooral voor diegene die soms wel wat power wil hebben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True