Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties

Nvidia geeft toekomstige desktop-videokaarten geen ondersteuning meer voor Hybrid Power. Volgens de fabrikant biedt de energiebesparende technologie nog weinig meerwaarde omdat de nieuwe kaarten toch al zuinig zijn.

Hybrid Power is een onderdeel van Hybrid SLI, de technologie die Nvidia vorig jaar januari introduceerde om de igp van bepaalde Nvidia-chipsets met een Geforce-kaart te combineren. Naast betere prestaties zorgt Hybrid SLI ook voor een afname van het energieverbruik: dankzij Hybrid Power wordt de grafische kaart uitgeschakeld als er geen rekenintensieve 3d-taken uitgevoerd hoeven worden.

De afgelopen januari geïntroduceerde Geforce GTX285 en GTX295 ondersteunen echter geen Hybrid Power. Ook andere kaarten die Nvidia in de pijplijn heeft zitten, moeten het zonder de energiebesparende functionaliteit doen. "We laten Hybrid Power voor de desktop vallen, omdat het de gebruikerservaring niet langer substantieel verbetert dankzij het verbeterde idle-verbruik van Nvidia's nieuwste grafische kaarten", zegt Nvidia-marketingmanager Sean Cleveland. Mogelijk speelt ook mee dat Microsoft heeft verklaard dat ondersteuning voor de huidige hybride gpu-technologieën in Windows 7 nog niet stabiel is, terwijl de Nvidia-partners niet blij zouden zijn met de extra kosten voor Hybrid SLI. Nvidia blijft notebook-gpu's wel ondersteuning voor Hybrid Power geven.

Moderatie-faq Wijzig weergave

Reacties (58)

Op zich was/is het een nobel streven van Nvidia om een concept neer te zetten voor energiebesparing. Waarschijnlijk was dit streven geboren uit het het besef dat een SLI platform per definitie niet energiezuinig kan zijn (ik hoef niet uit te leggen waarom). Marketing technisch zou het voor bepaalde groepen mensen beter te accepteren kunnen zijn als Nvidia ook kon aantonen dat ze een inspanning hadden geleverd om het SLI platform energie te laten besparen.

Uit de statement
"We laten Hybrid Power voor de desktop vallen, omdat het de gebruikerservaring niet langer substantieel verbetert dankzij het verbeterde idle-verbruik van Nvidia's nieuwste grafische kaarten"
zou je kunnen afleiden (speculerend!) dat de doelgroep van SLI gebruikers niet maalt om energiebesparing en alleen gericht is op prestaties. Mischien een interresante vraag voor onze SLI lezertjes. Hoe zien jullie dat? Reageer! Hierbij zou je je niet alleen moeten afvragen of je een dergelijke energiebesparing belangrijk vindt of niet, maar ook of je je game systeem nog voor andere toepassingen moet gebruiken waarbij je best grafisch op een eenpitter zou kunnen draaien.

Een andere vraag die ik mezelf stel is of de energiebesparing wel vanuit componentleveranciers (bijv. grafische kaarten hard disks en optical drives) moet komen, of dat het meer moet worden getrokken door je platform (noem ik even de combinatie cpu-programmerset, bios en OS). Als ik hiervoor even naar bijv. windows 7 kijkt (zie blogs.msdn.com) dan zie je dat microsoft kijkt naar besparingstechnieken van Display, processorverbruik, netwerk en USB devices. In windows 7 zou je op deze punten enhancements mogen verwachten (zijn er windows 7 gebruikers die hier al iets over kunnen melden?).

Mijn hoop is dat uiteindelijk het platform (OS, BIOS, CPU) in staat is om componenten die niet in gebruik zijn echt compleet te deactiveren. Naar mijn idee gaat dat nog wat verder dan het spinning down van een optische of disk drive.
Geen SLI gebruiker, maar mijn idee er achter:

Je individuele mening telt niet. Het enige wat hier telt is het besparen van energie. Je hebt simpelweg niets te willen. We zullen als maatschappij er alles aan moeten doen om zoveel mogelijk energie te besparen en als dit trucje, wat NVIDIA stopzet, 10W zou schelen, dan scheelt dat gewoon 10W in die gevallen waar de power niet nodig is.

Ik ben het dan ook helemaal met je eens dat de BIOS/EFI en je OS de toegang moet krijgen om zoveel mogelijk uit te zetten. Waarom energie verspillen waar we niets van terug zien omdat het op moment x niet nodig is. Zonde!

[Reactie gewijzigd door GENETX op 20 maart 2009 12:41]

Scheelt misschien wel 10w.
Maar het ontwikkelen van enerbesparing kost ook energie.
Vraag mij uiteindelijk af het nou echt erg veel zoden aan de dijk zet.
Natuurlijk zet dat wel zoden aan de dijk als je de verkochte aantallen PC's wereldwijd ziet. We praten hier natuurlijk niet over duizenden maar honderdduizenden exemplaren. Zeker een grote jongen als nVidia zou zich wat maatschappelijker mogen opstellen: ontwikkel een standaard voor al je producten en implementeer die waar maar mogelijk.

Doe je niets dan loop je als fabrikant de kans getroffen te worden door regelgeving, denk maar eens aan de nieuwe EU-regels ten aanzien van plasmaschermen. Trek die lijn door en voor je het weet zijn er regels zijn aanzien van SLI-opstellingen.

Want eerlijk is eerlijk: is quad-SLI nou echt nodig? Overdreven voorbeeld want het betreft een niche-market maar toch.................

Hardwareontwikkelaars mogen zich best wat meer bekommeren om het energieverbruik van hun eindproducten. Da's op de lange termijn beter voor iedereen.
Hiervoor zou een stukje code volgens mij al volstaan. Ik denk niet dat er voor dergelijke technologiŽn veel energie wordt verpsilt. De huidige chips kunnen het gewoon. Het is puur een stukje code, een stukje handling, dat er voor zorgt dat er van chip wordt gewisseld.
@GENETX: je hebt helemaal gelijk als je zegt dat dit geen kwestie is van het hebben van een mening. Energiebesparing is iets waar niemand tegen kan zijn. Wat ik in mijn eerste reaktie probeerde te zeggen is dat het erop lijkt dat NVIDIA een of andere markting analyse heeft gemaakt waaruit ze meent te kunnen afleiden dat de doelgroep van SLI gebruikers niet zo gevoelig is voor energiebesparingsfeatures. Dit kan een aanleiding zijn geweest voor NVIDIA de feature af te voeren.

Ik kan mij net als jou moeilijk voorstellen dat iemand hier tegen zou zijn. Laat de hardware er 10 euro duurder van worden. Op een universeel systeem dat ook gamed heb je dat in een jaar eruit (als kostenoverweging al je enige argument zou zijn).

Eigenlijk, hoe meer ik er over nadenk, hoe kwader ik wordt, heb je @##$$%^& een techniek kant en klaar op de plank liggen, voer je hem af!!! Ik zou zeggen: "laten we ze het tegendeel bewijzen". Tweakers heeft geloof ik geen polls (ook wat oubollig)? NVIDIA marketing moet het waanidee kwijt dat het afvoeren van een dergelijke functie zijn klantenkring onverschillig laat.

[Reactie gewijzigd door teacup op 20 maart 2009 13:36]

Ik denk dan ook dat MS met Windows 7 een eind heeft gemaakt aan deze techniek. De meerderheid van SLI gebruikers kunnen dan nog wel zeggen dat ze dit niet willen, dan vraag ik me af of ze Łberhaupt weten waar ze over praten...

"Ja, igp dat is traag. Ik betaal niet voor niets".

Hoezo traag bij het typen van tekstdocumenten... Daarnaast zet Microsoft dus in op geld. Want instabiliteit geeft een slechte naam en dus minder inkomsten. Zoals Al Gore in An Inconvenient Truth al zei:

Wat heb je liever. Een hele berg geld, aantrekkelijk :) ... of... aan de andere kant van de weegschaal slechts de aarde... hmm geld of aarde...

Ik vond de uitspraak van Obama vandaag in het nieuws wel passend eigenlijk: "Enough is enough". Hij riep de Amerikanen op om eens te stoppen met de graaicultuur. Er is een punt waar genoeg genoeg is.

En dat moeten we met de hele wereldbevolking doen. We moeten onze mentaliteit veranderen. Genoeg is genoeg. We hebben in de westerse wereld genoeg luxe. Zijn er echt nog dingen die je NOG luxer wilt? Het enige wat ik zou willen is Home Automation, maar dat zorgt juist VOOR energiebesparing. Voor de rest? Ik zou niet weten wat ik mis. Apparatuur zou niet alleen sneller moeten worden, maar ook zuiniger. Het kan best! Alleen we moeten accepteren dat we iets minder grote stappen in performance maken, maar jusit 7-mijls laarzen aantrekken bij het besparen van energie!

Edit: En vandaag op Nu.nl:
http://www.nu.nl/algemeen...nergiecrisis-in-2030.html

[Reactie gewijzigd door GENETX op 20 maart 2009 13:28]

@GENETX Ik vrees dat we een beetje in een samenzang komen. In het artikel dat je aanhaalt, valt het me trouwens op dat het weer de UK-BBC zijn die ons deze informatie moet verstrekken. Misschien is het je ook opgevallen dat de hele Al-Gore hype (verder alle respect voor hem, hij heeft immers de milieuproblematiek vertaald voor een grote doelgroep) door de BBC al 1 a 2 jaar eerder was voorgegaan met een (toe voor mij al schokkende) cyclus van documentaires in, als ik het goed heb, de decembermaand over de opspelende milieuproblematiek.

Hoe zit het eigenlijk met de Nederlandse media op dit vlak? Van ons vaderlandse journalistencorps merk ik over het geheel genomen weinig engagement ten aanzien van milieuproblematiek. Maar ja, in de Nederlandse concensus kost milieu geld. En als er iets is waar Nederlanders een pest pokke hekel aan hebben is het als iets een beetje meer geld kost. Helaas is het duurder zijn van milieuvriendelijke techniek een misvatting die door het niet erg technisch begaafde merendeel van de Nederlandse bevolking maar niet als een ballon wordt doorgeprikt. Ook onze pers lijkt er geen bal(lon) van te snappen.

Gelukkig leggen sites als Tweakers een warme belangstelling aan de dag voor zuinige techniek en heeft ze een scherp oog voor dit soort sneaky berichtjes. Hulde, ga zo door. (Zonder dat ik wil dat Tweakers veranderd in een activistische milieusite, dat zou de gezaghebbendheid van de site alleen maar ondermijnen). @Redactie; laat je niet opjuinen door een ideologische Tweaker ;) , maar ik zie een (nieuwe?) alinea voor het Mission Statement van de site. Wederom een bewijs dat internetsites meer en meer het nieuws maken en bepalend kunnen zijn voor publieke opinie. Door dit soort discussies is hopelijk een mindset bij anderen te wijzigen.

[Reactie gewijzigd door teacup op 20 maart 2009 14:40]

Onderstaand stukje (Ben zo vrij geweest een stukje te pikken van guru3d) Beschrijft mooi hoe het energieverbruik toch wel gedaald is bij moderne NVIDIA kaarten in idle stand.
Zal bij de nieuwere series ongetwijfeld nog wel lager zijn. Toch zal een igp het nog een stuk zuiniger doen. Ik vind het daarom ook belachelijk dat NVIDIA deze techniek dan ook niet doorzet. Het is toch belachelijk dat je videokaart lekker mee staat te draaien als je een nachtje torrents aan het binnenhalen bent.
Wat mij betreft: een gemiste kans NVIDIA!


For example .. in idle this 1.4 Billion transistor encounting graphics processor only consumes 25 watts ... I mean come on, that is just nothing. I think the previous generation products consumed up-to 70 watts alone in idle. Another nice example is that movie playback is accelerated and enhanced over the GPU (Purevideo), when you decode 1080P content (Blu-ray) movies you'd figure that it would use up a lot of power, right ? Think again. Remember what I said about the GPU being able to shutdown segments of the GPU? Likely (and I'm not 100% sure here) mainly the video processor, IO and perhaps one shader block for some post-processing are at work. While decoding a 1080P movie over the GPU this product utilizes only 35 Watts. That's pretty amazing to be honest. Let's take an overview on what we just said:

* Idle/2D power mode: approx. 25W
* Blu-ray DVD playback mode: approx. 35W
* Full 3D performance mode: varies - worst case TDP 236W for GTX 280
* Full 3D performance mode: varies - worst case TDP 182W for GTX 260
* HybridPower mode: effectively 0W
het is volgens mij niet zo dat de fan ook uitgeschakeld wordt.

Kan er naast zitten natuurlijk.
Dit klopt inderdaad.

Het hangt er een beetje af van je grafische kaart fabrikant/ de bios die in je kaart steekt.
Je Grafische kaart kan dan wel uitgeschakeld worden veelal zijn de fans temperatuur afhankelijk waardoor deze bij mij pas uitvallen wanneer de temperaturen naar bijna kamertemperatuur zijn teruggevallen.(20 graden of nog ietsje lager heb ik ervaren, kvraag me persoonlijk af wat dit zal geven als het 25 graden wordt in mijn kamer in de zomer :p)
Dit houdt in dat nadat de grafische kaart uitgezet wordt door hybrid SLI de fan nog een behoorlijk eindje kan verder werken.
Persoonlijk vind ik dit niet echt zo super doordat temperatuur schommelingen ook niet echt super zijn voor electronica.
Aan de andere kant stoort het mij totaal niet dat ik die fan die ik niet hoor nog een beetje doorblaast in mijn case, je kan het bezien als extra airflow en veel verbruikt deze toch niet en het hoofdoel van Hybrid SLI is/was dan toch nog steeds energie/warmte en geluid terug te dringen waarin het toch slaagt ook al draait die fan nog onhoorbaar door.
Jammer.
Ik hoop dat AMD met iets vergelijkbaars komt dan stap ik over.

Een van de redenen om te stoppen met PC-gamen was het belachelijke stroomverbruik, zowel idle als load.

[Reactie gewijzigd door Soldaatje op 20 maart 2009 12:14]

AMD/ATI heeft al zo iets namelijk ATI Hybrid Graphics (http://ati.amd.com/technology/hybridgraphics/index.html).

Ik doe mijn pc game pc underclocken/undervolten om het stroomverbruik en hitte productie terug te dringen. Daardoor word hij stiller omdat de fans niet meer zo snel hoeven te draaien. Wanneer ik meer power nodig voor het gamen dan laat ik alles naar de stock speeds of hoger overclocken.
Het stroomverbruik van een PC is niet veel anders dan dat van een console, zeker niet van de eerste generaties consoles. Nieuwere versies zijn zuiniger, maar zijn dan ook vele malen minder krachtig dan een moderne mid-range of high-end pc.
Ik denk dat NVidia hier een signaal mee hoopt af te geven. NVidia heeft tot een jaar of twee geleden altijd een duidelijke stijgende lijn van goede kaarten uit gegeven. maar de huidige kaarten zijn geen indrukwekkende verbeteringen meer en vreten vermogen op.

Met dit signaal wil NVidia de indruk wekken dat het slurpen van vermogen minder is geworden.
Ik denk echter dat je tussen de regels door moet lezen. Idle is misschien beter geworden, maar op full load trek je nogsteeds menig voeding ermee onderuit.

Ik geef altijd de voorkeur tot nu toe van NVidia boven ATi/AMD maar om eerlijk te zijn lijkt de markt wat stil te staan.
Op zich is het niet slecht dat de hardware-markt even stil staat denk ik ... Ik denk dat de komende jaren belangrijk gaan worden voor software-ontwikkelaars die eindelijk eens alle hardware tot het uiterste kunnen gaan benutten wat op dit moment volgens mij nog altijd niet helemaal gebeurd.

Als ik kijk naar 10 jaar terug hebben we eigenlijk maar weinig vooruitgang gemaakt op gebied van applicaties buiten dat ze altijd maar meer & meer eisen stellen aan hardware zoals geheugen en processorkracht etc. Begrijp het niet verkeerd, het is een beetje appelen met peren vergelijken wat ik doe maar ik denk dat er nog heel wat geoptimaliseerd kan worden op gebied van software, drivers, kernel, ... waarmee we zeker bijna het dubbele van de prestaties kunnen halen met de huidige hardware ...

Als ik het compleet mis heb, sorry ... het is maar wat ik er over denk :P
Jammer om te zien dat ze dergelijke technieken niet verder willen ontwikkelen. Met gewoon desktop bewerkingen is het prettig om weinig energie te verbruiken als je een high end kaart in je systeem hebt hangen.

Tevens jammer dat de destijds geplande laptop verwisselbare GPU kaarten nooit van de grond is gekomen om zo meer te werken naar laptops als desktop vervanger en ze langer te kunnen blijven upgraden. Ook had dat mooi geweest voor de All in One schermen die steeds populairder worden maar door veel gebruikers juist om deze reden word gemeden.

We zullen gaan zien wat de toekomst gaat brengen met zware GPU's en gebruik in desktop omgevingen waar niet konstant op word gegamed.
Ok, maar wat nu als je quad-sli hebt? Dan stook je dus met 4 kaarten in IDLE toch nog een hele hoop. Hybrid er op en je zet ze zo alle 4 uit met de vijfde IGP nog gaande. Hypothetisch, maar je begrijpt wat ik bedoel wanneer je meer dan 1 kaart in je bak hebt hangen.

Ik vind het schandalig iig. Zo zuinig zijn die dingen IDLE helemaal niet.
In dat geval zou je in principe toch ook de 3 overige kaarten kunnen uitschakelen en op slechts 1 kaart, in de 'idle' stand kunnen draaien? Een soort hybrid SLI maar dan anders :).
Dan nog heeft hij gelijk, zo zuinig zijn die kaarten niet. Ze worden per generatie alleen maar hongeriger.
Het probleem is inderdaad dat die kaarten idle nog niet echt zuinig zijn. Maar dŠt is dus ook wat Nvidia moet gaan oplossen.

Dus niet langs het echte probleem heen draaien, met Hybdrid SLI, maar de idle stand van toekomstige kaarten gewoon zuiniger maken.

Dan hebben ook mensen zonder Nvidia chipset er iets aan.
Maar per generatie worden ze ook krachtiger, en ook in prestaties afgezet tegen opgenomen vermogen.

Als ik naar mezelf kijk had ik jaren geleden behoefte voor high-end kaarten. Nu zijn de low-end kaarten zelfs sneller, en ben ik zelf met een instapper klaar. Reken maar dat je uiteindelijk minder verbruikt.

Vroeger kon je echt niets met een low-end kaart dan alleen 2D staren. Vaak zie je instappers met low-end kaarten game computers genoemd worden door bedrijven. Misleiding enigzinds, maar daarentegen kan je zelfs op zulke systemen nog prima gamen. Je moet alleen niet alles op superrealistisch willen zetten. Games zijn geen films.

Maar vandaag de dag mogen we ons wel bewuster naar hardware laten kijken. Elk klein beetje helpt. Dus ik vind het wel absurt dat ze iets hebben wat minder schadelijk is voor het milieu, de bons geven. Wat mij betreft mogen ze zich meer gaan richten op wat vroeger 3DFX met Voodoo1/2 deed. Gewoon alleen een zware 3D accelerator, en uit zetten in een 2D desktop omgeving. In het verleden was dit niet lastig en instabiel.

Dat nVidia er geen brood in ziet, ok. Maar als je het dan toch in huis hebt, gooi er een mooie marketing campagne omheen. Nuttig gebruikt en R&D snel terug verdient.
Reken maar dat je uiteindelijk minder verbruikt.
Nee, want de spellen verlagnen ook steeds snellere kaarten. Een Voodoo 600 met zijn 4 chips was destijds geweldig snel geweest met zijn 4 chips en gebruikte maar 60 Watt. tegenwoordig verbruikt een snelle kaart makkelijk 100 watt. Bovendien gaat het zich hier om het gebruik in idle. Dat stijgt en stijgt maar verder aan zonder dat ik op mijn desktop sneller werken kan.
Erg zuinig zijn die kaarten uberhaupt niet. Er zijn er nog te veel die niet genoeg hebben aan de power die een PCI-e slot kan leveren, en perse extra power aansluitingen nodig hebben. M'n broertje heeft een ding wat 2 extra connectoren nodig had (van die 6-pins dingen), en daarom een nieuwe voeding nodig had, alleen voor een videkaart...

[Reactie gewijzigd door kozue op 20 maart 2009 13:57]

Als je quad SLI hebt, ligt je interesse niet bij het stroom gebruik geloof ik... da's een beetje het idee, ik heb een Porsche maar rij er niet veel in omdat de benzine zo duur is...

Voor de mensen die wel denken van, goh, wat moet ik met een Porsche, daar zijn de Fiat 500tjes voor uitgevonden, nemen je ook van A naar B maar op een andere snelheid en een ander kostenplaatje. Alternatieven genoeg. Daarmee keur verspilling niet goed, maar als dat het discussie punt gaat worden, dan is er nog heel wat meer te behalen op deze aarde dan de videokaart van 100W.
Kan me voorstellen dat mensen met dit soort configuraties niet om geld verlegen zitten, en dat die maar weinig om energiebesparende functies geven.
Vooral als de besparing(met of zonder) maar minimaal is.

Wellicht dat dit de redenatie van NvIdia is, om daar mee te stoppen? ;)
Idd spijtig dat een fabrikant een dergelijke ontwikkeling stopt.

Ik heb niet alle voorgaande commentaren gelezen maar heeft AMD/ATI niet een gelijkaardige technologie, onder de "Hybrid Crossfire" noemer?

Ik ben trouwens absoluut op zoek naar een (AMD) mobo dat een switch aankan tussen de IGP en de aanwezige high-end gfx kaart(en). Maw zodat deze laatste geen energie meer verbruikt.

Ook voor laptops zeer wenselijk ifv de tijd je kan halen uit een batterij.

Waarom zoveel energie verbruiken om een document te editeren?
Hybrid Crossfire is ook al geen oplossing, in dat opzicht was (!) Hybrid-SLI een betere.

Bij ATi's Hybrid Crossfire voeg je een (zwakke) tweede kaart toe om wat meer performance te krijgen, meer is het niet. Het is dus niet zo dat je een high-end kaart kunt combineren met de op het mobo aanwezige IGP. Was het maar waar!

Bovendien werkt Hybrid Crossfire alleen onder Windows Vista, nog zo'n fijn nadeel.

Leesvoer? Hier: http://game.amd.com/us-en/crossfirex_hybrid.aspx
Gelezen en er staat juist het tegenovergestelde van wat jij beweert??
Voor laptop hebben zowel ATI als NVIDIA deze techniek al en die zal ook blijven (iig voorlopig, Windows 7 kan wel dwarszitten :X )

Verder kan een ATI en NVIDIA kaart behoorlijk terugklokken in idle modus. Die dingen verbruiken maar een fractie van hun maximum.
Ati heeft alleen dat je met een onboard GPU meer power kan krijgen door een kaart uit dezelfde serie (een instapmodel ook nog). Niet dat je een SUpersnelle kaart bij je onboard GPU douwt en die gewone kaart uit kan laten schakelen als hij niet nodig is.
Ohnee? Voor een laptop heeft ATI dat dus echt wel, zoek eens op: PowerXpress

Ik beweer ook nergens dat ATI dat zou hebben voor een desktop.

[Reactie gewijzigd door GENETX op 20 maart 2009 14:12]

Mogelijk speelt ook mee dat Microsoft heeft verklaard dat ondersteuning voor de huidige hybride gpu-technologieŽn in Windows 7 nog niet stabiel is, terwijl de Nvidia-partners niet blij zouden zijn met de extra kosten voor Hybrid SLI.
Gaan ze dan Hybrid SLI ook stopzetten? Ik neem aan dat Hybrid SLI (iGP + losse kaart) nog wel gewoon blijft bestaan toch? Alleen wordt de losse kaart nooit meer uitgeschakeld.
Nvidia blijft notebook-gpu's wel ondersteuning voor Hybrid Power geven.
In laptops is het blijkbaar winstgevend op energiegebied. Maarre, voor de rest werkt het eigelijk niet hoor.

Heel raar verhaal.
Tja, het was een van Nvidia's grappige gimmicks, maar ik denk niet dat veel mensen het zullen missen.
Wat nooit echt goed ontwikkeld is, zal ook nooit echt gemist worden.

Toch vind ik dit een serieuze gemiste kans van Nvidia. In een tijd waar zowet elke hardware producent zijn clienteel om de oren slaat met "groene producten", gaat een producent van de grote energiezuipers in een doorsnee deftige desktop zijn "energiebesparingsplan" opbergen?

Sorry hoor, maar ze mogen dan nog zo "zuinig" zijn in idle stand (heb hier wel mijn twijfels bij hoor), uitschakelen is nog altijd beter.

Het zal wel deels zijn door die externe druk, maar toch, ik vind dit een spijtige zaak.
tja... 'uitschakelen' was toch een groot woord. Ik had eens een test gezien waaruit bleek dat de 'uitgeschakelde' videokaart het energieverbruik van het systeem nog steeds met ca. 50 Watt verhoogde. Het enige voordeel was dat de koeler van de videokart uitgeschakeld kon worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True