Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 16 reacties

Nvidia is als drieŽntwintigste lid in het SOI Industry Consortium gestapt. Door het gebruik van soi-technologie kan Nvidia het energieverbruik van zijn chips omlaag brengen, al brengt het wel complexere chipontwerpen met zich mee.

NvidiaHet consortium is in oktober 2007 opgericht en heeft onder meer AMD, IBM, ARM, Freescale, TSMC, ST Microelectronics en Chartered als leden. De groep heeft ontwikkeling en promotie van de soi-technologie als doel. Nvidia wil de technologie mogelijk gaan gebruiken voor gpu's en chipsets, maar het bedrijf werkt volgens geruchten ook aan een cpu-ontwerp.

Nvidia's Geforce GTX280 heeft een tdp van 236W en toekomstige chips zullen daar overheen gaan als Nvidia de het energieverbruik niet op de een of andere manier beteugelt. Soi kan daar onder andere bij helpen door het verminderen van lekstroom, maar de complexiteit van de ontwerpen ligt bij deze technologie wel hoger.

SOI Industry Consortium logoConcurrent AMD gebruikt nu nog geen soi-technologie in zijn gpu's, maar zet de techniek al enige jaren in voor de productie van zijn cpu's. Volgens een al wat ouder artikel van Semiconductor International zal AMD uit kostenoverwegingen echter een keuze moeten maken: of het bedrijf moet het gebruik van soi voor zijn cpu's loslaten, of het moet de technologie ook in gpu's gaan toepassen. Waarschijnlijk zal AMD voor het laatste kiezen. IBM heeft al 32nm-technologie met high-k transistors ontwikkeld, waarbij soi-technologie een rol speelt. Mogelijk wil AMD dat procedť ook gaan gebruiken. Ook voor AMD's Fusion, waarbij cpu en gpu in een enkele chip worden gecombineerd, zou het handig zijn als voor beide onderdelen ervaring met de technologie wordt opgedaan.

Moderatie-faq Wijzig weergave

Reacties (16)

ik denk als je eens kijkt richting china of andere aziatische landen je ziet dat je grafische kaart verbruik een korreltje zand in de woenstijn is qua verbruik.
de uitstoot van koeien in nederland is al hoger dan de alle autos in nederland bij elkaar.
ik weet zeker dat als we allemaal standby aparatuur gewoon uitzetten en computers op het werk gewoon uit zetten we meer besparen dan de grafische kaarten veroorzaken.

aan de andere kant. alle beetjes helpen.
je moet ook even de practische kant van het verhaal zien. op het moment dat je een gpu hebt die 200 watt aan stroom verbruikt, betekent het ook dat deze de 200 watt ergens aan kwijtmoet. aangezien de gpu geen licht produceerd, zal deze de stroom omzetten in warmte. deze warmte moet afgevoerd worden in de computerkast, wat de computer warmer maakt en waardoor de processor en de videokaart minder lang mee gaan. daarnaast betekent meer warmte meer geluid door het afvoeren van de warmte. een gpu die maar 100 watt verbruikt zal dus een stuk koeler zijn en daardoor een stuk minder lawaai produceren.

daarnaast is 100 watt op jaarbasis nog niets, zelfs niet als je dit uittrekt over het aantal pc's. het enige is natuurlijk wat het in je pc doet. maar alle beetjes helpen.
100 watt per jaarbasis is sowieso een eenheid die min of meer onmogelijk is. Het vermogen is 100 watt. Als de videokaart dus een uurtje 100 watt staat te verstoken, verbruik je dus 0.1 KWh (kilowattuur. En dat is een eenheid waar je mee kan rekenen. Al is het officieel geen SI eenheid, want dat is voor energie altijd nog Joule. Maar aangezien wij onze stroom betalen per KWh, gaan we daar even van uit.

Enfin, verder on topic. Uitgaande van een videokaart die gemiddeld 4 uur per dag 100 watt staat te verstoken, 2 weken per jaar uit staat (vakantie) tegen een prijs van 10ct voor 1 KWh, dan scheelt het je 14 euro per jaar voor alleen de videokaart. Bij de GTX280 wordt al gesproken over een tdp van 236w, waardoor het dus al 2,3x zoveel wordt.

Nu staat een videokaart niet altijd hetzelfde vermogen te verstoken, maar mijn verhaal is duidelijk denk ik. 14 euro lijkt niet veel, maar als alle Tweakers dat per jaar aan energie uit zouden sparen, scheelt dat toch aanzienlijk. Daarnaast kan SOI ook ingezet worden op andere IC's zoals AMD al doet op zijn CPU's. Maar denk ook eens een chipsets etc. Er liggen dus zeker mogelijkheden.
100 watt op jaarbasis niet nee maar je moet het anders zien. Gaan we uit van gemiddeld 2 uurtjes gebruik (Load) per dag en dan 100 watt minder verbruik van de GPU. Dat betekent 0,2kWh besparing per dag maal zeggen we 300 dagen is 60 kWh * 25 eurocent is 15 euro op jaarbasis. Daar hoef je het niet voor te doen al helpt het wel. Maar als je dan 10 miljoen GPU's rekent bespaar je 60MWh oftwel 150 miljoen euro. Dat begint zoden aan de dijk te zetten en het aantal GPU's neemt alleen maar toe in de tijd.

We moeten het van vele "beetjes" hebben en niet steeds wijzen naar die andere grotere vervuilers.
Wat je denk ik even vergeet in deze is dat energie verbruik zich ook laat vertalen in warmte productie. Dat betekend dus steeds grotere en meer lawaai producerende koelers.

En niemand zit te wachten om een grafische kaart die het geluid van centrifuge evenaart en binnen no time een gemiddelde kamer naar een tropisch temperatuurtje brengt.
Lijkt me een erg goede beslissing van NVidia om ook in te stappen. Het stroomverbruik van computers is de laatste 10 jaar explosief gestegen en de grafische kaart is daar zeker een van de grote boosdoeners van. Gezien de huidige milieuproblematiek, het willen besparen van energie en ga zo maar door denk ik dat het stroomverbruik in de toekomst ook steeds meer een rol zal spelen. Als je videokaart dan (veel) meer stroom verbruikt dan die van je directe concurrent heb je waarschijnlijk toch een klein probleem.

Overigens heb ik nog nooit gezien dat NVidia een Radeon chip heeft gemaakt... ;)Is aangepast

[Reactie gewijzigd door RvL op 17 juli 2008 14:53]

Het is inderdaad ook eens een goed idee om naar het stroomverbruik te kijken, aangezien de energieprijzen ook steeds meer stijgen, en als er nou (als voorbeeld) 10 miljoen GPU's staan te draaien van nVidia die allemaal 100W gebruiken ipv 200W, zal dat ook een groot verschil maken in het energieverbruik van de hele wereld.

off-topic:
soi soi soi soi soi :+
Minder energieverbruik betekend vaak ook minder warmte en kunnen ze dus met deze technologie snellere gpu's maken zonder dat deze te heet worden.

En natuurlijk in systemen waar energieverbruik wel heel belangrijk is (denk aan laptops enz) zal er voor zorgen dat het systeem langer mee gaat op de zelfde batterij wat natuurlijk altijd goed is :)
Jezus, het lijkt erom dat iedereen ''vreemd gaat'' in de CPU/GPU industrie:
AMD met Intel ( Havok, Crossfire)
AMD met Nvidia (Anti-CPU en CUDA)
Nvidia met Intel ( SLI @ X58)
AMD met IBM ( 32nm High-K, Roadrunner)
Misschien dat er nog meer voorbeelden zijn, maar het lijkt erop dat ze het allemaal met elkaar doen om het hoofd boven water te houden.
Ach zo zie je maar hoe erg ze op de rand van de mogelijkheden werken en hoeveel geld dat kost dat ze toch elkaar nodig hebben he (en natuurlijk om de boel voor de consument bijvoorkeur ook een beetje makkelijk te houden).
IBM zit reeds op 32nm, AMD al lang op 45nm en Intel volgde ook in december/januari. (de volgorde waarin ze dit doen zou wel eens fout kunnen zijn, ik heb het niet gaan opzoeken maar schrijf gewoon even wat ik me meen te herrineren.)
Dat terwijl Nvidia nu pas van 65nm naar 55nm gaat, is het dan zoveel moeilijker die verkleiningen toe te passen op GPU's dan op CPU's?

[Reactie gewijzigd door De Fluppe op 18 juli 2008 02:26]

AMD is nu op 90 en 65 nm aan het kloten en wilt binnenkort pas naar 45 gaan, Intel zit wel al op 45.
@ SRI: Bedankt voor de opmerking, ik had het beter toch even snel opgezocht.

Nu heb ik ook nog wel een andere bemerking, met name op de koeling van verschillende grafische kaarten. Je ziet kaarten die slechts 1 PCI-slot innemen waarbij het dus logisch is dat de lucht waarmee de GPU gekoeld wordt weer de kast ingaat, en je ziet kaarten die 2 PCI-sloten innemen die een "uitlaat" hebben waar normaal de verschillende aansluitingen zitten (slim gezien vindt ik). Maar daarnaast zie ik ook foto's van kaarten die 2 slots innemen maar de warme lucht tůch nog terug de kast in blazen, wat is hier nu in godsnaam het nut van, dan kan je toch beter gelijk zo'n uitlaat maken?
Omdat ze een koeler die de kast inblaast "groter" kunnen maken qua luchtverplaatsing, omdat de inkeep van een slot kleiner is als theoretisch vergeleken 12x12 cm :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True