Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 23, views: 13.139 •
Bron: The Inquirer

Intel doet onderzoek naar technieken om moederborden zuiniger te maken door de manier waarop bits en bytes heen en weer worden geschoven te optimaliseren. Een snelle bus zoals bijvoorbeeld pci express 2.0 zou hierdoor wel zeven keer zo zuinig kunnen worden als nu het geval is.

Aan het verbruik van chips zelf wordt de laatste jaren flink geklust, maar de verbindingen die ertussen liggen hebben nooit veel aandacht gekregen. Toch begint dat langzaam maar zeker een belangrijk punt te worden. Neem bijvoorbeeld pci express 2.0: deze standaard heeft ongeveer 20 milliwatt per gigabit per pin nodig, wat voor een volledig x16-slot op 5GHz een verbruik van 6,4 watt betekent. Dit is een significante bijdrage aan het totale verbruik van het systeem, terwijl het puur verspild wordt om bits van de ene naar de andere kant van een printplaat te schuiven.

Met Intels testchip 'Monoco' wordt het verbruik van de bus behoorlijk teruggebracht: voor dezelfde bandbreedte van 5Gbps uit het eerdere voorbeeld heeft het prototype maar 2,7 mW/Gb/pin nodig, of 0,86 watt voor een hypothetisch x16-slot. Men kan de bandbreedte ook flink omhoog gooien: op 15Gbps heeft Monoco nog steeds maar een vierde van het vermogen van pci express 2.0 nodig. Hoewel het nog jaren kan duren voor deze technieken in diverse standaarden geïntegreerd worden, is het toch goed om te weten dat er in ieder geval over wordt nagedacht.

Intel interconnect research

Iets wat wellicht eerder gerealiseerd kan worden is 'Demand-based IO', dat er voor zorgt dat een bus alleen staat te pompen als de bandbreedte ook daadwerkelijk nodig is. Wanneer mogelijk worden de spanning, frequentie en eventueel zelfs breedte van de verbinding teruggeschroefd. Dit soort technieken zullen onder andere opduiken in Intels CSI en AMDs HyperTransport 3.0, maar worden ook al deels gebruikt door de nieuwste Centrino-notebooks. Een derde manier waarop men het verbruik van bussen aan wil pakken is met 'Power-free Interconnect Compensation', een systeem dat onregelmatigheden uit de verbinding filtert zonder gebruik te maken van een actieve signaalverwerker.

Reacties (23)

Elke watt minder is wat natuurlijk. :+
Intel is kwa beleid 180 graden gedraaid. Ging het eerst alleen om de GHzen en de daarbij komende nadelen zoals stroomverbruik en hitte die zij negeerde. Nu spelen gelukkig ook andere factoren, naast de snelheid, mee. Chapeau.
Ik denk niet dat intel met opzet bezig was computers onzuinig te maken hoor :-) Er is ook nog zoiets als concurrentie - ze hebben een beslissing gemaakt om de concurrentie van AMD het hoofd te bieden en zaten toen aan een architectuur vast.

Al met al is het handiger om überhaupt een bedrijf te hebben dan om een bedrijf te hebben dat uitzonderlijk zuinige producten maakt.
Niet bewust uiteraard, maar zoals ik al zei; ze hebben jarenlang de grote problemen, zoals stroomverbruik en geproduceerde hitte van hun P4, genegeerd. Het heeft naar mijn inziens te lang geduurd voordat ze met een processor kwamen die allround goed is.
Dit is een veronderstelling die bij veel tweakers leeft:
"Intel heeft energievretende monsters gecreerd"

De discussie gaat er eigenlijk over een balans te vinden tussen de verschillende variabelen:
IPC <-> kloksnelheid
Spanning <-> Stroom
Cores <-> Snelheid per Core

Intel heeft met de Northwood duidelijk bewezen dat er nog een flinke sprong in kloksnelheid gemaakt kon worden zonder negatieve effecten. Nortwood P4's waren verder prima. Echter met de Prescott werkte de techniek niet mee en ging het verbruik zelfs omhoog bij gelijkblijvende prestaties.

Op dit moment zie je ook duidelijk dat de grenzen die met de P4 zijn gevonden, zo rond de 4Ghz ook met de Core's weer worden bereikt. Blijkbaar is met een IPC in de buurt van de huidige cpu's er weinig eer te behalen boven de 4Ghz. De itanium heeft met zijn misschien wel 2-3x zo hoge IPC (FP) ook een 2-3x zo lage topsnelheid.

Intel (en AMD) hebben constant keuzes te maken, varierend van geheugen (RDRam/DDR), bus (PCI/PCIe), randspul (SATA/IDE), on-die (memcontroller/video/cache/AGP-PCIe), 64bit, SSE2-3-4
Die keuzes worden soms al 10 jaar van te voren gemaakt, en tegen de tijd dat het fout gaat ben je al gauw 7-8 jaar verder. We hebben het dan niet meer over negeren, maar leven met de keuzes die je maakt. AMD kan ook niks anders dan de Barcelona er doorheen duwen, maar van een succesvol ontwikkeltraject kun je al niet meer spreken, en of het ding een succes word moet ook nog blijken. Kan AMD nog iets anders doen... waarschijnlijk niet, hopen dat er geld binnenkomt voordat de bankrekening leeg is.
@Placid_K:
De Hitte en het stroomverbruik zijn zeker weten niet genegeerd.
Intel wist zelf bij de release van de P4 al dat ze rond de 3,8 - 4 Ghz stuk gingen lopen vanwege warmte problemen etc.
Er is toen zelfs een tijdje een idee geweest om een chipset te ontwikkelen die 2, P4 processoren op 1 bord ondersteunde.

Intel was zich er zeker van bewust maar ze wisten dat het veel tijd en geld in R&D ging kosten om verbetering te brengen. Ze hebben daarom de Netburst architectuur zo lang mogelijk aan een zijde draadje gehouden als ze zelf konden.

Natuurlijk hebben ze hun best gedaan om iets nieuws te verzinnen en dat is dan ook aardig gelukt. Ik heb zelf eigenlijk nooit gesnapt waarom ze in de tussentijd geen desktop varianten van hen notebook processoren hebben uitgebracht maar dat was misschien een te grote (onnodige) omschakeling voor ze.

[Reactie gewijzigd door Da_maniaC op 27 juni 2007 13:04]

Ze dachten dat ze dat op tijd op zouden kunnen lossen, o.a. door de concurentie van AMD hebben ze hun MHz, een tijd lang, wat sneller omhoog getrokken en de doorbraak in warmtebeperking bleef uit.
Gelukkig ziet het er nu beter uit.
Toch hebben ze destijds (eind 2000) beweerd een P4 op 10 GHz klaar te hebben liggen in het lab.
Die snelheids spree van hun was een doodlopende weg...de warmteopwekking was meer dan een c2d tegenwoordig doet, terwijl de prestaties er vér onder lagen...ze MOESTEN dus wel omkeren..anders hadden we nu P4's op 5ghz gehad die een slordige 250w verstookten
Zeer goede zaak. Je hebt nu al de situatie dat als je een zeer zuinige cpu hebt (zo'n AMD 35W gevalletje bijvoorbeeld) je moederbord meer verbruikt dan je processor (50W of meer is geen uitzondering. Vooral niet als je onboard VGA hebt). Gevolg is dat allerlei componenten idiote koelsystemen nodig hebben om toch nog stil gekoeld te kunnen worden, terwijl dat dan ook nog alleen werkt als andere componenten voor een goede airflow in je systeem zorgen.
Met name de Intel moederborden stonden erom bekend dat ze relatief veel verbruikten waardoor de officieel zuinige Core 2 Duo cpu's in een compleet systeem plotseling helemaal niet zo zuinig waren. Ze hebben dit al enigszins verbeterd, maar ik ben blij dat ze hier nog druk mee aan de gang zijn.
Heel mooi, dus dan hebben we straks een lekkere zuinige PCI-Express bus om daar vervolgens een VGA-kaart van 200+Watt in te stouwen! 8)7
Het heeft in jouw ogen dus alleen nut als alle onderdelen van een computer onder handen worden genomen?

Niet iedere computergebruiker heeft een VGA-kaart van 200+ Watt, maar heel veel gebruikers hebben Intel systeembus en het levert dus waarschijnlijk ook heel veel besparing op in totaal. :)
Stel dat er 50 miljoen computers tegelijk aanstaan die dit systeem hebben.
(lijkt me nog wat aan de krappe kant maar goed)

Totaal bespaar je dan zo 10 watt (FSB, PCI-e, PCI alle bussen en links) Oftewel je bespaard dan op de hele planeet even 500 miljoen watt. Oftewel je bespaar 500 megawatt
Dat is een flinke kerncentrale die je dan minder hoeft laten draaien :)
Bestaat er om de energie behoefte van een computer te berekenen wel een betrouwbaar programma, en hoe betrouwbaar zijn de opgave van de leveranciers.

waarom een voeding van 550 watt als het ook met 350 watt gaat.

minder verspilling minder warmte. minder koeling.

[Reactie gewijzigd door Jermak op 27 juni 2007 16:53]

Dat heeft te maken met het feit dat 99 van de 100 minder bekende voeding fabrikanten alleen peak vermogen aangeven op hun voeding.
Hierdoor is bijvoorbeeld een videokaart fabrikant genoodzaakt om als vuistregel een hoog wattage aan te geven in zijn handleiding etc.
(En dan nog is de vergelijking krom want een kaart kan wel werken op een 350 watt voeding misschien, maar als dat net lukt dan zal hij dat geen half jaartje vol houden onder die omstandigheden).
Er zijn namelijk genoeg goedkope voedingen van 550 Watt peak die continu niet eens aan de 250 watt komen.
Het rendement van zo'n voeding is dus sowieso al uitermate slecht.
Maar het is wel het type voeding dat de gemiddelde leek die wel een zware videokaart wil in zijn pceetje heeft hangen.

[Reactie gewijzigd door Da_maniaC op 27 juni 2007 13:10]

en jij denkt dat een 550W voeding ook constant 550W verstookt? 8)7
het gaat er om dat een 550 W voeding niet constant 550W kan leveren
@ Aval0ne:
Waar zie je mij zoiets zeggen?
Interessant onderzoek, maar vraag me af of / wanneer dit nou ook daadwerkelijk word geimplementeerd ?
Een snelle bus zoals bijvoorbeeld pci express 2.0 zou hierdoor wel zeven keer zo zuinig kunnen worden als nu het geval is.

Moet dat niet zijn zuiniger dan? Is toch een vergelijking?

Op dit item kan niet meer gereageerd worden.



Populair: Nokia Lumia 930 Nokia Websites en communities Lumia Smartphones Laptops Sony Apple Games Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013