Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 120 reacties
Bron: Tom's Hardware Guide

De droom dat dual core-processors kracht met relatieve zuinigheid gaan combineren, is volgens Tom's Hardware Guide verleden tijd. Documenten van Intel, ingezien door THG, geven aan dat de aankomende Smithfield-processors tot 13 procent meer energie gaan verbruiken dan de heethoofden van vandaag de dag. De specificatie geeft als Thermal Design Power voor de Smithfield, die in de loop van het jaar uit gaat komen, 130 Watt op. Ter vergelijking, de Pentium 4 EE op 3,46GHz vreet ongeveer 117 Watt. Over de soort koeling die benodigd is om deze warmte af te voeren schrijft Intel niet, maar volgens THG kan Intel zo niet lang meer doorgaan; computers worden 'kleine kerncentrales'.

Kerncentrale
Moderatie-faq Wijzig weergave

Reacties (120)

behalve dat ze dan stroom verbruiken en geen genereren :)
En de vergelijking met een kerncentrale ligt meer in het energie verbruik per oppervlak op de CPU zelf, want in zijn totaal genomen is de PC toch niet echt een grootverbruiker in een gemiddelde woning.

PC = 500Watt
Frituurpan = 1600 Watt
Wasmachine = 2500 Watt
Droogtrommel/kamer = 2100 Watt
Koffiezet apparaat / Water koker = 1500 Watt

Nu staat een PC vaak wel wat langer aan dan een frituurpan/etc, maar de uitspraken van Tom's Hardware lijken wel steeds vaker opzettelijk sensationeler te worden gemaakt.

En AMD/Intel/VIA leveren tevens nog steeds zeer zuinige oplossingen, het is dus duidelijk de markt die hierom vraagt. Er zijn weinig Tweakers die bezwaar maken tegen een 500Watt TPD als dit een 100x snellere computer zou opleveren. Misschien de Greenpeace Tweaker, maar die kan dan een passief gekoelde AMD Geode, VIA-C3 of Intel Pentium-M gebruiken. :Y)

[quote]

[edit]
@part+Gee-Money, Ik gaf toch duidelijk aan "Nu staat een PC vaak wel wat langer aan dan een frituurpan/etc", echter niet iedereen heeft zijn PC meer dan 4 uur per dag aan. Tweakers daargelaten, al mijn PCs staan namelijk gewoon 24 uur per dag te draaien, echter in idle stand gebruiken ze maar 30Watt.

@RuL0R, PC+Monitor+Printer+etc telt toch vaak snel op, de 500Watt is dan niet zo'n gekke waarde.

[/quote]
Het verbruik is niet alleen afhankelijk van het vermogen.
BV
PC = 500Watt
10 uur per dag is 35kwh in de week

Frituurpan = 1600 Watt
1x in de week 2 uur 3.2kwh in de week

Wasmachine = 2500 Watt
2x in de week 3 uur 15kwh in de week

Droogtrommel/kamer = 2100 Watt
2x in de week 3 uur 12.6kwh in de week

Koffiezet apparaat / Water koker = 1500 Watt
1 uur per dag is 10kwh

Dan is die PC opeens wel de grootverbruiker in huis.
500W is nogal erg ruim voor een PC, dan ga je ervan uit dat er een 3,8Ghz prescott in zit, minstens 2 hdd's en bv. een SLI opstelling of een X850XT ofzo.

De gemiddelde gebruiker haalt misschien 300W gemiddeld, en dat zeker geen 10 uur per dag.

Maar dan komt'ie per eek nog steeds op hetzelfde niveau als een koffiezet apparaat ofzo.
Bij mensen die tekort hebben aan een 300 Watt voeding (instabiliteit), kun je uitgaan van een stroomverbruik dat al in de buurt van de 300 Watt piek dus 200-300 Watt nominaal ligt. Tel daar extra PC apparatuur bij op (ADSL modem, 20 W, hub, 20 W, printer en scanner beiden op standby 20 W) en eem beeldscherm, dan kun je een aardig end komen hoor.
Mijn iiyama gebruikt tussen de 250 en de 350 watt, ok dit is een 22" CRT, maar een 19" CRT wil ook wel wat gebruiken. Grote TFT's zitten ook al boven de 100W.

Een totaal van 500 W bij een krachtig systeem is niet overdreven. Combineer dat met dat een typisch straalkacheltje naar keuze 1000W of 2000W, dan is het stroomverbruik van een moderne PC aardig het straalkachel gebied genaderd!
Met als belangrijk verschil dat je zo'n elektrisch straalkacheltje alleen even aanzet als je het koud hebt, en dat je het dan weer uitzet als het niet nodig is, omdat het zo duur is. Maar die PC die staat altijd aan, zomer, winter, uren achtereen per dag. Bij een hoop mensen zelfs 24 uren per dag omdat men ofwel online wil blijven ofwel omdat men bang is dat uitzetten van een PC zorgt voor slijtage.... zo wordt het cumulatieve gebruik van PC's (en de bijdrage van de PC aan mondiale vervuiling en klimaatproblematiek) dus vergroot.
PC = 500Watt
Lijkt mij dat dit juist sterk verschilt.
Ik heb bijvoorbeeld een pc met 275 wat voeding, en een lcd monitor.
Ik denk dat de volgende schattingen wel aardig kloppen:
Idle -> 150 W
Full-load -> 300 W
Gemiddeld -> 200 W

Als ik deze dan 10/7 aan laat staan, kom ik op 14 KW, en is mijn pc niet meer de grootste verbruiker.
Een PC met grote CRT beeldbuis is echt een aardige stroomverbruiker hoor, bij mij zo'n 30% van het totale energieverbruik op jaarbasis (met ADSL modem en printer).

Ik heb geen wasdroger en heb voor de verlichting alleen halogeen en spaarlampen, op die manier heb ik een flink deel daarop kunnen bezuinigen. Verlichting is nu ook zo'n 30%.

Je kunt als consument gemakkelijk besparen, maar Intel maakt het je zo wel moeilijk. Als het stroomverbruik daadwerkelijk ruim boven de 100 watt uit gaat komen, dat slaat werkelijk nergens op. Dan is de enige mogelijke conclusie dat hun architectuur dermate ruk is dat ze veel te veel transistoren en veel te veel cycles nodig hebben voor een beetje performance. RIP netburst. :?
maar een pc staad bij het publiek op deze forums komt wel veel langer aan dan een frituurpan...
Maar die spullen heb je vaak niet lang aan staan.
En een pc wel.
Je vergelijking gaat niet echt op.
De frituurpan of magnetron staat namelijk maar voor een paar minuten aan, terwijl de meeste pc's hele dagen verstoken.
edit:
net te laat en was op part bedoeld
maar nu kan je er wel weer, zoals het betaamt bij een kernreactor, er een stoom generator op plaatsen en zo doende weer stroom op wekken. Dan nog een warmte kracht koppeling en dan krijg je straks een HR en een HR+ computer :7
Eeehm... een cpu verbruikt geen stroom, maar elektrische energie...
nxxt: Zo kan je blijven muggenziften. Een processor verbruikt geen elektrische energie, maar zet ~100% van de elektrische energie om in warmte :Z
Het is tegenwoordig mogelijk met je pc een kleine huiskamer te verwarmen.. scheelt weer stookkosten ;-) alleen is stroom duurder dan gas..
Het is natuurlijk wel zo dat de TDP een bovengrens is. Het zou best kunnen dat onder voledige belasting deze waarde behaald wordt maar als de processor idle is of niet volledig benut wordt, het verbruik een stuk lager ligt.
Zo zijn er een hoop energiebesparende technieken in de 6xx serie ingebouwd en zou men bv een core volledig kunnen uitschakelen. Dus eerst maar eens zien wat het werkelijke verbruik is bij "normaal" gebruik in plaats van nu al spastisch te reageren.
Waarvoor zou je in godsnaam een dual core processor nodig hebben als hij het grootste gedeelte van de tijd idle is. Internetten? Word documentjes tiepen? Dacht het niet. Dit is misschien voor ontwerpers en games iets en tja, dan weet je dat het geld en stroom kost.

Ik vind het sowieso belachelijk wat mensen aan systemen hebben staan voor simpele office toepassingen, maar goed, das mijn idee
Ik vind het sowieso belachelijk wat mensen aan systemen hebben staan voor simpele office toepassingen, maar goed, das mijn idee
Tja, een AthlonXP 2400+ systeem kost bijna niks, en is toch al redelijk snel.

Kan je voor 2 euro minder wel een PII 300 proberen te vinden, maar waarom zou je? Als je iets fatsoenlijks koopt kan je tenminste een tijdje vooruit.
Dual core voor games? Welke games zijn nou echt multithreaded? Weinig, voor games is het dus ook niet interessant. Veel games lopenz elfs trager op multicpu systemen (zowel smp als htt)
Waarom heb je een 2,4 ghz syeem nodig om te internetten. Ik bedoel zo kan ik het ook hoor :S dat kun je prima op een Pentium 2 of 3 / AMD K7 of K6 II daar hoef je ook geen een ghz voor te hebben.
Voor onder het word-typen en serven nog even wat DC-puntjes te scoren?
ik vraag me af of dit bij amd ook zo gaat zijn, aangezien er ook al zulke grote verschillen in TDP's waren bij de overstap naar 90nm.
Weet iemand hier meer van?

Is het zo dat er bij dual core voortdurend twee cores actief zijn eigelijk? Anders zou de opgenomen vermogen effectief veel lager komen te liggen lijkt me
Dual core Opteron (90nm dus) heeft TDP van 95W.
Voor de Single Core 130nm was de TDP 89W.
Voor Single core 90nm weet ik het niet zeker, ik dacht 67W.

In de praktijk is het bij 130nm 60-70W en bij 90nm ~40W.
bij dualcore weet ik nog niet.
en dan nu even een serieuse reactie.. (vergeleken met die eerste 5...sorry voor de trage post)

Ik denk dat dit komt omdat intel gedwongen word. Amd doet wat zij willen doen, 64 bit invoeren, dual core processors ontwerpen, en een tijdje later schrikt intel wakker , shit wij moeten ook een dual-core procesor, of shit, wij moeten ook 64 bit, en aangezien amd de tijd heeft genomen (en kreeg) om na te denken over hoe ze het aan wouden pakken, en intel die tijd niet krijgt van amd (duh!) moeten ze bij intel alles op alles zetten om ook een dual core proc te kunnen leveren, zonder echt over het design na te kunnen denken ( zie ook bijv : het core opp van het prototype dualcore xeon, ook gigantisch)

Let op : dit is geen intel flame(flame..warmte ..tdp..haha...) ,maar naar mijn idee zit het zo...
Zoals vaak gezegd wordt:
Nummer 1 worden is makkelijk, nummer 1 blijven is veel moeilijker.

Intel heeft voor alle projecten van Amd eenzelfde optie klaarstaan. Daarnaast hebben ze zelf ambitie en proberen ze nieuwe technieken uit, wat soms succesvol, soms een flop is.

Intel heeft de Itanium geprobeerd te introduceren als 64bit monster. Helaas is deze niet verder gekomen dan de oude garde 64bit processors beconcurreren, en is de markt voor main stream servers niet echt open gegaan.
Rambus was ook een poging van Intel om in een keer een grote stap vooruit te zetten. Pas met de 800Mhz fsb P4's is er daadwerkelijk een sneller platform gekomen dan de i850e (PC1066 chipset).

Het is dus niet zo dat Intel een beetje meelift op de ideeen van Amd, ze zijn zeker zelf ook innovatief bezig (BTX nu weer), maar niet alle ideeen redden het. En nadenken doen ze bij Intel echt wel, sterker nog, met de on-die geheugencontroller lijkt Amd zich nu toch in de vingers te snijden. DDR2 wordt uitgesteld door Amd, terwijl Intel een nieuwe chipset op de markt gooit, en maar kijkt of het DDR of DDR2 wordt.

Ik geef je gelijk dat Intel een beetje klem heeft gezeten, maar met de opkomst van het Centrino platform, de 64bit technologie, en nu de dual-core lopen ze op alle gebieden goed mee. De oppervlakte van een core is niet super problematisch, met de marges die Intel heeft. Alleen het energieverbruik is een probleem.
Amd wordt echter nu flink in het nauw gedreven door de BTX standaard (lastig met on-die memorycontroller) en DDR2 (nieuw socket nodig). Hoe Amd daar mee omgaat is imho bepalend of het marktaandeel Amd blijft stijgen.
a: BTX formaat staat nog niet 100% vast want ook veel moederbord fabrikanten klagen erover

b: Intel is ook van plan een on die memory controller te maken dus dan gaat Intel ook met het BTX probleem zitten.
Dus ik ga ervan uit dat BTX zal worden aangepast.
De BTX specificatie 1.0 staat vast.
(Zie bv formfactors.org)
Dat er kritiek uit het veld komt op BTX betekent niet meteen dat er geen standaard is. Daarnaast zijn er ook al een heleboel spullen voor BTX. BTX v1.0 is 100% een standaard.

Intel heeft inderdaad een on-die memorycontroller in het vat zitten, en er zijn vast en zeker al ontwerpen geweest die het gebruikten.
Maar de hele P4/Xeon en Pentium M lijn maken er geen gebruik van. Bij de Pentium M is het sonoma platform tot ruim in 2006 geplanned zonder on-die geheugencontroller.
De Pentium 4 zou een opvolger kunnen krijgen met memorycontroller onboard, echter probeert Intel het Xeon en Itanium platform naar elkaar toe te krijgen, waarbij een geintegreerde memorycontroller nu al lang op de roadmaps zou moeten staan.
AMD doet alles bahalve zich in de vingers snijden met DDR2. Ze hebben het gewoon NIET NODIG. tot 2006 dan. En persoonlijk hoop ik dat de eerste DDR3 dan op de markt komt maar dat zal wel niet :(
Kachel eruit, PC erin :+

Tja, wat hiervan te denken... Notebooks kunnen wel zuinig en snel. Waarom desktops dan niet. Ja, 't kost wat meer ontwikkeling, maar dat verdien je terug op je stroomrekening. Ik krijg steeds meer 't idee dat processors 'te' snel op de markt gegooid worden, omdat 't in de desktop toch niet boeit hoeveel ze gebruiken. Voor de notebook markt worden ze vervolgens nog doorontwikkeld naar een 'beter' model, wat zuiniger is. incl Speedstepping e.d.

Die dual-cores kunnen ook gerust wel zuiniger. Alleen heeft Intel geen zin om er tijd+geld in te steken voor de desktop/server markt. Ze willen nu gewoon vangen. En dan gaan ze later wel door voor de laptop. Straks krijgt iedere PC standaard waterkoeling...
Het grote verschil is prijs: mobile processoren zijn juist door dat efficientere ontwerp duurder dan desktops. Er is geen "geheim" voor, het is gewoon een andere tradeoff tussen stroomverbruik, performance en prijs.
Dit is absoluut niet hetzelfde, de dingen die een mobile cpu moet doen zijn heel anders dan die van een desktop cpu. Laptop cpu's zijn snel in de dingen die zij moeten kunnen maar ga jij maar eens een film encoden op een mobiele proc en daarnaast op een desktop proc. Dan zul je het verschil wel merken.

En performance kost gewoon stroom
Mijn dothan 1,5 met 512mb doet een film encoden toch net zo snel of sneller dan mijn 2500+ met 1 gb

|:(
Maar die Dothan is wel drie keer zo duur...
Als dit werkelijk waar is dan vraag ik me af waar Intel deze grenzeloze arrogantie en onverantwoordelijke houding t.o.v. bv. het mileu vandaan haalt.

Hoe halen ze het in hun hoofd om propaganda op hun website te schrijven onder het kopje 'Environment' (http://www.intel.com/inte...m?iid=cmpnyinfo+corp_EHS&) en vervolgens met zulke specs te komen?
Ik heb gekeken op de website wat bedoelde je nou eigenlijk ?
dat ze claimen enviroment leader te zijn ?

Tja wat betreft omgeving kan je die statement denk ik maken op verschillende gebieden.. fabricage proces continu te vernieuwen kan je bijv, schadelijke elementen weren, je kan vervuiling reduceren. Je kan ook zogenaamde recommendations geven aan betere voedingen etc.
Je hebt wel gelijk wat betreft de energieverbruik dat te hoog wordt en niet gewenst is .. liefs moet het minder stroom gaan gebruiken maar ik denk dat men kan verdegigen ten opzichte van prestatie .
zoals een poster eerder aangaf kan zijn dat prestaties bijv. 150 % beter worden en dus stijging van stroom 13 % is dus kan je zeggen dat de cpu eigenlijk wel energiezuiniger is geworden... maar dat is afwachten ten opzichte van prestaties .
Als ze eea nog willen gaan verbeteren, kun je maar beter een hoog startpunt neerleggen. Dan is de eerste winst straks snel binnen.
Ik vind dit een intressante ontwikkeling omdat er nu al veel geklaagt en gevraagd wordt in DOC.
Vooral met betrekking van temperatuur en koeling en regelmatig blijkt daaruit dat 50-60 graden normaal is voor een prescott. En die vreet net iets minder dat de 117 watt DACHT ik. Dat zou dus betekenen dat de dual-core processor een zeer goede boxed koeler zal moeten hebben. En mogelijk zelfs wel een btx behuizing verplicht stelt, omdat anders de temperatuur niet gegaraneerd kan worden.

Edit: veeeel typo's (bedankt marc ;) )
Het TDP van een socket 775 ligt op 115 Watt. De meeste prescotts gebruiken tegenwoordig iets van 80~90 Watt.
Eerdere modellen prescott zaten wel dicht tegen het TDP aan.
Beste VWO-scholier,

Ik wens je heel veel sterkte met je eindexamen Nederlands.

Ja, compleet overbodig :7
Naast de stijgende lijn die je ziet bij het energie verbruik zie je ook een dalende lijn bij de performance winst. Of beide nu logaritmisch zijn of niet doet er niet toe. Uit bovenstaande mag je afleiden dat Intel dit ook moet weten en dus al lang een vervangend ontwerp in de kast moeten hebben liggen. Dat deze nog niet op de markt is heeft natuurlijk alles te maken met marketing. Zolang men de markt nog kan voorzien met de huidige P4 blijft men dat doen.
Hoe kom je daar nou weer bij? Dalende lijn?

Dan klopt de hele principe van Dual Core toch niet meer?

Dual Core is juist in het leven geroepen omdat het met een extra core en een aantal procent extra stroomverbruik relatief veel meer performance levert dan alleen opschaling van de kloksnelheid of toevoegen van extra instructies of transistors.

Vooral wanneer software goed wordt geprogrammeerd om gebruik te maken van de Dual Core mogelijkheden zullen er ongelooflijk reactieve en snelle computer mogelijk zijn.

En waarschijnlijk is de volgende stap zelfs Quad Core.
Wie zit hier nou op te wachten? De grootste afnemers zijn nog steeds bedrijven, en de meeste kantoorparken hebben nu al enorm veel problemen met de energievoorziening. Je koopt toch ook geen auto die 350 km/u kan en 1:2 zuipt en een takkeherrie maakt omdat je dan 'helemaal bij' bent? De meeste mensen hebben meer dan genoeg aan 1GHz, en ik zie liever dat ze die processoren steeds zuiniger maken. Al was het alleen maar om de TCO omlaag te krijgen, want stroom is ook niet gratis.
Dat worden ze ook, de ULV versie van de Pentium M is behoorlijk zuiniger dan de oudere processoren met die snelheid.

Het is de klant die bepaalt of hij dit stroomverbruik acceptabel vindt. Intel geeft in zijn gamma de keus uit traag en zuinig of snel en veel stroomverbruik. Niets mis mee natuurlijk...
Aangezien Intel ook al in aan de Netburst architectuur van de Pentium 4 bezig was in 1995 zal het heus niet zo zijn dat ze opeens wakker geschrokken zijn en even in 2 maanden een Dual-core Processor met de nieuwe Smithfield-Core in elkaar geknutseld hebben.
Ze hebben zich alleen wel verkeken op weerstand van de 90nm transistors in de Netburst architectuur.

Intel heeft nu dus het probleem dat ze niet ineens Dual-Dothans kunnen gaan produceren want de deal met IBM over het bakken van de chips en de aanschaf van de apperatuur zijn waarschijnlijk al een aantal jaren geleden gebeurd.

Er komt echter een tijd dat Intel over AMD heen walst; als ze de Dothan core kunnen perfectioneren om op 35W per core in een Dual-core processor te draaien met 64-bit en Dual-channel ondersteuning is AMD nergens meer.
Intel heeft de techniek, ervaring en manschappen om over AMD heen te walsen maar kan dat gewoonweg niet door afspraken die ze waarschijnlijk al jaren geleden hebben gemaakt.

Het onwikkelen van en apperaat om een bepaalde chip te bakken kan bijna net zo lang duren als het ontwikkelen van de chip zelf.
Er komt echter een tijd dat Intel over AMD heen walst; als ze de Dothan core kunnen perfectioneren om op 35W per core in een Dual-core processor te draaien met 64-bit en Dual-channel ondersteuning is AMD nergens meer.

Wat een enorme onzin zeg. P-M is goed in integer maar zuigt in floating point. Als ze dat willen verbeteren zal het stroom verbruik ook steigen. Voeg een FSB toe die de concurrentie met K8 aankan en je P-M verbruikt inderdaad 35W, maar de AMD is nu al zover en verbruikt net zo weinig. En dan hebben we het nog niet eens over 64-bit.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True