Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: Dailytech, submitter: aliencowfarm

Via een website voor resellers zou Intel hebben aangekondigd dat zeven op Penryn gebaseerde Xeon-processors vanaf 11 november verkrijgbaar zijn. Ook de prijzen van de standaard- en performance-modellen zijn bekend.

Het zou gaan om quadcore Harpertown-modellen met kloksnelheden van 2,0 tot 3,16GHz.. De E-en X-varianten zouden op 11 november moeten verschijnen; twee exemplaren uit de zuinige L-serie zouden in het eerste kwartaal van 2008 volgen.

Intel gebruikt de 'E' om de standaard Xeon-processors met een tdp van 80W aan te geven; de 'X' wordt gebruikt voor de performancelijn die een tdp van 120W kent. De prijzen van de op Penryn gebaseerde Xeon-modellen variŽren van 209 dollar voor het instapmodel E5405 tot 1172 dollar voor de high-endprocessor X5460.

Officieel heeft Intel nog geen introductiedatum voor de Penryn-cpu's genoemd, maar begin deze maand werd al duidelijk dat de lancering eind dit jaar te verwachten was. De reseller-pagina waar de aankondiging van 11 november te vinden was, is inmiddels door de chipfabrikant offline gehaald. Over de lanceringsdatum van mobiele en desktop-Penryns is nog niets bekend.

Penryn Xeon-modellen die in november verschijnen
ModelKloksnelheidtdpL2 CacheIntroductieprijs
X54603,16GHz120Watt12MB$1172
E54503,0GHz80Watt12MB$851
E54402,83GHz80Watt12MB$690
E54302,66GHz80Watt12MB$455
E54202,50GHz80Watt12MB$316
E54102,33GHz80Watt12MB$256
E54052,0GHz80Watt12MB$209
Moderatie-faq Wijzig weergave

Reacties (75)

Blijf het raar vinden dat een 3,16Ghz een 40W hogere TDP heeft en alle onderliggende modellen 80. Die laatste 160Mhz zou dan dus een breekpunt zijn.
Het betekent toch niet dat ze precies 80w verbruiken, of 120w. De laatste valt gewoon buiten de grenswaarde van 80w en wordt dus automatisch 120w.
had ik dan toch liever aangeduid met 100 watt oid...
Nee, door consequent alles wat boven de 80 uitkomt op 120w te zetten is het voor systeem ontwerpers makkelijker om voor de verschillende groepen behuizingen te bouwen. Als je 80, 90, 100, 110 en 120w TDPs krijgt moet je 5 verschillende ontwerpen maken. Nu maar 2.
Wellicht heeft deze serie cpu's voor die volgende 160 MHz een iets hoger voltage nodig. Dat verhoogt het verbruik natuurlijk al.
Daarnaast kan het zo zijn dat er nog snellere modellen komen die nůg meer energie gebruiken, maar wel binnen hetzelfde TDP moeten vallen. Dan hebben ze het voor dit model gewoon ruim genomen.
Let wel: hij mag het gebruiken, ůf hij het doet is een tweede punt.
Het gaat er gewoon om dat deze niet meer als 40W gebruikt en de andere niet meer als 80W, de modellen verbruiken in feite gwn meer naargelang hun kloksnelheid
dacht dat intel gemiddelden en AMD maxima aanhield met hun TDP specs, maar kan het mis hebben natuurlijk.
Inderdaad dat heb je mis...... :)

Intel praat over het maximale gemiddelde vebruik, iets wat toch heel wat anders is dan het gemiddelde vebruik en aardig dicht in de buurt komt bij het maximale verbruik

Een kast ontworpen voor een gemiddeld verbruik levert mega problemen op als het verbruik structureel boven het gemiddelde ligt.

[Reactie gewijzigd door humbug op 15 augustus 2007 21:46]

Misschien gekke vraag; maar wat hebben we in godsnaam aan 12mb cache? :?

Ik vind 8mb bij de XQ6800 al veels te veel en hier doen ze er een schepje bovenop.
Dat heeft wellicht te maken dat deze monstertjes een relatief klein dun nekje (fsb) hebben..
Dus als alle core's druk bezig zijn willen ze teveel door dat nekje drukken hoe groter de cache hoe kleiner de kans is dat iedereen tegelijkertijd de fsb gebruikt -> en we zijn weer sneller..

AMD's hebben die hoeveelheid niet nodig omdat ze het fsb probleem niet hebben..
(alhoewel ze wel weer andere problemen hebben als in ze hebben hun design nog niet zo getweaked als Intel :9 )
Je vergeet dat veel applicaties redelijk voorspelbaar zijn en dus vrijwel al hun data in de cache kunnen vinden. Vandaar dat de meeste benchmarks weinig verschil tussen AMD en Intel laten zien op dit punt en er eigenlijk alleen verschillen optreden in synthetische benchmarks.
"Te veel" bestaat niet. L2 cache is sneller dan RAM of de hardeschijf, dus waarom niet zoveel mogelijk cache erop?
Een grotere cache heeft vaak een hogere latency. Is duurder om te produceren en gebruikt waarschijnlijk meer energie.
Een grotere cache heeft vaak een hogere latency. Is duurder om te produceren en gebruikt waarschijnlijk meer energie.
De latency van het L2 cache geheugen in Penryn zou volgens de meeste raporten lager zijn dan dat van de huidige C2D.
Intel staat er al jaren om bekend om zowat het beste cache geheugen in de industrie te maken.

[Reactie gewijzigd door Horemheb op 15 augustus 2007 18:42]

En een grotere cache levert een grotere kans op productiefouten op -> lagere yields
Om dat te voorkomen kiest een processorfabrikant vaak uit een van deze mogelijkheden:
1. Er zit iets meer geheugen op dan wat gespecificeerd is en de kapotte banks kunnen bij de component-test worden uitgeschakeld.
2. Als er wat van het cache-geheugen kapot is wordt een deel uitgeschakeld en wordt de processor 'omgestempeld' tot een variant met minder cache.
Intel heeft al jaren een cache technologie waarbij ze delen met fouten in gewoon uit kunnen zetten. Ze voorzien gewoon een paar % meer cache dan nodig en er moeten nog maar bitter weinig chips de vuilbak in wegens fouten in de cache.
idd, 1 grote module heeft een hogere latency, maar hier zijn het wel 4 aparte modules als ik me niet vergis (Q-core?), samen goed voor zo'n 12 MB.

[Reactie gewijzigd door kiang op 15 augustus 2007 19:29]

Tja snap dat ook niet, 8mb cache was ook genoeg die 4mb extra levert mischien 1%-2% gemiddeld extra performance op terwijl met de 8mb cache versie Intel veel meer dies van 1 wafer kan halen.
12mb t.o.v. 8mb is vooruitgang. Anders hadden ze het net zo goed bij 16kb code en data cache kunnen houden (pentium 60-66)
Wat ik nou niet snap zijn die prijzen.. 1,16 Ghz hoger kost gewoon $900 dollar meer, ja ik weet dat het servermodellen zijn maar stel dat die ook zoveel gaan kosten voor de desktops, dan koop je toch gewoon die E5405/ (Desktopnaam) en klok 'm over? :? Of zie ik dit verkeerd?
Xeon = zakelijk. Als je 2.000.000 euro per week omzet via je Xeon servertje ga je niet overklokken. Die § 900,-? Peanuts.
mja, 1.16 GHz meer is in termen van benchmarks wel meteen 4x 1.16GHz meer he, als je de kloksnelheid verhoogt, moet dat meteen met de 4 kernen gebeuren....

ik ben geen kenner, maar dat lijkt mij toch een logische verklaring ^^

[Reactie gewijzigd door kiang op 15 augustus 2007 20:38]

Je kan de cores niet zomaar optellen.
oke, en de hele E5xxx serie is dus nog steeds s771 en FBDIMM? zou jammer zijn, echt jammer.
Ben zelf serieus een dual Xeon oplossing aan het overwegen. De prijzen van de CPU's en het FBDIMM geheugen vallen goed mee. Alleen het feit dat je een duurder moederbord moet kopen valt tegen.

FBDIMM presteert inderdaad niet zo goed vergeleken met DDR2 of DDR3. Maar vergeet niet dat de Intel 5000 serie chipset wel een quad-channel geheugencontroller bied. Op gebied van bandbreedte en troughput steek je FBDIMM in zulke configuratie niet voorbij. Vereist wel dat je minimum 4 latjes steekt.

Ik ben nu wel van plan te wachten tot Penryn uitkomt na het lezen van dit nieuws.
De goedkoopste quadcore Xeon met 1333FSB is op dit moment de E5335 op 2GHz en die kost ~300§. De E5405 gaat op dezelfde snelheid lopen, heeft de helft meer cache en zou nog eens een kleine 100§ minder kosten. Dan kan ik echt nog wel 4 maanden wachten. :*)
Kalm aan maar, er komen ook desktop versies van uit.
Bovendien, als jij zo'n monster pc moet hebben, dan koop je toch gewoon een serverbordje + fb-dimmetjes :?
Ik ben benieuwd of er ook snel Xeons o.b.v. Penryn in de 3000 serie uit gaan komen. En desktop exemplaren natuurlijk. Maar het is i.i.g. een goed teken dat er gelijk goedkope varianten op de markt komen.

Jammer dat er geen "enthousiast" platform is voor s771. Alles is daar gebaseerd op Intel 5000 chipset (niet overclockbaar) en dus FB-DIMM. Bij AMD is dit veel beter geregeld (wel enthousiast borden voor socket F).
Die 4GHz grens blijkt moeilijk te behalen lijkt wel. De afgelopen paar generaties processors (op de P4 na) liggen allemaal rond de 3GHz.
Liever dat ze meer prestaties met lage frequenties weten neer te zetten dan alleen de frequentie opkrikken zoals bij de Netburst processoren. Kacheltje anyone?

[versimpelde uitleg]
Op 1mhz laat je 1.000.000 maal per seconden stroom door de processor lopen. Verhoog je dat naar 10mhz, dan laat je 10x zo vaak, en dus 10x zo veel stroom door de processor lopen. Hoe hoger de frequentie, hoe hoger de opgenomen energie en dus ook hitte.
[/versimpelde uitleg]
Natuurlijk spelen er meer dingen mee. Technologie gaat vooruit dus dit is niet vanaf de 8086 door te trekken. Ook is het natuurlijk niet zo dat de processor volledig zonder stroom komt enzo. Maar het komt er ongeveer op neer. (Edit: Voor ingewikkeldere info zie hieronder)

Moraal van het verhaal is dus: Liever meer prestaties per kloktik dan meer kloktikken.

Je kunt het zo lastig maken als je wilt, maar het verhaal blijft hetzelfde ;) Hogere frequentie = meer stroom = meer hitte.

[Reactie gewijzigd door Nijn op 15 augustus 2007 19:15]

Misschien beter vermelden dat de stroom niet lineair stijgt met de frequentie, maar eerder logaritmisch of kwadratisch... Dit omdat er enkel stroom loopt bij een overgang van niveau, wanneer een niveau constant is (tussen een halve klokslag) is de stroom heel laag. Wanneer je de frequentie naar het maximum brengt zal er geen constant niveau meer zijn en zal de stroom dus continu vloeien...

@borft: Ok als ze 10x raper zijn, verbruiken ze idd ook 10x minder, maar je vergeet dat je er ook 10x meer nodig hebt om een zelfde tijd te overbruggen.... Het gemiddelde tussen een hoog en een laag blijft in iedergeval constant, en is onafhankelijk van de frequentie

[Reactie gewijzigd door LittleWan op 15 augustus 2007 17:18]

Als je de frequentie naar het absolute maximum brengt waarbij er geen constant niveau meer is dan kan je niet meer spreken van digitale techniek.

Wat je vergeet te melden is dat met de tijd, niet alleen de frequentie van IC's omhoog gaat, maar dat ook de schakelfrequentie omlaag gaat. Als de schakelfrequentie evenredig omhoog gaat met de verlaging van de schakelijd zou je geen hoger stroomverbruik hebben. Hiermee rekening houdende kan je natuurlijk wel opmerken dat processors steeds meer gates/transistors tellen. Meer transistors die schakelen -> hoger verbruik.

Een nieuwe grote boosdoener tegenwoordig zijn lekstromen. Doordat de circuits zo klein worden wordt de weerstand naar naastegelegen paden, en boven/onder lager en gaat er stroom lekken...

[Reactie gewijzigd door knirfie244 op 15 augustus 2007 23:26]

Wat is het absolute maximum in frequentie dan? Ik heb gelezen dat 1/10^42e deel van een seconde het kleinste deel is. dus 0 komma met 42 nullen en een 1
(0,0000......1).

dit is echter wetenschappelijk bekeken en gesteld dat een kleiner tijdsdeel elke redelijke waarde verliest. Maar waarde in wiens ogen. dit is natuurlijk afhankelijk van metariologische eigenschappen. zoals hoevaak draaien elektronen om een kern van een atoom heen (met de snelheid van het licht). En heeft het zin om binnen een zo'n orbit een extra tijds segment te stellen. wie of wat zal dit ooit kunnen waarnemen. zal dat nog betekenis hebben. maar laten we dan wel wezen, dat als een computer 1 met 42 nullen = 1.000.000.000.000.000.000.000.000.000.000.000.000.000.000 klokpulsen per seconde kan uitvoeren (1 septilioen) .
Dat staat tegenover het huidige als 1/10^9 = giga oftewel miljard -> 1 000 000 000 klokpulsen per seconde.

Als ze met quantum computers kunnen komen, die een zulke frequentie moeten gaan bereiken ben ik zeer tevreden. tera - peta - exa - zetta - yotta flop computers kom maar netjes binnen bereik.

"offtopic" Dit is ook toevallig de wortel van de huidige schatting van het aantal atomen waaruit ons hele heelal bestaat. 10^84. Kun je nagaan hoe "in de kinderschoenen" we staan met computatie.

[Reactie gewijzigd door chris19_79 op 18 augustus 2007 03:45]

logaritmisch en kwadratische stijging verschillen wel ENORM veel van elkaar.
logaritmisch zou fijn zijn, kwadratisch iets minder... :p
indeed, volgens mij stijgt vermogen iig wel kwadratisch met de stroom, dus als de stroom al kwadratisch toeneemt met de frequentie.... dan zal het lekker warm worden
En wat is nou de clue?? Zover ik weet heeft het allemaal niet zoveel voeten in aarde. Zover ik weet werd de 486dx2 66mhz actief gekoeld. Voor zover ik weet werd mijn Cyrix 200+ (2x75mhz->2x83) ziekelijk heet. Ik heb een servertje gehad met zo'n apparaat erop. De ventilator heeft eens een dagje niet gedraaid. Nou, ik heb het geweten. De tin droop bijna van het bord af zo heet was ie geworden. De processor functioneerde nog. Ik spreek dan over 166 mhz!! Niet over 4000!!!!!!!!!!

We spreken over een hitte afgifte als afvalprodukt tijdens schakelen van transistors.
Is niemand opgevallen dat de quadcore 80 watt gebruikt?? Dat is 20 watt per core!!!!!!! Per core op hoeveel megahertz? Ik spreek niet over gigahertz omdat ik de wat hevige standpunten hier graag onderuit haal. Ja, we zitten nou al 2 jaar vast op 3ghz. Maar helaas hebben we tegenwoordig het probleem dat transistors gaan lekken. Intel gaat dit jaar overstappen op TRIGATE transistors. Die moeten het lekken een halt toe roepen.

Een oplossing om de halt te overbruggen was om meerdere processor kernen samen te brengen in een enkele kern. hence, dualcore - quadcore. En door IPC verbeteringen. verbeterde architectuur. Is ook eens goed, zo'n progressie.

Maar laten we wel wezen. We leven in een harde wereld. Zodra de rooie steentjes gebroken zijn (arkanoid), gaat de megahertz strijd gewoon lekker verder. Reken erop dat we die 100ghz grens in 10 jaar halen. Ik geloof erin. Elk obstakel gaat eraan. Dat is al decennia lang zo.
om 11 novmeber komt de winter al dichtbij dus het is zeker handig :P

ze gaan zich nu meer richten op performance per wat inplaats van performance per hz lijkt het.

en misschien hebben ze wel iets dat die koeler blijft dus dan kan de aantal ghz best omhoog.

tevens ben je niet verplicht een kaart met veel ghz te kopen als je het te warm vind worden.
Moraal van het verhaal is dus: Liever meer prestaties per kloktik dan meer kloktikken.
Dat ligt er helemaal aan.
De truc is om een goede balans te vinden tussen kloksnelheid en prestaties per kloktik. Daarmee maximaliseer je de prestaties van de CPU.

Dit is zeer gebonden aan het productieproces.
Wat 5 jaar geleden een goede balans was kan nu compleet waardeloos uitpakken.

Net zoals je niet eeuwig de kloksnelheid kunt ophogen, kun je ook niet eeuwig de prestaties per kloktik blijven verbeteren.
Als de Barcelona uitkomt, kunnen we mooi zien hoe de verhoudingen liggen... AMD mikt op meer IPC ten koste van de kloksnelheid, vergeleken met de Core2 Duo.
We zullen zien wie er dichter bij de 'juiste' balans zit op dit moment. Bij de Pentium 4 en Athlon64 was dit wel duidelijk.
De Core2 wist tussen de Pentium 4 en Athlon64 weer een nog wat betere balans te vinden.... maar het beeld is ook een beetje vertekend omdat de architectuur in z'n geheel moderner is. De Core2 en Barcelona zijn weer gewoon generatiegenoten.

[Reactie gewijzigd door ddbruijn op 16 augustus 2007 15:51]

Argel, bij editten gooit ie het hele ding leeg!
Enfin, mijn originele posting more or less:

Ik zie dat toch anders, bij een hogere frequentie duren de klokpulsen langzamer, en wordt er per klokpuls minder stroom verbruikt. Daardoor worden cpu's dus zuiniger! :P


Duidelijk moge zijn dat het ironisch bedoeld is ;)

[Reactie gewijzigd door borft op 15 augustus 2007 17:34]

een transistor heeft een betaalde hoeveelheid energy nodig om te kunnen schakkelen (hij moet eerst "vol" zitten, zwaar versimpeld gezegt), als je hem 10 keer vaker laat schakelen bij heeft hij gewoon 10 keer meer energy nodig.
? welke generaties lol de generatie hiervoor was de P4 en daarvoor de p3 en die deed echt geen 3Ghz. En AMD is voor het eerst keer dat ze op 3.0Ghz aan belanden.
erm, ik heb een P4 van 3.4GHz, gekocht voor de Core-generatie.
en de 3.0 GHz bestond al een pak langer dan mijn 3.4 model :s
dus check eerst je bronnen jongeman ;)

dus shredder heeft een punt imo: verder als 3.x GHz raken we blijkbaar niet (per core)
volgens mij ligt dit aan het energieverbruik., een 4GHz/core CPU zou constant energie zuipen denk ik, terwijl deze Q-cores wss een STUK zuiniger zijn bij gewoon gebruik.
Een 4ghz core is ook vele malen moeilijker te maken, het is veel simpeler op 2 mindere cores op een processor te plakken. Bovendien wordt alles op een steeds kleinere schaal gemaakt, hierdoor gaat de busbreedte en dus snelheid omlaag. Dit kun je met meerdere cores voorkomen. Zoals sommigen al gemerkt hebben zijn er al ideeŽn om hele partijen eenvoudige cores op een processor te plakken in plaats van een paar vrij geavanceerde. Ik denk dat er al een "toevallige" doorbraak moet komen op wat voor gebied dan ook om processoren veel hoger te gaan klokken. Nu is het ook nog niet nodig.
Nou en? Gigaherzen zijn allang niet meer zo belangrijk. Zoals je weet is een Core processor veel sneller dan een Pentium 4, ook al ligt de kloksnelheid een stuk lager. Het vervelende van een hoge kloksnelheid is dat de processor daarmee veel meer energie verbruikt en veel heter wordt.
? Ik dacht dat IBM met hun PPC de 4 en 5 ghz al had geslecht, dus wat basel je nou?

edit:
hmmm of zouden ze die gaan slechten maar liepen ze tegen problemen aan? fill me in here...

[Reactie gewijzigd door masteriiz op 15 augustus 2007 19:58]

Niet de PPC maar de Power 6. Een ander beestje maar wel aardig snel
ik kan met een stel van 5 transistors die niets nuttigs doen de THz overschrijden (bij wijze van spreken voordat ik hier gevild word :P ) maar om iets nuttigs te doen wil je een hoge IPC hebben. hoge IPC==meer transistors, meer complexiteit, langere ketens, lagere mogelijke freq. een "simpele" CPU als die Power (dat ding doet echt heel standaar dingen niet, geen eens meer OoO processing en dergelijke, vind je het gek dat het lukt) kan dus op een hogere freq draaien. meer instructies per seconde is waar het om draait :)
Ligt het nou aan mij, of is Intel veel goedkoper dan AMD? Een 2,5 Ghz Barcelona Opteron is boven de 1180$ (http://core.tweakers.net/...lona-Opterons-bekend.html) en een 2,5Ghz Penryn Xeon is 316$. Ze zijn beide voor servers toch? Of vergis ik me hier?
Toch jammer dat je nog steeds niet kunt vergelijken op kloksnelheid ;)
Die Barcelona is de snelste quad core van AMD, terwijl de 2.5Ghz Penryn bijna de goedkoopste van de serie is die over 2 cores beschikt. Dus je kunt ze nauwelijks vergelijken.
Ja, intel is goedkoper dan amd. En weet je wat... een mercedes is goedkoper dan een bmw.. Ligt er natuurlijk wel helemaal aan welke mercedes en welke bmw... en hoelang is een chinees en wielang is zijn broer.
<noob-mode>Is dat compleet systeem of alleen processor?<noob-mode continues>
Alleen processor.

zulke tabellen gaan bijna altijd alleen over een bepaald onderdeel en niet over totale systemen.
En dan ook nog bij een afname van 1000 stuks.
tja ze zijn ontworpen als server cpu en niet voor desktop....en daar kan het volgens mij wel goed van pas komen
als server oke,daar heb je ook wat power nodig bij de grote maar als ik eerlijk moet zeggen wie gaat er nou zijnq6600 vervangen?ik ben nog dik tevereden met mijn e6420,ze kunnen beter zich gaan focussen op de hoge energie verbruik :) ,aangezien hier weinig tot geen verschil in zit

[Reactie gewijzigd door Worran op 15 augustus 2007 17:59]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True