Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Bron: Intel

Intel heeft vandaag niet alleen de introductie van een nieuw desktopplatform bevestigd, maar ook de komst van de 64-bits Pentium 4 6xx en Xeon MP met 8MB L3-cache. Ook is officieel bekendgemaakt dat er twee serverchipsets met dubbele front side bus onderweg zijn. Voor trouwe lezers van Tweakers.net is dit alles geen verrassing, maar voor de volledigheid geven we toch even een overzicht van de plannen, die grotendeels gedurende de komende drie maanden zullen worden uitgevoerd:

* Xeon MP

De snelste Xeon MP die op dit moment te koop is, is een 3GHz Gallatin-core met 512KB L2-cache en 4MB L3-cache. Deze heeft twee belangrijke nadelen ten opzichte van de Opteron. De eerste is het gebrek aan 64-bits geheugenadressering, een manco dat opgelost wordt door EM64T toe te voegen aan de volgende generatie. Het tweede punt is de in veel gevallen beperkte prestatiewinst die gehaald worden bij het opschalen van twee naar vier processors in een server, ondanks het feit dat de MP-chips veel duurder zijn dan de DP-chips. De sterk verouderde 400MHz FSB speelt daar een belangrijke rol in; omdat het een gedeelde bus betreft moeten tot vier processors vechten om een schamele 3,2GB/s aan bandbreedte.

Om dit probleem aan te pakken doet Intel in zijn komende generatie, de 90nm Potomac-core, twee dingen. Ten eerste wordt de behoefte van de processors om met RAM te werken verminderd door de hoeveelheid cache te verdubbelen naar 1MB L2 en 8MB L3. Het tweede punt is een nieuwe chipset - E8500 oftewel Twin Castle - die twee onafhankelijke bussen op 667MHz ondersteunt. Hiermee wordt de beschikbare bandbreedte ruim verdrievoudigd, naar een totaal van 10,6GB/s. Opteron wordt dan qua bandbreedte nog steeds niet geëvenaard, maar de strijd wordt in ieder geval een stuk eerlijker.

Omdat de Potomac met 8MB L3 waarschijnlijk een erg dure chip wordt - historisch gezien kost het topmodel ruim 3500 dollar - zal Intel tevens een goedkopere Xeon MP uitbrengen met de codenaam Cranford. Hoeveel L3-cache deze chip krijgt is nog onduidelijk, maar wel weten we dat kloksnelheid voor beide omhoog gaat van 3,0 naar 3,5GHz. Het bedrijf heeft het nieuwe MP-platform Truland gedoopt.

Intel Xeon MP

* Xeon DP

De Xeon DP is op dit moment een stuk minder achtergesteld dan de Xeon MP. De snelste van dit moment is een 90nm Nocona op 3,6GHz met 64-bits instructies, 1MB L2-cache en een 800MHz FSB, praktisch identiek aan de laatste desktopchips dus. Intel is duidelijk niet van plan om daar verandering in te brengen. Als volgende maand de 64-bits Pentium 4 6xx met 2MB L2-cache verschijnt zal daar ook een Xeon-versie van komen met de codenaam Irwindale. Bovendien zijn er plannen om de FSB van de Xeon DP te verhogen naar 1066MHz, en zal ook deze bus uiteindelijk dubbel uitgevoerd worden. Die laatste stap zal echter nog op zich laten wachten tot begin 2006. Tegen die tijd verschijnen de eerste dual-core Xeons en wordt de behoefte aan extra bandbreedte voor het DP-platform dus hoger.

Moderatie-faq Wijzig weergave

Reacties (39)

L1 L2 L3 cache zitten er standaard 3 van die L caches op? snap niets van die (L)evel ... en waar is dan hier de L1 cache? :?

Is het trouwens hoe hoger de L hoe meer min mb of zo>? |:(
Kort vertaald: L1 is het directe werkgeheugen. Dit wordt bij Intel niet meer in Kb's uitgedrukt, maar in een andere eenheid. Dit zijn, dacht ik, de verwerk-klare gegevens. De gegevens die in die 21 stappen lange pipeline geknikkerd worden, denk ik dan.

De L2 cache is een "kleine" cache, die dient om, op basis van 'prediction', de volgende brokken data alvast uit het 'normale' geheugen te halen (DDR). L3 is er dan, om deze taak te versoepelen. Deze haalt de benodigde data uit het DDR geheugen en plaatst dat in de cache waar L2 vraagt om data. Soort van 'onzichtbaar' verlengstuk van het echte werkgeheugen.

Zoiets zit het toch in elkaar, als leek voor de leek, of heb ik het nou helemaal mis?
Het directe werkgeheugen zijn de registers. Dit zijn er 8 van 4 Byte voor de integer-unit, nog eens 8 van elk 10? Byte voor de FP-unit en nog wat extra voor SSE en MMX instrcties. In het geval van de opteron/Athlon 64 worden de integer registers vergroot tot 16 van elk 8 Byte (=64 bit). Ter vergelijking, een moderne processor als de Itanium heeft er 1024 van 8 Byte.

Daarna komt pas de L1 cache. De reden dat bij de P4 niet in KB wordt uitgedrukt, is dat deze een trace-cache heeft in plaats van een traditionele L1-instructiecache (de L1-datacache is wel 'normaal'). Deze trachecache bevat niet meer x86-instructies, maar interne instructies (micro-ops), waardoor niet meer precies aan te geven is hoeveel KB instructies gecached kunnen worden. Voordeel van de tracecache is dat de instructies bij hergebruik niet eerst weer gedecodeerd hoeven te worden (omgezet van x86 naar micro-ops), wat tijd scheelt.
In het geval van de opteron/Athlon 64 worden de integer registers vergroot tot 16 van elk 8 Byte (=64 bit)
8 van 4 bytes = 8*4= 32. dit is me deduidelijk, echter:
16*8=128 :?

zie ik iets verkeerd of klopt het niet wat jij zegt?
Je zit wel behoorlijk goed. Paar foutjes/verbeteringen:
Dit wordt bij Intel niet meer in Kb's uitgedrukt, maar in een andere eenheid. Dit zijn, dacht ik, de verwerk-klare gegevens
Dit wordt door Intel meestal nog steeds wel in Kb's uitgedrukt (op de doos enzo) maar ze gebruiken liever de naam Micro-Ops, dat is dus de 'eenheid' die jij bedoelt en die staan idd voor verwerk-klare gevens ;).
De L2 cache is een "kleine" cache, die dient om, op basis van 'prediction', de volgende brokken data alvast uit het 'normale' geheugen te halen (DDR).
Je bedoelt het ws goed, maar de zin loopt nogal raar. Het L2 cache zelf maakt namelijk geen predictions en haalt zelf ook geen data uit het geheugen, dit kan overigens allerlei geheugen zijn, dus niet alleen DDR (denk aan DDR2, oud SD-RAM afhankelijk van de controller uiteraard, maar dit terzijde want de cpu praat met de controller, de controller praat met het geheugen.). De branch predictors gokken welke data de cpu nodig zal hebben en ik geloof dat de data prefetchers ze uit het geheugen halen waarna deze dus in het L2 cache tijdelijk worden opgeslagen.
Is het trouwens hoe hoger de L hoe meer min mb of zo>?
Hoe hoger het level, hoe minder snel, maar wel groter.
De L staat voor Level. Over het algemeen geldt: hoe lager het level, hoe sneller en kleiner het cache is.
Mijn eerste reactie was, dat Intel dus blijkbaar bar weinig tijd heeft gehad, om de MP serie "bij de tijd" te houden.

Ze zijn wel bezig met een inhaalslag nu. Van 3 naar 3.5 GHz is nogal wat, bedenkende dat het om Nocona's gaat (ed).

Enige nadeel blijft de kachelfactor van die krengen ;)
de verhoogde FSB zal VEEL meer voor de preformance beteken als die schamele 500mhz corespeed meer per chip.

en de mp serie liep idd hopenloos achter.
het probleem dat ze nu hebben "opgelost" (nog niet echt eigenlijk, maar wel duidelijk verminderd) deed zich als jaren voor.
misschien dat de opteron ze eindelijk heeft laten zien dat het toch echt wel een probleem was die FSB in hun multi cpu opstellingen.
Ik snap niet dat ze proberen om de opteron te evenaren qua bandbreedte. Ik vindt het vreemd dat ze hem sneller maken, maar dan niet net zo snel of sneller dan een Opteron. Op deze manier win je het natuurlijk nooit van de concurentie.
Het voordeel van Opteron is dat iedere processor zijn eigen geheugencontroller heeft, dat is vrijwel onmogelijk te evenaren met Intels huidige (gedeelde) systeem. Ze willen daar uiteindelijk ook wel vanaf, maar daar hebben ze iets meer tijd voor nodig. Ten eerste omdat ze ook Itanium willen meenemen, en ten tweede omdat ze het nieuwe systeem (CSI) willen baseren op seriële technieken zoals FB-DIMM, die op dit moment nog niet beschikbaar zijn.

Serverbouwers zijn overigens vrij om maar één in plaats van twee processors per FSB te plaatsen, om de bandbreedte nog eens te verdubbelen ten koste van extra complexiteit (extra chipset) op het moederbord. SGI doet zoiets bijvoorbeeld voor zijn Altix Itanium-servers.
iNtel kan bandbreedte en latency achterstand masken met large L3 caches.

Dat help toch ook aanzienlijk voor zo'n cache afhankelijke architektuur als netburst.
Cache help bij elke architectuur. Denk ook aan de Pentium-M. Ook daar wordt de trage geheugenbus gecompenseerd door een low latancy L2 cache.
@pietje puk

Dat is niet helemaal waar. Processoren zoals gebruikt in supercomputers (vector processors) hebben alleen maar last van cache...
Ik vindt het vreemd dat ze hem sneller maken, maar dan niet net zo snel of sneller dan een Opteron.
Dus omdat ze de Opteron niet in kunnen halen, moeten ze maar compleet stoppen met de race?
Nee, maar Intel kan beter en daarom begrijp ik niet dat ze dat niet doen.
@Daimler
De K7 is de AthlonXP, de XP viel nog geruime tijd in de periode van de P4 Northwood die aardige opschaalde van 1,8 tot aan 3,4ghz. In die tijd was de P4 Northwood bijna altijd de baas boven de AthlonXP. Pas aan het einde van de Northwood, toen AMD met hun Athlon64 kwam ging het mis daar Intel lang liet wachten op de Prescott en deze uiteindelijk lang niet goed presteerd en eigenlijk nauwelijks beter (of vaak zelfs slechter) ging dan de Northwood. Net op dat moment maakte AMD echter een zéér goede zet met hun 64bit cpu's die juist een hele goede performance hadden zeker ivm de AthlonXP. Op dit moment moet Intel gewoon van de Prescott af en om het gat op te vullen waar Tejas geanuleerd is komen ze al snel met dual-core smithfield simpelweg omdat Prescott niet verder schaalt binnen het TDP. Vanaf 2006 worden de kaarten opnieuw geschud wanneer Intel ws met een Dothan gebaseerde cpu komt en AMD met hun K9 core komt.
191 (+ als aanvulling op Spinner67):
Neen, intel kon beter. Ik heb al jarenlang het bewijs niet gezien, dat ze beter kunnen. Ergens bij de K7 is het al mis gegaan, volgens mij.
Immers hoe groter de cache hoe meer cache er beschadigd kan zijn.
Daarom kunnen sectoren van de cache uitgeschakeld worden en zitten er reserve sectoren op.
edit / delete
@ThaMind:
Op mijn allereerste K7 staat toch nog altijd 1999 hoor; toen was er echt nog geen pentium 4 laat staan de northwood. De K7 (Athlon) is ingevoerd in de tijd van de Pentium 3 Katmai welke opgevolgd is door de coppermine. Hierna is de Pentium 4 gekomen met eerst de Willamette en daarna de Northwood. Op dit moment is er dan de Prescott en Intel kan niet meer bijhouden.

Toen de Pentium 3 nog de beste processor van Intel was ging het redelijk nek aan nek. Mhz/prestatie lagen ongeveer hetzelfde; AMD was meestal een pietsje sneller maar ook meteen veel goedkoper. Het AMD platform was destijds wel instabiel door slechte VIA chipsets. Kijken we over de tijd vanaf de lancering van de K7 dan kun je denk ik wel stellen dat AMD de snelste processors heeft gebakken over de gehele periode met uitzondering de tijd dat Northwood er was en dat de AMD 64 nog niet bestond.

Ik vraag me verder eigelijk wel af wat de kans van slagen is van een processor met zoveel cache. Immers hoe groter de cache hoe meer cache er beschadigd kan zijn. Lijkt me niet de aller efficientste processor om te produceren en al helemaal geen goedkope. Staat natuurlijk wel weer tegenover dat de verkoopsprijs voor een Xeon hoog ligt.
Ik zou toch wachten op de 1066Mhz bus versie dan in dit geval.
Gezien de aanschafprijs niet al te weinig is.
Ik vraag me af wanneer ze processors gaan maken waar d'r 2 in 1 behuizing zitten.
voor servers, ergens 2006(voor desktops,binnenkort naar ik gehoord heb, )
in tegenstelling to AMD lanceerd intel zijn dual cores eerst voor de desktop, en daarna pas voor servers/workstations
terwijl dual cores, naar alle waarschijnlijkheid, velen malen nuttiger zullen zijn in servers dan op de desktop.
speculatie : ik denk dat dat is om een afgang te voorkomen zodat het niet lijkt alsof ze achter lopen op dual core gebied, wat ze in werkelijkheid wel doen. ze maken nu eerst een snel te maken maar inferiure dualcore voor de desktop (zonder HT en zonder arbitrator) om niet achter te lopen op AMD, en lancheren dan later een "echte" dual core voor in servers met HT en arbitrator, en vervangen gelijktijdid de oude dual core op de desktop met de verbeterde versie)
hierdoor hoeven ze hun echt goede klanten(lees: die mensen die duizende voor 1 cpu overhebben) geen "slechte" spullen in de handen te duwen
Ik blijf het grappig vinden dat mensen zo lopen te klagen over de dual core Pentium 4. Ja, er zijn dingen die misschien beter kunnen, maar dat geldt uiteindelijk voor elke processor. (zo ondersteund AMD dus geen hyperthreading) Waar het uiteindelijk om gaat is prijs/prestatie en voorlopig ziet het er voor de dual core Pentium 4 best goed uit.

Daarnaast vind ik het juist als een kracht van intel dat ze nu op korte termijn drie(!) verschillende dual core chips kunnen ontwerpen en deze chips allemaal op de markt brengen in hetzelfde tijdsbestek dat AMD nodig heeft om 1 chip aan te passen.
Het is opzich wel knap maar ook erg nodig anders zou Intel nog verder achter op AMD raken. De Opteron presteerd toch beter in benchmarks of even goed zonder HT technologie.
Als je zulke specificaties bekijkt verbaast het me toch dat er gezuerd wordt over warmteontwikkeling bij de Pentium 4.

Denk dat zulke CPU's veel meer warmte ontwikkelen.

Waarschijnlijk zit in die prijs van 3500 euro dan ook het gebruik van warmtebeperkende technieken in berekend.
Warmte ontwikkeling bij servers is veel minder belangrijk als bij desktops! |:(

EDIT:

Was reactie op Dark_man
Dat betwijfel ik. Warmte ontwikkeling staat in verhouding met afgenomen vermogen. Met name in datacenters word het verbruik van een server toch wel belangrijk. Met name met de introductie van "blade" servers is de hoeveelheid afgenomen vermogen in ons datacenter explosief gestegen. Wij juigen dan ook technieken zoals bekend toepasbar bij de Opteron "cool 'n quiet" toe. Weet je wat het kost om b.v. bij Essent de stroomvoorziening te upgraden van b.v. 1000A naar 1250A per groep ? ... Dat wil je niet weten.
Warmte ontwikkeling staat in verhouding met afgenomen vermogen.
Sterker nog: opgenomen vermogen = warmte.
Ik vraag me eigenlijk af waarom sinds de introductie van blade servers de hoeveelheid afgenomen vermogen explosief is gestegen.
Omdat je in Blade servers (veel) meer CPUs per volume kunt gebruiken.
Je hebt altijd nog restenergie en die 'rest' is eigenlijk de uitkomst van de geexute data .
Nee hoor.
Vertegenwoordigd een antwoord in de vorm van een status van een transistor dan energie. Nee dus. -> opgenomen vermogen = warmte.

Mierenneuk modus:
1. Een DRAM module kan energie opslaan in de vorm van de kleine condensatoren. Dus je computer bufferd energie totdat deze uitgezet wordt en langzaam deze gebufferde energie weer omzet in warmte.
2. Daarnaast geeft een computer energie af in de vorm van geluid. Wat verderop in je huiskamer weer geabsorbeert wordt en dus weer warmte opleverd.

Een computer is in de winter wel energiezuinig aangezien je minder hoeft te verwarmen. Alleen is electrische warmte altijd nog duurder dan je gaskachel.
Die techniek Cool&Quiet is voor de desktop, voor de Opteron heet de soortgelijke techniek "PowerNow!". Ik vraag me eigenlijk af waarom sinds de introductie van blade servers de hoeveelheid afgenomen vermogen explosief is gestegen. Of je nu een gewone 19" xU behuizing hangt of een blade server (met gelijke hardware) moet qua energieverbruik niks uitmaken. Vaak kan er in blade servers lang niet zulke top-of-the-line hardware en dat spul trekt dus al veel minder stroom.
@Olaf:
Niet helemaal :). Je hebt altijd nog restenergie en die 'rest' is eigenlijk de uitkomst van de geexute data :). Alle andere energie gaat idd op aan warmte.
Daar ben ik het niet mee eens. Warmte ontwikkeling kan zorgen voor instabiliteit en dat is het laatste wat je wilt bij servers, zeker omdat die weken/maanden lang draaien terwijl de meeste mensen hun desktop iedere dag of minstens 1 keer in de week rebooten. Servers staan vaak ook constant onder load waarbij de warmteontwikkling het grootste is. Servers zitten ook vaak in kleinere cases (blade servers ed) waar weinig ruimte is voor enorme heatsinks dus het is voor servers nog veel belangrijker dat ze niet al te warm worden. De datacenters doen al zoveel moeite met airco om de warmte af te voeren.
Juist belangrijker!

Ik ben erg ontevreden over te warme p4 3 ghz in een te smalle 1U behuizing.

Hoe warmer p4 3 ghz, hoe lager hun capaciteit, hoe meer lag er is op een bepaalde gameserver.

Ik ben een gameserverhoster, dus ik kan dat gewoon weten, :).
Koop dan ook opteron servers

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True