Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 110 reacties
Bron: AnandTech, submitter: quincy2you

Hoewel over het algemeen werd aangenomen dat Intel zijn eerste dual-core Pentium 4 pas ergens in de tweede helft van dit jaar zou introduceren, meldt AnandTech dat Smithfield al in februari zal worden uitgebracht. Niet alleen ligt de dual-core chip behoorlijk voor op schema, maar tevens zal hij een stuk goedkoper worden dan verwacht. De Pentium 4 820 met twee 2,8GHz-cores en een totaal van 2MB L2-cache gaat voor slechts 241 dollar de deur uit, en is daarmee goedkoper dan een normale 3,4GHz-chip. Ook de Pentium 4 830 (3,0GHz) en 840 (3,2GHz) worden relatief schappelijk geprijsd; respectievelijk gaan deze producten 316 en 530 dollar kosten. Hoewel Intel zijn dual-coreprocessors dus agressief naar buiten wil gaan schuiven, zouden de beschikbaarheid van de juiste chipsets wel eens een beperkende factor kunnen gaan vormen voor het succes. Smithfield mag dan wel gewoon gebaseeerd zijn op Socket 775, er is toch speciale ondersteuning nodig voor de tweede core, en deze ondersteuning is op dit moment in geen enkele chipset aanwezig.

Dit zal - tevens binnen een paar weken - veranderen door de komst van de i945 Lakeport- en i955 Glenwood-chipsets, de opvolgers van i915 Grantsdale en i925X(E) Alderwood. Nieuw in deze chipsets naast de ondersteuning voor dual-coreprocessors is de 1066MHz FSB, DDR2-667-geheugen en Vanderpool-technologie. Verder ondersteunt de high-end Glenwood-chipset maximaal 8GB RAM (het dubbele van zijn voorganger) en zijn de versies met on-board video voorzien van een verbeterde GPU, die GMA 950 wordt genoemd. Het is opvallend dat ook de mainstreamchipset ondersteuning krijgt voor de 1066MHz FSB, omdat deze officieel alleen benut kan worden door de high-end Pentium 4 Extreme Edition. De normale single- en dual-core desktopchips blijven volgens deze roadmap voorlopig op 800MHz hangen, maar dankzij de ondersteuning in de nieuwe chipset wordt het voor Intel erg makkelijk om daar later in het jaar nog verandering in te brengen.

Intel Smithfield foto

Ook op servergebied zal dual-core zijn intrede gaan doen. De Xeon-versie van Smithfield heet Dempsey, en deze verschilt op twee belangrijke punten van zijn desktopbroertje. De eerste is een snellere FSB (1066 in plaats van 800MHz) en de tweede is de ondersteuning voor HyperThreading. Op een Dempsey-processor kunnen dus vier threads tegelijk draaien, terwijl de Smithfield net als de huidige desktopchips twee threads tegelijk zal toestaan. De nieuwe Xeon zal ondersteund worden door een chipset met FB-DIMM-geheugen, iAMT om het leven van systeembeheerders in grote bedrijven makkelijker te maken en een hardwarematige vorm van netwerkversnelling die Diamond Peak wordt genoemd.

Een andere techniek die Intel gedurende de eerste helft van dit jaar agressief gaat toepassen zijn de 64-bits extenties. Deze werden een jaar geleden aangekondigd en zijn sindsdien wel veel toegepast in Xeons, maar slechts mondjesmaat beschikbaar geweest voor desktops. Dat gaat binnen een paar maanden echter veranderen, ongetwijfeld naar aanleiding van de verwachte release van 64-bits Windows XP. De nieuwe Pentium 4 3,73GHz Extreme Edition zal ondersteuning hebben voor EM64T, maar ook de Pentium 4 8xx (dual-core) en Pentium 4 6xx (single-core met 2MB L2-cache) zullen standaard 64-bits zijn. Al deze chips komen nog dit kwartaal op de markt. Daarna is Intel echter nog niet klaar. In het tweede kwartaal zal namelijk ook de normale Pentium 4 5xx en zelfs de Celeron 3xx voorzien worden van de extenties. Omdat er van de twee laatstgenoemde producten natuurlijk ook al 32-bits versies bestaan wordt het modelnummer van de 64-bits varianten met n opgehoogd.

Begin 2006 zal Intel beginnen met het leveren van 65nm-processors. Naast de dual-core Pentium M Yonah zijn dat onder andere de single-core Pentium 4 Cedar Mill en de dual-coreversie daarvan: Pressler. Hoewel deze cores waarschijnlijk nog het meest op Prescott zullen lijken, zijn er mogelijk enkele nieuwe features in gebakken die bedoeld waren voor de inmiddels geannuleerde Tejas-core. In ieder geval nieuw in deze generatie is een arbiter om communicatie tussen de chipset en de twee cores efficienter te laten verlopen. De Cedar Mill komt standaard met 2MB L2-cache, en dat betekent dat de dual-coreversie 4MB aan boord krijgt. Of het stroomverbruik van de chips door de 65nm-technologie wordt teruggebracht ten opzichte van Smithfield / Prescott (130 Watt) is nog niet bekend.

Intel 65nm-chip (500 miljoen transistors op vingertop)

Lees meer over

Gerelateerde content

Alle gerelateerde content (41)
Moderatie-faq Wijzig weergave

Reacties (110)

Dit is wel onverwacht nieuws! Omdat er aanpassingen op het mainboard nodig zijn om de 2e core te ondersteunen zou je verwachten dat dit nieuws langer van tevoren zou zijn gekomen.
Over het algemeen komt het toch al naar buiten op het moment dat samples bij de fabrikanten liggen.

Optie 2: Intel introduceert deze chip *zonder* dat er al mainboards voor verkrijgbaar zijn, en realiseert daarmee een wedloop onder de mainboard fabrikanten.

Ik ben nu ook erg benieuwd of deze vervroegde release gevolgen gaat hebben voor het tijdstip van uitbrengen van dual-AMD chips.
Van agressie gesproken.

Ok, en AMD wou kost wat kost de eerste zijn met dual-core op de markt te brengen, mogen ze nu wel vergeten denk ik.
Volgens een laatste bericht staan ze nog steeds gepland voor Q3 2005.

Verder wel verstandig dat ze de FSB verhogen, want 800MHz met DDR2 533/667 zal niet echt lukken.
Dit zal dus wel aangepast worden.
Ook kan het zijn dat de processor al in de schappen ligt maar dat er nog geen fatsoenlijk moederbord met chipset er is die dual core processors kan ondersteunen.
Ook zullen er nieuwe drivers ontwikkeld moeten worden voor deze chipsets en dit kost tijd.
Dat Intel snel klaar is wil helaas dus nog niet zeggen wanneer we dit produkt 100% kunnen gebruiken.

@ DeMartijn

Ik wacht ook vol spanning op de eerste benchmarks en hoop dat Intel er dit keer wel rekening mee heeft gehouden van uit het verleden gemaakte fouten.
Namelijk de introductie van de 90nm Prescott die in plaats van koeler, een heethoofd bleek te zijn.
Alsof de Prescott de allereerste Intel core is die warmteproblemen heeft, en dat ze daar nu van moeten leren? Oudere cores waren wel vaker behoorlijk warm voor die tijd en nu met prescott gebeurd het weer dus blijkbaar leren ze niet (hoewel dit nogal kort door de bocht is...hun Netburst architectuur leent zich gewoon niet voor laag verbruik en dus een koele processor). Daarbij is Intel ook niet de enige. Ook AMD heeft al enkele keren een heethoofd gehad en ook nog niet zo lang geleden, denk bijvoorbeeld aan het enorme heethoofd de Palomino core. Ze kunnen er hooguit rekening mee houden in de toekomst, meer weinig extra's.

Daarbij kun je rustig verwachten dat Smithfield een ENORM verbruik zal hebben, aangezien het 2, weliswaar lager geklokte, prescott core's zijn. Ik hoop dat ze iig EIST hebben voor de idle momenten.!
Je moet niet vergeten dat je een thermisch probleem bij een 130 Watt CPU niet even 1,2, 3 oplost als het niet naar wens blijkt te gaan.

En Intel heeft er blijkbaar niet zoveel moeite mee, om deregelijke heethoofden die nauwelijks nog te koelen zijn, gewoon toch op de markt te brengen. Dat hebben ze met de Prescott tenslotte wel bewezen.

Verder is het natuurlijk grandioos dat dualcore al zo snel zijn intrede doet, en dat Intel in staat blijkt om die CPU's voor superscherpe prijzen op de markt te gaan brengen. Ik ben erg benieuwd wat deze CPU's gaan presteren, en hoe/of je OS er mee om gaat.
Het scheeld natuurlijk dat Intel niet enkel Processors maakt maar ook zijn eigen chipsets en moederborden.
ik neem aan dat intel dit op elkaar afstemt en hier verder geen problemen in gaat krijgen
snel geheugen is er al en komt nog veel meer van in 2005
en stroom verbruik vind ik mee vallen als je kijkt dat ze nu 2 cores laten draaien op net iets meer als 1 prescott.
:z
Raaah! Wat is er met de Nederlandse taal gebeurd? Reageren hier alleen zestien-jarige spijbelaars op de nieuws artikelen? Ik kan hier echt niet tegen.
De eerste P4's met EM64T zouden in augustus 2k4 al in de winkel moeten liggen volgens t.net en andere sites. (Had intel zelf aangekondigd volgens mij)
En ze zijn er nog steeds niet..
Intel zou eerst EMT64 toevoegen aan de Xeon, wat ze ook hebben gedaan, zie: NewEgg Bestel Link
zoals Rul0r al zegt
denk dat ze gewoon 1e helft van 2005 een paper launch maken en in van 2005 pas de 1e in de winkels liggen ofzo.

en zoals anderen al zeggen is warmte een goed punt.
de prescot staat niet bekend voor zijn zuinig verbruik etc.
en dan zou je 2x een 3 Ghz hebben onder 1 kap?

al zou Intel een maand of 2 eerder in de winkel liggen ben ik er bijna zeker van dat de AMD een flink lager verbruik zal hebben.
vraag me af hoe de bijbehorende boxed cooler eruit zal zien.
Tsja.. Iedereen wil tegenwoordig een SUV (Sports Utility Vehicle - die domme bakken met een 4-liter in het vooronder, vering om een berg te bestijgen en banden die meer voor off-road zijn). Deze zijn alles behalve zuinig. 1:6? 1:8 als je vl mazzel hebt.

Een 4 liter diesel, nog goedkoper in de belasting ook. Dus waarom dan geen dual 3Ghz?
Nieuwe auto van m'n broer. VW Touareg V10 TDI. Ook zo'n lompe SUV. Met een vijfliter. Een lompe opgefokte vijfliter dan nog wel.

En toch haalt hij in de praktijk 1:11/12.
Wel geinig DC P4 kan twee threads aan net als zijn singele core tegen hanger maar dan met dubbele CPU resources.

Dual DC Xeon workstation kan 8 treads aan.
Dual CPU en DC en HT is 8x
Krijgen we dit soort verhalen. Een Dual-core is iets heel anders dan een met Hyperthreading uitgeruste cpu. Hyperthreading zorgt ervoor dat er 2 threads tegelijk uitgevoerd kunnen worden dmv wat extra registers en zo kunnen 2 FP's (Floiting Point, oftewel: kommagetal) tegelijk uitgevoerd worden in de tijd die normaal 1 thread kost. Echter een cpu bestaat uit veel meer dan een FPU, er zijn meerdere ALU's (Arethymetic Logic Unit) voor Integers (niet-decimalen getallen) die deze dual-core dus wel tegelijk in 1 thread kan verwerken, terwijl de single core HT dat niet kan. Dit zal dus nog altijd in de meeste (dual-core-geoptimaliseerde) situaties een stuk sneller zijn dan enkel HT.
H, herinner ik mij ineens iets van de K6 (AMD). Had die niet iets van 3 FPU's? Of was dat de K7? Was dat dan niet ook HyperTreading, znder marketingbudget?
Het kan best zijn dat je 3 FPU's hebt, maar die kunnen er dan maar 3 per clockcycle uitvoeren, terwijl je met Hyperthreading er 6 kan uitvoeren met 3 FPU's in 1 clockcycle. De Pentium 4 heeft ook meerdere FPU's, maar de hoeveelheid FPU's heeft niets te maken met wel of geen Hyperthreading. Het gaat er meer om hoeveel threads 1 unit kan verwerken per clockcycle. En dat is standaard dus 1, en met Hyperthreading 2.
@thamind zie je dubbele CPU resources niet staan.
Dat is de short version of jou verhaal.
Nu ben ik wel erg benieuwd wat AMD gaat doen. De eerste geruchten waren dat De dual core AMD in de FX range zou zitten maar als Intel dit doorzet dan moet AMD ook de Dual core ingaan zetten voor de Mainstream markt anders raken ze het aandele dat ze met de A64 gewonnen hebben weer helemaal kwijt.
met een verbruik van 130 watt max, het feit dat ze alleen werken op nog niet uit gebrachte chipset op een toch wel erg lage mhz lopen en alle nadelen hebben van normale dual socket systeem zie ik er eigenlijk niet zo heel veel markt voor.

de pats factor is toch wel een beetje weg als hij maar rond 3ghz draaied, niet echt overclockbaar zal zijn en niet sneller zal zijn als een gelijkt geclockte normal p4 behalve in uitzonderelijk gevallen.

zonder die arbitrator zijn deze eerste dual core's eigenlijk ook gewoon net dual socket systeem met alle nadelen van dien
niet zo gek dat intel het zo snel uit kan brengen, ze hebben nouwelijks iets gedaan.
ik ben het compleet met je verhaal eens, maar je vergeet 1 ding. het verkoopt makkelijk want mijnheer de verkoper vertelt tegen jan met de pet:

deze pentium 4 heeft eigenlijk 2 processoren, ondersteund 64 bit enz enz enz.

Klant: maar waarom is hij maar 3 Ghz en die AMD 4 :?

verkoper: dat komt omdat dit maar 1 processor is. ik zei toch dat de intel er 2 had. 2 X 3 is 6 keiharde Ghztjes hoor mijnheer.

Klant: Ik koop hem.


de klant zal nooit gaan overclocken of iets dergelijks waardoor de meeste van je (terechte) argumenten voor hem niet terzake doen.
Ben benieuwd :) Ik hoop alleen dat het stroomverbruik in verhouding omlaag gaat. Ik snap best wel dat 2 cores meer zullen verbruiken 1, maar het moet niet zo zijn dat het twee keer het huidige verbruik gaat worden (260watt) dat zou echt te gek voor woorden zijn!!
ik denk dat het wel mee gaat vallen want de 2.8/3.2GHz dual zit veel verder van het de max dan de 3.8GHz singel
en zal daar door ook in verhouding veel minder stroom verbruiken per mm2
ook al zal het niet wijnig zijn en waarschijnlijk 10 a 20% meer de top singel CPU
Met het stroomverbruik kan het wel eens sterk mee gaan vallen. Een groot gedeelte van het hoge stroomverbruik in de P4 wordt veroorzaakt door HyperThreading, en laat die feature nou juist niet geactiveerd te zijn in de P4 8xx (DualCore) serie. Daarnaast bieden de geavanceerde power management technieken in de nieuwe 6xx en 8xx P4's extra stroombesparing. Ten derde werken de 8xx P4's op een lagere snelheid dan hun 5xx en 6xx single-core broertjes. Als laatste kan er misschien ook wel n core uitgeschakeld worden, wanneer deze niet nodig is.
Dat hoge energiegebruik en de hitte kwamen vooral doordat sommige delen van de processor op dubbele snelheid draiien. Dat heeft niks te maken met ht
idd, zie ook: Warmteproblemen van Intel Prescott-core verklaard

In de vroege Pentium 4's (Willamette en Northwood) werd deze techniek (genaamd Rapid Excution Engine) ook al toegepast, alleen maar op twee beperkte ALU's en de load AGU. Intel heeft de Prescott-core aangegrepen om deze techniek flink uit te breiden. Zo zijn alle ALU's, alle AGU's de L1 datacache en de registerbanken geklokt op 2x kloksnelheid. Om dit te laten draaien meot de spanning in de core worden opgevoerd. de overige onderdelen die wel op de normale snelheid draaien krijgen het hierdoor zwaar te verduren (en daarom worden ze zo heet). de onderdelen van de REP worden zelf niet zo heet, alleen de normale onderdelen krijgen teveel spanning...
Het hoge energieverbruik komt gedeeltelijk wel degelijk door de HyperThreading! Dit zorgt er namelijk voor dat in veel meer gevallen de CPU voor bijna 100% actief is! Celerons gebaseerd op de P4 architectuur verbruiken mede daarom ook vl minder stroom, omdat deze veel vaker niet voor de volle 100% in werking zijn (in geval van mispredictions in de lange pijplijn die dan afgekapt worden).
Een gedeelte van het hoge stroomverbruik komt inderdaad ook door de dubbele kloksnelheid van sommige CPU-delen, maar dat is bij de Celerons ook het geval en die hebben daar veel minder last van. Dus de HT speelt wel degelijk een rol. Basta!
de celeron zit gewoon meestal uit zijn neus te eten, daarom verbruik hij minder. zonder cache moet een celeron gewoon giganities lang wachten altijd op zijn data (lang voor een cpu dan)
bij gemiddled gebruik is HT noulijks een item en word ook nouwelijks gebruikt (hooguit om windows wat op de achtergrond te laten doen die daarmee bandbreedte van je game af snoept)
HT is een heel mooi stukje marketing van intel maar in de practiek nouwelijks iets waard en nouwelijks gebruikt. het vergroot ook nouwelijks het CPU verbruik, somes zelfs alleen in negative zien, en als het dan wel doet alleen omdat een programa er specifiek voor is ontworpen.
nouwelijks <> nauwelijks

sorry, het steekte me nogal
@Xsuckx:
Vette onzin, ik had een northwood op 3.0ghz (met HT) en nu een prescott op 3.2 ghz. De prescott wordt 7 graden warmer gemiddeld, maar de northwood had dus ook al HT hoor! Die 7 graden zitten hem in de 0.2 ghz extra en het feit dat de 90nm prescott core meer stroom lekt dan de 130nm northwood core. Verder heeft de prescott 2 keer zoveel l2 cache geheugen; al die transistortjes worden ook allemaal heet.

Of het aantal branch mispredictions erg belangrijk is in het verschil P4 vs. P4 celeron dat vraag ik me af. Beide cores hebben dezelfde branch predictor, het is alleen dat de P4 een grotere cache heeft en minder gevoelig voor mispredictions.
"Programma er speciaal voor ontworpen"
Dit lijkt me nu echt geen probleem. In je programma kun je er rekening mee houden wel instructie sets er in je proc zitten en dynamisch instructiesets toepassen of niet. Sterker nog, je zult wel moeten hoe kun je anders een programma schrijven dat werkt op alle P2, P3, P4 procs en AMD procs. PInnacle studio 9 is bijvoorbeeld een programma dat enorm baat heeft bij SSE3 (of 2?) van de P4 prescott. aar dat programma drrait ook op een proc zonder SSE3.
hoe kan het als ht zoveel stroomt vraagt dat ie met veel koeler is dan zonder ht.
Right.
Als je een 2.8Ghz neemt nu, en je verdubbelt deze met een brug ertussen (meer doet intel niet), dan zal deze CPU best minder verbruiken. Ik zie alleen niet waarin & waarop dan?
Weer eens goed nieuws van het Intel-front!
Ik ben alleen bang de de smithfielfds niet erg veel beter presteren dan de huidige P4 HT processors, aangezien die ook al 2 threads ondersteunen. Goed nieuws is natuurlijk wel de toekomstige ondersteuning van 1066Mhz FSB en de 64 bit, die eindelijk fatsoenlijk word toegepast!

* 786562 demartijn
ik denk dat ze zelf slechter presteeren in games en zo, want 90% van de software die we gebruiken is gescheven voor singel core

wat ik wel denk is dat het je pc een stuk vloeiender zal laaten loopen

core 1 voor de hoofd ap en core 2 voor al die programs die nu in de achtergrond draaien en steedts maar de cpu stoppen om ff wat uit tevoeren

[quote]
een must read is dit artikel over dualcore CPUs legt goed uit de + en - van dualcore
[/quote]

Ed Stroligo @ overclockers.com heeft een goed artikel gescheven over dual CPUs
volgens hem heb je pas eind 2006 begin 2007 wat aan dualcore CPUs
net als net als de stap van 16 naar 32 bit ongeveer 2 jaar duurde zal het deze keer waarschijnlijk niet sneller gaan (uitgezonderd de echte CPU hongerige programa s)
90% is een veelste ruime schatting. Veel software is de afgelopen tijd multithreaded gemaakt dankzij Hyperthreading, daarbij was de professionelere software al langer voor dual of multi systemen geschreven omdat in professionele (denk aan: workstations, servers, clusters, databases, programma's als CAT) al voor dual processors waren gemaakt en deze dual core smithfield weet gewoon dit soort software te spreiden over de 2 cores.
@Thamind & player-x.

Er is niet zoiets als een HT-supported programma. Een programma is gewoon multithreaded of niet. En als het multithreaded is, dan is het geschikt voor HT en voor multi-cpu en multi-core)

Dat een zogenaamd "HT supported" programma over de 2 cores verspreid wordt komt dan ook simpelweg doordat die meerder threads over die 2 cores verspreid worden.
Daar is geen bijzonder chipset voor nodig, aangezien dit noodzakelijkerwijs in alle multi-core chipsets moet zitten.

De reden dat multithreaded programma's soms langzamer werken met HT is omdat je bij HT een situatie nodig hebt waarbij de beide threads totaal verschillende instructies uitvoeren in de cpu.(en dus verschillende execution units in de cpu gebruiken) Alleen dan kan HT de cpu efficienter gebruiken en prestatiewinst opleveren.
Heb je echter twee threads die dezelfde opdrachten uitvoeren dan is HT veel trager, omdat je cpu dan minder efficient gaat werken.

En als je een multithreaded programma hebt dan gebeurd het best vaak dat de threads dezelfde berekeningen uitvoeren. Neem bv photoshop waarbij je een filter toepast. Als je het plaatje verdeelt in vieren kun je vier threads toepassen die elk een stuk van dat plaatje renderen. Alleen hebben die threads wel allemaal dezelfde berekening die ze uitvoeren.

Een dual-core gedraagd zich precies zo als een dual-processor.

Het is ook niet zo dat een HT geschreven programma langzamer werkt op een echte dual-processor. Het is immers maar gewoon een multithreaded programma, dus het kan per definitie niet langzamer werken.
Maar je kan dus wel hebben dat een multithreaded programma langzamer werkt op een HT cpu. Dat is een belangrijk onderscheid.

Wat bij een dual core die ook HT ondersteunt wel nuttig kan zijn, is wanneer de chipset de threads zoveel mogelijk eerst over de cores verdeeld, en dan pas over de logische cpu's die HT creert.
Als je OS bv ziet dat er 2 threads zijn die veel cpu tijd vragen, dan moet je er vooral voor zorgen dat die twee op de beide cores verdeeld zijn, en dat je niet die twee threads op de eerste core hebt zitten met HT.
Als er dus gewacht moet worden op de setup voor HT, dan zal het dit aspect zijn.

Anandtech heeft ooit een goede uitleg van HT gegeven, die ik echt kan aanraden. Als je die gelezen hebt dan zul je zelf ook tot dezelfde conclusies komen als die ik hierboven verteld heb.
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=1576&p=1
hier is weer de standaard fout Hyperthreading maak programs die dual CPU geschreven zijn zelfs langzamer: kijk hier xeon benchmarks met en zonder HT
en HT programs zijn nog geen dualcore programs

Hyperthreading is een truc van intel om meerde programs s of verschillede code regels voor te berijden voor een CPU door gebruik te maken van een soort buffer.
maar deze truk is geoptimaliseerd singel core programs en programs die weten hoe HT werkt

en laten we geen appels met peren vergelijken

ik draai geen server software , clusters, databases, CAD of 3Dmax thuis

wat wel: office, doom3, HL2, IE, mail, nero, autoGK, ect, allemaal singel CPU

voor thuis denk ik dat 90% zeker wel klopt en denk dat het voor minimaal 75% van de bedrijfs computers ook klopt
I know, maar in een eerder bericht stond dat de smithfield dit soort HT-supported programma's nu verspreidt werden over 2 cores. Mogelijk is dit de reden dat de dual-core eerst moet wachten op een chipset, omdat daarin pas de logica zit die idd de HT-supported programma's kan omzetten naar data waar de dual-core wel slim gebruik van kan maken.

Het kan dus best zijn dat HT geschreven programma's langzamer werken op een ECHTE dual-processor, maar volgens een eerder nieuwsbericht hier op T.net kan de dual-CORE (+ dus mss de bijbehorende chipset) hier wl mee omgaan.
@player-x

Het belangrijkste van HT en multi-cpu systemen is dat je meerdere dingen tegelijkertijd kan doen.

Je kan niet met 9 vrouwen in 1 maand een kind maken... Maar je kan er wel 9 tegelijkertijd maken, en daar is ook wat voor te zeggen!
@Thamind

90% is juist een veel te krappe schatting. 99% zit dichter in de buurt.

Veel software mag tegenwoordig dan wel meer dan 1 thread hebben, maar dat betekent nog niet dat je er ook daadwerkelijk wat aan hebt meerdere cores of processors.

Het is alleen zinvol als die meerdere threads ook tegelijkertijd uitgevoerd kunnen worden. Als ze alleen maar op elkaar staan te wachten dan is je winst nul komma nul.

En wat is nou de realiteit: Veel programma's hebben een handjevol threads (ook games) maar er is er maar eentje actief.

Voor de gewone consument zal daarom deze dual core in eerste instantie totaal niet interessant zijn.
Net zoals dual cpu op dit moment voor de consument totaal niet interessant is.

Voor de professionele markt is dual core wel interessant, maar daar wel dual cpu ook al interessant voor. Dual core zal waarschijnlijk wel goedkoper worden.

Maar de professionele markt is relatief klein. Dus het lijkt me uitermate onwaarschijnlijk dat er een tekort aan chipsets voor dual core zal ontstaan.
Maar je kan er wel 9 tegelijkertijd maken, en daar is ook wat voor te zeggen!
Ik denk dat die vrouwen er ook wel wat van zullen zeggen..
en daar heb je dus die arbiter van jonah voor...
Hyper Threading is wel wat anders dan 2 echte cores, dus het zal best sneller zijn.
Wel is het zo dat die 2 cores dezelfde FSB samen moeten delen, net als nu bij de dual processor systemen. Dat is niet goed voor de performance, vandaar dat het verhogen van de FSB zo belangrijk is voor intel. Dat beperkt de nadelige gevolgen.

Een dual processor van deze dingen (dus quad core) zie ik daarom goed in de problemen komen... Dat is iets dat AMD dan toch beter heeft opgelost.
Neen, juist neit volgens mij.
HT op 3.6Ghz betekent gewoon een 3.6Ghzx2. De CPU is meestal toch 80% idle. Een Smithfield 3Ghzx2 is langzamer, dunkt mij. En enkel interessant voor de statistieken: Intel haalt de 10Ghz (n de 500watt) met de P4, als ze hl goed doorschalen..
HT op 3.6Ghz betekent gewoon een 3.6Ghzx2.
Absoluut niet, HyperThreading is alleen een klein stukje extra op de core wat ervoor zorgt dat alle transistors zoveel mogelijk worden benut (wat dus niet gebeurd bij slechts 1 thread) Er zijn daarom ook maar ene beperkt aantal instructies die op die tweede thread gebruikt kunnen worden.
De CPU is meestal toch 80% idle.
Dus?
Een Smithfield 3Ghzx2 is langzamer, dunkt mij.
Aangezien HTT slechts een kleine performance winst geeft is een dualcore cpu sneller (bij een bepaalde clock dan)
En enkel interessant voor de statistieken: Intel haalt de 10Ghz (n de 500watt) met de P4, als ze hl goed doorschalen..
Dus intel haalt de 10Ghz eigenlijk niet, zelfs de meest extreme overclocks (LN2/ 3x PC) komen "maar" ergens rond de 6-7 Ghz.
En 500Watt zou ik niet "heel goed doorschalen" noemen.
Bovendien heeft dit er helemaal niks mee te maken.
Dat wordt het grote probleem voor Intel om uit te leggen aan de consument.

Bij een goed multithreaded programma zal die 3GHz multicore veel sneller zijn.
Een multithreaded mpg encoder zal dan de performance van een 6GHz single cpu lijken te halen. Die 3,6GHz HT presteert veel langzamer. (Laten we een best case scenario pakken waarin ie 16% sneller is) Dan lijk je de performance van een 4,2Ghz te halen. Duidelijke overwinning voor de dual-core.

Maar ja, dan speel je een spelletje. Ondanks dat ze soms meerdere threads hebben, is er altijd maar eentje echt actief. En dan werkt je dual core ineens als een 3GHz single cpu, en die 3,6Ghz HT als een 3,6GHz single cpu.

Dat gaat een gewone gebruiker nooit begrijpen. (hier op tweakers hebben mensen er zelfs al moeite mee)
Waarom net zo goed?
Hyperthreading is het opdelen van 1 processor.
Nu zijn er dus in feite 2 processoren om het werk te doen. Om het heel simpel te zien, 2x 2.4 met dual core, en 2x 1.2 met hyperthreading. Want wat een processor niet heeft, kan hij ook niet gebruiken.

Edit- Had de replies niet uitgevouwen :S
Maar idd, de fsb word nog wel gedeeld ja, das een goeie.
Ze gooien inderdaad alles in de strijd. Maar dat wil nog niet zeggen dat ze ook op het niveau van AMD zitten. n hun 64-bits implementatie n hun dualcore implementatie (Smithfield) zijn inferieur aan de oplossingen van AMD..

Zo is Smithfield waarschijnlijk een veredelde MCM (Multi-chip-Module), die op maar 3.2GHz maximaal zal lopen en enorm veel stroom zal vreten.
Door het gemis van HT zal deze chip gemakkelijk door een dualcore AMD verslagen worden.

Dat EM64T inferieur is aan AMD64 wordt ook steeds duidelijker: http://article.gmane.org/gmane.comp.lib.gmp.general/490,
Zo is Smithfield waarschijnlijk een veredelde MCM (Multi-chip-Module), die op maar 3.2GHz maximaal zal lopen en enorm veel stroom zal vreten.
Wat het gemis van een arbiter betekent voor de prestaties moet nog blijken, maar goed, Smithfield is er dan ook veel eerder dan de dual-core Athlon 64 FX, en wordt daarnaast een smak goedkoper. Tegen de tijd dat AMD goedkope dual-core desktopchips heeft zit die arbiter er bij Intel ook allang in. Ik denk dat AMD's oplossing zeker interessanter zal zijn voor de (rijke) tweaker, maar dat de markt in het algemeen er weinig om zal geven dat het maar een "veredelde MCM" is. 3,2GHz is trouwens het maximum dat ze in februari uitbrengen, dat betekent natuurlijk niet dat ze vervolgens een jaar lang niet meer vooruit kunnen.
Dat EM64T inferieur is aan AMD64 wordt ook steeds duidelijker:
Leuk zo'n 'bewijs', maar je vergeet er wel bij te vertellen dat de 2,8GHz Xeon die ze daar testen 249 euro kost (als P4 zelfs maar 144 euro) en die 2,4GHz Opteron maar liefst 659 euro. Daar koop je straks een dual-core 3,2GHz voor, en dan hou je nog geld over ook ;). Verder is totaal onduidelijk in hoeverre de Opteron in die benchmark winst haalt uit zijn on-die geheugencontroller, en zal ICC het over het algemeen beter doen dan GCC als compiler. Al met al kun je op basis hiervan dus absoluut niet zeggen dat EM64T inferieur is aan AMD64.
2,8GHz Xeon die ze daar testen 249 euro kost (als P4 zelfs maar 144 euro) en die 2,4GHz Opteron maar liefst 659 euro. Daar koop je straks een dual-core 3,2GHz voor, en dan hou je nog geld over ook
1. Ze moeten ook wel te koop zijn.
2. Wie zegt dat die dingen voor die prijs in de winkel liggen?
3. Als deze dingen er zijn zijn de Opterons waarschijnlijk ook wel weer aardig in prijs gezakt.
Al met al kun je op basis hiervan dus absoluut niet zeggen dat EM64T inferieur is aan AMD64.
Op basis daarvan misschien niet, maar op basis van benchmarks wel.
Ik denk niet dat de Opteron binnen een paar maanden drie keer zo goedkoop wordt. AMD maakt al verlies, ze kunnen zich nu echt geen prijzenoorlog veroorloven. Of Intel de Smithfield echt zo snel kan leveren als AnandTech beweert is inderdaad nog de vraag, maar dat doet niets af aan het punt dat ik wilde maken: nl. dat het onzin is om op basis van die benchmark te roepen dat AMD64 superieur is aan EM64T. Zelfs zonder dual-coreproduct kan Intel in ieder geval een heel stuk beter meekomen met AMD dan Da_DvD met die benchmark suggereert.
@Wouter

Die benchmark is idd nogal suggestief, en Intel loopt ook niet to z ver achter..

maar ik heb de laatste tijd steeds meer indicaties ervan gezien dat Intel's EM64T gewoon minder presteert als AMD64. Sommigen schrijven dit toe aan de compilers, maar men vergeet dat EM64T en AMD64 instructies gelijk zijn.

EDIT: 32-bit resultaten.... Nocona lijkt met deze settings nauwelijks van 64-bit te profiteren:

http://swox.com/gmp/gmpbench.html
maar ik heb de laatste tijd steeds meer indicaties ervan gezien dat Intel's EM64T gewoon minder presteert als AMD64. Sommigen schrijven dit toe aan de compilers, maar men vergeet dat EM64T en AMD64 instructies gelijk zijn.
Klopt, ik heb ook verschillende tests gezien waar uit blijkt dat 64-bits Xeons minder presteren dan Opterons, en ook relatief minder winst halen uit de extenties. Over de redenen daarvoor kun je speculeren, maar de mogelijkheid dat hij in eerste instantie voor een andere instructieset is ontworpen kan er n zijn.

Compilers hebben inderdaad wel met dezelfde instructies te maken, maar de Xeon met zijn lange pipeline, hoge klok (dus hoge latency naar het geheugen) en kleine L1-cache vergt natuurlijk wel een heel ander soort optimalisaties dan de Opteron. Verschillende processors kunnen ook sneller of trager zijn in het uitvoeren van bepaalde instructies, waar een goede compiler rekening mee moet houden.

De K8-core lijkt qua eigenschappen in ieder geval erg veel op de P6, en met name de open source compilers zijn erg goed in het genereren van snelle code voor P6-achtigen, omdat die core gewoon ontzettend lang geleefd heeft (van 1995 tot 2002, en 2005 als je de AMD K7/K8 meetelt). De Pentium 4 brak met die complete traditie en heeft wat dat betreft dus een achterstand van een jaar of zes. Intel zelf zal die sneller inhalen in ICC dan een open source-project zoals GCC :).
Yep. Het is de vraag in hoeverre 64-bit's GCC voor de Opteron getuned is (Ik neem aan dat de 32-bit versie in gelijke mate voor K7/K8 en P4 getuned is...simpelweg omdat P4 zo'n enorm marktaandeel heeft)

Over de harde cijfers blijft het afwachten, maar er zijn bijv. indicaties dat ALU's van de Prescott in 64-bit op halve snelheid draaien. Dit soort dingen haalt de performance winst natuurlijk naar beneden.

*wacht op een ChipArchitect artikel :P*

edit: 32-bit resultaten.... Nocona lijkt met deze settings nauwelijks van 64-bit te profiteren:

http://swox.com/gmp/gmpbench.html
Bedoelen ze daarmee niet de werkelijke kloksnelheid? Het is namelijk gebleken dat de prescott executable ALU's heeft die hun de Rapid Executive Engine noemen die op dubbel de kloksnelheid loopt. Dus bij een 3,8ghz model (onverkrijgbare topmodel van Intel) loopt die REE al op 7,6ghz. Prescott wordt zo warm omdat steeds meer transistors sinds de introductie van de Pentium 4 serie op dubbele kloksnelheid lopen (Willamette had er slechts enkele duizenden, bij Northwood ging het over pakweg 1 miljoen, en bij Prescott gaat het al in de miljoenen transistors lopen). Om ng meer transistors (vanwege de extra transistors voor 64bit) op die dubbele snelheid zou de toch al zo warme prescott ng warmer worden, wat we uiteraard niet willen. Mss dat ze daarom de 64bit instructies op de standaard klokfrequenties hebben laten lopen ipv op dubbele kloksnelheid en dat men daarom spreekt van "op halve snelheid", wat dus in feite de werkelijke snelheid is.
In de prescott lopen idd veel meer dingen op dubbele kloksnelheid, maar in 64-bit modus dus juist niet. TOV 32-bit modus is dat dus halve kloksnelheid ;-)
En die units op dubbele clock heeft de P4 hard nodig... het is onderdeel van het Netburst concept.
In de prescott lopen idd veel meer dingen op dubbele kloksnelheid, maar in 64-bit modus dus juist niet.
Twijfelachtig, dat is wel door bepaalde personen gesuggereerd, maar het wordt door anderen ook net zo hard ontkend. Een vaststaand feit is het in ieder geval niet :).
Welke benchmarks? Tot nu toe heb ik alleen maar benchmarks gezien met een compiler (gcc) die nog duidelijk problemen heeft om goede code te produceren voor de Xeon.

Beetje een test van de topsnelheid van een auto met aangetrokken handrem.
Er is niet alleen het gemis van een arbiter, het is ook een veel lagere kloksnelheid dan topmodellen en grotere problemen met de FSB. (Bij AMD maakt het geen reet uit of je HT/FSB op 600 of 1000MHz draait, bij Intel wel..

Je hebt gelijk over het vroeg uitbrengen van Smithfield, een sterke zet van Intel :)
haha, maakt het niet uit of de HT bij een AMD op 600mhz draait, of op 1000mhz? Waarom is ht topmodel van AMD, de Athlon64 FX-55, dan uitgerust met een 1000mhz HT bus, itt de normale Athlon64 die op 'slechts' 800mhz draait? De geheugenbandbreedte wordt flink verhoogt door die extra 200mhz en dat maakt dus wel degelijk uit. De prestaties worden er wel wat hoger door (de hogere cpu kloksnelheid erbuiten gelaten) en in geheugen benches scoren de cpu's met 1000mhz HT bus een stuk hoger dan die met 800mhz HT bus.Ik vraag me verder sterk af wat je bedoelt met Intels problemen met hun FSB?

FSB != HT!
Al met al kun je op basis hiervan dus absoluut niet zeggen dat EM64T inferieur is aan AMD64.
En zelfs dan nog is dat ook niet meer dan logisch. Intel kon niet anders dan AMD's techniek kopieeren, omdat ze anders incompatible zijn, en microsoft (en de consument!) wilde geen 2 verschillende 64bit standaarden/OS'en. De AMD cpu's verschillen echter totaal van de Intel (optimaliseren VS Netburst) waardoor het dus helemaal niet zeker is dat AMD64 aansluit bij Intel's Netburst architectuur. Mogelijk had Intel het zelf veel beter gekund, maar was het dan incompatible en dus moesten ze wel AMD64 overnemen (op die 2 instructies na, waarvan ze er 1 hebben weggedaan, en 1 erbij toe hebben gevoegd).

Verder sluit ik me volledig bij Wouter Tinus aan dat je reactie nogal voorbarig is en niet overal klopt.

@Rul0R:
Benchmarks meten helaas de algehele performance van de cpu, en niet alleen de 64bit mogelijkheden, want er zullen altijd dingen zijn (geintregeerde geheugen controller, compiler ed je ziet wel wat Wouter Tinus opnoemt) waardoor snelheidsverschil ontstaat en dus kun je nooit 100% zeker zijn dat AMD64 superieur is aan EM64T, omdat het verschil mogelijk is ontstaan door bovengenoemde.
de tests van de net nieuwe 2meg prescott nog niet warm binnen en jij verklaart model 8 nu al tot iets wat trager / slechter / heter wordt dan de huidige generatie prescott? geloof je het echt zelf? :Z als intel komt met model 8 geloof ik dat dat hard zal gaan. die nummering is er niet voor niets, ik denk dat het wel overduidelijk is welk bedrijf straks hard in te halen heeft. intel heeft al vier pci-x / ddr2 chipsets achter de rug en die nieuwe was allang aangekondigd nu samen met die dualcore. geloof mij maar dat intel niet voor niets pci-x, HT, dualcore, ddr2, 1066fsb etc geimplementeerd heeft. zolang als jij je zelf voor de gek houdt goed, maar trek de rest niet mee.
Nu ben ik toch benieuwd of AMD hier in de komende maanden een passend antwoord op zal hebben, aangezien zij hun dual-core processores voor Q3 2005 hadden gepland.
Intels dual core cpu's stonden ook gepland voor Q2/Q3 2005, en plots komen ze al in Q1.
Mss dat AMD hun dual core cpu's nu ook eerder zal uitbrengen, want AMD wou kost wat kost de eerste zijn.
Als Intel echt in februari komt met hen produkt kan AMD niet eens reageren. Gewoonweg geen tijd meer voor. Natuurlijk moet AMD wel hen "DC-CPU" :P af hebben, normaal gesproken loop je niet een half jaar voor op je plannen...
@Posts dat Dual Core bij normaal gebruik niet nodig is:

Nou, ik erger me anders kapot als ik een paar programma's draai dat ik geen cpu tijd meer over houd. Probeer maar eens emule + IE + Dscaler te draaien. Dan houd je echt niks meer over aan cpu tijd en zul je toch echt iets moeten afsluiten. Ik kijk er in ieder geval naar uit.

Ik vraag me alleen af hoe het gaat met de toekomst. Eerst was het steeds maar hogere clocksnelheid, toen kwamen er al kleine foefjes zoals FSB en Cache geheugen verhogingen waardoor de processor ook sneller werd, en nu moeten ze al meerdere cores op een chip zetten om nog sneller te gaan. Ik vraag me echt af of zo'n 20Ghz chip ooit nog bereikt wordt, of dat we tegen die tijd 12 x 1.2Ghz draaien op 1 chip of iets dergelijks.
emule vergt praktisch niets en IE ook niet.

Dus ik vind het een beetje vreemd dat je die dan moet afsluiten omdat ze teveel cpu tijd zouden vergen.
Nu lijkt zoiets onrealistisch, maar denk er eens over na.. Wat als je zou stoppen met in de lengte te gaan (waar we duidelijk momenteel wat tegen grenzen aanlopen), en gewoon in de breedte doorgaat.

Mits (bepaalde) software de komende jaren aangepast wordt om zo veel mogelijk met threads te werken, kan de load perfect verdeeld worden over X cores, met allemaal een relatief hoge snelheid (wetende dat je er X van hebt).

De nadelen zijn dat als je met 1 proces zit dat meer CPU tijd nodig heeft dan 1 core kan leveren, dat het dan traag gaat lopen. Het grootste voordeel in mijn ogen is de verdeling van de load over verschillende CPU's, waardoor je altijd een responsief systeem zou moeten kunnen behouden.
En laat ik het niet merken dat mensen met een dualcore 3GHz vinden dat ze 6GHz aan boord hebben!
ssst...je wekt ze nog op ideeen, straks refereren ze in toekomstige berichten nog naar jouw post :9

ontopic: laten we het idd niet hopen nee. Iedereen denkt hier al dat HT == Dualcore.
Oeh, dan heb je met een dual Xeon 3.0 dus eigenlijk 12GHz :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True