Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: VR-Zone

Volgens geruchten zal Intel in 2008 weer processors met HyperThreading gaan verkopen. Na een paar jaar standaard aanwezig te zijn geweest, hebben de nieuwste aanvullingen op het productaanbod geen extra 'virtuele cores' meer om de pipeline beter te vullen. Het afdanken van het concept lijkt echter maar van tijdelijke aard te zijn.

Bronnen van VR-Zone melden dat HyperThreading terug zal keren in de Nehalem-generatie, een serie van 45nm-processors die in 2008 op de markt zal verschijnen. We spreken hier dus niet over de directe opvolgers van de huidige processors, maar de opvolgers dßßr weer van. Waarom Intel deze 'pauze' neemt met HyperThreading is niet helemaal duidelijk: het officiŰle standpunt is dat de feature niet paste binnen het prestatie/watt-paradigma. Andere mensen beweren dat de efficiŰnte nieuwe core er niet van kan profiteren, hoewel dat door de ontwerpers ervan wordt tegengesproken. Wellicht was er dus simpelweg te weinig tijd om het te integreren: toen de motor van de Pentium 4 begon te weigeren moest men immers in rap tempo met een alternatief op de proppen komen. Naar verluidt zal Nehalem wel verbeteringen aanbrengen in de techniek ten opzichte van de versie in Northwood en Prescott, mogelijk om de kans op negatieve bijeffecten te verminderen.

 65nm 'Core'
2006
45nm 'Core'
2007
45nm 'Nehalem'
2008
ServerTigerton
Clovertown
Woodcrest
Aliceton
Harpertown
Beckton
Gainstown
DesktopKentsfield
Conroe
Yorkfield
Wolfdale
Bloomfield
NotebookMeromPenrynGilo

Voor de rest is er weinig bekend over de Nehalem-generatie; het enige waar de geruchten het over eens zijn is dat er (eindelijk) afstand wordt gedaan van de fsb door het integreren van een geheugencontroller en 'coherent scalable interconnect' (csi), een Intel-tegenhanger van HyperTransport. Om dit te ondersteunen zouden er twee nieuwe sockets komen: Socket B (LGA1366) lijkt een opvolger voor Socket T (LGA775) te worden, terwijl Socket H (LGA715) het huidige Socket 479 van notebooks zou kunnen vervangen.

Moderatie-faq Wijzig weergave

Reacties (37)

Volgens mij is de reden vrij eenvoudig. Hyperthreading was handig om meerdere programma's per processorkern sneller te laten lopen. Nu dualcore gemeengoed begint te worden heeft de techniek alleen maar nadelen zolang programma's singlethreaded zijn. Op het moment dat er meer software multithreaded is kan het weer interessant zijn om nog meer virtuele cores te hebben.
HyperThreading was alleen nadelig in OSen die niet wisten wat het verschil tussen HyperThreading en 'echte cores' was.
In Windows 2000 werd het er dus nogal eens trager op, omdat het OS graag zo veel mogelijk threads tegelijk wilde laten draaien, wat vaak nadelig was, oa omdat je je cache niet meer efficient gebruikt.
In Windows XP weet het OS dat je HyperThreading anders aan moet pakken, en daar is het in het slechtste geval niet of nauwelijks trager, maar wel vaak sneller dan zonder HyperThreading.

Ik vind dit op zich wel een leuk bericht trouwens.
De algemene consensus was dat HyperThreading vooral bestond om de inefficiente pipeline van de Pentium 4 wat op te lappen.
Ik heb dit altijd bestreden, omdat naar mijn mening HyperThreading ook op een efficiente pipeline z'n voordelen heeft, omdat je gewoon niet al je execution units tegelijk gebruikt, en omdat je nog steeds zit met cache-misses en trage geheugentoegang/I/O etc.
Ik gaf als voorbeeld dat IBM ook in z'n efficiente POWER-processors een vorm van HyperThreading gebruikte. Een Core2-achtige core (momenteel de meest efficiente x86-core die er is) met HyperThreading, zou helemaal bevestigen dat ik het goed ingeschat heb.
Ik post maar even - is al wat laat, maar goed.

HyperThreading is voor veel ontwikkelaars ook nog eens een nachtmerrie. Het idee -was- dat het net zo zou zijn als gewoon multithreading op meerdere CPUs (toen had je nog niet echt multiple cores).

Maar wat zagen ontwikkelaars? Resultaten van Thread 1 die anders waren dan die van Thread 2 - terwijl ze hetzelfde zouden moeten zijn. Oeps. Gevalletje Rush Condition (onder andere).
( en ja, ook met de Intel $$$ Compiler. )

Met dat soort onzin wil je je echt niet bezigen wanneer er geen probleem is bij gewoon multithreaden.

Wij zien HyperThreading in ieder geval liever stilletjes dood gaan, of ze moeten het al implementeren op een manier die -wel- "works as advertised".

Edit: Knap! -1 Overgewaardeerd terwijl er nog geen waardering is ;) Als je het niet met me eens bent kan je beter een reply posten.
Die ontwikkelaars hebben dan slechte multi-threading code geschreven. De condities waar jij het over hebt (die overigens race-condities heten) zijn gemeengoed in multi-threaded programmeren, en die kunnen in principe ook optreden bij gewoon time-sliced multitasking op een enkele core.
Niet echt. Als ik 10 singlethreaded programma's tegelijkertijd draai, heb ik toch 10 threads. Onafhankelijk of je dus singlethreaded of multithreaded programma's gebruikt heeft een multicore/hyperthreading systeem zin. (Uitzondering is natuurlijk de situatie waar 1 singlethreaded programma vrijwel alle resources gebruikt (lees games))

Hyperthreading gebruikt de processorcore effectiever door bepaalde acties tegelijkertijd uit te voeren waardoor snelheidswinsten te boeken zijn. Tegelijkertijd kost het aansturen van hyperthreading ook weer processorkracht. Het nut van hyperthreading is dus een afweging van deze twee zaken en sterk afhankelijk van het processor ontwerp. De lange pipeline van de prescott leende zich optimaal voor hyperthreading, de kortere van de core een stuk minder. Het lijkt erop dat Intel gewoon geen winst zag in het gebruik van de techniek maar dat dit in de toekomst weer anders ligt. Of dat komt omdat Intel weer langere pipelines gaat gebruiken of de efficientie simpelweg verbetert wordt zal de toekomst moeten leren.

Maar de keuze om hyperthreading wel of niet toe te passen heeft weinig met de beschikbaarheid van multithreaded programma's te maken. Meer met de vraag hoe effectief de techniek toegepast kan worden.
Je verhaal gaat hoogstens op voor notebooks en desktops, niet voor servers. Daar werd HyperThreading voor het eerst toegepast, zelfs terwijl 'dualcore' (twee sockets) allang gemeengoed was. Het heeft dus niets te maken met de beschikbaarheid van software.
Ben niet zo'n pipeline-fan.

We zagen hoe de Presscott keihard flopte in vergelijking met zijn AMD aanhanger. De lange pipeline veroorzaakte datarebouncing (te hoge accestime naar de data door pipeline vertraging en echoing).

Ik zie meer iets in een dataduct. Dit is een pipeline die over alle cores heenloopt en die elke core tegelijk kan aanspreken. Core 1 pipeline Noord, Core 2 pipeline Zuid.
Zo krijg je het idee van een supersnelle FSB effect. Echoing is hier dan juist in het grote voordeel.

We moeten er ook op letten dat software door de jaren heen flink is verandert. Wat in 2004 een flop was kan in 2008 een succes worden. Ze hadden gewoon de goede techniek uitgevonden in de verkeerde tijd.

We nemen T=1/F.
De echo bij 4 GHz is dus T=1/4.000.000.000=N*330.000.000 meter=Tussen de klokpulsen zit dus 8,25 cm in lichtafstand. Er kan dus een fatale echo/resonancie/bouncing optreden in een lange pipeline. Iets om rekening mee te houden.
Ik weet niet waar je je info vandaan haalt maar dit soort dingen zijn zeker niet het geval in een cpu. Er is wel sprake van hoogfrequent maar aangezien de afstanden super klein zijn op een core kun je een groot deel laag frequent benaderen en dan gelden zulke regels niet.

En met hoogfrequent zijn er heel veel dingen wle op te lossen als goed ontworpen is. En geloof me, de mensen die een CPU ontwerken weten dat zeker...

Echo's en etc komen niet voor in een cpu. Nadeel van een lange pipeline is dat de predictor het onjuist heeft dan de hele pipeline eerst helemaal leeg moet en dan pas weer verder kan gaan..

Ohja een lange pipeline betekend niet qua lengte lang. Maar teveel stappen lang.. Pipeline is een soort buffer waar de commando's in terecht komen en afgewerkt worden...
Zou jij je berekening eens kunnen toelichten? Die 3,3 * 10^8 meter bijvoorbeeld, wat stelt die voor? T is bij jou de golflengte zo te zien, maar wat is N?
Als je wil berekenen wat de afstand is die licht tijdens 1 klokpuls aflegt bij 4 GHz, dan is het toch gewoon c / F = 3 * 10^8 / 4 * 10^9 = 7,5 * 10^-1 meter, oftewel 7,5 cm.

(niet helemaal, want c is eigenlijk 299.792.458 m/s)
Moet c in jouw berekening dan geen 3*10^8 zijn aangezien c 299.792.458 is dat is dus ongeveer 3*10^8 en geen 3*10^5
zo komt Exuimtum aan 3,3*10^8 maar die 3,3 vind ik eigenlijk ook wel een beetje raar
Lichtsnelheid is c (3* 10^8) in luchtledig. elektronen gaan ongeveer 10 keer zo langzaam.

Problemen zijn echter meer om 45 planometer schakelijngen te maken. (er gaan 3-10 atomen in een nanometer, dus om in massaproductie schakelingen te maken van paar honderd atomen breed is niet simpel
WTF?

lul geen onzin man, pipelines zijn nog altijd geklokte functionele apparaten, elke stap in de pipeline werkt volledig synchroon, en tussen 2 stappen in een pipeline zit echt geen 8 cm aan ruimte hoor.
Zelfs als de chip superslecht ontworpen zou zijn, en stap n van de pipeline in de ene hoek van het silicium ligt, en stap n+1 in de overliggende hoek, zou je met huidige processor groottes aan maximaal 1,5 cm zitten...

Daarnaast krijg je in een semiconductor niet zomaar echo's of staande golfvormen krijgt, gezien je een goede "afsltuiting" hebt aan het begin en einde van de datalijn.
Elke vorm van echo, resonantie, weerkaatsing, etc fataal zijn voor systeem stabileit. Er wordt dus ook de grootste zorg aan besteed dat dit soort verschijnselen niet optreden door ander andere te zorgen voor goede afsltuiting.
Krijg je met dualcore/quadthread processors niet het gevaar dat een applicatie "per ongeluk" z'n werk verdeelt over de eerste twee virtuele cores, en dus effectief alles nog steeds op ÚÚn core uitvoert?

In een omgeving waar alle cores volgepropt worden is een combo natuurlijk geen probleem, maar voor een desktop?
Krijg je met dualcore/quadthread processors niet het gevaar dat een applicatie "per ongeluk" z'n werk verdeelt over de eerste twee virtuele cores, en dus effectief alles nog steeds op ÚÚn core uitvoert?
Het verdelen van threads over cores is een taak voor het OS, niet voor een applicatie. Zolang Windows/Linux/etc. er rekening mee houden hoef je je daar dus geen zorgen over te maken.
Dat klopt, maar het OS moet dat wel weten van virtuele en fysieke cores, in het geval dat een applicatie dualthreaded is (of je twee zware singlethreaded applicaties draait).
Krijgen Intel CPU's ook eindelijk ge´ntegreerde geheugencontrollers net als bij AMD?

Da's een flinke verbetering, nu hebben de AMD processoren al helemaal geen eigenschappen meer waarmee ze uitblinken ten opzichte van Intel processoren.
Krijgen Intel CPU's ook eindelijk ge´ntegreerde geheugencontrollers net als bij AMD?
niet helemaal.

intel gaat het iets anders aan pakken.
ze gaat de geheugen controler zelf in een losse chip stoppen op het moederbord direct verbonden aan de CPU.
voordeel is dat je geen nieuw socket krijgt bij elke geheugen upgrade, nadeel is dat je extra latency hebt en dat de verbinding tussen CPU en controler ook verouderd en je dus nogsteeds alles nieuw moet kopen als je upgrade.
de voordelen zijn dus vooral koste besparing voor intel.
ze gaat de geheugen controler zelf in een losse chip stoppen op het moederbord direct verbonden aan de CPU.
En die chip met de geheugencontroller op het moederbord noemen ze toevallig 'northbridge' en de directe verbinding ermee 'FSB' ? ;) Wat je beschrijft is praktisch geen verandering t.o.v. de huidige situatie, dus ik ben erg benieuwd of je een bron hebt die het duidelijker uitlegt. Anders lijkt het me gewoon een misverstand.

Edit: kom eens met een link, want anders hecht ik hier gewoon geen waarde aan. Ik heb een vaag vermoeden dat je het hier over hebt, maar dat is technologie die al sinds 2005 op de markt is.
nee het lijkt er totaal niet op.
het staat geheel los van north en south bridge, en de link naar die controler is een seriele verbinding en niet paralel zoals de FSB.
het lijkt veel meer op FB-dimms

edit : kan ook zijn dat intel inmiddeld de chip naar de geheugen modules heeft verplaats en het FB-dimm is geworden.
maar dat komt in 2008 pas naar de itanium en pas later naar de xeon.
waneer desktops deze "geintegreede geheugen controler" krijgen is nog weinig over bekend, als het al ooit gebeurt.
Heeft AMD geen patent op de geintergeerde geheugencontroller? Je zou toch zeggen van wel als je kijkt naar wat je tegenwoordig al niet kan patenteren.
Als je denkt dat AMD de eerste was zou ik maar eens gaan zoeken op internet ;). Zelfs Intel heeft een chip met imc ontworpen voor Opteron op de markt kwam. Niet op de pc-markt gericht, maar toch.

Edit@worldcitizen
Vreemd dat veel mensen denken dat de enovatie [sic] begint bij Intel en AMD.
Ik zei zelfs Intel. Daarmee doelde ik op het feit dat zo ongeveer iedereen het heeft gedaan voor AMD: HP, Sun, IBM, DEC, etc.
Wat dacht je van de Sun UltraSPARC-IIi? Die in de bv de Netra en de Ultra 5 en 10 zat.

Zie: http://www.cpu-world.com/CPUs/UltraSparcIIi/index.html

Vreemd dat veel mensen denken dat de enovatie begint bij Intel en AMD.
Dat is dan ook het einde van de Northbridge of niet?
De northbridge is nog iets meer behalve een geheugencontroller. Een northbridge stuurt bijvoorbeeld de videokaart aan (AMD heeft wel aangekondigt dat ze een PCI-E controllen in de processor willen bouwen), en regelt de communicatie tussen de PCI kaarten, de SATA aansluitingen en de onboard features zoals audio, netwerk e.d. Het meeste gaat via de southbridge naar de northbridge en dan naar de processor. De northbridge zal dus voorlopig nog het belangrijkste knooppunt op een moederbord blijven.
behalve de videokaart doet voor de rest de southbridge alles wat je hier noemt.
verder zou de northbridge alleen een doorgeef luik worden, en dan kan je veel beter alles in 1 chip stoppen waarschijnlijk, dat kan stukken goedkoper zijn.
die kans zit er dan ook wel in, ik wacht eigenlijk al een hele tijd op de 'aankondeging' van '2-chip-moederborden' waarbij er dus een HTlink zou worden gelegt tussen de 'cpu' en de '(EFI) BIOS'
het enige waar de geruchten het over eens zijn is dat er (eindelijk) afstand wordt gedaan van de fsb door het integreren van een geheugencontroller
dus volgens de geruchten wel
zou trouwens niet zo leuk zijn voor amd het is toch wel 1 van de voordelen van amd dat ze een geintegreerde geheugen controller hebben
@hvdrhee
En jij denk zeker dat AMD ondertussen rustig blijft zitten ? :)
Ik denk dat de marketing afdeling goed begrijpt dat de ghz race over is en dat de volgende al weer voor de deur staat, de core race.
een cpu met 8 cores wordt dan gezien als een met 16 en dat verkoopt dan beter.

En over al die kritiek jegens AMD dat ze geen enkele voorsprong meer hebben op Intel als deze ook een geintegreerde memory controller heeft straks.
alsof AMD de komende jaren gaat stil blijven zitten. Iedereen is nu al de aankoop van ATI vergeten ofzo
Klinkt weer als een echte AMD-fanboy. Hoe vaak lees je niet over AMD uitroepen als "Wacht maar op AMD" of "Benieuwd wat AMD hiertegen gaat doen" of "AMD zal wel weer terugkomen".

Allemaal zever in zakjes, niemand hier weet wat AMD aan het doen is.

Naar mijn mening is het echte nieuws wat er van AMD komt niet zo bijster positief de laatste tijd, leveringsproblemen, een 4X4 concept wat onverkoopbaar is omdat het bakken met geld kost.

En wat dan over ATI? Wat denk je dat ATI voor extra's brengt richting AMD? Een geintergreerde GPU? Da's alles.

Nee, voorlopig zit AMD in de hoek waar Intel zat.

Maar voor AMD zal het een stuk lastiger zijn om daar weer uit te komen.
Klinkt weer als een echte AMD-fanboy.
En jouw post kan ik net zo goed als een Intel-fanboy noemen, kan - ik doe het niet.

Feit is dat het voor zowel Intel als AMD even moeilijk is. AMD gaat heus wel weer de rollen omdraaien, en vervolgenss doet Intel dat weer net zo hard.

Zolang beide bedrijven zich maar goed beseffen dat ze technology bedrijven zijn en geen melkertbaan voor managers (intel heeft er pas 3000 de laan uitgestuurd, en ik kan me voorstellen dat die actie alleen het bedrijf een stuk meer slag en daad kracht geeft dan ervoor).

Ik kijk nu al uit naar de volgende inhaalslag. Na het intel geweld is AMD nu aan de beurt, ik kan niet wachten.
En jouw post kan ik net zo goed als een Intel-fanboy noemen
Waar heb ik het specifiek overdreven positief over Intel?
Dit lijkt me inderdaad niet ondenkbaar als je er meer performance van krijgt why not.
Intel heeft nu gezorgd dat ze een goeie basis hebben, een schone lei en dan kunnen ze straks weer met zulke dingen proberen te verbeteren.
en als het flopt nouja dan is er nog AMD ik kies niet defintief een partij hoor ik kies liever de beste.
Wat ik me dan afvraag;
Hoe komen ze aan die namen..? Want er zit wel iets van structuur in, als je kijkt.... :)
OMG lopen ze te discusseren over licht snelheden :+
Het gaat hier om computers hoor :Y)
En hoe snel denk je dat een signaal doorgegeven kan worden? De limiet ligt nog altijd op de lichtsnelheid.
Hiermee word de prestatie per watt oorlog weer een heel stuk eerlijker.
Want AMD heeft al tijden een ingebouwde geheugencontroller ipv een onboard variant die in geen enkele prestatie per watt test mee werd vergeleken. :?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True