Over de (on)mogelijkheden van HyperThreading

NewsFactor heeft een stuk online gezet over de mogelijkheden die men verwacht van HyperThreading, de technologie die een besturingssysteem laat denken dat een CPU met één core uit twee (virtuele) processoren bestaat. De eerste chips die uitgerust werden met de HyperThreading waren de Xeon-processoren. In november 2002 werd de Pentium 4 3,06GHz uitgebracht, dit was de eerste desktopchip met HyperThreading. Intel is van plan om de technologie in het merendeel van de in de toekomst uit te brengen CPU's te gebruiken en werkt ook steeds aan verbetering. Uiteindelijk kan ook de gewone pc gebruiker hiervan ook profiteren omdat niet alleen de duurste processoren worden uitgerust met HyperThreading: hier kunnen we lezen dat de Pentium 4M, Celeron en Itanium voorzien worden van de techniek, over de Banias is nog niets bekend. De Prescott heeft een architectuur die ook geschikt zal zijn voor HyperThreading met vier threads tegelijk, voor de toepassing in desktops zal dit standaard uit staan. De Nocona (90nm Xeon-processor), die bedoeld is voor serversystemen, zal waarschijnlijk voor testen met de 4-way technologie gebruikt gaan worden.

Intel Hyperthreading (klein)De softwareondersteuning is nog in een pril stadium, zo lezen we in het artikel bij NewsFactor. Om optimaal gebruik te maken van de mogelijkheden moet de programmatuur zo gebouwd zijn dat meerdere taken tegelijk kunnen worden aangestuurd. Een tweede mogelijkheid om gebruik te maken van HyperThreading is eenvoudig: voer twee programma's tegelijkertijd uit. Windows XP bied standaard ondersteuning voor de techniek, Red Hat zal met versie 9 via de zogenaamde Native Posix Threading Library ondersteuning bieden voor HyperThreading. Of de gewone gebruiker veel van de performancewinst zal merken verschilt per geval:

Even if a computer user does not run multithreaded applications, he or she still could see a performance boost in a heavy multitasking environment, Intel's Alfs said. "If you run two CPU-intensive applications at the same time, [performance] can be up to 25 percent faster running on a hyperthreaded CPU."

"The average user will see a visible but not huge improvement." Kastner added.

In the vast majority of desktop environments, hyperthreading certainly will not hurt, Kleynhans noted. If a user is running numerous background tasks, such as antivirus tools, encryption utilities and the like, hyperthreading will provide a "minor benefit." He added that "whether it's 10 percent or 50 percent is case-dependent." The important point, according to Kleynhans, is that any improvement is essentially a "free boost that Intel could provide given its massive transistor budgets."

Gebruikers van oudere besturingssystemen zoals Windows 2000, NT4 of Windows98 wordt geadviseerd om geen gebruik te maken van HyperThreading, het is mogelijk om deze uit te zetten in het BIOS. Intel beveelt HyperThreading alleen aan voor besturingssystemen die er ook echt baat bij hebben. Applicaties die veel gebruik maken van zware berekeningen met floating-point getallen zullen ook niet veel baat hebben bij HyperThreading, er is immers maar een floating-point unit en die bepaalt dan de performance.

Door Gabi Gaasenbeek

01-04-2003 • 22:11

34

Bron: NewsFactor

Lees meer

Reacties (34)

34
34
29
9
0
0
Wijzig sortering
Kortom: Het is een welkome en zinvolle toevoeging van Intel, maar het is zeker geen vervanging voor SMP systeem (2 of meer processoren).

Ik vrees echter wel voor bedrijven die een wanhopige poging doen multi-threading te implementeren zonder een goed herontwerp van software onderdelen, en dat alleen om te kunnen pronken met het benutten van de HyperThreading-feature van de nieuwe Pentiums.Meerder threads kunnen veel onvoorziene problemen veroorzaken als het systeem niet goed wordt ontworpen.
Kortom: Het is een welkome en zinvolle toevoeging van Intel, maar het is zeker geen vervanging voor SMP systeem (2 of meer processoren).
Nee natuurlijk niet, maar zo heeft Intel HTT ook nooit geprofilleerd, ze hebben het als een mooie uitbreiding gebracht en dat is het ook, de verbeterde HTT unit in de 3,06GHz P4 zorgt in 95% van de gevallen voor een prestatieverbetering en dat is toch mooi.

Daarbij komt nog dat Windows 2000 en NT4 geen onderscheid maken tussen fysieke en logische CPU's waardoor je in de problemen kan komen als je bijvoorbeeld een dual Xeon gebruikt met Windows 2000 Professional. Windows ziet niet dat het twee fysieke CPU's zijn die ieder weer twee logschische CPU's bevatten maar als vier fysieke CPU's. Dat zorgt er dus voor dat Windows 1 van de twee Xeon's niet gebruikt. Gelukkig ken ik weinig mensen of bedrijven die op een dual CPU machine geen server OS gebruiken maar toch.
Of je zet zoals in het artikel genoemd de hypertreading uit in het bios en je gebruikt twee xeons zonder hypertreading :Y)
De PR machine van Intel heeft weer puik werk geleverd. Allemaal mensen hier die hyperthreading geweldig vinden, terwijl het eigenlijk totaal niet interessant is.

Wat doet hyperthreading:
In 1 cpu meerdere threads parallel uitvoeren.

Het kost weinig ruimte en geld en geeft een kleine snelheidswinst. Wat dat betreft een goed idee van Intel.

Voorwaarde:
Je moet meerdere threads hebben lopen, die ook daadwerkelijk parallel aan elkaar verwerkt kunnen worden.

En daar zit 'm de kneep. Spellen hebben bv wel een paar threads, maar die worden nooit tegelijkertijd uitgevoerd. Dat zijn threads die op elkaar wachten. Die kan je dus niet parallel laten werken met hyperthreading en je snelheidswinst is dus 0.0%

De enige programma's die echt baat hebben van Hyperthreading zijn die programma's die ook echt baat hebben van SMP. (meerdere processors)

En we weten allemaal hoe weinig programma's dat in de praktijk zijn.
Als dat er namelijk veel waren, zouden we met zijn allen hier al lang dual systemen hebben draaien. Maar nog geen 1% van de tweakers hier heeft een dual systeem thuis.

Vandaar dat Intel het ook oorspronkelijk op de server markt gericht had.


Van dual processing weten we al vele jaren hoe geweldig het is als je software er goed gebruik van kan maken. En toch heeft het in al die tijd nooit de software fabrikanten er toe kunnen overhalen massaal multithreading te gebruiken. (En dat terwijl multithreading zelfs bij 1 cpu gunstig is)
Hyperthreading levert echter veel kleinere prestatiewinst op dan SMP, en ik verwacht daarom ook echt niet dat nu ineens iedereen wel zijn software multithreaded gaat maken.
Als SMP niet voldoende reden was, is Hyperthreading het zeker niet.

Hyperthreading is gewoon een leuke gadget. Maar al die media aandacht die het nu krijgt verdient het niet.
Eén woord: multitasking. Tot 30% performancewinst. Zal niet vaak voorkomen, maar een systeem heeft standaard wel een paar honderd threads lopen, en zal dus altijd nèt even iets soepeler draaien. Dan hoeft alleen Microsoft er rekening mee te houden in Windows, en kunnen ontwikkelaars het fijn bij singlethreaded applicaties houden. Overigens zal het dankzij optimaliserende compilers en acceptatie door developers (Doom III is multithreaded) in de toekomst ook gaan meetellen voor normale applicaties.

Natuurlijk blijft het een deel marketing, maar om nou te zeggen dat het gebakken lucht is vind ik ook weer overdreven.
Een systeem heeft standaard inderdaad wel een paar honderd threads lopen....
...threads die geen bal doen!

Ik op dit moment heb ik op mijn laptop 162 threads lopen. cpu usage 1%
Daar is dus geen winst te behalen. (ja ja, er zijn mensen die denken dat je die 1% soepeler lopen kan merken.)

Het aantal threads is niet interessant. Je hebt maar 2 threads nodig om winst te behalen. Als het maar de juiste situatie is.

Nogmaals. SMP levert veel meer winst op dan hyperthreading, en dan is het nog zodanig weinig dat bijna niemand een smp bak maakt voor multitasking.

Wat betreft Doom III. Eerst zien dan geloven. QuakeIII zou ook multithreaded moeten zijn, maar in de praktijk was de SMP performance niet best, wellicht dat DoomIII beter wordt op dat punt.

Overigens moet je dan niet raar opkijken dat het op een SMP bak veel winst oplevert maar op hyperthreading niet.
bv omdat het voornamelijk fpu operaties zijn.
En als je meerdere threads hebt die identieke taken in het programma uitvoeren. (bv filters bij photoshop waarbij het plaatjes in 4 vlakken verdeeld wordt en door 4 threads wordt behandeld of AI's bij spellen) dan helpt hyperthreading ook niet.
Het truukje werkt namelijk alleen als je compleet verschillende soorten taken naar de cpu stuurt. De delen van de cpu die niet door thread1 gebruikt worden kunnen dan "gratis" door thread2 gebruikt worden. Maar als thread2 nou net dezelfde delen nodig heeft dan werkt het truukje dus niet.

Wat dat betreft is zwaar multitasking waarschijnlijk een gunstiger scenario voor hyperthreading dan een multithreaded applicatie.

Let wel, ik zeg niet dat het gebakken lucht is. Ik zeg dat het een aardige gadget is.
Leuk om te hebben, maar niet iets waarvoor je veel moeite gaat doen.
en al zou DOOM 3 multi-threading zijn, wie heeft hier baat bij ? Vooral de gebruikers met een echt dual-cpu systeem lijkt me. Zodra je nml. zo'n spel draait schiet je CPU-usage algauw naar de 100% met je single-cpu systeem. Zeker in 1600x1200 of hoger :+ Waar denken ze dan nog extra-threads te kunnen proppen :?
Inderdaad de mensen met een dual cpu systeem.

Overigens speelt dat juist niet in 1600*1200 of hoger.
In hoge resoluties en/of FSAA is het juist de videokaart die de bottleneck is en niet de CPU.
Ga het maar eens bij je spellen thuis meten. Je cpu zal zelden op 100% staan.

Vandaar dat bij cpu tests de resolutie altijd op 640*480 gezet wordt.
Anoniem: 43470 @mjtdevries2 april 2003 09:56
Toch denk ik dat het een impuls kan zijn voor verschillende software fabrikanten. Waarom meer gigahertzen toevoegen als je de huidige optimaler kunt maken in gebruik?

Een ander punt is dat bv al jaren bekend is dat (serieus) videobewerken zeer veel baat heeft bij meerdere processors, en laat dat nu net de nieuwe computer hobby zijn in de 21e eeuw.
Software fabrikanten gaan echt niet speciale software maken omdat een processor met HT hun software dan 10% sneller draait.
Dat verschil is ongeveer net zo groot als het verschil tussen de snelste en op een na snelste cpu.

Als je nu een 3,3Ghz cpu naast de 3ghz P4 houdt staan we toch ook niet te zwijmelen dat je applicaties nu 10% sneller lopen?

Denk je dat ze bij het ontwerp van een programma denken van: zou ons programma wel goed genoeg lopen op de 4Ghz processor die over 1 jaar uit komt, of loopt het pas goed genoeg op de 4.2 Ghz processor die 2 maand daarna uitkomt? Laten we onze software gaan optimaliseren zodat ie ook goed genoeg loopt op de 4Ghz....

Nee, die verschillen zijn te klein, en de impact van multithreaded programmeren daarvoor veel te groot.

Zoals ik al eerder zei: software fabrikanten zijn niet eens bereid multithreaded programmas te schrijven voor SMP, waar je ECHT veel winst kan halen.
Waarom zouden ze het dan wel doen voor hyperthreading waar ze een veel kleinere winst kunnen halen. Dat kost ze veel te veel tijd en geld, en het levert hen geen extra verkoop op.

Inderdaad is videobewerking iets dat veel baat kan hebben bij meerdere processors. (serieus wil ik het niet noemen, want het is voornamelijk dvd rippen dat het meeste baat heeft)

Maar zoals ik ook al eerder heb gezegd: dat zijn dus de scenario's waar SMP nog veel meer oplevert.
Tijden geleden was een mpeg encoder al in staat om op mijn toenmalige dual celeron 400 systeem beide processors voor 98% te benutten. (was dacht ik flaskmpeg)

Nu wint flaskmpeg 10% met hyperthreading.
Mooie cijfers voor iets wat meer 5% ruimte op de die kost.
Maar als je serieus videoediting doet, waar jij het over hebt, dan gaat je hart daar niet echt veel sneller van kloppen. Een maandje wachten op de volgende snellere processor doet net zoveel, en het staat niet in verhouding met de 95% winst van een tweede processor.
Mijn negatieve kijk is gebaseerd op jarenlange ervaring en teleurstelling dat smp nog steeds niet levensvatbaar is voor de gemiddelde desktop.

De toekomst heeft namelijk al vele jaren heel wat moois in petto voor multi processor systemen. (en nog langer voor multithreaded software)
Maar er is nog nooit wat van terecht gekomen.

Zoals ik al eerder aangaf: ik zie geen enkele reden waarom het nu ineens wel gaat gebeuren terwijl het de afgelopen jaren niet is gebeurd. Ook in jouw reactie zie ik die reden niet.

Waarom zouden softwarehuizen er opeens op in gaan springen? Die standaard processor met dual processor ondersteuning levert maar een kleine winst op. Je gaat je software niet veel duurder en complexer maken voor zo'n kleine winst.
Je laat je aankoop van een processor echt niet afvangen van 5 of 10%. Hoeveel mensen zijn er wel niet die altijd 2 of 3 processors langzamer dan de snelste kopen? Gewoon omdat het in performance heel erg weinig scheelt en het veel geld scheelt.
Op dezelfde manier zijn eindgebruikers niet bereid meer geld voor software te betalen alleen maar omdat het dan 5 a 10% sneller draait met hyperthreading.

Als software 95% sneller draait met SMP, dan kan je je wel voorstellen dat mensen er extra voor willen betalen. En dan willen software huizen daar ook wel moeite (en dus geld) in steken.

Om dezelfde reden zie je ook dat SSE, SSE2, MMX, 3DNow! maar weinig in software gebruikt wordt. Alleen voor heel specifieke software die er erg veel baat bij heeft wordt het gebruikt. (typisch specialistische apps zoals mpeg encoders)

En wat betreft het mee kunnen rennen. De softwarehuizen die het goed doen zijn niet diegenen die met elke feature van een processor mee rennen.
Functionaliteit van de software is 100x belangrijker dan 10% performance winst.
Die performance winst wordt teniet gedaan door een processor te gebruiker die 2 maand later al weer uitkomt. Die functionaliteit kan je echter 2 jaar lang mee vooruit tot de nieuwe versie van je software.

Begrijp me niet verkeerd. Ik zou niets liever willen zien dan dat we op gewone desktop hardware en software behoorlijke dual processor ondersteuning krijgen.
Maar ik ben door schade en schande wijs geworden. (SMP systeem met SB Live, moet ik nog meer zeggen? ;))
Anoniem: 43470 @mjtdevries2 april 2003 14:25
Ik vind je nogal negatief.

Het lijkt mij namelijk dat de toekomst heel wat moois in petto heeft voor (maakt ff niet uit welke vorm) multi processor systemen.

En zoals ik al eerder zei: Waarom klakkeloos gigahertzen vermeerderen terwijl je een huidig ontwerp kunt verbeteren.
(Ik zie HT namelijk als een logische verbetering van de PIV, en Intel in die zin ook dat ze zelfs de 2.4 van HT gaan voorzien)

Lijkt me dus nogal logisch dat software huizen daar op in gaan springen, de tijd was er nog nooit eerder zo rijp voor als nu. En beter OS, en nu zelfs een "standaard" processor met Dual Processor ondersteuning.

Om terug te komen op de hobby viedeobewerking.

Dan bedoel ik natuurlijk niet het rippen van DVD's maar het serieuze werk als (ja zelfs) Studio 8, Premiere en Edition. Mensen met Digaitale camera's en het voornemen daar veel werk van te maken. (Dus puur prive en niet zakelijk).

Ik mag toch hopen dat jij geen software vertegenwoordigd. Want je weet wat er gebeurd met mensen die niet mee kunnen rennen, die blijven achter en redden het niet in deze snelle branch. (nix persoonlijks dus)

Ik hoop dat deze uitleg van mij je iets opener heeft gemaakt, en misschien zelfs je negatieve kijk kan beinvloeden, want dat is toch wat we allemaal willen positief vooruit.
Red Hat zal met versie 9 via de zogenaamde Native Posix Threading Library ondersteuning bieden voor HyperThreading.
NPTL heeft alles te maken met multithreading support voor linux ( zie het originele artikel (pdf) hierover van de bedenkers ) . Maar om een link te leggen tussen hyperthreading en NPTL is mijns inziens onjuist.
het staat volstrekt los van elkaar.
Idd, Hyperthreading is in feite een primitieve vorm van SMP waarbij bepaalde executie-eenheden van de CPU tegelijk worden gebruikt door twee threads. Hierdoor verhoogt men de efficientie van de CPU. Naar mijn inzien is hiervoor een kernel aanpassing nodig en ik gloof dat die er al sinds 2.4.18 ofzo in zit. Dit heeft verder weinig met Red Hat te doen.

Verder is er een leuk detail: De intel C/C++ compiler versie 7 heeft een speciale optimalisatie slag, die gaat kijken of bepaalde zaken in een programma parallel kunnen lopen (in threads dus). Je hoef dus zelf niets te doen. Ik heb echter wel gehoort dat je er op het moment nog niet al te veel van moet verwachten.
De winst van een virtuele processor wordt weer voor een deel teniet gedaan door het feit dat de cache nu door twee processoren tegelijk gebruikt wordt. Bij gelijk gebruik van de CPU units is dat dus een halvering van de cache geheugens (1st en 2nd level).
Anoniem: 43470 @miw2 april 2003 09:51
Zie hier het antwoord op de volgende stap van Intel. :7
HyperThreading is in principe niets anders dan multithreading, dus ik kan het verband wel zien eigenlijk :).
Ik heb zelf een p4 3,06ghz en moet zeggen dat ik met de programma's die ik gebruik voor school zekers wel merk dat HT aanstaan. Daarbij moet ik wel zeggen dat het voor de normale consument niet nodig is. Games ondersteunen het niet. Sommige een klein beetje. Maar jah die 2% winst die je er aan over heb maakt ook niet zoveel uit als je al zo snelle processor heb.

Ik ben verder benieuwd of software ook er op aangepast word dus die functie er in komt ja of nee. Er is wel vaker gebeurd dat videokaart iets ondersteunde maar er nooit gebruikt van werd gemaakt. Neem bijvoorbeeld Motion Blur van de VSA100 chip (3dfx) leuke functie nooit gebruikt. Maar we moeten maar zien wat er gaat gebeuren.
Nou ga je me toch niet serieus wijsmaken dat je op een 3,06 GHz processor het verschil ziet tussen HT aan, en HT uit?

Dat ding is zonder HT al bloedjesnel...

(Doet mij denken aan motorrijders die hun CBR/FZR/etc echt sneller vinden na montage van sportieve einddemper terwijl het op een rollenbank geen r*k uitmaakt).
Ik kan me anders een filmpje op Toms hardware herinneren waarin het verschil zeer duidelijk te zien was.
Ik moet zeggen dat ik niet verwacht dit op korte termijn nodig te hebben. Zeer specifieke software die ik toch niet gebruik en de snelheid van de processoren (ik heb nu 2,4GHz) is ook top. Zeker in combinatie met 1Gb (2 x 512Kingston) Dual Channel DDR geheugen op mijn Asus P4G8X doet mij het gevoel krijgen dat ik de komende twee jaar hoogstens mijn hoeveelheid geheugen zal uitbreiden of een snellere videokaart. Verder is het naar mijn mening overbodig.
Weetje wat ik dan denk als ik dit lees: De windows kernel is blijkbaar niet in staat om processen goed te verdelen en de CPU optimaal aan te sturen zonder HTT. Vraag me ook af of bijv. OS/2 Warp hier ook last van heeft of dat de onderliggende kernel gewoon beter is dan de Windows-kernel.

Wat in feite fake je de dingen, wat eigenlijk niet nodig zou hoeven zijn mits het OS goed is. Of mis ik iets wat blijkbaar niet mogelijk is zonder CPu-core truuks :? Of ligt het aan de Windows-kernel waar geen rek meer in zit. Weet me iig wel te herinneren dat de OS/2 architectuur beter met mutli-threading processes is/was en ook de processen beter kon aansturen/verdelen.
Anoniem: 1999 @Madrox2 april 2003 01:55
Volgens mij is het niet zozeer een OS-zaak maar meer een applicatie- en compiler-zaak.

Als je een applicatie hebt die specifiek gebruik maakt van multi-threading, eigenlijk bedoeld voor multi-processing, is er door de "truuk" van Hyper-threading ook van die multi-threading optimalisaties gebruik te maken door een single processor.

Echter, zodra het software betreft die nog helemaal niet geschikt is gemaakt voor multi-threading, heeft Hyper-threading dus ook helemaal geen nut en kan zelfs averechts werken.

Echter, in plaats van het optimaliseren van die software voor Multi- dan wel Hyper-threading lijkt het me veel nuttiger de software en/of compiler dusdanig aan te passen dat de pipelines van de betreffende processor-architectuur direkt al beter benut worden, het niet volledig kunnen benutten van de parallelle processing-pipelines is immers de reden dat er met Hyper-Threading op een single processor nog wat winst valt te behalen; direkte optimalisaties lijken me daarom veel effectiever dan de indirekte weg via virtuele threads.

Ik snap dus ook niet echt waarom Intel voor deze weg heeft gekozen, in het algemeen is Intel toch meer met lange-termijn oplossingen bezig, maar dit lijkt me meer een tijdelijke oplossing voor specifieke al bestaande voor multi-processing geschikte software; terwijl ik Intel toch absoluut in staat acht hun compilers goed te optimaliseren voor het direkt al beter benutten van de processing-pipelines.

Maar blijkbaar willen ze ook proberen al gecompileerde software ook wat sneller te krijgen; ik kan slechts twee reden bedenken:

1. De angst dat de komende Opteron-processors van AMD de bestaande software (zelfs zonder 64-bit aanpassingen) veel sneller kan draaien dan Intel lief is, waardoor Intel nu alles uit de kast wil halen om niet direkt het onderspit te delven in benchmarks met bestaande software.

2. De verwachting/wens dat steeds meer software in de toekomst geschikt zal worden gemaakt voor multi-processing, waarbij uni-processors met al wel Hyper-threading alvast de industrie warm kunnen maken voor dit soort multi-threading optimalisaties; wie weet liggen daar wel plannen voor multi-core processors aan ten grondslag... :9~
Met een slimme compiler kan je misschien wel de performance binnen een applicatie verbeteren d.m.v. slim threaden en optimaliseren op processor-architectuur, maar je kunt natuurlijk absoluut niets doen aan de samenwerking met andere programma's (Je weet namelijk niet welke programma's er verder nog draaien). Met de virtuele multiproc geeft je het OS, dat in principe inzicht heeft in alle threads, de mogelijkheid om processen uit verschillende programma's zo prettig mogelijk met elkaar te laten samenwerken. Die optimalisatie kan je met alleen een compiler nooit bereiken
Ja, precies. Dus als ik het goed begrijp krijgt een programma dat met HT compiled is meer resources dan software die dat niet is. Met als gevolg dat juist die (niet-geoptimaliseerde Ht) programma's trager gaan werken in een Ht-omgeving. Er van uitgaande dat er redelijk wat processen lopen op je desktop. Wat tegenwoordig vrij normaal is, wie draait nog net als vroeger 1 programma :? Heb hier al zo'n 8 a 10 systray's , kijk ik bij taakbeheer staan er algauw zo'n 40 processen....

M.a.w., die hele HT truuk helpt eigenlijk alleen goed als je CPU weinig te doen heeft en er weinig/geen andere programma's draaien.

ps: het ruikt ernaar dat het vooral ingevoerd is om mooie benckmarks te scoren (AMD voor! te blijven, op papier althans).
Zoals iemand al eerder opmerkte ondersteunt de nieuwste versie van de intel C/C++ compiler HTT al. (hoewel die blijkbaar nog enige verbetering behoeft).

De reden dat intel nu nadruk legt op het versnellen van oude software met HT zal vnl van markttechnische aard zijn.
Nieuwe technologie verkoopt beter als gezegd wordt dat oude programma's sneller draaien, dan dat je een nieuwe compilatie (dus nieuwe versie) van de software moet hebben om de technologie te gebruiken.
Anoniem: 44077 1 april 2003 22:38
Behalve slechte software ondersteuning wil het hyper-threading gebeuren ook wel eens rare kuren uithalen.

Bij het installeren van de sound-max drivers op een Intel moederbord (weet niet meer welke dat was een GBV of PESV) krijg je op een gegeven moment kort berichtje waarop gemeld wordt dat de drivers niet kunnen worden geinstalleerd met Hyper-Threading enabled. :?

Om eventuele meerdere van dit soort berichten te voorkomen moet men Hyper-Threading in het bios uitzetten. Wat mij dan fascineert is waarom Hyper-Threading, wat een toevoeging is voor een CPU zo'n grote rol speelt bij een driver installatie en mogelijk meer issues.
Anoniem: 1913 1 april 2003 23:17
Voorlopig draait onze dual xeon 2.4 heerlijk met hyper treading in redhat ....7.3
De applicatie die wij gebruiken maakt er wel degelijk gebruik van, er worden 4 i.p.v. 2 processen gestart. Uit de logfiles kun je goed zien dat de 2 extra threads werk doen terwijl de andere threads op hun invoer wachten vanaf de HD's. Wel degelijk winst dus.
Anoniem: 14038 1 april 2003 23:30
Ik hoop dat ze er eens serieus over gaan nadenken om twee (of nog liever, meer) floating point operators in de CPU's te bakken. Die dingen zijn groot en kosten meestal veel klokslagen (tijd) relatief gezien. Dus hoe meer je er van gebruikt hoe beter je daar tijdswinst mee kunt boeken. En als ze toch al honderden miljoenen torretjes op zo'n CPU kunnen bakken dan lijkt me dat geen probleem. (dan maar wat minder cache)
Met ander woorden AMD maakt zeker nog kans in de race als het voor de meeste toepassingen geen nut heeft om HT aan te laten staan. }>

Ow nee, want intel maakt betere mobochips zodat je dan weer meer geheugen bandbreedte hebt en dat zorgt dat intel toch aan kop blijf met de algemene prestaties. :Y)

en dat alleen door de geheugen want zo goed presteerd intel niet zonder dualmem. }:O
Das toch juist mooi? De P4 heeft tenminste een waanzinnige geheugenbandbreedte (zeker met de opkomende FSB800). Iets dat we van Athlons nog steeds niet kunnen zeggen. (t.o.v. P4 dan)

En AMD maakt zeker nog een hele goeie kans, maar dan moeten ze ook maar es SMT gaan gebruiken zo onderhand. Het is al meerdere malen aangetoond dat HTT in veel gevallen merkbaar verschil oplevert.

Verder worden flamen niet zo gewaardeerd, ook niet op Intel, meneer fuckindamian ;)
hard wel handig, beetje fanatieke computeraar heeft al gauw 8 vensters open staan, wacht ik zal even toelichten, soldier of fortune2 in een window (80%cpu), Internet Explorer voor de cheats, mIRC voor de chat, Roger Wilco voor de voice, 2 live stream vanaf de webcam, Windows verkenner, en last but not least, onze niet te vergeten "rechtsonderinruimtemetdenodigeicoontjes".. als dat geen multitasking is voor zon hypertretter weet ik het ook niet..
wat is het verschil..

er zit verschil in.. punt

/weiziging
en de exananogroeten aan Merely want morgen (vandaag) word er weer gevoetbald
het wezigen van je poost werkt niet echt soepel weeje.. "Sorry, deze username/password/reaktie combinatie klopt niet."
en dat verteld ons alles.. daarna kan ik alleen nog maar reageren op mn eigen pooost
Daarbij kan ik niet echt terug vinden waar en of ik ben ingelogd..

Op dit item kan niet meer gereageerd worden.