Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 23 reacties
Bron: VR-Zone

De HyperThreading-technologie die gisteren voor het eerst aan de normale consument werd geïntroduceerd in de vorm van de 3,06GHz Pentium 4 is niet precies dezelfde als die begin dit jaar al op de Xeon met Prestonia core zat. Toen de Xeon voor het eerst voorzien werd van HyperThreading bleek namelijk dat multi-threaded applicaties er wel op vooruit gingen, maar bij zowel normale single-threaded software als multitasking was een afname in performance te zien. Logischerwijs besloot Intel HTT voor zijn desktopchips uit te schakelen, en sommige leveranciers van servers en workstations besloten hetzelfde te doen via het BIOS voor hun Xeon-producten. In de negen tussenliggende maanden is hard gewerkt aan het verbeteren van de techniek, en de implementatie van HyperThreading die nu op de 3,06GHz core is te vinden levert dan ook wèl extra performance voor multitasking en single-threaded software.

Pentium 4 HT-logo Er kwamen de laatste week een aantal berichten binnen van mensen die was gelukt om HyperThreading in te schakelen op 2,4 en 2,8GHz versies van de Pentium 4. Uit de technische documentatie blijkt dat pin A31 verantwoordelijk is voor het al dan niet ingeschakelen van HTT. Deze pin afschermen bleek echter geen enkel effect te hebben, waardoor het team van VR-Zone vermoedt dat er misschien ook nog in het BIOS getweaked moet worden, of dat er weerstand gemod moet worden. De vraag is echter of het zin heeft om HyperThreading in te schakelen op een oude processor, gezien het feit dat de eerste versie van de technologie duidelijk minder goed was dan de pas geïntroduceerde.

Bovendien denkt Intel er zelf over om de nieuwe stepping van de Pentium 4 ook te gaan gebruiken om lager geklokte versie van de HT-processor uit te brengen. Ook de Celeron en mobiele Pentium 4 zouden op termijn voorzien worden van HyperThreading technologie. Het probleem is alleen dat HTT het stroomverbruik iets omhoog krikt, en dat Microsoft Windows daarom een deel van de power-save states niet kan gebruiken op een HT-enabled processor. HyperThreading voor notebooks kan om die reden goed uitgesteld worden tot de release van Longhorn.

In de toekomst zal HyperThreading dus doordringen naar alle segmenten. De voor de tweede helft van 2004 geplande Nehalem-core zou een nieuwe generatie van HyperThreading in zich hebben, waarmee niet twee maar vier threads tegelijk draaien in één core. Ook de Itanium-serie zal voorzien worden van HyperThreading-technologie. De 0,065 micron Chivano zou twee IA-64 cores hebben die ieder vier threads tegelijk kunnen verwerken. De winst die HyperThreading op een IA-64 processor kan halen zal kleiner zijn dan bij x86 het geval is. De hele filosofie achter de Itanium en opvolgers is namelijk dat de compiler ervoor zorgt dat de rekenkracht van de processor altijd zo goed mogelijk wordt benut, zodat de hardware zich daar geen zorgen over hoeft te maken. HyperThreading lijkt op het eerste gezicht dus niet op IA-64 thuis te horen, maar het is natuurlijk wel zo dat individuele threads nooit alle bronnen tegelijk kunnen gebruiken, hoe goed ze ook geoptimaliseerd zijn.

Intel CPU core roadmap

Verder meldt de site dat Intel's Patrick Gelsinger, een chief technical officer, op het IDF in Japan heeft verteld dat hij verwacht dat rond 2006 of 2007 desktops niet meer genoeg zullen hebben aan 4GB geheugen. Intel zal dan ook voor die tijd een IA-32 processor uitbrengen die meer geheugen kan aanspreken dan met 32 bits mogelijk is. Net als AMD met x86-64 heeft gedaan wil Intel de instructieset uitbreiden. De geruchten over Yamhill technologie worden dus wederom versterkt. De vraag is alleen niet langer of, maar wanneer het ingeschakeld zal worden. De 0,09 micron Prescott zou Yamhill in uitgeschakelde vorm in zich hebben. Er volgen echter nog twee andere 90nm cores, en één van de twee overstappen zou dus wel eens het inschakelen van Yamhill kunnen betekenen.

Lees meer over

Gerelateerde content

Alle gerelateerde content (45)
Moderatie-faq Wijzig weergave

Reacties (23)

Algemeen:
Zowel HyperThreading als een 64-bit uitbreiding voor de desktop zijn positief voor de software ontwikkeling. Ik verwacht dat meer software fabrikanten zich gaan buigen over optimalisaties m.b.v. multi-threading en 64-bit architectuur zodra dit op zo ongeveer alle markt-segmenten (dus server & desktop) aanzienlijke voordelen kan opleveren.
Het feit dat meer mensen zich op die technologie gaan storten geeft misschien de Itanium meer voordeel in de toekomst. Ontwikkelaars zijn vertrouwd met de 64-bit technologie en veel software draait dus eerder optimaal op een Itanium (al zijn er nog veel andere punten waarin de huidige en de itanium architectuur verschillen)

Oude steppings met HTT:
Ik denk dat het pogen te enabelen van HTT op oudere steppings interessant kan zijn voor die mensen die bijv veel multi-threaded software draaien. Dit geld vooral voor servers (waar minder snel dit soort vage tweaks op zullen worden toegepast) maar ook voor geavanceerde software zoals Photoshop e.d. Zodra het redelijk eenvoudig mogelijk is HyperThreading uit te testen kan iedere gebruiker voor zichzelf testen of zijn systeem er sneller door wordt of niet.

Notebooks:
Waarom er nou gewacht moet worden tot Longhorn is mijn niet duideiljk. Het lijkt me sterk dat een gewone patch (die evt deel uit maakt van een Service Pack) de power-save-functionaliteit voor HTT-enabled processoren weer terug kan brengen.
optimalisaties m.b.v. multi-threading en 64-bit architectuur
optimalisatie houdt evolutie van een bepaald systeem in. Dit gaat wel op voor HTT, maar niet voor IA-64. Ondersteuning voor hypertreading zou nu normaal gesproken al in software geimplementeerd moeten zijn, is het vaak echter niet omdat het de programmeur meer tijd kost en hij netter moet werken. SMP is er al langere tijd voor specifieke toepassingen (zoals CAD met Pro Engineer). Vaak wordt er bij de ontwikkelijng van software (en compilers) niet bij stilgestaan omdat bijna niemand het gebruikt. Het is dus een beetje luiheid, onwetendheid en arrogantie. Daarom heeft de meeste software nu weinig aan HTT.

IA-64 is daarentegen revolutie. Alle software die tot nu toe ontwikkeld is voor x86-32 en 16 moet compleet opnieuw geschreven worden. Vooral in het serversegment wil dat misschien wel lukken omdat de druk op innovatie en de daaraan gepaarde prestatieverbetering vele malen hoger is. In het desktopsegment zal dat bijna niet lukken omdat gebruikers daarvoor niet alleen hun hardware moeten vervangen, maar ook alle software bij het oud vuil kunnen zetten. Bovendien is iNtel er al jaren mee bezig en loopt echt jaren achter op hun eerste roadmaps. Het gaat dus alles behalve vloeiend.

Amd heeft daarom voor de meeste gebruikers de meest interessante optie met x86-64, die direct al een boost geeft met 32 bits programmas, en nog meer bij 64 bits. Het is backward compatible met een kleine prestatieverbetering, en wel volledig 64 bits (igg daar waar het op aan komt, ik weet niet alles zo uit mijn hoofd) met grote prestatieverbetering.
IA-64 is daarentegen revolutie. Alle software die tot nu toe ontwikkeld is voor x86-32 en 16 moet compleet opnieuw geschreven worden.
Dat IA-64 een revolutie is ben ik wel met je eens (althans, je zou het kunnen vergelijken met China wat kapitalitische trekjes begint te krijgen), maar dat het herschrijven van alle software nodig is, is echt onzin. Een heel hoog percentage van de software (schattingen zijn lastig, maar je kan denken aan meer dan 97%) is geschreven in talen op een hoger niveau dan assembly. De software is hierdoor min of meer (afhankelijk van taal en de programmeur) onafhankelijk van een specifieke processor architectuur zoals IA-64. Het hercompileren met een compiler die IA-64 support is dan al voldoende.

Dit geldt net niet voor 100% van de C en C++ software, waar bij onverstandig gebruik zeker nog wel problemen kunnen zijn bij compilatie naar IA-64. Dat is best vervelend. Het geldt in ieder geval absoluut niet voor software die geschreven is in Java, een van de .NET talen (C#, VB .NET), scripting-talen of geinterpreteerde talen als Perl, PHP, Bash, Python enz enz. Het geldt nog minder voor XSLT 'software' of andere nog hogere niveau of domein-specifieke talen.
In het desktopsegment zal dat bijna niet lukken omdat gebruikers daarvoor niet alleen hun hardware moeten vervangen, maar ook alle software bij het oud vuil kunnen zetten.
Systemen waarbij de software in source vorm wordt geleverd en wordt gecompileerd bij installatie hebben hier een heel interessant voordeel. Het gaat hierbij dus met name om GNU/Linux systemen.
Het is dus een beetje luiheid, onwetendheid en arrogantie. Daarom heeft de meeste software nu weinig aan HTT.
Je hebt gelijk, maar voor een deel is het ook dat de doelgroep van de meeste software geen profijt heeft bij Threaded software omdat de systemen toch slechts een processor bezitten. Nu die voordelen er ook bij die mensen komen door HTT wordt er misschien meer gekeken naar multi-threading.
En dat was waar ik eigenlijk op doelde.
De 0,09 micron Prescott zou Yamhill in uitgeschakelde vorm in zich hebben. Er volgen echter nog twee andere 90nm cores, en één van de twee overstappen zou dus wel eens het inschakelen van Yamhill kunnen betekenen.
Waarom zou Yamhill alleen met een nieuwe core ingeschakeld kunnen worden. Het kan ook gewoon, net als nu met HTT gebeurt met een nieuwe stepping ingevoerd worden? Voor Intel is het misschien alleen leuker om het met een nieuwe core te doen, en er dan gelijk een grote reclamecampagne aan vast te knopen.

Wat me wel opvalt is dat Intel vaak nieuwe technologieen al een tijdje inbakt in cores, voordat ze werkelijk geactiveerd worden. Dit zou mede kunnen verklaren waarom Intel cores altijd groter zijn geweest dan hun AMD tegenhanger. Wel heeft dit als voordeel dat Intel meer tijd heeft om de nieuwe technologie te kunnen testen. Zo kan Intel ineens een "verbeterde" versie uitbrengen, en lopen ze minder risico op een processor met bugjes.
Een nieuwe core is beter voor de verkopen, want iedereen moet natuurlijk de nieuwste cpu hebben. En als de naam hetzelfde blijf, valt het voor de gewone consument niet op dat er iets nieuws in zit, maar als het pentium nummertje er weer eentje omhoog gaat, dat valt natuurlijk wel op.
Of misschien doen ze AMD wel na, de K8 is immers ook niet veel meer dan een opgefokte K7 met wat 64 bit uitbreidingen(simpel gezegt).
Wat me wel opvalt is dat Intel vaak nieuwe technologieen al een tijdje inbakt in cores, voordat ze werkelijk geactiveerd worden. Dit zou mede kunnen verklaren waarom Intel cores altijd groter zijn geweest dan hun AMD tegenhanger. Wel heeft dit als voordeel dat Intel meer tijd heeft om de nieuwe technologie te kunnen testen.
Ik denk dat Intel het meebakken van feature's zonder die te gebruiken doet omdat het dan makkelijker ontwerpen en produceren is.

Want bij het ontwerp rekening houden met feature's voor de toekomst is veel gemakkelijker en uiteindelijk goedkoper dan het naderhand aanpassen van de core.

Dat aanpassen is vaak erg lastig, het hele design moet worden omgegooid en het kan lang duren voordat de verbeterde CPU productierijp is. Die problemen kan je opvangen door het alvast mee te nemen in het ontwerp en dus vaak al meebakken maar nog niet inschakelen.

Dat kost misschien wel onnodig veel transistoren en dus minder CPU's uit een waffer, maar ik denk dat het toch beter is dan het naderhand toe te voegen.

Dat Intel het doet om alvast te testen geloof ik niet. Ten eerste test Intel nieuwe ontwerpen zelf uitvoering in speciale testomgevingen en ten tweede, als de extra's niet ingeschakeld zijn, hoe moeten die dat getest worden door de kopers?
Ik heb een Xeon 2.4 met HTT enabled, ik merk toch wel veel vooruitgang hoor qua verwerking van opdrachten. Ik heb alleen m'n twijfels over dat Yamhill technologie, want dat werd toch pas gebruikt als Intel het een beetje te heet onder de voeten werd ? :?
Intel wil er voor zorgen dat ze de boot niet missen mocht de markt een x86-64 chippie wensen t.o.v. een Itanium. Het missen van een kans is in de chipmarkt echt niet meer in te halen dus is het altijd verstandig om iets achter de hand te hebben.

Iets in een ontwerp alvast hebben, maar niet gebruiken is vele malen goedkoper dan iets niet hebben en dit proberen te implementeren in een oud ontwerp.

Intel wil echter ook niet zijn eigen ramen ingooien door te snel met een x86-64 cpu op de markt te gooien. Mochten deze processoren namelijk te goed worden dan zal men minder tot misschien zelfs geen Itaniums meer verkopen.
Ze kunnen Yamhill nu ook gebruiken als rookgordijn.

Over 2 jaar is het duidelijk of IA64 toekomst heeft of niet, en of dat op de desktop is toe te passen. Dan kunnen ze altijd nog beslissen om Yamhill toe te passen.

Zonder dit rookgordijn zullen er teveel mensen gaan roepen dat Amd veel beter bezig is. Terwijl we over een tijdje misschien wel allemaal Itanium 5's willen.

* 786562 TheGhostInc
dat hij verwacht dat rond 2006 of 2007 desktops niet meer genoeg zullen hebben aan 4GB geheugen
:o :o :o

Waar ligt dat dan aan? Windows of allerlei andere crap die opeens in het OS gesleurd wordt? :?
Gemmiddeld werkt met nu met 256MB dus dat zou 8x zoveel zijn. 8x zoveel geheugen nodig om opeens Office of IE te kunnen gebruiken!
Dat zullen we nog wel eens zien.
Dat zal best wel meevallen. Ongeveer 4 -5jaar geleden zaten de meeste mensen ook met 32Mb tot 64Mb te werken. Dus dan praat je ook over een verschil van 8-4 x. Ik vind dit 8x dan niet zo vreemd. Al klinkt 4Gb wel veel. Maar 256Mb - 512Mb in een werkstation klonk 5 jaar geleden ook als idioot veel

[edit] en weer 8-10 jaar geleden was 4Mb al veel en vergelijk dat maar weer eens met die 32Mb. Ook 8x verschil....... Ik denk dat die 4Gb dan toch zo gek niet is in 2007
Wat kunnen mensen toch een onzin opschrijven.

De nieuwe HTT is inderdaad verbeterd in die zin dat het niet zo vaak meer voorkomt dat de performance slechter wordt.

Maar het is absoluut niet zo dat je niet performance winst krijgt bij single threaded applicaties, zoals hierboven wel beweerd wordt.
Dat is namelijk theoretisch al ONMOGELIJK en het blijkt ook in de praktijk dat het niet zo is.
(Ik snap dan ook niet hoe iemand op dat idee komt)

Single threaded software heeft een performance winst van 0,0 met HyperThreading. (En als je hebt gelezen hoe hyperthreading werkt dan snap je ook onmiddellijk waarom)

Kijk ook maar eens naar de tests van Anandtech met de nieuwe HyperThreading. De spellen leveren allemaal 0,0 performance winst op. Heel simpel omdat spellen (op een enkeling na) single-threaded zijn.
fout, ik meen mij te herinneren dat er ooit in een artikel iets heeft gestaan van een tooltje van intel waarmee je de performance van single threaded apps icm hyperthreading kon verbeteren...De werking;de extra thread deed een soort van prefetching voor de hoofdthread zodat data al eerder in geheugen/cache staat. Deze extra thread kan dus kennelijk prima parallel aan de hoofdthread worden uitgevoerd en levert dus wel degelijk performance winst op.

Ik heb geen idee of dit nu precies is wat ze hardwarematig hebben gedaan, maar het geeft wel aan dat er best scenario's te bedenken zijn waarbij een singlethreaded app voordeel kan hebben in een hyperthreading omgeving.
Achtergrond threads/processen van het besturingssysteem kunnen de performance van een SMT processor voor- of nadelig beïnvloeden. Ook al is een applicatie single-threaded, dan zal het dus nooit de enige thread zijn die het besturingssysteem op dat moment heeft draaien.

Verder is Intel van plan om in de toekomst nieuwe grappen met SMT uit te halen zoals het berekenen van meerdere branches tegelijk zodat de invloed van een branch misprediction kleiner wordt. Applicaties die nu nog single-threaded zijn, zouden met de juiste compiler optimalisaties van HTT kunnen profiteren.
en dat Microsoft Windows daarom een deel van de power-save states niet kan gebruiken op een HT-enabled processo

Ok ,waar komt dit vandaan? wat wordt hiermee precies bedoeld. Het is bekend dat die HT P4 meer stroom verbruiken, maar wat wordt bedoeld met "power state" in XP?
Hier een link naar het draadje op GoT over het al dan niet kunnen enablen van HTT op een P4 Northwood C1 stepping:

http://gathering.tweakers.net/forum/list_messages/646597
leuk detail is het gebruik onder windows. Je heb 2 CPUs voor de prijs van 1 en windows ziet niet dat het een 'HT CPU' is.
Leuk voor de keuze van w2k variant, pro gaat tot 2 CPU's, server tot 4, advanced server tot 8 en daarna heb je datacenter.
Ik zag op een DELL met xeons dat je het uit kon zetten in de BIOS, hopelijk hebben ze dat allemaal want anders zit je al snel aan verplicht w2k Advanced editie (2k server- 10k adv server in euro zijn de prijzen dacht ik) !!
ipv Pro de server editie draaien is ook een duur 'grapje'
op gevallen dat ze van 2005 direct door gaan naar 2007. Bestaat het jaar 2006 niet ofzo? :+
Mooi toekomstperspectief dit.

Ik hoop dat de underdog mee kan komen, al was het alleen maar om geen monopolyst te krijgen in dit segment, dit zou nadeling zijn voor ons maar ook voor Intel zelf.. kijk maar naar microsoft en al haar rechtzaken
intel heeft in de markt van de 64 bits processoren al een redelijke monopolymarkt opgebouwd d8 ik :?
sv3n
intel heeft in de markt van de 64 bits processoren al een redelijke monopolymarkt opgebouwd d8 ik
Nope, dat hebben ze niet! Qua 64 bits cpu's zijn er altijd nog de PowerPC's van IBM en de Alpha's van Compaq HP (ook al gaan ze eruit) en wat te denken van de UltraSPARC III etc. van Sun?

Intel is juist net nieuwkomer op de luceratieve 64 bits markt.
Met name de high end servers maken gebruik van 64 bits cpu's. In deze markt valt veel geld te halen dus vandaar.

In ieder geval is de Power4 de cpu waar iedereen naar opzoek zou moeten gaan: 64 bits en multi-cored. Juist ja, alles wat intel & amd zouden willen hebben heeft IBM al op een werkende processor die gewoon verkocht wordt. :P
Alpha, Mips, UltraSparc, PA-RISC64, ppc64 en POWER.

Niet minder dan zes 64 bits architecturen (en er zijn er nog meer, dit zijn slechts de bekendsten), waarvan sommigen al tien jaar oud.

Hoe heeft Intel -die net is komen kijken met IA64- dan een monopolie op de 64 bits markt?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True