Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Bron: News.com

Intels hoofd techniek Justin Rattner heeft vandaag tegenover een publiek van analisten een demonstratie gegeven van een systeem met daarin twee quadcore Clovertown-processors. Hoewel er tot nu toe nog maar vier van deze processors gemaakt zijn en de marktintroductie volgens de roadmap nog wel een jaar op zich laat wachten, is het een belangrijke mijlpaal vanuit het perspectief van de marketingafdeling. Naast het kracht bijzetten van de eerdere uitspraken over de 'multi-core future', geeft het ook meer vertrouwen in de nieuwe generatie architectuur waar het bedrijf bijna alles op in heeft gezet. De Clovertown bestaat onder de kap uit twee gekoppelde Woodcrest-chips, die op hun beurt weer grotendeels identiek zijn aan de volgende generatie notebook- (Merom) en desktop- (Conroe) processors.

Het is het zuinige ontwerp van de nieuwe generatie die quadcore mede mogelijk maakt: de zwaarste versie van Woodcrest (een dualcoreprocessor) draait volgens gelekte roadmaps op 3,0GHz en krijgt een TDP van 80 watt. Een verdubbeling daarvan levert dus 160 watt op, net iets minder dan de Xeon MP Paxville op dit moment verstookt. Het is niet waarschijnlijk dat Intel Clovertown net zo heet wil laten worden als de beruchte Netburst-chips, en ook door de beperkte bandbreedte - een probleem waar een processor met vier cores per definitie meer last van heeft dan één met twee cores - neemt de behoefte aan kloksnelheid af. Afgaande op de geruchten over de mobiele versie van de architectuur zou men een 2,33GHz quadcore al voor 70 watt kunnen maken, en dat zou wellicht zelfs een betere prestatie/watt verhouding opleveren. In de loop van het jaar, terwijl de quadcore wordt voorbereid op massaproductie, zal Intel zich uiteraard ook nog moeten buigen over deze afwegingen.

Tijdens zijn presentatie vertelde Rattner onder andere dat een 'grote financiële instelling' al op experimentele basis met Woodcrest-servers werkt. Het is niet ongebruikelijk dat klanten voor de introductie van een nieuw product worden voorzien van samples, maar Intel beseft dat de nieuwe architectuur ontzettend belangrijk voor ze is en wil er alles aan doen om te laten merken dat deze in goede conditie is. Het tonen van een experimentele quadcore vers uit de fabriek lijkt dan ook vooral een imagoboost op te moeten leveren, want de plannen voor quadcore- en zelfs octacore-processors waren al langer bekend. Intel gaat zijn nieuwe architectuur begin maart tijdens IDF officieel van een naam voorzien.

Intel multicores

Lees meer over

Gerelateerde content

Alle gerelateerde content (27)
Moderatie-faq Wijzig weergave

Reacties (71)

Ik neem aan dat niet iedereen meteen over zal stappen op Windows Vista als die OS uitkomt, dus nu zit ik dan meteen met het volgende vraagstuk:

Is het niet zo dat WinXP alleen maar ondersteuning tot maximaal 2 cores biedt? Als dat zo is heb je niets aan quad cores in WinXP, tenzij M$ met een soort van Quad core update aan komt rollen.
Je moet niet vergeten dat 'cores' iets anders in dan 'processors'. Je XP licentie staat je toe om maximaal 2 processors te gebruiken. Multi-core maakt daarbij niet uit. Zie voor meer info http://www.microsoft.com/...highlights/multicore.mspx.
Quad cores met Windows XP is inderdaad niet mogelijk, dat is namelijk iets wat je in servers ziet. Tegen de tijd dat dat echt een consumentenconfiguratie wordt, dan kan Vista dat ook.

Want als je ziet dat Windows 2000 en 2003 het weer wel kunnen dan ligt het niet aan een gebrek aan technologie bij Microsoft.
Weet iemand zogauw op XP Pro x64 ondersteuning biedt voor meer dan 2 cores? Deze is namelijk opgebouwd rondom Windows server 2003?
*zoekt zelf ook meteen ff op*
Site van M$:
• Windows Server 2003 Datacenter x64 Edition supports up to 64 processors.
• Windows Server 2003 Enterprise x64 Edition supports up to 8 processors.
• Windows Server 2003 Standard x64 Edition supports up to 4 processors.
• Windows XP Professional x64 Edition supports up to 2 processors.
Ik heb screenshots gezien van Windows (wellicht server editie) waar 8 van die kleine cpu grafiekjes in te zien waren en volgens mij ook al eens van meer (dan worden de grafiekjes heel smal) dus het is zeer goed mogelijk. En ik denk niet dat bedrijven een quad core systeem aanschaffen om er WinXP Home op te installeren }:O

Die ondersteuning is er dus wel.
The Ghz Race is Dood
The Core Race is begonnen !!!!
Hoeveel cores heb jij :Y)
Eerder :

Hoeveel TFlops heb jij?.......
AMD heeft iniedergeval gezegt nog zeker hard door de werken aan single core preformance. gewoon omdat ze denken dat de consument daar nogsteeds behoeft aan zal hebben.
en daar kan ik ze geen ongelijk in geven.
je kan zo veel cores hebben als je wilt, als ze niet snel zijn schieten de meeste van de huidige programas nog voor geen meter op.

ook zal zeker op de korte termijn de hoeveelheid cores bepaald worden door het productie process.
2 cores bij 90nm 4 cores bij 60nm, 8 a 16 bij 45n, ect.
hier zal waarschijnlijk zowel intel als AMD zich aan houden.
Ik denk dat we meer gespecialiseerde cores gaan zien, zoals je bij de Cell-architectuur ziet. Dat is voor veel toepassingen namelijk extreem voordelig. Een desktop draaien, een browsertje, een emailprogramma en een tekstverwerker, dat kun je welhaast niet sneller/beter maken.

Het verwerken van videobeelden (ik spreek uit ervaring) kan echter nog vele malen complexer dan dat er nu realtime mogelijk is. De meeste algoritmen moeten nog steeds offline uitgevoerd worden; jammer, want veel beeldbewerkingstoepassingen zijn alleen nuttig als ze online werken. Ik voorzie daar een sterke verbetering de komende 5 jaar...
Maar het verwerken van videobeelden is een nogal specialistische toepassing. Ik denk dat dat voorlopig nog in het gebied van de Matrox-kaarten en soortgenoten zal blijven. Net als dat we voorlopig nog wel 3d accelerator-kaarten zullen houden. Maar misschien dat er ooit een tijd komt dat 3d-acceleratie en CPU weer tot elkaar komen.
Een belangrijke vraag die zeker bij deze presentatie gezet dient te worden is of de geshowde quad core-processors werkelijk quad core zijn, of dat het twee dual core-processors in één verpakking betreft.

Aan de ene kant lijkt het logisch dat het twee 'aan mekaar geplakte' dual cores zijn, aangezien deze quad core 'Clovertown' processors gepland staan rond dezelfde tijd als de dual core 'Woodcrest' processors uit dezelfde lijn.

Aan de andere kant kan het natuurlijk ook zo zijn dat Intel het al in de ontwerpfase bijzonder makkelijk heeft gemaakt om meerdere cores te integreren zonder daarbij te moeten terugvallen op twee eenheden in één verpakking.

Het simpelweg aan mekaar plakken is natuurlijk de slechtere oplossing van de twee. Als Intel echter in staat is om op zulke korte termijn een 'echt' quad core-ontwerp productieklaar te krijgen zonder 'aan mekaar plakken', is dat wel een zeer positieve indicatie voor de voorspelde multicore toekomst.
Als Intel heeft gedaan wat jij zegt dan zijn ze wel erg stom bezig! Dat zou namelijk hetzelfde geintje zijn wat ze destijds ook bij de eerste Dual core CPU's hebben gedaan met als gevolg dat ze later konden toegeven dat dat ontwerp 'gehaast' was gemaakt!

Die fout kunnen ze zich, imho, echt niet nog eens veroorloven! Vooral niet daar AMD zeker niet stil zit!
Quote artikel:
De Clovertown bestaat onder de kap uit twee gekoppelde Woodcrest-chips, die op hun beurt weer grotendeels identiek zijn aan de volgende generatie notebook- (Merom) en desktop- (Conroe) processors.
Ik ben nog steeds van mening dat Intel altijd nog het een en ander achter de hand heeft, maar altijd wacht totdat de markt hier een behoefte aan schijnt te hebben (de markt wil wel snellere CPU's, maar heeft ze in feite eigenlijk niet nodig; wie gebruikt zijn CPU nu volledig??). Deze behoefte is er pas, als AMD weer een nieuw product uitbrengt. Op deze manier blijft Intel lekker meelopen en hebben ze maximale inkomsten van de huidige producten, terwijl AMD hun eigen stukje marktaandeel mag houden. Dat stuk dat AMD heeft, kan Intel er simpelweg niet bij gebruiken, omdat je anders weer aan alle kanten van monopolie-positie beschuldigd wordt. Intel heeft niet zo'n hekel aan AMD, maar speelt er gewoon een spelletje mee waar ze zelf beter van worden.
...als je het mij vraagt.
dat er nou geen behoefte is aan snellere CPU's is boelpoep. nou is de CPU behoefte voor internet en dergelijke al lang voldaan.
maar als je kijkt naar games dan kan de CPU niet snel genoeg zijn. tegenwoordig zijn vaak de CPU's de bottleneck van het systeem. als je SLI hebt is zelf een zware AMD het allemaal nog te veel.
voor HDTV content. dat kan tegenwoordig wel maar nog niet gemakkelijk. voor HD content moet je tog echt minimaal 3GHz of AMD 3000+ die kant op. en dan werkt het wel maar net zo goed als een simpel filmpje op een P3 600Mhz. het kan maar wat extra vermogen kan geen kwaad.

en op technish gebied betekend stil staan, achteruit gaan. dus CPU's hebben zeker meer vermogen nodig

(op verkeerde persoon gereageerd sorry!)
Je kunt ook stellen dat de grafische kaarten nog niet snel genoeg zijn en de CPU nog niet genoeg ontlasten.
Vergis je niet, AMD zou ook zomaar met een revolutionair idee kunnen komen, ontwerpen en ontwikkelen, goed markteten en Intel 'van de kaart vegen' ;) Amd zou dus een soort van addertje onder het gras kunnen worden voor Intel, daarom proberen ze nog steeds om AMD uit de markt te drukken.
haha.. het klopt meteen..
AMD maakt een zet, en gelijk er na maakt intel een zet...

mooi spel :z


het spreekt mij eigenlijk wel aan.. zo'n quad-core.. :)

iemand toevallig enig idee of AMD ook zoiets heeft als hyperthreading?? zo niet, dan is dat het punt dat AMD nog goed kan verbeteren...


nu nog ff kijke waar AMD mee terug slaat...


k vraag me wel af wat voor een score die CPU's zouden halen... zal zeker niet slecht zijn... :Y)
ach het klinkt allemaal wel leuk hoor, maar op dit moment is de consumentensoftware niet eens geoptimaliseerd voor dualcore cpu's.
Dit zijn dus mooie technologische stappen die de mensheid wel nodig heeft, maar we hebben er (behoudens de servers met databases die zware queries draaien en 3d ontwikkel omgevingen) vooralsnog geen klap aan.

de score waar je het over hebt zal niets meer dan synthetische benchmark zijn en absoluut niet reflecteren op werkelijke prestaties in de huidige gebruikersomgeving
Ik ben heel blij met meer cores. Hoe meer hoe beter. Mijn systeem doet enorm veel op de achtergrond, en dat zal in de toekomst steeds meer worden, ook bij gewone consumenten.

Het heeft al voordelen als dat je muis niet meer schokkerig gaat als de CPU te hard bezig is.

En, software wordt snel wel multithreaded. Ik bedoel, toen de 486dx er kwam, was er ook weinig software die de floating point unit gebruikt. Nu wel.
Een muis die schokkerig gaat als je CPU zwaar bezig is heeft te maken met een slecht geschreven muis-driver.

Ik heb dat mijn m'n eigen muis ook ervaren. Als ik de standaard windows drivers gebruik heb ik nergens last van. Laad ik echter de muis-driver zodat ik knoppen van het toetsenbord aan muisknoppen kan assignen, dan gaat ie schokkerig bij 100% cpu.

Je zou natuurlijk nog kunnen kijken om de prioriteit van de driver te verhogen, maar als het zo brak geschreven is dan doe ik dat liever niet, en daarom heb ik die driver weer verwijderd.
Let wel dat de post waar je op reageert het heeft over consumenten toepassing. Hier op tweakers zitten denk ik toch voornamelijk mensen die net iets meer met hun pc doen dan de gemiddelde pc-gebruiker.
Ik denk ook dat de 'gewone' gebruiker vooralsnog weinig profijt zal hebben van 2 of 4 of nog meer cores.

Kijk bijvoorbeeld naar notebooks, de huidige notebooks draaien 90% van de tijd op een lagere snelheid omdat het gewoon niet nodig is om de volledige processorkracht te gebruiken. Meerdere cores is dus ook niet echt nuttig (voorlopig)
@mjtdevries
Dat is bij jou in windows zo dan blijkbaar, maar ik gebruik geen windows, en mijn muis doet het ook in Linux.

Maar, nog dommer is de industrie om toetsenbord en muis op USB te zetten. De speciale toetsenbord en muisport hebben bijna het hoogste IRQ, dus gaan voor alles. Als je het op USB zet, heeft de harde schijf nog meer prioriteit dan de muis... De HD zou een hele lage prioriteit moeten hebben, wat in het oorspronklijke XT model ook zo was. Ik zou liever een opvolger voor PS/2 hebben voor de muis, die een hogere update-rate heeft.
ach het klinkt allemaal wel leuk hoor, maar op dit moment is de consumentensoftware niet eens geoptimaliseerd voor dualcore cpu's.
Dit zijn dan ook Xeon MP's, dus chips voor dikke servers. Verder is het zo dat als een applicatie eenmaal aan multithreading doet ("geoptimaliseerd is voor dualcore", zo je wil) dat hij dan in heel veel gevallen net zo makkelijk gebruik kan maken van quadcore of hoger.
Hyperthreading is nogal een punt van verhitte discussie, omdat het vaak alleen maar de prestaties verprutst. Het is te nep. Vraag maar eens in het dutch power cows forums naar mensen met hyperthreading die hun client maar op maximaal 50% kunnen laten draaien. Ze moeten dus twee clients draaien om dezelfde prestatie te krijgen als een zelfde CPU zonder HT.

De zelfde problemen heb je met multithreaded raytracers.

Ik hoop dat AMD het nooit gaat doen.
Dit heeft te maken met de interpretatie van Windows: na inschakeling van Hyperthreading "ziet" Windows opeens 2 CPU's, die opgeteld 100% CPU-tijd vertegenwoordigen. Wanneer je een proces opstart dat 100% CPU-tijd van 1 CPU inneemt (bv. DC-client), dan geeft Windows dit weer als 50% omdat die immers 2 CPU's ziet, maar stiekum heb je gewoon maar 1 CPU die op dat moment 100% bezig is. ;)

De discussie die geregeld op het DPC-forum gevoerd wordt, gaat over het feit of het draaien van 2 DC-clients i.c.m. Hyperthreading een performance-verbetering geeft.
Het antwoord daarop is: NEE (bij gebruik van 2 dezelfde clients)!
Hyperthreading geeft alleen performance-verbetering wanneer 2 threads verschillende delen van de CPU gebruikt, bv. de ene thread is bezig met FPU-instructies en de andere met IO-instructies. Op het moment dat 2 threads hetzelfde deel van de CPU gebruikt (gebruikelijk wanneer 2 dezelfde type clients actief zijn) creeer je een overhead door het swappen van threads, resources van de ene thread moeten plaats maken voor de andere thread. Dit geeft een performance-verslechtering t.o.v. non-Hyperthreading!

Dus Hyperthreading is gewoon een sigaar uit eigen doos! :(
Op het moment dat 2 threads hetzelfde deel van de CPU gebruikt (gebruikelijk wanneer 2 dezelfde type clients actief zijn) creeer je een overhead door het swappen van threads, resources van de ene thread moeten plaats maken voor de andere thread.
Swappen van threads is helemaal geen overhead. Een meer wetenschappelijke naam voor HyperThreading is simultaneous multihreading (SMT). De threads gaan dus perfect tegelijkertijd toegang zoeken tot de resources. Worst case gaat elke thread aan 50% draaien (maar dus nog steeds 100% voor de ganse chip). Best case 2 x 100% maar dat kan maar zeer kortstondig door andere bottlenecks. In ieder geval niks dan goeds.

Het creëert enkel een probleem voor de cache. Die zal namelijk in het slechtste geval maar de helft van de data voor elke thread kunnen opslaan, wat een verhoging van de cache-misses met zich meebrengt. Een cache-miss kan vele honderden clockcycli duren door de latentie van het hoofdgeheugen (bij Intel zeer slecht). Twee geheugenintensieve threads zullen dus op een CPU met SMT samen niet optimaal lopen.

Anderzijds is ook de optimistische scheduler als een schuldige aangeduid, die te veel berekeningen start die niet geldig zijn, ten koste van de andere thread.

Maar voor AMD zou SMT nog een behoorlijke winst kunnen betekenen. Zij hebben een pak meer verwerkingseenheden, lagere latentie naar het hoofdgeheugen, en accurate scheduler...
Och, 30% performance winst bij het draaien van Exchange noem ik geen sigaar uit eigen doos.

Maar zaligmakend is hyperthreading inderdaad niet. Met name dus als je threads hebt die steeds precies dezelfde instructies gebruiken.
en ruim 200% lagere SQL prestaties wel dan?
Hmm de meeste linux pakketten die wij zelf hebben gebenchmarked met real live situaties die aan de hand van logs zijn nagebootst mochten we toch opmaken dat services als apache er wel degelijk baat bij hebben als hyperthreading aan staat.
Dat het onder windows amper iets oplevert of zelfs verslechtering met zich meebrengt moet denk ik eerder gezien worden als een slechte implementatie in windows of in de pakketten die erop draaien.
@Darkprince1234

SQL prestaties ???

Oracle ?
SQL Server ?
DB2 ?
MySQL ?
Postgres ?

Oftwel wat bedoel je ?
Volgens mij is dat normaal hoor :?

Klanten van mij met Hyperthreading op hun dual processor Terminal Servers zien bij crappy applicaties de utilization op 25% staan, maar in feite is dat dus 25*4 (2 processoren met HT) dus 100%

Correct me if i'm wrong..
hyperthreading had intel nodig om de netburst pipeline vol te houden, daar heeft AMD weinig tot niks aan.

verder had AMD al plannen klaar liggen voor quad cores (maar dan vooral voor servers, voor de thuis maarkt hebben ze nog niet veel nut volgens AMD, en daar hebben ze helemaal gelijk in als je het mij vraagt).
zodra ze over zijn op 65nm zal ook AMD ze maken (voor die tijd zijn ze te duur omdat ze te groot zijn).
voordeel is dat AMD wel over genoeg geheugen bandbreedte zal beschikken om al die cores te voeden : dual channel ddr2-800 per socket, wat dus ongeveer 4 keer zoveel bandbreedte heeft als de 754 socket CPU's, wat heel mooi uit komt als je ook 4 keer meer cores hebt.

waarschijnlijk zal intel met deze nieuwe Woodcrest's wel wat op AMD gaan inlopen op dual core gebied (voornamelijk vanwegen de minder bandbreedte verspillende argitectuur in vergelijking met netburst), maar de FSB ook dan nogsteeds niet genoeg bandbreedte geven om er 4 voldoende te voeden.
Voor de Xeon komt er 1333MHz FSB, die in theorie 10,6GB/s levert. Er wordt toegewerkt naar een dedicated FSB per socket. Als AMD bij DDR2-667 blijft komen ze op exact hetzelfde uit, en een sprong naar DDR2-800 (die lang niet zeker plaats gaat vinden voor het moment dat de eerste quadcores verschijnen) levert in theorie hoogstens 20% winst op (in de praktijk is dat natuurlijk veel minder). Zoveel verschil in bandbreedte is er dus niet.
voor de dual cores heb je gelijk
maar voor de quad cores heeft intel weer het zelfde gedaan als bij de eerste pentium D's. gewoon 2 keer de oude core aan elkaar geplakt.
dat betekend dus dat er niet 1 arbitrator unit is voor alle 4 de cores maar dat er 2 zijn per 2 cores.
dat betekend dat ze dus een 3 punts FSB nodig hebben.
en dat betekend eigenlijk altijd dat die FSB nooit zo'n hoge frequentie gaat halen als de normale 2 punts FSB-en
waarschijnlijk word het dus (met een beetje geluk voor intel) een 1066mhz FSB wat dus 'maar' zo'n 8.5GB/s opleverd.
een vrij groot verschil met de 12.8GB/s van AMD.
en dit geld alleen voor single socket systemen.
bij dual socket krijgt AMD 2 keer 12.8GB/s en intel krijgt 'maar' 2x10.8GB/s aan FSB bandbreedte (dubbel uitgevoerde FSB) maar hoeveel geheugen bandbreedte ze nou echt hebben hangt af van het gebruikt geheugen, willen ze die 21.6GB/s halen zal er waarschijnlijk best dure type geheugen moeten komen aangerukt.
voor 4 sockets word het verhaal voor intel nog ungunstiger.
dan moeten ze zelfs met een dubbel uitgevoerde FSB nogsteeds met een 5 punts FSB werken als je overal quad cores in stoped.
als zo'n FSB de 800MHZ haald mag intel heel tevreden zijn denk ik.
dat betekend dus dat er niet 1 arbitrator unit is voor alle 4 de cores maar dat er 2 zijn per 2 cores.
Ik daag je uit om dat hard te maken met een link. De 65nm Xeon DP bestaat uit twee aparte dies maar heeft toch maar één belastingspunt op de FSB. Ik zie geen enkele reden waarom Intel een jaar later weer terug zou stappen op een minder goed systeem.
willen ze die 21.6GB/s halen zal er waarschijnlijk best dure type geheugen moeten komen aangerukt.
En voor AMD-servers is het geheugen gratis ofzo :?. Ze zullen een gelijk aantal kanalen nodig hebben om dezelfde bandbreedte te halen. FB-DIMM maakt het erg goedkoop aan de kant van het moederbord om meerdere kanalen aan te leggen, en acht kanalen is wel het minimum wat je voor zo'n chipset kunt verwachten (dat wordt nu namelijk ook al voor DDR2 ondersteund).
oor 4 sockets word het verhaal voor intel nog ungunstiger. dan moeten ze zelfs met een dubbel uitgevoerde FSB nogsteeds.
Vier sockets is straks ook vier bussen.
4 bussen hebben ze nog nergens genoemt voorloopig zitten ze vast aan 2.

AMD kan gewoon bufferd/registerd DDR2 geheugen gebruiken en hoeft geen relatief duure FD-dimms te pakken

en ze stappen niet terug, ze maken gewoon meer van hetzelfde.
de huidige dual cores met zijn 2-en op 1 CPU.
maar dat betekend dus wel 2 arbitrator units.
HyperThreading van AMD?

Was dat niet HyperTransport?

/edit
Die CPU's zullen nu nog niet zo'n grote vooruitgang scoren in benchmarks, aangezien er (voor zover ik weet) nog geen/amper benchmarks zijn die quadcore CPU's volledig ondersteunen en gebruiken..
Elk goed geschreven stuk software wordt happy meerdere CPU's. Ook in de windows wereld maak je mensen die met Maya of After Effects werken behoorlijk blij als ze 8 render threats simultaan kunnen draaien :)

In de meeste gevallen hoor je dan ook niemand meer zeuren om een stel 19" render node's :)
Then again: [save as: http://www.projectoffset....t_august2005_852x480p.wmv]
als ze 8 render threats simultaan kunnen draaien
Mensen die blij worden van acht bedreigingen tegelijk? :)
Intel maakt de processor echt niet voor benchmarks. Daarnaast zijn er wel database omgevingen (en er op gebaseerde benchmarks) die in staat zijn véél threads te maken, en dus alle 2x4 cores te gebruiken.

Voor je desktopje heb je voorlopig aan zoveel cores nog erg weinig, maar, veel software wordt langzaam multithreaded, en als je dan ook nog eens multitask-ed worden 4 cores helemaal niet meer zo idioot.
iemand toevallig enig idee of AMD ook zoiets heeft als hyperthreading??
Nee, AMD heeft juist geen Hyperthreading omdat al vrij snel duidelijk werd dat Hyperthreading eerder performance kost dan oplevert. Daarom zie je bijvoorbeeld grote oracle servers met 4 XEON's die vaak Hyperthreading uit hebben staan.

In principe was HT de voorloper van de multi-cores, alleen kreeg je toen een 'virtuele' CPU uit software matige optimalisaties binnen de CPU, wat uiteindelijk slecht bleek te werken. AMD heeft het nooit virtueel gedaan, misschien met de gedachte dat er maar 1 manier was om zoiets goed te doen, en dat is met een extra core.
Nee, Arjan, Intel deed het omdat hun architectuur zo crappy was dat een te groot deel van de pipeline uit z'n neus zat te vreten... dat moest hyperthreading oplossen. Hyperthreading is de pleister op de wond die Netburst heet.

AMD heeft nooit last gehad van dat hele probleem en had dus ook geen hyperthreading nodig.
Een vorm van HyperThreading (SMT) wordt ook toegepast door de IBM Power5-serie, waar het de snelheid tot 35% heeft verbeterd. Ook was het een van de belangrijkste verbeteringen die gepland stond voor de Alpha EV8. Dat het voor één specifieke processor niet altijd winst oplevert is geen reden om meteen het hele idee erachter af te schrijven. Dat een deel van de pipeline uit zijn neus staat te vreten is namelijk voor alle processors een probleem, met name met een ingewikkelde instructieset als x86 is het gewoon praktisch onmogelijk om alle functionele eenheden continu bezig te houden met instructies uit één thread.
Ik heb onder linux goede ervaringen met hyperthreading...
probeer eerst maar eens je dual core volledig te benutten als thuisgebruiker ;)
wordt ook echt tijd voor nieuwe zetten, in 4 jaar tijd hebben ze beide de kloksnelheid maar 50% omhoog kunnen schroeven
ik vind het leuk en aardig dat ze zoveel cores bij mekaar gaan stampen... maar wat zullen de gevolgen zijn voor het energiegebruik?
ik vind het leuk en aardig dat ze zoveel cores bij mekaar gaan stampen... maar wat zullen de gevolgen zijn voor het energiegebruik?
Dat is precies waar het hier om gaat, de race om de kloksnelheid is (nu) doodgelopen, daar het in verhouding teveel energie (dus ook warmte) kostte voor een kleine winst. De speling zit nu in het aantal cores en uiteraard probeert men die zo energiezuinig te maken, aangezien dat nu (en in de toekomst) een steeds belangrijkere factor wordt.
ik vind het leuk en aardig dat ze zoveel cores bij mekaar gaan stampen... maar wat zullen de gevolgen zijn voor het energiegebruik?
Het feit wil dat de energie consumptie meer dan lineair stijgt als de clock omhoog gaat. M.a.w een schaling van 1Ghz naar 2Ghz kost -meer- dan een factor 2 aan energie bij gebruikmaking van voorderest dezelfde technieken.

Dus, in plaats van 1 CPU op 2Ghz, kun je voor veel minder energie er 2 op 1.5Ghz laten laten, of 4 op 1.2Ghz, of 8 op 1.0Ghz, etc etc. (getallen zijn compleet fictief en alleen ter illustratie van het idee).

Mede afhankelijk van de software zit er ergens een sweet-spot tussen performance en energie verbruik. Voor sommige software zal 200x0.1Ghz veel beter zijn dan 1x2Ghz (bv neurale netwerken) terwijl andere software het alleen maar op de 1x2ghz zal doen (de meeste games).

In bijna alle gevallen geldt echter dat als de uitkomst van de aantal x clock som gelijk is, dat dan de som met het laagste aantal de grootste performance heeft.

Bv, 1x2Ghz is bijna altijd sneller dan 2x1Ghz, zelfs voor enorm parallized software. De truuk zit hem echter in het feit dat je door de aantallen te verhogen, bij gelijkblijvende energie opname, een grotere totale some kan krijgen. Tegenover 1x2Ghz zet je dus niet 2x1Ghz kwa enerie, maar 2x1.5Ghz. De totale som is in het laatste geval 3 en nu hangt het van de software af wat er sneller is.
over 5 jaar heb je gewoon 1 core per applicatie :Y)

Maar voordat wij er echt profijt van hebben, moeten de applicaties eerst multi-threaded worden, en dat zijn ze helaas nog maar weinig
1 core per applicatie <-> moeten de applicaties eerst multithreaded worden
= nogal tegenstrijdig dtech

Ik hoop oprecht dat het maken van multithreaded apps géén doel op zich gaat worden. Het is namelijk zo'n venijnige bron van bugs. Threads moeten echt alleen daar waar nodig/nuttig toegepast worden: encoding, image editing, etc. Dat is nog geen 5% van waar ik m'n comp voor gebruik.
Ik krijg al langere tijd het gevoel dat Intel het warm en lastig begint te krijgen.

Als ze nu al aandacht moeten zoeken met demo's van produkten die nog minstens een jaar op zich laten wachten...
Hum, ze hadden het zeker anders bedoeld. Zo van kijk eens, dit komt pas over een jaar op de markt maar we kunnen het nu al demonstreren.
AMD doet hetzelfde. Hun quad core stond voor kwartaal 2/3 van dit jaar geplanned maar hebben dit ook opgeschoven naar 2007.

De markt heeft altijd behoefte aan sneller want tijd is geld. Ik ben zelf sinds kort naar een 20mbit/2mbit overgstapt, van een 8mbit lijntje en het scheelt mij tijdwinst. Daardoor verricht ik meer werk in een korter tijdsbestek dus mijn produktiviteit gaat omhoog. Voor die paar euro meer in de maand is dat dus een goeie investering lijkt me.

Vergelijk het met de F-1. Alles draait daar om snelheid. Zo ook met pc's en werk. De snelste word kampioen, simple as that. Ik zie al dat een hoofdkantoor van een onderneming met 3000 man terug moet gaan naar het
P-2 tijdperk, denk dat zo een onderneming grof geld verliest.

Maar het totaal plaatje word steeds mooier : Sneller internetten, snellere cpu's/gpu's, snellere harde schijven en controllers. Tijd is geld, dus het moet, zoalng het kan, sneller, om meer produktiviteit te behalen. Niks mis mee toch ? En dat de game industrie daar wel bij vaart is voor hun mooi meegenomen. Zo ook voor de spelers, het word er alleen maar leuker op ;)
waarom ontwikkelen ze niet gewoon een systeem die core's uit kan schakelen oid als die niet word gebruikt ?
scheelt veel stroom li jkt me
de Core Duo kan dat ook |:(
Lijkt me niet. Intel haalde de verwachte omzetgroei niet, vanwege AMD, en de koers zakte in. Ik kan je vertellen dat de aandeelhouders dat niet leuk vinden, laat staan als bedrijfsstrategie ondersteunen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True