Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Bron: TG Daily

Intel wil in de komende vier jaar het aantal cores per processor naar 32 opschroeven, meldt TG Daily. Het bedrijf denkt op die manier het prestatieniveau van de huidige generatie Xeons met een factor vijftien te kunnen verhogen. De desktopgebruiker zal waarschijnlijk weinig plezier aan deze ontwikkeling beleven: de chipgigant zou met dergelijke 'many-cores' namelijk niet zozeer AMD's Opteron, als wel Suns UltraSparc T1 te lijf willen gaan. De Niagara-architectuur van de T1 is vooral geschikt voor toepassingen waarbij veel taken parallel kunnen worden uitgevoerd, zoals webservers. Op dit terrein legt Intel het momenteel af tegen de Sun-chips, en pas vanaf 2009 of 2010 zou Intel de Niagara-architectuur met multicorechips als de Gulftown afdoende partij kunnen bieden.

Niagara Falls De Niagara, een op 90nm gebakken serverchip die vorig jaar zijn debuut maakte, kan met zijn acht cores 32 threads tegelijk verwerken. Al in 2007 wordt een opvolger verwacht die met een snelheid van minimaal 1,4GHz en 65nm-technologie de prestaties van deze Niagara-chip zou verdubbelen. Vanaf 2008 zou de Niagara in multiprocessorsystemen opduiken: Suns Supernova-server zou met acht zogeheten 'Boulder'-chips 256 threads per machine aankunnen. In 2009 zou de zogeheten Niagara III op de markt komen, die met zestien op 45nm geproduceerde cores, een kloksnelheid van wellicht 2GHz en een capaciteit van 128 threads per chip, tot zes keer sneller dan de T1 zou zijn.

Deze prestatiecurve is door Intel als uitgangspunt genomen voor de groei die het bedrijf zelf met zijn x86-machines wil behalen. Een simpele verhoging van het aantal cores is niet genoeg om de strijd aan te gaan, wat volgens geruchten de reden voor Intel is om in 2008 met een nieuwe architectuur te komen. Deze architectuur zou moeten uitmonden in een chip als de Gulftown, een 32nm-chip met 32 cores die, net als de Niagara III, 128 threads simultaan aankan. De verwerkingssnelheid van deze chip moet verder worden opgekrikt met 4MB L2- en 24MB lastlevel-cache. Opmerkelijk is dat Intel de strijd toch weer vooral op het kloksnelheid-front aan zou willen gaan: waar de Niagara III maximaal op 2GHz zou kunnen draaien, is dat voor de Gulftown de snelheid van het instapmodelletje, zo willen de verhalen.

TG Daily vergelijkt groei Sun Niagara met Intel Woodcrest-opvolgers
TG Daily vergelijkt groei Sun Niagara met Intel Woodcrest-opvolgers

Lees meer over

Gerelateerde content

Alle gerelateerde content (24)
Moderatie-faq Wijzig weergave

Reacties (60)

@ z-dragon, het gaat hier om server chips, die hebben wel veel baat bij multi cores!
Dat ze beginnen met serverchips betekent niet dat de desktop totaal achterblijft.
Jeetje wat voor een bloated Windows heb je dan nodig om dit allemaal te gebruiken :)
Windows 2003 Datacentrum Edition op je thuis PCtje :P

Mag je een paar duizend euro dokken voor je OS alleen al.
Kan de andere hardware dit al aan :?

Hoeveel bandbreedte naar het geheugen heeft deze 'processor' dan nodig.
Hoeveel data kan hij verwerken t.o.v. de databus en HDD's.

Voorlopig nog een mooi voornemen, maar ik denk niet dat Intel dit gaat halen. Als ze willen overstappen naar een nieuwe archtectuur, zal een groot deel veranderd moeten worden. Wie weet hoeveel hier fout bij kan gaan met de bijbehorende uitstel.
@SPee
ik denk dat het geheugen het probleem niet gaat worden , eerder de hdd's ze zijn nog te langzaam, offtopic , hopelijk heb je tegen die tijd snelflash geheugen of iets anders leuks , bijv hvd's :Y) 1.2 tb per stuk. Maar ik kan niet in de toekomst kijken

hhmm,, hoe snelworden dan wel niet de supercomputer .., ik denk dat ze een stuk kleiner kunnen in 2010, de meest supercomputers hebben maar 1 core per proc, de grootste super computer heeft: 131072 proc's }> dat is een IBM blue-gen, als in 2010 elke proc 32 cores heeft betekent dat een supercomputer veel kleiner word of veel sneller
Ik denk zomaar dat de supercompu's niet kleiner worden. we hebben bijzonder weinig aan kleinere supercomputers. wel aan snellere. er moet altijd meer, en sneller berekend kunnen worden.
Zelfs bij supercomputers zal er "een" budget zijn. Als je 32 cores op 1 processor plakt, dan zal dat veel meer gaan kosten dan een single of quad core proc. Dan kun je wel voor hetzelfde volume aan nodes gaan kopen, maar als het niet betaald kan worden lukt dat niet. Anders hadden ze wel simpelweg nog een loodsje servers neergezet voor een "superder" computer.
De Niagara, een op 90nm gebakken serverchip die vorig jaar zijn debuut maakte, kan met zijn acht cores 32 threads tegelijk verwerken.
Hoe komen ze op het idee dat 8 cores 32 threads tegelijk kunnen verwerken? Tenzij er 4 processoren in die machine zitten kan ik me niet voorstellen hoe ze daar op komen.
Dit kan omdat de processor na elke instructie schakelt tussen threads. Het mag inefficient lijken, maar de meeste instructies wachten op data uit de cache of uit het geheugen. Zodoende heb je in feite continu 3 wachtende threads en 1 die een instructie uitvoert.

Het mooie hiervan is dat deze chip zelfs geen branch-prediction nodig heeft, aangezien het uitrekenen van de 'condition' korter duurt dan de tijd die de andere 3 instructies van de overige threads in beslag nemen, voor hij weer terug is bij de 'condition'.

Zo kom je dus weg met kortere pipelines, eenvoudigere circuits en 4 threads die werkelijk tegelijk worden uitgevoerd.
Allemaal heel innovatief van Intel... ;)
alleen moeten de programmeurs er wel aan meewerken! Dual core heeft op dit moment ook nog maar beperkt succes door gebrek aan software die er gebruik van maakt.
Daar gaat het in dit geval niet om denk ik. Het gaat hier gewoon om een x aantal aanvragen tegelijk te kunnen behandelen, die hoeven niet van 1 programma te komen. Zie het als een MP3 coderen, een film coderen, een virusscan doen etc etc. Daar hebben de huidige dual cores ook al gewoon baat bij.

Waar jij het over hebt is waarschijnlijk een ENKEL programma dat multi-threaded gemaakt is en daardoor (dat ene programma dus) sneller kan werken. En inderdaad, dat gaat lang duren voordat dat echt los gaat barsten :) Sowieso is een 256-threaded programma bijna niet te schrijven lijkt me ;) Das nogal ingewikkeld.
Een 256-threaded programma is niet moeilijker dan een 2 threaded hoor :P.

Webservers kunnen hier veel baat bij hebben, juist omdat die vaak een thread per connectie maken (en dan kan je er dus 256 tegelijk, ipv een voor een)
Dat zijn gewoon losse programma's. ik zou een voorbeeld zoeken in de server hoek, waar men nog wel eens 500 threads per seconden te verwerken heeft. Dan is het handiger als er 32 reken units achter zitten dan 2.
Voor 500 threads kun je prima uit de voeten met 8 single core cpu' s. Ja ok op intel architectuur met windows zal het zoals eerder genoemd spannend worden. Echter een sun bak valt in slaap bij zo 'n load.

De vraag is meer hoeveel cpu kracht elke thread vraagt, gezien de kracht die een enkele core tegenwoordig heeft, zal intel denk ik ook iets in petto hebben om het geheugenbandbreedte mee te schalen.
Voor 500 threads kun je prima uit de voeten met 8 single core cpu's
Hoe kun je dat nou zeggen als je niet weet welke software erop gaat draaien :?
Omdat de load op cpu' s in serveromgevingen vaak zwaar overhyped wordt door eindgebruikers.

Op 4-way of 8 way servers (meestal databases en webservers) kun je zonder problemen 2000+ gebruikers hebben en met goede config en optimalisaties veel meer dan 20.000 concurrent gebruikers.
20000x seti draaien gaat dus niet op zo' n systeem

Intel kan dan wel 32-core cpu uitbrengen, maar ik vraag me af of het de juiste weg is om zo snel op te schalen in aantal cores. Er zal toch wel iets ingrijpens moeten veranderen m.b.t. geheugenbandbreedte/controllers om 1 zo' n 32-core cpu bezig te kunnen houden.
Maar je weet nog steeds niet wßt die gebruikers dan allemaal gaan doen. Gaan ze lopen dataminen, dan heb je die dikke performance wel nodig. Is het een ADS of NDS servertje, ja dan heb je gelijk.

Bovendien heb je altijd veel meer performance nodig dan je in werkelijkheid verbruikt. Wat veel mensen nml niet begrijpen is dat die snelle CPU's beter en beter in staat zijn om piekbelastingen op te vangen.
@_Thanatos_:

Als een klein aantal gebruikers van de grote groep gaat lopen dataminen/complete databases doorzoeken is ook geen enkel probleem. Soms wordt I/O naar storage het probleem als er echt gruwelijk veel gebruikers op 1 systeem/database zitten, maar dan nog is cpu/memory eigenlijk maar zelden de bottleneck.

Zeer drukke database-servers (2000+ concurrent gebruikers) hebben meestal een cpu load van rond de 30%-40% met 4-8 vorige generatie cpu' s en 16 tot 32 gig aan memory tijdens piektijden. Ik zou niet weten waarvoor er meer cpu kracht in zou moeten.


Er zijn natuurlijk toepassingen zat waar je de echte monsters naar binnen voor moet schuiven, echter relatief kleine doosjes kunnen tegenwoordig zoveel verstouwen dat de grote bakken simpel weg steeds minder vaak nodig zullen zijn. Laat staan een 32-core cpu!! Hoewel deze misschien voor bijv. onderzoeksinstellingen juist wel weer interessant kan zijn, omdat deze instellingen nog wel is de eigenschap hebben om te vragen om ongelimiteerde cpu-kracht.
En dan nog steeds een OS draaien die eigenlijk nog taskswapping doet en prioriteiten aan processen kan toekennen :?

En hoe zit dat dan met support door Microsoft wan die ondersteund op de thuisversies niet meer dan 2 processoren....
we hebben t hier over 2010, dan is MS echt niet zo belangrijk meer hoor ;)
De grootste tegenwerker van multi-core en multi-processoren is nog altijd Microsoft. Zelfs in Vista wordt hier nog niet voor de volle 100% gebruik van gemaakt, zoals bij andere systemen al heel lang het geval is.

Maar voor iemand die altijd enorm heftige taken uitvoerd op zijn OS X of Linux systeempje is dit natuurlijk prachtig. Men moet alleen de HD-snelheid enorm opvoeren, want die snelheden komen niet meer overeen met de rest van het systeem.
Zou je mij alsjeblieft kunnen uitleggen wat je bedoelt?
Hij bedoelt dat de snelheid cq bandbreedte en access tijden van harde schijven veeeele malen lager ligt dan de snelheid van de processor(s), aangezien de processor nu al vele malen sneller is dan harde schijven.
Ik wilde eigenlijk vragen wat *nix voor multithreading/multitasking features heeft die Windows niet heeft.
Maar toch bedankt ;)
Ik wilde eigenlijk vragen wat *nix voor multithreading/multitasking features heeft die Windows niet heeft.

Om te beginnen standaard ondersteuning voor meer dan 2 cpu's, waar Vista dit niet ondersteunt. Ik dacht dat Longhorn server 4 cpu's kan aansturen, hoeveel dit bij een standaard 2.6 Linux kernel is weet ik ook niet precies maar ik volgens mij 32...

Verder is de scheduling van de Linux kernel op 100 verschillende manieren te tweaken voor het soort taken dat je er op draait. Pre-emptive multitasking/preemtible kernel/verschillende schedulers met verschillende voor en nadelen/low latency vs high bandwidth optimalisatie.

En (in ieder geval vergeleken met XP), veel minder processen die in ring-0 (kernel mode) draaien. Wat de process scheduling ook weer een stuk eenvoudiger maakt en de kans op deadlocks of een instortende performance verkleint.
weet niet waar jij je info vandaan haalt, maar er zijn zelfs al versies van windows server 2003 die met 64 cpu's overweg kan ;)
Dat is de Intel way, 32 cores en een versnelling van 15X. Daar wordt je niet echt vrolijk van. Hun kennende zit er per cpu ook 4 of tegen die tijd 16mb cache per core op.
Waarom zou 32 cores ipv de 2/4/8 die er nu op zitten meer dan 15x sneller moeten zijn? Waar wil je dat uit op maken, hoe zou jij dat willen doen, want dan wil Intel jou wel hebben!
AMD haalt met de huidige dual core een verschil in kracht van 95%. Een dual core is dus 195% van de kracht van een single core. Dat is met de huidige techniek.

Intel wil met 32 cores 15X zo snel zijn dan de huidige generatie. Dat is een score die onder de 50% licht.
Het wordt 3mb cache per node, er zijn 8 nodes die bestaan uit 4 cores. Lijkt mij vrij weinig voor een intel zonder memory-controller (4 cores met 3mb cache? Core 2 heeft nu al 2mb per core nodig), maargoed... misschien zitten we dan wel in superddr5 ofzo.
Straks heb je 2x 32 cores :Y) , zou leuk kunnen zijn voor games, maar ja als ze nou software/hardware ontwikkelen waardoor de pc het ziet als 1 core(voor oudere games), en niuewe games het standaard inbouwen, ik dacht dat Unreal 3.0 engine 4 cores ondersteunt (correct me if i'am wrong) . Nu lopen de meeste pc op 32 bit's staks heb je 32 cores }>
Video Editing is heerlijk voor zo'n core.. 64 frame zouden inprincipe tegelijk ververwerkt kunnen worden..
Maar dat werkt niet als het volgende te coderen frame afhankelijk is van het huidige frame. Of is er een trucje dat dit toch kan :?
Tuurlijk... je gaat niet ieder frame op een andere thread doen, maar gewoon bv van keyframe tot keyframe. Zo is alles onafhankelijk.
Video editing software als Sony Vegas maakt al dankbaar gebruik van multicore op een dergelijke manier.
Meestal worden dat soort streams gecodeerd in blokken. Elk blok kan dan bijvoorbeeld 2 seconden duren. Na 2 seconden wordt er dan een zogenaamd 'master frame' verstuurd, de frames die daarna komen zijn slechts incredimenteel die alleen de veranderingen vermelden t.o.v. het vorige frame.

Soms zie je wel eens in een film dat je even paars of beeld vol artifacs hebt staan. Dan worden er eigenlijk te weinig master-frames verzonden voor een goede weergave.

Als de individuele cores even snel zijn als 1 single, kan het encoderen van een film daadwerkelijk resp. 32 of 64 keer zo snel zijn t.o.v. een single core. Maarja, tegen welke prijs ;) .
voor elk blaadje en grasprietje een eigen core :?
zijn wel erg weinig gras sprietjes niet?
Daar is AMD al mee bezig. T.net noemt het "omgekeerde Hyper Threading" ;)
Hmm.... als deze 'schets' van Intel uitkomt gaan we toch wel in een relatief zeer korte tijd van single-core naar 32-core. Dit gaat toch enorme prestatiewinsten opleveren, er zullen weer roerige tijden aanbreken in de PC-wereld. Maar het lijkt me enorm cool om hierop stuff te gaan renderen :7
Ja ja, en in 2005 zouden hun proc op 5GHz draaien :Y)
Iedereen kan de wildste voorspellingen doen voor over een jaar of 4 a 5. En dan gewoon over 3 jaar weer bijstellen met realistischer planningen..
En wat dacht je van dingen realtime renderen? Ik wil een Wii3 gebaseerd op 32 cores! :9~
Kan ik concluderen uit dit bericht dat de MHz run eindelijk is afgelopen ? Wie heeft er gewonnen :) ?
die hele MHz run is natuurlijk allang afgelopen. AMD heeft dat ingezet met de XPxxxx+ als performance rating en Intel is overgestapt op nog gekkere cijfers die geen bal met performance te maken hebben (tuurlijk, hoger getal = hogere verwerkingssnelheid, maar voor de rest valt er geen soep van te koken natuurlijk).

Als mijn vader nu de computerwinkel in loopt en te horen krijgt over een P4 930D met DDR2 Dual Channel en S-ATA2 dan begint hij al te flippen :P Die hele nummering wordt er echt niet duidelijker op.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True