Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 27 reacties
Bron: PC World

Intel zal de komende jaren niet alleen het aantal cores per processor blijven verhogen, maar ook steeds meer extra features in zijn producten gaan integreren om nuttig gebruik te blijven maken van het groeiend aantal beschikbare transistors. In een interview onthulde het bedrijf dat er gewerkt wordt aan een toekomstige versie van I/OAT waarbij een volledige netwerkchip in het cache wordt geïntegreerd. On-die geheugencontrollers en interconnects stonden al op het programma voor de CSI. Daarnaast overweegt het bedrijf zelfs om in de verdere toekomst (de 45nm- of 32nm-generatie) een GPU op te nemen in zijn processors. Eerder werden ook al zaken als encryptie en het (de)coderen van multimedia genoemd als punten die geschikt zijn voor toegewijde hardware. Al met al houdt het "multi-core" paradigma dus niet alleen in dat dezelfde functies een aantal keer gedupliceerd zullen worden, maar ook dat de processor steeds veelzijdiger wordt.

Intel multicores

Op de kortere termijn lijkt Intel zich toch wel zorgen te maken over het feit dat AMD een voorsprong heeft op het gebied van dual-core serverprocessors. Pat Gelsinger, hoofd van de Digital Enterprise Group, moest toegeven dat de nieuwe dual-core Opterons er voor veel klanten aantrekkelijk zullen zien, iets waar de populariteit van de Xeon onder kan lijden. De komende tijd wil het bedrijf zich dan ook actiever gaan bezighouden met de eindgebruikers, zodat deze hun vertrouwen in de roadmap niet verliezen. Analisten verwachten dat het aantal overstappers beperkt zal blijven zolang de klanten nog tevreden zijn met Intel.

Lees meer over

Gerelateerde content

Alle gerelateerde content (24)
Moderatie-faq Wijzig weergave

Reacties (27)

Lijkt me niet meteen de meest efficiënte aanpak. Als je bijvoorbeeld meer berekeningen wil doen ben je niks met de geïntegreerde andere componenten. Heb je een grafische kaart dan zal je het GPU gedeelte niet gebruiken.

Het lijkt me beter om de cores te verkleinen om er zo veel meer op de chip te krijgen en het parallelisme sterk te verhogen. Er passen bijna 50 Pentiums (eerste generatie) op een 90 nm die. Intel heeft gewoonweg bijzonder veel transistors gestoken in het verlengen van de pijplijn, om de kloksnelheid te kunnen verhogen, en daaruit volgde de nood aan geavanceerde sprongvoorspelling, registerhernoeming, trace cache, etc.

De IPC is steeds achteruit gegaan. Maar met 50 cores op 800MHz haal je een 10 keer hogere verwerkingssnelheid dan een Pentium 4 op 4 GHz!
De IPC is steeds achteruit gegaan. Maar met 50 cores op 800MHz haal je een 10 keer hogere verwerkingssnelheid dan een Pentium 4 op 4 GHz!
Theoretisch misschien wel, maar in real-life haal je dat dus NOOIT. Zoveel parallellisme is er gewoon niet in de code die gedraaid wordt, en dat is ook niet een kwestie van "even iets hercompileren" of een programma herschrijven.... veel dingen zijn gewoon inherent sequientieel!

En wat dacht je dat die pipelines van de P4 doen.... its all about small scale parallelism baby :*)
Inderdaad, volledig ga je die nooit benutten. Maar je kan ook onmogelijk alle pijplijnen van de Pentium 4 even veel benutten! Dus als je van die 10x misschien 5x effectief kan benutten in een veeleisend programma is dat nog steeds super!

Er mag niet onderschat worden hoeveel er parallel kan gebeuren. Alles onder de noemer multimedia bevat lange lussen die met weinig moeite parallel gemaakt kunnen worden. De (valse) opinie dat programmas niet veel parallelisme bevatten komt omdat we zo lang met één processorcore werkten. De meeste programmeurs kennen niks anders en zowat alle algoritmes gaan ervan uit. Er zal een hele reeks nieuwe mogelijkheden ontdekt worden met multi-core, en ook Intel ziet het dus zo.

Small scale parallelism werkt niet (of toch niet verder dan het niveau waar we nu zitten). Een Pentium 4 haalt met veel moeite een IPC van 1.5, nochthans zijn er 6 pijplijnen of zo. Er zit veel meer parallelism in elk programma, maar die haal je er niet uit met zulke hardware. Het is aan de programmeur om van in het begin voor meerdere cores te programmeren.

Ik verwacht de komende jaren een grote ommezwaai in de manier waarop geprogrammeerd zal worden. In plaats van louter sequentieel te werken, zullen programmas opgebouwd worden uit logische eenheden die elk op zichzelf werken. Een beetje zoals hardware ontwikkelen dus. Een combinatie van sequentieel en parallel gedrag, proceduraal en declaratief programmeren..
De (valse) opinie dat programmas niet veel parallelisme bevatten komt omdat we zo lang met één processorcore werkten
Ik denk dat je hier een onderscheid moet maken tussen de huidige consumer/business markt en research en high end computing.
Transputers en parallel processing is natuurlijk bijna zo oud als de ENNIAC. Koop een Hyperdome en je kunt los.

Het verhaal hier gaat over het doorgroeiscenario voor de mainstream processoren. Aan de ene kant is het overstappen naar een nieuwe technologie steeds duurder (de huidige 90nm technologie heeft veel later de yields geleverd dan verwacht) aan de andere kant loopt processorontwikkeling parallel aan OS ontwikkeling.

Echt parallelisme kunnen ontwikkelen vraagt ook nogal wat van het OS (is iets anders dan het huidige multicore of multiprocessing). Hier zul je als developper weer zelf moeten kunnen bepalen waar iets in het geheugen komt te hangen zodat de verschillende processen niet op elkaar staan te wachten bij memory access.

Overigens ben ik wel met je eens dat veel developpers hier op dit moment niet veel kaas van hebben gegeten.
We zien de trent van frameworks om het leven van de developers gemakkelijker te maken. Als je kijkt naar de meest gebruikte toepassingen op dit moment dan zal paralellisme niet zo heel veel toevoegen voor de consumenten (wllicht dat dit gaat veranderen). De belangrijkste gebruikte zaken als networking, Multimedia encryptie inbakken lijkt dus best een verstandige strategie. Weinig kosten; snelle terugverdientijd; markt wegsnoepen bij grafische, netwerk en andere chipbakkers....
De IPC is steeds achteruit gegaan.
Is dat zo?
De IPC van de originele Pentium was echt niet zo hoog.
De originele Pentium had twee pijplijnen. Eén die alle instructies aankon, en één die de simpelere instructies aankon. Het was praktisch altijd mogelijk om de hotspots te optimalizeren zodat de twee pijplijnen volledig benut werden.

Bij 'moderne' processors is dat niet meer haalbaar. Cache misses, foute sprongvoorspellingen enzovoort halen de IPC sterk naar beneden. Maar het kan moeilijk anders voor deze gecompliceerde zeer snel geklokte architecturen.

Volgens mij moet er dus een stap terug gezet worden, om die transistors nuttiger te gebruiken. 50 oude Pentiums kunnen samen veel meer data verwerken. }:O
50 oude Pentiums kunnen samen veel meer data verwerken.
Suns is bezig met dat concept. We zullen zien wat het oplevert.
Er passen bijna 50 Pentiums (eerste generatie) op een 90 nm die.
Er past 1 transistor op een die van 90nm.

Beetje zinloze opmerking die je nu maakt, want je zegt niet hoe groot de die is.
Wat jij zegt heet RISC, je hebt eigenlijk ook wel gelijk, maar Microsoft Intel AMD IBM, noem het zooitje maar op, zweren bij x86. Die eerste pentium was zo'n beetje al zijn transistoren kwijt aan vertaling van code, had bijna geen cache, en had een vreselijk trage geheugenbus (gemeten naar hedendaagse standaarden) je kan 50 P1's nauwelijks nog in zetten en huidige prakteiken, denk ook aan optimizations, die er nog niet opzaten.
Dus je wilt richting de techniek van de centrino. Deze brengt intel al naar de desktop toch?
Waarom zou je een netwerk chip op je CPU willen hebben, als alle mobo's dit al standaard aanbieden.

Het lijkt mij verstandiger om die rekenkracht ergens anders voor te gebruiken imho |:(
Waar intel volgens het plaatje naar toe wil is het maken van SoC's (System on Chip). Voordeel daarvan is dat het produceren van computers hiermee veel goedkoper kan.
De huidige mobo's hebben vaak een ethernet chip erbij geplakt omdat dat tegenwoordig voor bijna elke computer een noodzakelijk iets is. Maar het plaatsen van die chip kost de mobo bouwer geld. Naast de kosten van de chip is er ook printplaat nodig om de ethernet chip op te bevestigen en een pick and place machine op de chip te plaatsen.
Als je een processor hebt met ingebouwde memory controller en south bridge en GPU en ethernet wordt het maken van een mobo veel eenvoudiger en dus goedkoper. Hierdoor kan intel meer geld voor zijn processor vragen dan de som van de losse chips die nu gebruikt worden. En de productie kosten zijn lager door dat ze maar 1 chip hoeven te produceren. Kortom, een hogere marge voor intel.
Dit verheldert overigens wel de nadruk die intel de laatste tijd legt op hun platformen. Immers met een SoC ben je verplicht het hele platform bij hun af te nemen en ze proberen blijkbaar de markt daar nu al aan te laten wennen.
als dit invloed kan uitoefenen op bv ftp transfers nou maar wat graag. het vreemde is onder linux kan ik zonder problemen 20 threads opentrekken en heb ik qua cpu er niets onder te lijden echter onder windows 5 threads op een athlon 2400 en je processor komet niet meer onder de 90%. geen idee hoezo.
verder met bv ingebouwde encryptie en ingebouwde netwerk kaart chip zou het misschien wel eens mogelijk zijn om nog betere encrypties of effecientere encrypties los te laten op wat je verstuurd dus het kan wel eens interessant zijn.
tevens hoe meer op 1 chip hoe goedkper het geheel wordt wat ook leuk is en tevens hoe effecienter de stroomverdeling kan worden
Waarom zou je een netwerk chip op je CPU willen hebben, als alle mobo's dit al standaard aanbieden.
Om ongeveer dezelfde reden als dat AMD de memory controller van de northbridge naar de CPU verplaatste: meer performance.

Zeker voor servers lijkt me dit belangrijk. Maar in de toekomst kan het voor desktops ook belangrijk worden als er veel met video over het netwerk wordt gedaan.
Heel simpel volgens mij: Alles wat in de cpu zit en niet in de chipset verschuift wat omzet betreft richting Intel. Want op chipset-niveau is er veel meer concurrentie dan bij de CPUs. Als Intel de netwerkaansluiting, de geheugencontroller, misschien wat USB2 poorten, SATA en PCI-Express bridges inbouwt valt er door de concurrenten niet veel meer te vragen voor hun chipset.
En als laatste nieuwe toevoeging aan intels "system on chip" is de DRM mogelijkheid, hardwarematig onmogelijk om omheen te komen, je kan er simpelweg niet meer bij.

// Nee, nog niet aangekondigt, maar hoe lang zal dat na de GPU en Audio voorzieningen nog duren ?
Is daar iets mis mee? De handel in digitale data is sterk verstoord door de mogelijkheid om bijna kostenloos te kopiëren.

Ik zie ook andere mogelijkheden als DRM hardwarematig ondersteund wordt, zoals het betalen per keer dat je een DVD of MP3 gebruikt. Bij een bioskoop mag je toch ook niet telkens terugkomen als je één keer betaald hebt? En ik heb ook geen zin om even veel te betalen voor een liedje als je er maar één keer naar luistert.

Uiteindelijk komt het de consument ten goede, want zo kan de prijs van één consumptie dalen en wordt iedereen hetzelfde aangerekend.
Is daar iets mis mee?
Ja. Ik wil niet de kans lopen dat ik niet bij mijn audio, data of video kan omdat DRM faalt, het bedrijf waar ik de licenties gekocht heb falliet gaat of mij niet meer lief vind.
offtopic:
@c0d1f1ed:
Jij bent zeker ook voor het rekening rijden?

Ik vindt het niet normaal als op alles wat je koopt (en dus jouw bezit wordt) er weer een bedrag betaald moet worden als je er gebruik van maakt.
Dus elke keer een spel spelen = betalen (+aanschaf), elke keer tv kijken = betalen (+aanschaf v/d tv, kijk&luistergeld). Dat gaat ongelofelijk veel geld kosten.
Als iemand hier intrapt hebben we over 10 jaar een economie waar schoenen aandoen al geld kost, ookal heb je ze in de winkel gekocht!
Nee, dit is niet overdreven!
Misschien werkt die(ingebouwde) GPU wel als buffer als je al een videokaart hebt ,ik had begrepen dat een GPU veeel
sneller is dan de huidige CPU,s(floating point berekeningen) wie weet komt er iets uit Intels trukendoos :Y)
een GPU veeel sneller is dan de huidige CPU
Maar veel minder flexibel. Zoveel minder dat je het met recht een debiel broertje van een CPU kunt noemen.
Waarop baseer jij die uitspraak? Zullen wij een wedden dat een FP berekening HONDERDEN keren sneller voltooid is op een CPU dan op een GPU....

GPU's zijn van zichzelf niet bepaalt multipurpose, al Ati in de toekomst daar wel aan gaan werken. GPU's zijn ook niet meteen vector processors, ze zijn gewoon anders, ze hebben een stuk of 4/8/16 GIGANTISCH lange pipelines, eigenlijk zijn ze alleen maar goed op 2D beeld te maken, en dat doen ze dan ook, maar er zijn ook wat andere toepassingen die over de GPU sneller verlopen, maar dan moet je wel geluk hebben.
Eindelijk, het toevoegen van specifieke cores zit ik al een tijd op te wachten. Zeker voor het en/de-coderen van films is er steeds meer rekenkracht nodig, terwijl dit vele malen sneller gedaan kan worden als er van specifieke cores gebruik gemaakt wordt.

HDTV is al erg sterk aan het opkomen in Amerika en HD-DVD zal volgend jaar toch ook goed op de plank liggen.

Voor decoderen heb je nou niet zo heel veel rekenkracht nodig, maar encoderen, vooral in real-time vraagt erg veel van de processor. MPEG-4 encoder chips zijn nogal erg duur, dus als dit geïntegreerd wordt in een CPU dan zijn de kosten bijna niks.

Microsoft vraagt al minimaal een moderne 3Ghz CPU om WMHD bestanden in hoogste resolutie af te spelen, laat staan wat er nodig is om dat real-time te encoderen.

@c0d1f1ed, de GPU bedrijven lopen achter wat betreft ontwikkeling. Ze hadden al lang deze markt kunnen betreden, echter ze zijn te afwachtend. En wat betreft je doelstelling dat het niet echt nodig is, dat zal snel teniet gedaan worden als de gemiddelde gebruiker doorheeft wat de voordelen van DVR zijn. Bijna alle moderne videokaarten hebben TV-out, het zal niet lang duren voordat TV-in ook standaard is. Tuurlijk zou het beter zijn als dan de MPEG-4 encodering door de GPU gedaan wordt, maar ik zie dit sneller gebeuren door de CPU.
Is het dan niet interessanter om daarvoor een videokaart te gebruiken? De Geforce Series 6 ondersteunt trouwens al een paar encoderingsbewerkingen als ik me niet vergis. En de volgende generatie zal de mogelijkheden zeker uitbreiden.

Waarom dit inbouwen in elke CPU terwijl maar een fractie van de mensen zouden encoderen? De CPU is bedoeld als flexibele verwerkingseenheid waar je elk soort code kan op uitvoeren.

Waar ik wel een toekomst in zie is het verhogen van het parallelisme door een groot aantal minder gecompliceerde cores samen te voegen. Elk rekenintensief programma kan daar dan goed gebruik van maken.
DIt gaat waarschijnlijk goed verkopen want de consument houd ervan als er veel functies op zitten en ze vinden het nog beter als ze niet snappen wat de functies doen door alles in afkortingen te schijven.
waarbij een volledige netwerkchip in het cache wordt geïntegreerd.
Moet dit niet gewoon on-die zijn? Cache heeft er niet zoveel mee te maken.
Wat Intel wilt, lijkt dat niet verdacht veel op wat de Cell processor moet kunnen gaan doen? Cell is ontwikkeld met de gedachte dat die veel verschillende taken moet kunnen doen en ook nog meerdere cores. Kan ook goed zijn dat ik het fout heb, maar is er iemand die dit misschien kan bevestigen/ontkrachten?
Want als dat zo is dan zou Cell misschien wel een heel mooi toekomst in zicht kunnen hebben, naast het feit dat het in allerlei electronica wordt gestopt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True