Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: C|Net News.com

Op C|Net News.com kunnen we lezen dat Intel bezig is te onderzoeken hoe ze het beste meerdere CPU's op een chip kunnen onderbrengen. Een van de mogelijkheden, core-hopping, houdt in dat instructiestromen afwisselend op beide CPU's worden uitgevoerd. Hierdoor worden de afzonderlijke CPU's minder warm en kan de kloksnelheid omhoog worden geschroefd. Ook wordt er onderzocht of het niet mogelijk is om bepaalde taken van de CPU die veel voorkomen door coprocessors die zich op de chip bevinden uit te laten voeren. Denk hier bijvoorbeeld aan TCP/IP, encryptie of decoding taken.

Naast Intel werken ook andere microprocessorfabrikanten, zoals IBM en Sun, aan CPU architecturen waarin meerdere cores te vinden zijn. Van deze fabrikanten is het IBM die het verst gevorderd is. De Power4 CPU bestaat uit twee identieke CPU cores die samen het L2 cache delen en is momenteel al verkrijgbaar.

IBM Power4 memory bandwidth architectuur

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (55)

Mooie ontwikkeling.

In plaats van 1 processor die op 4 GHz draait, kunnen we nu een processor hebben die op 2x 2 GHz draait. Dan hebben we een proc die écht kan multitasken, en écht twee taken tegelijk kan uitvoeren.

Ook klopt dat de warmte beter kan worden afgeleid: 1 core op 4 GHz is kleiner dan 2 cores op elk 2 GHz, en de 4 GHz core wordt nog warmer ook. Misschien wel warmer dan de 2 afzonderlijke cores bij elkaar. Door de grotere oppervlakte van de dual-core cpu is er ook een beter contact met het koelblok.

Ik vind dit een hele goede ontwikkeling. Bedenk je eens: iedereen kan zeggen dat hij een dual-proc computer heeft! :P (Al zij het dan dat dingen zoals de L2 cache nog gedeeld worden, terwijl bij een "echte" dual-proc pc natuurlijk elke proc zijn eigen cache heeft.)
Goede ontwikkeling! Processors van tegenwoordig worden alleen maar kleiner, wat betekend dat naar verhouding de warmte productie steeds meer toeneemt ( want zeg nou zelf.. een blokje van 8mm bij 8mm wat 80 watt aan hitte produceert is toch niet meer normaal te koelen! ) Misschien idd met meerdere chips verspreid kan de warmte beter verdeeld worden waardoor hogere clocksnelheden mogelijk zijn !
meer cores betekent ook meer moeite met synchronisatie; hoe complexer een chip, hoe meer moeite je moet doen om het kloksnelheid hoog te krijgen.

Daarnaast is het toch niet voor de thuisgebruiker bedoelt, multicore = semi multi cpu = alleen multi threaded app's kunnen sneller.

offtopic:
ik erger nog steeds aan de warmte productie van mijn XP1700+ hier; tis in dit kamer echt 4-5 graden warmer met ramen + deur open tov van de gang; moet niet denken aan een 4x80W multicore chip :o
Een van de mogelijkheden, core-hopping, houdt in dat instructiestromen afwisselend op beide CPU's worden uitgevoerd. Hierdoor worden de afzonderlijke CPU's minder warm en kan de kloksnelheid omhoog worden geschroefd.
ALLE programma's zullen hier snelheidsvoordeel mee halen omdat ze niet gelijktijdig rekenen maar om de beurt, de gecombineerde snelheid zal dus hoger zijn dan een enkele CPU, ik betwijfel juist of deze processor wel voor SMP te gebruiken is.
Zoals ik het lees worden ze gewoon om beurten gebruikt. Met andere woorden je benut telkens maar 50% van de CPU totaal ook 100% zoals een single CPU systeem dus.
Komt hier wel bij dat je tijd kwijt bent met het verdelen van die taken. Veel zal het niet zijn, maar theoretisch zou deze dus trager zijn!
En nu komt de snelheidswinst pas: aangezien ze koeler blijven kan de frequentie omhoog.
Beetje hetzelfde principe als een instabiele oc'ed cpu, zolang je de cpu niet stressed (veel verspilde klokcycles) zal hij niet crashen, maar ga je naar 0 idle time dan loopt ie vast door hitteontwikkeling.
Taakverdeling kan in principe parallel worden verricht door een daarvoor toegewijd stukje hardware. Synchronisatie is iets lastiger. Daar waar taakverdeling zou op de achtergrond kunnen worden verricht door analyse van een stuk (statische) machinecode, zal synchronisatie (L1 cache doordrukken naar L2, registers, flags etc) afhankelijk zijn van het gedrag tijdens executie (runtime probleem). Echter door de instructiestromen een beetje slim te knippen, kan deze overhead volgens mij minimaal zijn. Het artikel doet ook overkomen alsof lange instructiestromen worden toegewezen; hoe langer de stroom, des te kleiner de relatieve overhead.

Ik vraag mij echter nog steeds een beetje af hoeveel de frequentie nu kan worden opgeschroefd, aangezien we toch nog over een redelijk klein oppervlak warmte moeten afvoeren tegen een verdubbelde CPU...
tsss warmte ontwikkeling van xp1700?

jij hebt zeker geen thunderbird gehad!
Het zou wel een hele dure oplossing worden. Wat ik uit het verhaal van core hopping opmaak is dat de procs nooit in parallel worden gebruikt. Alle snelheids winst die je dan haalt moet dan uit het opschroeven van de kloksnelheid komen, maar omdat die lang niet alleen beperkt word door de temp van de core valt daar b.v. geen 100% winst te halen, terwijl dat theoretisch wel zo is als je twee procs in parallel laat lopen. M.a.w. als je core hopping gaat doen om de temp van de proc omlaag te krijgen zodat je de clock omhoog kan gooien (waardoor de temp ook weer omhoog gaat) kun je denk ik beter naar andere oplossingen gaan zoeken. Core hopping puur om de temp omlaag te krijgen lijkt me wel zinvol.

edit:
Er zijn overigens hardnekkige geruchten dat AMD aan een dual core Hammer werkt.
Wat ik uit het verhaal van core hopping opmaak is dat de procs nooit in parallel worden gebruikt.
Lees deze post nog maar eens door, dan begrijp het je misschien beter. De cores werken wel parallel. Het core-hopping wordt gedaan om ervoor te zorgen dat de ene core niet heter wordt dan de andere.
Mja, idd.

Maar in dat geval is de verwachting dat de core minder heet zou worden m.i. een beetje uit de lucht gegrepen omdat alle cores in principe tegelijkertijd volledig belast kunnen worden. Vergelijk het met een SMP opstelling, als er maar een paar niet te veeleisende threads zijn die netjes over de 2 procs worden verdeelt zullen die procs koeler blijven dan wanneer één proc het in z'n eentje moet oplossen. Maar als er een paar hele zware threads bijkomen en beide procs volledig worden belast worden ze net zo warm als in een single opstelling. En aangezien je een proc toch op zo'n worst case scenario moet voorbereiden/designen zie ik niet in hoe je voordeel wilt halen uit de wetenschap dat de procs SOMS koeler blijven dan normaal.
Klinkt prima allemaal, alleen het idee om hiermee de kloksnelheid omhoog te kunnen brengen lijkt me niet zo aantrekkelijk. Misschien is het om de gemiddelde peecee-consument :r tevreden te stellen die alleen maar meer en meer GHz'en wil, want twee parallel lopende procs op hetzelfde chipje die op een mindere snelheid lopen werken vast een stuk sneller dan twee die afwisselend één enkel taakje doen. Misschien verkopen de chipmakers liever toch twee afzonderlijke boxed units dan één die hetzelfde doet maar dan sneller door de kortere lijnen, mogelijk snellere interne bus etc..

Geef mij dus maar een 4WD AMD Quad :9~
Kan er niet veel beter geinvesteerd worden in een betere bus die het aan kaarten toestaat dat deze zelf een proc met busmastering aan boord hebben?
Zoals nu met bv PCI en de daarop evt aawezige SCSI controller enuh diverse intel/3com netwerk kaarten bv :)
Dat is veel belangrijker, metname omdat netwerken bv nogal vaak de aangesloten hardware kunnen killen ivb met de lange kabels ed.
Ik denk hierbij vooral aan workstations@kantoren ed.
Als dan je dure $900 CPU gaar is dan weet ik nu al dat iedere admin met een beetje verstand er alsnog een $60 netwerk kaartje inprikt (just in case).
Dit geheel doet me denken aan de 486/pentium tijd, toen de co-processor voor rekenwerk die eerst apart zat bij de 486 geintegreerd werd in de chip zelf.
Zo worden er specialistischecores bijgezet in een proc zelf. Dan zouden bijvoorbeeld thuis procs multimedia decoders kunnen krijgen om maar een zijstraat te noemen. Server procs zouden de TCP/IP core kunnen krijgen.
De chips zullen wel een stuk groter en ingewikkelder worden door al die cores, en dus duurder en met meer warmte ontwikkeling...
Naast Intel werken ook andere microprocessorfabrikanten, zoals IBM en Sun, aan CPU architecturen waarin meerdere cores te vinden zijn.
Mis ik hier de naam AMD niet?
Lees het stukje ff ;)

Meanwhile, vacant space on the memory controller inside Advanced Micro Devices' Hammer chip indicates the chip could be transformed into a dual-core processor, said Kevin Krewell, an analyst at Microprocessor Report, an industry newsletter.
no flame maar ik las gistern ergens dat er iemand was die AMD maar achter de feiten aan vond lopen en ze technologien kopieerden van anderen
Hoezo is dat een flame? Alle Japanse electronica merken hebben in de jaren 80 en 90 niets anders gedaan dan Europese en Amerikaanse technologie gecopieeerd. Maar deze ook meteen verbetert en daar lag hun kracht. Misschien is het goedkoper om een technologie te kopen ipv allemaal geld in R&D te steken.
Zeer voorgelicht persoon was dat;
3dnow
SlotA, SocketA
x86-64
Enough said...
Exact

natuurlijk moet AMD naar anderen kijken, voornamelijk grote concurent Intel omdat ze compatibel moeten blijven met wat Intel uitbrengt.

echter, ze zijn van nature meer dan inovatief genoeg, en het zal me dan ook weinig verbazen als in de toekomst technologie van AMD wil licenseren voor gebruik in hun eigen CPU's.
ik denk dat ze het voorbeeld van de nieuwe Playstation3 processors gaan volgen...
Onzin, dat ding zou cpu kracht sharen over het netwerk, iets totaal anders, en imo ook totaal worthless, Sony zou zich beter concentreren op de echte core business ipv die fancy prulletjes, daarmee bedoel ik dus een ps3 die alleen maar games afspeelt via een soort van enhanched cd, ipv brol te integreren zouden ze er dan ook metteen 128 of misschien wel 256MB in moeten steken ipv 32 bij de PS2 |:( ,dan lopen zeiken van "only 5% of the graphics processing power is being used" en dat met geweldige 256*256 texturetjes trilinear op zn best en in het extreem een cube mapje, conclusie is dat voordat Sony begint te zweven over mass bandwith connecties en daarover cpu kracht sharen ze eerst maar eens een blokje mem erbij plakken wat tonnen goedkoper is ipv dual core chips en hun droomplannen, en miljoenen stuks of niet, 256MB ddr kost nix meer.
Sony wil impressive zijn met een vette cpu/gpu die na 3jaar een dollarke of 5 meer kost om te produceren, de papierspecjes verduisteren wel dat ze er 200% te weinig ram isteken, zo is het nu bij PS2.
Sony is ook goed in het verkopen van gebakken lucht... hoe noemen ze de cpu in de PS2 ook alweer? The emotion engine ofzo, die werd met veel bombarie aangekondigd en zou levensechte games mogelijk maken. Alleen nergens op de site kun je de hoe"veel"heid ram vinden die erin zit die net als bij de PS1 te weinig is.

[edit] reactie op justice strike: natuurlijk heeft een PS2 wel geheugen nodig, op de meest intensieve 3d, CAD en database applicaties na hebben games het meeste geheugen nodig op een PC, en net als een PC moet een playstation textures, 3d-modellen, geluidseffecten en code in het geheugen laden en dan is 32Mb erg weinig. Erger dan op een PC want op een PS heb je geen harde schijf om te swappen en is het ook nog eens shared video geheugen. :P
reactie op euss: ja maar dat is niet de Sony site.
reactie op justice strike

Voordat je andere mensen voor nutteloze blaters uitmaakt mag je zelf je huiswerk ook wel eens doen...

De hoeveelheid benodigd geheugen wordt niet meer als je de hele tijd dezelfde data gebruikt, maar juist minder. Tekstverwerking is hier overigens GEEN goed voorbeeld van, matrixvermenigvuldigingen wel (veel bewerkingen op dezelfde data). Tekstverwerking is over het algemeen weinig bewerkingen op veel data (relatief dan), bij multimedia is dit nog erger (enorm veel data, relatief enorm weinig bewerkingen). Omdat je een tekstdocument bij een tekstverwerker helemaal in het geheugen inlaad voordat het wordt bewerkt heb je daarvoor, afhankelijk van de grootte van het document, veel geheugen voor nodig. Bij multimedia bestanden word dit meestal niet gedaan (die zijn gewoon te groot). Bij het afspelen van multimedia bestanden is de grootte van het geheugen inderdaad niet erg interessand, daar die bestanden stukje bij beetje ingeladen worden.

Data die de hele tijd verandert wil je nou juist WEL in je geheugen opslaan (vaste schijf/flashrom is gewoon te traag), dit betekent namelijk veel accesses... Het gaat er gewoon om of het veel of weinig data is...

Een goed voorbeeld is een videokaart : data verandert de hele tijd, en wordt na gebruik 'weggegooid'. Volgens jou zou je daarvoor dus alleen maar het stukje buffer (de framebuffer) nodig hebben, deze is zelfs bij 1600x1200x32bbp slecht 8 MB. Toch hebben videokaarten veel meer geheugen (64 is tegenwoordig zon beetje wel het minimum), juist om data alvast daar op te slaan (textures). Bij een PS/2 moet ie dus veel data van de schijf lezen wat vertragend KAN werken, ik denk dat 32MB aan de krappe kant is voor het opslaan van textures/soundfonds/game data (geen echt OS, dat scheelt natuurlijk wel), als je al nagaat dat alleen een videokaart al meer heeft...
Niet dat dat een erg groot probleem hoeft te zijn, als het geheugen dan maar erg snel is, dat is voor het soort bewerkingen dat een gameconsole doet nou eenmaal belangrijker voor de uiteindelijke performance dan 'lekker veel'.
je zou beter moeten kijken hoe de ps2 in elkaar gezet is inplaats van je blind te staren op hoeveel geheugen er in zit. je kan een ps2 namelijk niet vergelijken met een pc. een pc moet alles laden en bewerkt dan de data. das heel goed voor bijvoorbeeld tekstvererking.. waar de data vaak hetzelfde blijft. echter is de ps2 gemaakt voor multimedia.

waarbij de data de hele tijd verandert en het dus onzinnig is om het de hele tijd te gaan opslaan. het is dus eigenlijk meer een machine die alles on the fly bewerkt inplaats van het te laden in het geheugen en om het dan te bewerken. Zie dat kleine beetje geheugen dan als een soor buffer inlaats van echt geheugen dan kom je dichter in de buurt van de functie van dat kleine beetje geheugen. Omdat het als een soort buffer functioneert hebben ze ervoor gekozen om heel weinig geheugen te nemen maar wel heel snel geheugen (namelijk rdram). dus vandaar dat het zo weinig is.

in het vervolg niet nutteloos blaten zonder dat je iets over de architectuur weet.
Sony is ook goed in het verkopen van gebakken lucht... hoe noemen ze de cpu in de PS2 ook alweer? The emotion engine ofzo, die werd met veel bombarie aangekondigd en zou levensechte games mogelijk maken. Alleen nergens op de site kun je de hoe"veel"heid ram vinden die erin zit die net als bij de PS1 te weinig is.
Playstation-kopers willen niet weten hoeveel on-die-RAM er inzit en op hoeveel micron hij geproduceerd wordt. Die mensen willen weten hoe mooi de spellen worden en wat het apparaat nog meer kan. Luitjes die wel de interne dingen willen weten kunnen vaak ook Googlen en onderstaande vinden op hun PC'tje:

Playstation2 Specifications (gedeelte)

Main CPU (294.912 MHz):
· Instruction Cache: 16 KB (2-way)
· Data Cache: 8 KB (2-way)
· Scratch Pad RAM: 16 KB (Dual port)
· Main Memory: 32 MB (Direct RDRAM 2ch@800MHz)

Co-processor1:
- FPU (FMAC x 1, FDIV x 1), Micro Memory (I:4KB D:4KB)

Co-processor2:
- VU0 (FMAC x 4, FDIV x 1), Micro Memory (I:4KB D:4KB)

Vector Processing Unit:
- VU1 (FMAC x 5, FDIV x 2), Micro Memory (I:16KB D:16KB)

Graphics Synthesizer:
· Embedded Cache-DRAM: 4 MB of multi-port DRAM (Synced at 147.456MHz)

Sound:
- SPU2 (2MB) 48 voices + software

I/O Processing Unit:
- IOP (2MB) 33.8688MHz or 36.864MHz (switchable)

Memory Card:
- 8MB (for PlayStation 2)
- 1MB (for PSX compatible)

Gevonden in de eerste hit van Google met zoekopdracht "Playstation2 Specifications":
http://www.psx2central.com/misc/psx2info.htm

Een Playstation kun je niet vergelijken met een allpurpose computer. In de PSX mag dan wel een general CPU in zitten, hij is wel heel erg gehardwired/optimaliseerd voor een goede doorvoer en niet zoals een PC om veel in geheugen te zetten en telkens heen en weer te bladeren in dat megageheugen. Bovendien zijn spellen/onwikkelomgeving daar op ingesteld op de specifieke eissen/mogelijkheden van de hardware. Met een PC heb je nog wel eens dat een spel niet speelbaar is ivm fps, maar bij een Playstation heb je dat niet (of je moet een pre-7500 PSX hebben met hitteproblemen bij FMV-fragmenten). En dan heb ik het nog over de PSX/PS-One, de PS2 is veel sterker geoptimaliseerd qua hardware/software - door de hogere inzicht/ervaring die ze bij de PSX hebben opgedaan.

Een PC heeft zoveel geheugen nodig om 20 programma's tegelijk open te houden op een OS met brak geheugenbeheer die overigens zelf ook de nodige MB's wegzuipt. Ik kan de tijden nog herinneren dat je multitasking-OS op 1 chippie stond... Bovendien is bij PC het geheugen gecentraliseerd richting de CPU (en tegenwoordig ook op de videokaart, L1/L2/L3 cache en aparte RAM op de Raidcontrollers etc), en bij de PSX/PS2 meer verdeeld over de verschillende plekken waarvoor het nodig is.
de videokaart zoals jij zegt verwerkt alleen lijstjes van objecten. dit word on the fly naar de videokaart gestuurd.

een voorbeeldje. het videobuffer is zelfs zo klein dat er niet eens een hele texture in opgeslagen kan worden.
het moet meteen doorgestuurd worden naar de videoprocessor. verder werkt het proces anders dan bij een pc waardoor je de videokaart van een pc niet kan vergelijken met het proces van de ps2.

omdat er zo weinig geheugen is maar wel juist heel snel geheugen gebruikt is heeft dit dus een hele andere benadernig nodig dan het programmeren voor een pc. vandaar dat developers hier problemen mee hadden.
ehm no offence, wel een leuke ontwikkeling maar wordt dit geen probleem met het aantal watt dat een mobo door moet sturen naar een cpu? De nieuwste intel had dacht ik al meer dan het eigenlijke voorschrift was waardoor mobofabrikanten weer meer erop moesten doen, en volgens mij worden die alleen maar meer als je 2 cputjes in 1 bakt.... toch ? |:(
en worden het 2 cores op een plaatje of 2 onder een dakkie..? dan maakt het toch niks uit met de koeling want 1 x 40 graden is toch hetzelfde als 2 x 20 graden om het maar ff simpel te zetten :)
want 1 x 40 graden is toch hetzelfde als 2 x 20 graden om het maar ff simpel te zetten
Maar natuurlijk niet ... je mag helemaal niet naar temperatuur kijken, maar naar vermogen. En 1x40 = 2x20 :? Houdt er rekening meer dat je het verschil met kamertemperatuur ook nog eens moet meenemen.
maar 1x40 graden op 1cm² is niet t zelfde als 2x 20 graden op 2x 1cm²
Volgens mij komt er een dualcore Sledgehammer (als het niet zo is zijn de geruchten daarover wel heel hardnekkig)
Dus zo laat komt AMD daar niet mee. (ook al is het een server chip)
ff een aanvulling op mvt:
Hier vind je meer info hierover:

Wat het meest opvalt aan SledgeHammer, de eerste K8 voor servers, zijn de twee CPU-cores waaruit de chip bestaat. Men kan bijna spreken over een dual processor systeem op een chip, maar dat is niet het geval. De SledgeHammer is net zoals de huidige x86 processors een single-threaded processor.
Voor het volledige stuk:
http://www.tweakers.net/nieuws/18720

Reactie op Henneo:

Niet dus, AMD is er al lang mee bezig en zou wel eens verder kunnen zijn dan Intel.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True