Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 135, views: 20.597 •

Volgens een desktop-roadmap van AMD verschijnen in het tweede kwartaal van 2011 octacore-cpu's op basis van de Bulldozer-architectuur. Ook zouden dan hexacores en quadcores verschijnen, gebaseerd op dezelfde core met codenaam Zambezi.

De processors die op de Zambezi-core worden gestoeld zouden hun opwachting maken in het tweede kwartaal van 2011, zo is op het Duitse ATI-Forum te lezen. De website baseert zich daarbij op een roadmap voor desktopprocessors die AMD aan partners toonde. De Zambezi-processors moeten het AM3-platform van AMD in leven houden: de huidige AM3-processors zijn compatibel met de voor Zambezi benodigde AM3+-moederborden.

De Zambezi-core is voorzien van AMD's Turbo Core-technologie en geschikt voor het AM3+-platform met ddr3-geheugen van 1866MHz. De processors worden op 32nm volgens een soi-procedé gebakken en zijn verkrijgbaar in quad-, hexa- en octacore-varianten. De snelste octacores krijgen een tdp van 125W, terwijl tragere octacores en de hexa- en quadcores een tdp van 95W krijgen. De quadcores beschikken over 4MB L3-cache, terwijl de overige varianten 8MB L3-cache krijgen.

Tevens zijn op de roadmap desktop-apu's uit de Llanno-reeks zichtbaar. Die zouden in het derde kwartaal op de markt moeten verschijnen en tdp's van 100W en 65W hebben. De Llano-apu's krijgen twee, drie of vier cores aan boord, waarbij de dualcores Winterpark-gpu's aan boord hebben en een tdp van 65W krijgen. De triple- en quadcores hebben Beavercreek-gpu's aan boord en hebben een tdp van 100W. De Llano's krijgen een nieuwe FM1-socket en de gpu's ondersteunen DirectX 11.

De Zacate-apu's komen volgens de roadmap nog dit jaar op de markt en zijn single- en dualcores met Loveland-gpu's. De low-power-apu's krijgen een tdp van 18W en worden als bga-chip op FT1-sockets gezet.

AMD Zambezi-roadmap AMD apu-roadmap

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)

Reacties (135)

Reactiefilter:-11350134+198+216+30
De octacore lijkt me een mooi ding! Jammer dat ze niet in het eerste kwartaal uitkomen van 2011.
Leuk, die vele cores, maar maar al te veel applicaties zijn nog single thread geschreven...
Er is een enorme verschuiving naar multi-threaded applicaties, zeker zware applicaties zoals Autocad en Adobe Premier krijgen steeds betere multi threaded ondersteuning. Zeker in 2011 verwacht ik dat er veel meer multi-threaded applicaties komen. Bovendien koop je een processor om deze meer dan een jaar te gebruiken, en in de toekomst zijn acht cores toch aan te raden vermoed ik.
Mensen die echt gebruik maken van applicaties als Autocad hebben meestal een workstation staan waar even andere processoren in zitten dan gewone standaard consumenten dingen. De 8 core processors voor een desktop is volgens mij toch echt overkill...

Als je ziet hoe weinig desktop consumenten applicaties het voor elkaar krijgen een quad core hard te laten werken dan kan ik me niet voor stellen dat er binnen kort 8 core processoren nodig zijn voor consumenten PC's. Het is wel leuk en zo een hele lijst met processoren maar de meeste mensen zullen denk ik niet veel meer doen dan misschien voor 5% van de tijd echt meer dan 4 cores gebruiken en dan alleen maar omdat dit bijvoorbeeld handig is bij het comprimeren van een audio bestandje naar mp3 maar ook dat doen mensen steeds minder zelf omdat het gewoon handiger is even de track van iTunes of een andere online site te plukken.

Daar naast moet je een enorme stoot geheugen in de PC hangen minimaal 16 maar liever 32GB wil je de processoren echt goed bezig kunnen houden, en natuurlijk is ook een SSD of een RAID 1, 5 of 6 etc opstelling gewoon omdat je anders de data niet snel genoeg in het geheugen kan laden om all die CPU kracht echt bezig te houden.
Op dit moment is er geen reden denkbaar dat een consument zo iets nodig heeft. Op zijn bureau, het is gewoon de standaard kijk mee eens een grote CPU hebben drang die dit ding zal verkopen niet de noodzaak om zo veel CPU power te hebben.
Triple-core is voor de meeste consumers ideaal. Twee cores iig voor de meeste spellen voldoende en de derd voor de overige spellen, waar de triple meestal heel dicht bij de quad zit qua performance.

Wat de sloot geheugen betreft sla je de plank mis. Dat een consement eigenlijk geen six of meer core nodig hebt, ben ik wel met je eens. Maar wat zie je ?
MM gaat AMD verkopen en wat doen ze ? In de eerste de beste consumer config zit een sixcore :X
stel je voor de
core 1- 2 systeem
core 3-4 voor je office en andere programma’s wat je aan het doen bent.
core 5-6 media playback (muziek etc)
core 7-8 overig programaas
Ja, natuurlijk. Dat doet elke gemiddelde thuidgebruiker 8)7
De meesten sluiten elk programma af, eer ze iets nieuws openen.

[Reactie gewijzigd door Madrox op 18 november 2010 10:51]

de meeste consumenten hebben al genoeg aan een atom voor hun internet en briefjes tikken behoeftes 8)7
Beetje een kip en het ei verhaal.

Zonder processors met 8 cores zal je ook nooit applicaties krijgen die hier volledig gebruik van zullen maken.

Procs met 4 cores worden tegenwoordig steeds beter gebruikt terwijl dit bij de launch ook minimaal was
Dat kip en ei verhaal gaat ook niet helemaal op.
Hoe lang hebben we al quadcores? Al vier jaar. En nu, jaren later, zijn er nog steeds errug weinig programma's die er deftig mee om kunnen gaan.
Nu krijgen we octacores. Verwacht je dat ontwikkelaars plotseling een inhaalslag maken? Het kost gewoon 'teveel' moeite om een applicatie af te stemmen op multicore omgevingen. CPU-cores worden toch wel sneller, dus is men liever lui dan moe.
De hype nu is om rekenlast naar de GPU over te hevelen, want die is simpeler aan te spreken en voor bepaalde soorten rekenwerk efficienter dan de CPU. 'Leuk' als je een IGP gebruikt met een quadcore die zo gewoon wordt overgeslagen.

Ik vind het een prima ontwikkeling, daar niet van. Maar om te zeggen dat het al nuttig is voor de gemiddelde consument is onrealistisch. Het is meer bedoeld voor echte power users met applicaties die voor multicores zijn geschreven.
En ontwikkeling en omgang met nieuwe technieken is te doen in een paar jaar?

Nee want een eenmaal gekozen techniek gooi je niet om in het midden van een ontwikkeltechniek (of je krijgt langeren doorlooptijden waar investeerders altijd om zitten te springen....).
Dus het klopt wel dat het langer duurt, het is nu redelijk mainstream daarom zou je van de huidig startende ontwikkeltrajecten verwachten dat ze rekening houden met de meerdere cores... maar dan duurt de ontwikkeling altijd nog wel eventjes.
dat kip en ei verhaal gaat zeker WEL op maar is iets ingewikkelder. om maar een voorbeeld te noemen, je denkt toch niet echt dat MS pas is begonnen aan de ontwikkeling van windows 7 toen vista net klaar was??

de grote onwikkelaars zullen inmiddels echt wel bezig zijn om hun aplicaties langzaam naar multicore toe te laten groeien, maar met miljoenen regels code (soms) gaat dat echt niet zo snel wel kan ik je vertellen dat als je je code eenmaal schaalbaar hebt naar 2 (of 4) kernen het opschalen naar 6 8 of 16 kernen ineens een stuk eenvoudiger wordt dan van 1 naar 2.

veel andere ontwikkelaars zullen moeten wachten totdat de gangbare ontwikkelomgevingen het optimaliseren van logica automatisch kunnen doen. Ik denk dan bijv: aan MSVS en en Eclipse etc. het merendeel van software wordt immers door betaalde amateurs gedaan.
Kloksnelheden worden wel wat hoger, maar het feit is toch dat het al jaren zeer gelimiteerd is, we zitten nu toch vooral op de koers van meer cores dan hogere snelheden.

Natuurlijk duurt het wel even voordat we echt goede programma's hebben die ze juist gebruiken, maar 1 is dat vaak niet altijd nodig dat ze meerdere cores gebruiken (een enkele core is nog snel genoeg) en 2 is dat natuurlijk niet allemaal even makkelijk, als developers dat allemaal goed onder de knie krijgen dan zal je dat wel veel zien, maar zolang we in termen van 2 cores blijven denken, zullen zij ook in termen van 2 cores blijven denken. Waar een aantal jaar geleden dual core standaard werd, moet nu quad standaard worden.

Tevens is octacores niet overbodig, ik doe zelf wel wat met foto bewerking en dan vooral de zware dingen zoals stitching software waarbij heel veel rekenkracht wenselijk is. 10 foto's aan elkaar stitchen is makkelijk, maar als je naar de 50+ ga (zeker wanneer je niet alleen meer op 1 rij zit maar dat ook boven en onder nog foto's moeten), dan is dat zeer gecompliceerd en dan gaat dat enorm lang duren, mijn broer heeft er 1 met iets van 150 ofzo gemaakt en zijn quadcore was na een hele nacht nog lang niet klaar. Dus ja, snelheid is altijd wenselijk. Dat gezegd, een octocore is natuurlijk niet voor je standaard gebruiker, maar AMD en Intel proberen natuurlijk te leveren aan alle type gebruikers.
Volgens mij is het vooral zo dat programma's die nu nog niet multithreaded zijn dat ook niet nodig hebben.
AutoCAD, adobe, en dat soort zware programma's zijn heel mooi multithreaded, maar Internet browers, muziek spelers en msn zijn nog single threaded omdat ze dan al niet meer dan 2% gebruiken.
Dat wil nog steeds niet zeggen dat je niets aan meerdere cores hebt.
Als je kijkt naar bv Chrome, die maakt een nieuw process voor elk scherm, en heeft zelfs een eigen process voor flash afbeeldingen.

Als je kijkt naar de normale desktop, dan heeft meerdere cores ook wel zin, een OS zou dus gemakkelijker een process kunnen hebben voor GUI updates, en een process voor achtergrond taken.

Als je kijkt naar de veelal honderen threads in een computer systeem dan heeft meerdere cores ook wel zin, want hoe meer cores, hoe minder contex switches (CPU die van thread naar andere thread wisselt).

Ik zou bijna durven te stellen, dat voor de gemiddelde desktop waar je geen echte rekenkracht nodig hebt, het beter zijn 8 mindere snelle cores dan 4 snellere, als je begrijpt wat ik bedoel...

Dus,
kom maar op met die cores!!

Nou ja... voor mij dan :)

Edit: type fouten, zoals altijd...

[Reactie gewijzigd door 282252 op 18 november 2010 16:16]

Vrijwel alle applicaties hebben baat bij meerdere threads. In het simpelste geval heb je een UI thread en een background thread (zoals bij MSN). Als je algoritmes kunt aanpassen dat deze baat hebben bij parallel processing kun je nog betere performance krijgen. Alleen zijn process threads niet hetzelfde als processor threads (pipelines).

Op basis van CPU verbruik kun je niet zeggen of een applicatie single of multi threaded is. Tijdens een software build schiet mijn processor verbruik omhoog. Echter valt er tijdens de build zelf weinig parallel uit te voeren vanwege de afhankelijkheden.

Soms wordt het asynchroon programmeren ook te ver doorgevoerd. Ik heb zelfs web applicaties gezien welke database calls asynchroon uitvoeren terwijl dit in de praktijk de zaken alleen maar langzamer maakt. Database servers hebben vrijwel altijd minder threads beschikbaar dan de webserver(s). Daarnaast kun je de database call wel synchroon uitvoeren echter zowel de aanroep als de callback van de asynchrone call zitten in dezelfde process thread waardoor het voor de bezoeker niet sneller gaat, maar het voor de developer door het asynchrone model wel complexer wordt.
Ik ken echter genoeg mensen die professioneel met Photoshop werken en een "gewone" Intel of AMD quad proc hebben.

Genoeg die dit willen.

Gebruik zelf ook een zware AMD quadcore met 8GB geheugen voor Photoshop en videobewerking
Met nieuwere versies Ps ben je niet zo'n zware processor nodig. Ik heb in mijn nieuwe systeem een AMD P2 X4 3.2GHz 955, 4GB RAM en een ATi graka van 1GB. De Ps die ik erbij heb gekocht (van CS4) kan via OpenGL rekenen via mijn graka :) Het gaat bliksemsnel en mijn CPU komt niet boven de 20% :9~ (Afbeeldingsprocessor met handelingen).
(Bewerken > Voorkeuren > Prestaties > GPU instellingen)
Zoals Fireshade al zei:
De hype nu is om rekenlast naar de GPU over te hevelen, want die is simpeler aan te spreken en voor bepaalde soorten rekenwerk efficienter dan de CPU.
Mensen die echt gebruik maken van applicaties als Autocad hebben meestal een workstation staan waar even andere processoren in zitten dan gewone standaard consumenten dingen. De 8 core processors voor een desktop is volgens mij toch echt overkill...
Genoeg mensen die daar een gewone desktop voor gebruiken puur omdat het qua kosten een stuk interessanter is. En om iets voor een 'desktop' overkill te laten zijn moet je bepalen wat een 'desktop' is. Aangezien ik mijn desktop ook voor Autocad kan gebruiken en dan is het opeens geen overkill meer.
Als je ziet hoe weinig desktop consumenten applicaties het voor elkaar krijgen een quad core hard te laten werken dan kan ik me niet voor stellen dat er binnen kort 8 core processoren nodig zijn voor consumenten PC's. Het is wel leuk en zo een hele lijst met processoren maar de meeste mensen zullen denk ik niet veel meer doen dan misschien voor 5% van de tijd echt meer dan 4 cores gebruiken en dan alleen maar omdat dit bijvoorbeeld handig is bij het comprimeren van een audio bestandje naar mp3 maar ook dat doen mensen steeds minder zelf omdat het gewoon handiger is even de track van iTunes of een andere online site te plukken.
Again, wat zijn consumenten applicaties? Iemand die graag voor hobby met Autocad klooit is ook een consument, maar wel een veeleisende consument. Zelfde met photoshop hobbyisten of videobewerkhobbyisten.
Maar voor een simpele gebruiker die geen intensieve applicaties gebruikt is een processor zoals de X2 240e een stuk interessanter, dual core prestaties wanneer nodig maar verder erg zuinig.
Daar naast moet je een enorme stoot geheugen in de PC hangen minimaal 16 maar liever 32GB wil je de processoren echt goed bezig kunnen houden, en natuurlijk is ook een SSD of een RAID 1, 5 of 6 etc opstelling gewoon omdat je anders de data niet snel genoeg in het geheugen kan laden om all die CPU kracht echt bezig te houden.
Op dit moment is er geen reden denkbaar dat een consument zo iets nodig heeft. Op zijn bureau, het is gewoon de standaard kijk mee eens een grote CPU hebben drang die dit ding zal verkopen niet de noodzaak om zo veel CPU power te hebben.
Dat is veel te eenvoudig om zo te zeggen, heb je een enorme stoot aan geheugen nodig als je veel CPU intensieve taken uitvoert waarvoor amper geheugen nodig is?
Heb je echt een SSD of RAID setup nodig als het een kwestie is van eenmalig in het geheugen laden wat nodig is en daar mee rekenen?

Leuk dat je het constant over de consument hebt maar zonder definitie van consument slaat het niet ergens op, je moet gebruikers indelen op basis van workload, niet op basis van consument/werknemer. Een consument kan best zeer intensief met zware applicaties werken thuis, zeker als dat voor een studie nodig is of als hij graag wat werk thuis doet. Daarnaast zijn er genoeg professionals die een gewone desktop hebben omdat dat een stuk goedkoper is dan met Opteron en Xeon processoren aan de slag te gaan.

Ja, voor de gewone gebruiker die enkel met office en internet explorer bezig is... dan is dit inderdaad niet interessant. Maar dat is dan echt een captain obvious to the rescue!

[Reactie gewijzigd door Tsurany op 18 november 2010 10:53]

Mensen die echt gebruik maken van applicaties als Autocad hebben meestal een workstation staan waar even andere processoren in zitten dan gewone standaard consumenten dingen.
Ik weet niet wat jij denkt wat er zoal te koop is, maar bv een Xeon W3550 is op enkele details na identiek aan een i7 950 (een redelijk populaire cpu bij tweakers). Of dacht jij dat intel speciale cpu's maakt voor de workstations? Helaas niet dus, in een workstation komt (simpel omgeschreven) gewoon één van de duurdere consumenten cpu's. Uiteraard hebben sommige Xeon's dan de optie om meerdere cpu's op 1 moederbord te plaatsen, maar voor een standaard workstation (bv AutoCAD, Photoshop,...) is dat dan ook niet echt nuttig in veel gevallen.
Mensen die echt gebruik maken van applicaties als Autocad hebben meestal een workstation staan waar even andere processoren in zitten dan gewone standaard consumenten dingen.
Zo gek veel anders zijn die procs meestal niet, behalve het etiketje dan. Op mijn werk gebruiken we bijvoorbeeld HP Z400's voor autocad, en daar zit gewoon een Xeon equivalent van een i7 in.

Overigens maakt Autocad (op de manier waarop ik het gebruik) buitengewoon slecht tot in het geheel geen gebruik van meerdere core's. (Hoewel dat soms best zou mogen)
En wat mag dan een 'workstation' zijn? Niet veel meer dan een krachtige computer. Voor autocad (Inventor) e.d. zijn gewone standaard consumenten cpu's uitstekend. Een andere cpu levert je echt geen zier op qua performance, maar maakt je computer wel veel en veel duurder. Puur geld verspilling!

En sinds wanneer heb je perse veel geheugen en SSD's nodig om je cpu's bezig te houden? :?
Integendeel, veel van de zware cpu taken zijn vaak uitermate licht in ram en I/O's. Denk aan raytracers. Ik gebruik op het werk ZEMAX om mijn lenzen door te rekenen. Daarbij heb ik alle cores op mijn quad-core continu op 100% staan, en dat gedurende meerdere dagen! Het ram gebruik is miniem. Paar honderd MB op z'n hoogst. Harddisk slaat misschien iedere 5 minuten iets op in het begin... later wellicht ieder uur!

Het is gewoon verschrikkelijk kortzichtig om alles over één kam te scheren.

En ook heel veel consumenten software wordt tegenwoordig goed multithreaded. Denk aan de foto bewerkings software. Die is tegenwoordig multithreaded, en dat merk je goed wanneer je met 15MP RAW files aan het werk bent.

Bij spellen zal het met DX11 nu ook veel meer standaard gaan worden. En als je eenmaal serieus multithreaded gaat, dan schaalt het meestal ook redelijk goed met meer cpu's.
Mensen die proffessioneel met tekenen/design pakketten werken, hebben een redelijk normale workstation, maar met een exotische grafische kaart met dito driver.

Een FireGL of een Quaddro kaart doen dan meer impact op performance dan een vreselijk snelle CPU.
Metafoor voor overkill: Met een Landrover Defender rondrijden in Nederland om de heuvels te bedwingen :-)

Ik denk dat AMD en Intel problemen gaan krijgen met het marketten van six-core laat staan octocore aangezien simpele office gebruikers en thuisgebruikers geen applicaties gebruiken die de cores gebruiken.

Vandaag de dag ben je nog steeds beter af met een dualcore met (native) > 3 Ghz dan met Quadcore, tenzij er per clockcylce meer instructies worden afgehandeld en er meer cache in zit en bus snelheid hoger is etc..etc..

Wat me ook erg opvalt is dat men 95W 125W gewoon acceptabel vinden, terwijl met een beetje grafische kaart er bij je al snel 1 a 1,5 Ampere trekt wat asociaal veel is, nog afgezien van warmte ontwikkeling en de daarmee genoodzaakte herrie van fans.

Meer cores is makkelijker om bestaande technologie op te schalen maar het heeft niets met innovatie te maken.

Hopelijk dat er binnen een paar jaar een octocore met 3,4 Ghz native met turboboost achtige methoden van 4,5 Ghz en hooguit TDP van 45Watt heeft en bij voorkeur passief gekoeld kan worden. In combinatie met de leuke chipsets die eraan zit te komen kun je eindelijk iets moois in de woonkamer zetten waar je iets aan hebt en niet aan ergert.
Mensen die echt gebruik maken van applicaties als Autocad hebben meestal een workstation staan waar even andere processoren in zitten dan gewone standaard consumenten dingen. De 8 core processors voor een desktop is volgens mij toch echt overkill...
En binnenkort hoeft dus niet meer en kunnen ze goedkoper systeem kopen. En mensen die die software als hobby gebruiken kunnen dan ook gebruik maken van de extra snelheid met een (iets) betaalbaarder systeem. ;)

En je hoeft niet de octo te kopen, ze verkopen ook nog dualcores, octo's zijn voor mensen bedoeld die er wel iets aan hebben niet voor al die mensen die er niks aan hebben, daar zijn zat andere cpu's en binnenkort dus ook apu's voor te koop die veel beter aansluiten bij hun behoefte. ;)
Dat weten wij, maar niet de gemiddelde, onwetende consument. Die gaat gewoon naar huis met een sixcore voor een vriendelijk prijsje. omdat de verkoper zegt dat je daarmee "nog sneller internet".
De 8 core processors voor een desktop is volgens mij toch echt overkill...
Ja en nee. Punt is een beetje - hoe wil je nog méér prestatie halen uit desktop CPUs?

Hogere kloksnelheid? Nee, dat pad is allang uitbewandeld, dat gaat niet werken. Kost teveel energie, is te inefficient en is te lastig te koelen.

Meer overlaten aan een GPGPU? Ja, op zich... dat is een mogelijkheid, ja. Maar, niet iedereen heeft een GPGPU (AMD/ATI is niet zo GP in z'n GPUs als nVidia dat is) en los daarvan is het ook maar voor bepaalde applicaties handig.

En zo zit je al vlug op de enige realistische optie van - meer cores. Het is momenteel de enige realistische mogelijkheid om substantieel meer prestatie te persen uit een ontwerp dat eigenlijk toch wel aan vervanging toe is. Vervanging die er momenteel gewoon eigenlijk nog niet is.
Ik heb al jaren plezier van mijn quadcore. Al de programma's waarvoor een multicore echt handig is ondersteunen het ondertussen al. Dus laat maar komen die octacores.
Dan draai je toch gewoon 8 apps tegelijk :+

Overigens is dat een kwestie van tijd, het mooiste zou zijn dat compilers zo slim worden dat ze dat zelf kunnen. Nu heb je er als programmeur een hoop werk van om dat allemaal netjes te maken.
Die mogelijkheden komen er in het .NET framework nu aan. ;)
Ik ben vooral benieuwd hoe dit zich verhoudt tot Intel die gebruik maakt van hyperthreading. De theorie van AMD achter het aantal cores is dat een extra core nuttiger is dan een thread. Het begint erop te lijken dat ze zich dus compleet gaan focussen op cores, maar de vraag is dan: zullen ze ook echt sneller zijn dan intel? Nu heeft AMD 6-cores (1055T en 1090T bijvoorbeeld, Thuban volgens mij) maar deze kunnen nog niet op tegen een Core i7 terwijl de prijzen elkaar niet erg ontlopen (van de CPU, mobo is een ander verhaal). Ce Core i7 heeft maar 4 cores bij de goedkopere varianten maar wel 4 threats. Ben benieuwd hoe de 8-core AMD CPU's zich dan gaan verhouden tot deze CPU's van Intel.

Intel zal ook met de nieuwe generatie komen en dan is het ook maar weer de vraag wat er dan sneller is. Het stroomverbruik ziet er in ieder geval goed uit, lijken wel twee verschillende versies: energiezuinige trage 8-core en een normale 8-core. Lijkt mij prima voor de meeste consumenten :).

Nu Intel nog...

[Reactie gewijzigd door Chocola op 18 november 2010 10:41]

Een extra core is sowieso nuttiger dan een extra thread als je puur naar snelheid kijkt, hyperthreading levert je virtuele cores op, maar virtuele cores zijn een stuk drager dan fysieke cores omdat ze vaak op elkaar moeten wachten in zware taken omdat ze bepaalde resources delen. In single-threaded applicaties kan hyperthreading zelfs een negatief effect hebben op performance.
Threat = bedreiging.

Nou een thread is een onderdeel van een process, als je 1 proces hebt met 2 threads dan zullen 2 cores gebruikt worden.

Wat jij bedoeld is HyperThreading, dat zijn geen volwaardige cores. Maar de CPU kan blijkbaar wat meer dingen tegelijk doen. Een volwaardige core zal altijd beter presteren dan HyperThreading Zie ook http://nl.wikipedia.org/wiki/Hyper-threading

[Reactie gewijzigd door jDuke op 18 november 2010 10:37]

Dit is dus maar de vraag. Als ik kijk naar de huidige resultaten van AMD versus Intel dan is Intel in elk opzich nog steeds sneller. Zelfs als ik een simpelere Core i5 vergelijk met een AMD CPU in het hogere segment zullen ze zeer aan elkaar gewaagd zijn en steekt Intel vaak nog met kop (geen schouders) erboven uit. Als Intel zometeen komt met een 6 core met hyperthreading, of zelfs een 8-core en de huidige verhoudingen hetzelfde blijven dan zal Intel nog steeds domineren wat betreft snelheid.

Ik heb liever cores dan threads, maar dan moet het alternatief (meer cores dus) wel minstens net zo snel zijn.
Maar Intel is niet sneller omdat ze hyperthreading gebruiken, Intel is sneller omdat hun processoren sneller zijn per core, hyperthreading heeft daar niks mee te maken. De performance winst met hyperthreading is leuk als de processoren zeer aan elkaar gewaagd zijn, maar core performance is een stuk interessanter dan wat hyperthreading van Intel extra kan bieden.

Twee cores is altijd sneller dan een enkele core met hyperthreading, dat is gewoon een feit. Dat Intel sneller is komt omdat hun cores sneller zijn dan die van AMD.
zamzabi is een volledige nieuwe architectuur, waarin het totale core design volledig is aangepast CMT. huidige quad en hex hebben nog steeds een basis van phenom (barcelona) daarom dat ze een pak trager zijn dan i5 en i7.
Als je de reviews goed leest, zie je dat wat je nu nu stelt niet waar. Zet een gelijk geprijsde AMD 1090T tegenover een i7 920 en de scores schieten dan zeker niet altijd uit in het voordeel van Intel.
Waar de K10 architectuur 3 integer pipelines heeft, is de een Bulldozer core opgebouwd uit twee blokken met elk 4 integer pipelines. Dit ontwerp 'kost' meer transistors maar zou potentieel betere prestaties moeten leveren dan de hyperthreating functionaliteit van intel. Op deze manier kan een bulldozer core meerdere threats tegelijk uitvoeren.
Dit is dus AMD's tegenhanger van Intel's hyperthreating.
Ik heb zelf zo niet kunnen vinden of een systeem het aantal core's of ' het maximaal tegelijk uit te voeren threats' weer geeft. In het tweede geval zou een 8-core als 16-core gezien worden.
AMD noemt een die 2 blokken samen een module.
elke module heeft volgens AMD 2 cores.
een dual core bestaat dus uit 1 module, een quad core uit 2 en een octocore uit 4 modules.

elke module is ongeveer 12% groter als een single core module zou zijn.
een AMD octocore zou dus niet veel groter zijn als een intel quad core (en dus bijna even duur om te maken).
Bij AMD is het 1 thread per core.
Dus 8 cores = 8 treads.
Bij moderne programma's is de performance winst van hyperthreading vrijwel verwaarloosbaar (volgens AMD).
@Chocola,
Uit je commentaar blijkt dat je denkt dat AMD nieuwe grond betreed in aantal cores.
Dit is alleen niet het geval. Als je bedenkt dat in Maart 2010 INTEL al de 8-core Xeon X7xxx series heeft geintroduceert dan is INTEL al een stukje langer actief op het 8 core gebied.

Lees bijvoorbeeld Wikipedia over de INTEL roadmap en release data.

Maar om een lang verhaal kort te maken, het is goed om te zien dat AMD nu ook de stappen onderneemt om bij de tijd te blijven.

Op het gebied van multi threaded applicaties schijnen heel veel mensen nog met de illusie te leven dat er "heel weinig" multi threaded applicaties zijn.
Gewoonweg niet meer waar. OSen zijn tegenwoordig multi threaded, de meeste games die sinds dit jaar zijn uitgebracht inclusief gouden "oudjes" zoals WoW zijn deels, dan wel volledig multithreaded en ik weet ook niet hoe deze mensen meten of hun processor belast wordt of niet, maar als ik mijn applicaties volledig tweak op het gebied van kwaliteit en dergelijken, dan worden wel degelijk al de 4 cores van mijn C2Q-Q9400 belast.

Het is maar net wat je speelt, welke applicaties je gebruikt en hoe zwaar jij ervoor kiest je systeem te belasten. Als je alle games op default speelt, alleen maar surft op het internet en verder weinig doet dan is het natuurlijk logisch dat je machine niet belast wordt. Maar ga dan maar eens een lekker grote photoshop sessie opengooien, of tegelijkertijd gamen, muziek luisteren, bestandjes zippen/rarren en surfen.... moet jij eens opletten hoe zwaar je processor belast wordt.

Niet om het een of ander, maar alles is relatief.


Mijn 2 centen,

Mike
die intel octocore was een mooi staaltje technische masturbatie natuurlijk, maar met een prijs van 3692 dollar niet echt te vergelijken met deze consumenten octocores.

dus om te stellen dat intel daarom voorop liep en AMD ze nu pas kan bijbenend is erg kort door de bocht.
En tegelijkertijd kwam AMD met zijn Opteron 6100 serie van 8 en 12 core cpu's uit.
Maar dat waren gewone K10 cores.

Nu krijgen we de 8 core consumenten en 16 core server cpu's.
Atom wordt bestreden met nu dual- en volgend jaar quadcore bobcat apu's.

Worden leuke tijden
off topic
ja maar vele bedrijven Zijn hier wel mee bezig met het optimaliseren van de multicore ondersteuningen in hun scripts.

voor beeld als ik met autodesk Maya een 3d sculptuur wil renderen dan kan de proc toch egt wel alle cores gebruiken(ja de gpu doet render werk maar de cpu(I7 vooral) kan dat ook heel goed aan), en ik denk dat er wel meerdere bedrijven hiervan gebruik kunnen gaan maken om bepaalde procesen te versnellen

stel je voor de
core 1- 2 systeem
core 3-4 voor je office en andere programma’s wat je aan het doen bent.
core 5-6 media playback (muziek etc)
core 7-8 overig programaas
Dat zou een buitengewoon inefficient systeem zijn, cores verdelen op basis van applicaties in plaats van op basis van load.
Cores moeten dynamisch toegewezen worden aan programma's op basis van de vraag naar resources. Alles wat je hierboven noemt kan zelfs op een enkele core afgehandeld worden zonder merkbare vertraging als het geen intensieve applicaties zijn, het uitschakelen van de overige cores kan dan een aardig zuiniger systeem opleveren.
Het worden er al steeds minder. Je hebt al weer wat meer dual core apps maar Multi core apps nog niet en dat heb je hier dan nodig.

Maar ook dat gaat wel komen. Zeker nu de hardware er is. En ook de goedkope systemen 2 of meer cores hebben (dan wel virtueel met Hyperthreading)
Er zijn meer dan genoeg multi-core apps, zeker zware applicaties voor professioneel gebruik maken al gebruik van meerdere cores om het render werk te doen.
Ik bekijk het toch iets meer vanuit een thuis gebruiker. Dus games wat video bewerken. En die apps willen helaas nog niet zo.
jaaa maar AMD heeft nog wat achter de hand, ze gaan een soort reverse hyper threading gebruiken zodat meerdere cores aan 1 thread kunnen werken wat dus een 4 core limited applicatie word dus door 8 cores aan gewerkt.

als ik het goed heb begrepen allemaal gaan ze modules van 2 cores maken die samen L1/L2 cache delen met elkaar waardoor ze instaat zijn samen aan 1 stream te werken wat dus tegen over Intels hyper threading staat die van 1 core 2 workers maakt.

maar ik meende dat het alleen werkte voor simpele reken opdrachten en niet voor complexere taken zoals bijvoorbeeld gamen maar daar in tegen heb je wel 8 cores die al je wensen zullen vervullen

tenminste als ik het goed heb begrepen.
niet dus. De cores gaan niet samenwerken voor 1 thread. Wat wel gaat gebeuren is als 1 module 1 thread krijgt dat 1 core volledige fpu capabilities krijgt, volledig cache, volledige front end. Maar dus niet 2 integer cores die samen werken aan 1 thread. (wat niet kan door de afzonderlijke shedulers)
Vreemd, want wanneer ik mijn task manager open, daarnaast even de kolom threads toevoeg en kijk hoe veel applicaties er single threaded zijn, dan zijn dat er eigenlijk best wel weinig. Daarnaast is multicore all effectief op een systeem waar meer dan 1 process simultaan actief is. En laat dat nu op alle Windows en Linux systemen dus zijn.

Het argument dat er nog veel applicaties single thread geschreven zijn is dus een uitspraak die gold voor Windows 3.x, 95, 98, ME. Maar op NT Kernel gebaseerde systemen hebben altijd voordeel aan meerdere cores.

Het voordeel van meerdere cores is zelfs nog groter wanneer 1 process all core power vraagt, dan kan deze gewoon 100% cpu op de core krijgen terwijl andere taakjes op andere cores lopen (in de ideale wereld). Single core is niks meer dan multithreaded op 1 core (dus extra veel last van task scheduling, context saves en cache vervuiling), meerdere cores verlaagd de overhead per core.
Het is denk ik niet helemaal een octa core. Er gaat wel een echte zoals wij dat nu noemen octacore komen. Maar ik betwijfel of die meteen naar de desktops komt.

Er komen in ieder geval 4 en 8 moduele varrianten. Elke module heeft 2 Int cores en 1 FP Core. Een 8 Module CPU gaat in windows 16 cores laten zien.
De FP unit wordt gedeeld met beide Int cores. De FP unit is 2x128 Bit. En kan dus ook gesplits gebruikt worden. Deze unit kan ook de 2x128 samen voegen om 256 Bit AVX Instructies uit te voeren.

Nu vrees ik dat ze het hier hebben over 2,3 en 4 Modules. Want ik denk niet dat ze de 8 module versie meteen naar de desktops brengen. Want wat wordt de vervanger voor de hudige 12 Core Magny-cours CPU gaan vervangen.
het is wel een echte core hoor...

Je hebt inderdaad aparte integer cores met een gedeelde fpu module die 2 threads tegelijkertijd aankan.

Zie ook geen nut in 8modules naar client te brengen. veel te veel die space voor geen client benifits.
dat ze het hier hebben over 2,3 en 4 Modules.
ik denk dat je 1 2 en 4 modules bedoeld (met dus 2 4 en 8 cores respectievelijk)

en 8 threads lijkt me nog wel even genoeg voor de desktop. zeker omdat het tegelijk op een nieuw productieproces word gemaakt. 6 en 8 module DIEs kunnen later altijd nog als ze het proces beter onder de knie hebben.

een magny-cours vervanger zal altijd meteen uit 2 die's bestaan (dat moet wel om de quad channel te gebruiken) van waarschijnlijk 4 modules (=8 cores x2 = 16 (echte) threads)

edit : foutje, ik dacht dat er een dual core versie zou komen. en zo onlogische is dat niet want dat is nog steeds veruit het grootste deel van de markt.
van de andere kant, deze quad core kost maar iets meer om te maken als een normale dualcore op het zelfde process en is dus prijs technische precies goed geplaatst.

[Reactie gewijzigd door Countess op 18 november 2010 13:31]

Nee ik bedoel echt 2,3 en 4. Ze gaan zo ver ik weet geen single core bulldozer maken. Zie daar het nut ook totaal niet van in.
e processors worden op 32nm volgens een soi-procedé gebakken en zijn verkrijgbaar in quad-, hexa- en octacore-varianten.
Volgens mij gaat AMD een Int core een Core noemen. Een 8 core zou dus 4 Modules hebben. Een Quad 2. Nu vraag ik me dus af of ze wel native 2 Module chips gaan maken of dat dit weer 4 Module chips zijn met twee modules uit geschakeld.

En ik kan me voorstellen dat AMD het ontwerp modulair gehouden heeft en een Native 8 Module gewoon mogelijk is. Zonder dat je er twee naast elkaar moet plaatsen.
En ik kan me voorstellen dat AMD het ontwerp modulair gehouden heeft en een Native 8 Module gewoon mogelijk is. Zonder dat je er twee naast elkaar moet plaatsen.
een 8 module/16 core chip is nog niet te maken in 1 die (niet op 32nm in ieder geval, te groot te duur te lage yield)

daarbij is zoveel cores alleen nuttig voor servers en daar gebruikt AMD in het hoge segmenten alleen maar 2 dies in 1 package, omdat elke DIE 2 geheugen channels heeft en de socket ruimte heeft voor 4 channels.
om dat anders te doen moeten ze een nieuw ontwerp maken met een quad channel geheugen controler. nu kunnen ze voor beide server sockets precies de zelfde die's gebruiken. dat houdt de kosten laag voor zowel AMD als de klant.

[Reactie gewijzigd door Countess op 18 november 2010 13:37]

AMD heeft er spijt van dat ze ooit de term module naar buiten hebben gebracht.
Als ik de discussie hier volg is duidelijk waarom.
Als je het naadje van de kous wilt weten, John Fruehe heeft er uitgebreid over geblogged.

http://blogs.amd.com/work/category/bulldozer/
idd mij ook maar ze lopen gelukkig niet zo ver achter intel aan dit keer.
Intel komt het eerste kwartaal met nieuwe cpu's maar meteen daar achteraan komt het antwoordt van AMD
Dat was met de phenom1 wel anders.
Bulldozer is een enorm verbeterde architectuur ik ben benieuwd hoe ze het zullen doen.
de hele manier van afwerken van threads is op de spit genomen en denk dat ook single core applicaties een stuk sneller mee zullen zijn op deze cpu's.
mmmm octacore volgens mij is daar best veel leuks mee te doen in de toekomst
ik ben benieuwd naar de specs wanneer ze egt op de markt zijn
de huidige AM3-processors zijn compatibel met de voor Zambezi benodigde AM3+-moederborden.

Dus andersom niet? :(
Ja een beetje aparte opmerking, je kan dus een nieuw Zambezi moederbord kopen waar je een oude processor in kan stoppen, waarom zou je dat doen? Voor die paar nieuwe features van die moederborden? Misschien heeft Tweakers een fout gemaakt en moet het andersom zijn, Zambezi processoren kunnen in de huidige AM3 moederborden? Alleen ik denk dat dat niet gaat gebeuren.
Misschien zijn er mensen die alvast een halve investering willen doen, dus eerst het mobo aanschaffen en later de processor. Kan me goed voorstellen dat niet iedereen de 400 á 500 euro heeft liggen wat zo'n setje waarschijnlijk wel gaat kosten.
Als je nu een snelle processor hebt kan je je zo al voorbereiden op de toekomst en dus in 2 delen een dure aanschaf doen? :)
Je kan alvast een mobo kopen, of je kunt nu als je een nieuwe computer aanschaft hier al rekening mee houden. Gewoon voorbereiden op de toekomst is dus mogelijk, dwz dat de oude am3 mobo's langzaamaan zullen verdwijnen, maar dat de processoren wel voor langere tijd ondersteund zijn.
Dus je kunt nu al een systeem aanschaffen met een gewone AM3 processor (die zijn er iig al) en later dan een nieuwe(re) processor erin prikken. Mooi upgraden straks in de toekomst.

He, net een paar seconden later dan Tormbo.

[Reactie gewijzigd door jbdeiman op 18 november 2010 10:32]

Nope. Het was al eerder bekend gemaakt dat het 't tegenovergestelde verhaal zou worden als in de AM2/AM3 reeks. AM3 processoren kunnen wel op een AM2 (+) socket, maar een AM2(+) processor niet op een AM3 socket. Zambezi gaat alleen op AM3+ passen, en AM3 borden zullen dus waardeloos worden.
Als het goed is werkt het andersom helaas niet. Tijd geleden werd dat namelijk al aangekondigd.

Zeker zo'n octacore klinkt goed. Ik ben wel benieuwd of er nu processors bijzitten die ook net zo krachtig of krachtiger zijn dan de top processors van Intel maar dan met een mooi AMD prijsje.
In het gelinkte artikel staat inderdaad: 'AM3 processors are also compatible with AM3+ Motherboards!'

Ben trouwens wel benieuwd hoe deze processors gaan heten: Phenom 2 of toch maar Phenom 3?
uhhhh AMD Zambezi misschien?
Dat is de naam van de chip. Phenom CPUs zijn bijvoorbeeld Denebs en Thubans, de chipnaam verschilt van de serienaam.
Er staat ook niet dat het niet kan. Maar ik acht een kans dat je een AM3+ board moet hebben. Bulldozer heeft een nieuwe manier van power managment. En heeft een nieuwe Turbo mode.

Het zou natuurlijk kunnen dat je die dingen op een AM3 plank dan niet kan gebruiken. Dat was bij Phenom 1 in het begin ook. Sommige dingen werkte niet als je die op een AM2 board prikt.

Daarnaast kunnen ze dit niet beloven. Als het al kan is het afhankelijk van de makers van de moederborden of er een bios voor komt. AMD kan ze dat niet verplichten.

Dus zeggen dat het andersom werkt is gevaarlijk. Maar ik zie het best mogelijk dat het met een bios update gewoon kan.

En waarom meteen een :(. Kun je eerder bij intel doen... Elke nieuwe cpu van hun krijgt een nieuwe socket en chipset. Je kunt nooit iets 2x gebruiken. Bij AMD kun je prima een PHII in in een oud AM2 bord prikken van een paar jaar terug. Er zijn best wat merken die gewoon een nieuwe bios uitgegeven hebben.
Weet iemand al iets meer van de nieuwe core die gebruikt gaat worden? hoe presteerd deze bv. tenopzichte van een I-core van Intel?
Daar zijn niet echt uitspraken over gedaan.

Er zijn wel uitspraken gedaan tov de 12 core Mangy-Cours van AMD. Die zijn in de bulldozer blogs terug te vinden.
Het is jammer, zoals ik het lees in ieder geval dat deze processoren niet te gebruiken zijn in de huidige AM3 sockets.

Of lees ik het nu helemaal verkeerd. Dit zou wel een hele mooie vervangingsmarkt kunnen zijn.
Volgens mij lees je het goed.
Oude AM3 cpu's passen wel in de nieuwe AM3+ moederborden, wat daar het nut van is snap ik alleen niet.
net als bij am2+ CPU's in am2 moederborden stoppen verlies je wat van de features. in dat geval toen vooral powermanagement en verbruikte je CPU meer.

in dit geval is de missende feature de turbo mode.
maar AMD vond dat dit keer zo'n wezenlijk deel van de CPU (en daar hebben ze wel een punt mee, het is zeer belangrijk voor vooral single threaded performance) dat ze er voor gekozen hebben om niet op die manier backwards compatible te zijn.
Wat een energieslurpende CPU's weer. Eeen beetje jammer.
Heb je het verbruik wel eens vergeleken met een I7? Deze heeft een redelijk vergelijkbare TDP hoor.

reviews: Het nieuwe Intel Core i7-platform getest

[Reactie gewijzigd door jbdeiman op 18 november 2010 10:36]

En intels gebruiken regelmatig meer dan hun max TDP.
Als je bedoeld dat alles boven de 65 energieslurpend is dan moet ik je gelijk geven. Als ik het echter ga vergelijken met andere quad etc. cpu's dan valt het zeker mee met het verbruik. Het is btw niet ondenkbaar dat dit in de toekomst nog een beetje omlaag gaat. Maar verwachten dat je cpu's met meer cores en betere prestaties gaat krijgen met lagere TDP's is niet realistisch. In de eerste instantie zal het er om gaan een snel goed product af te leveren.
Dat is onder load. Als de CPU weinig te doen heeft wordt ie gewoon teruggeklokt en het voltage verlaagd. Het verbruik daalt dan.

Persoonlijk boeit het mij weinig hoeveel een CPU onder load verbruikt, zo lang hij maar koel te houden is. De meeste tijd is een CPU echter aan het idlen of wordt hij nauwelijks belast, dus dáár zit de winst.
Je kan kiezen uit snelheid en zuinigheid, beiden kan niet. Wil je een zuinige processor dan moet je eerder kijken naar een processor zoals de X2 240e, die is niet snel maar wel extreem zuinig. Echter als jij zoveel cores wilt en zoveel snelheid dan zal de processor een stuk minder zuinig zijn.

Hoewel TDP gebruiken om zuinigheid te beoordelen vrij raar is, processoren draaien vaak niet op maximale capaciteit en voor de meeste situaties is beoordelen op idle verbruik een stuk interessanter.
8 cores op 125watt is volgens mij best redelijk per core voor de snelste variant
daar krijg je er nu maar 6 voor... hooguit.
en dan komen er ook nog octocore versies met 'maar' 95watt.

[Reactie gewijzigd door Countess op 18 november 2010 12:11]

Bedenk wel dat zo'n octa-core slechts vier front-ends decoders heeft. Je kan het dus ook zien als een quad-core met gesplitste pijplijnen die instructies van twee threads afzonderlijk kunnen uitvoeren. Oftewel acht mini-cores die niet opzichzelf kunnen staan, maar per paar een decodergroep moeten delen.

Ik zie het dan ook eerder als concurrentie voor een quad-core met Hyper-Threading dan een echte octa-core. De pieksnelheid is immers belemmerd door de vier decodergroepen.

Intel's Sandy Bridge architectuur krijgt meer pijplijnen per core, die wél allemaal beschikbaar zijn voor een koppel threads. Het is te vroeg om echte conclusies te trekken, maar ik verwacht dat ze behoorlijk aan elkaar gewaagd gaan zijn. Maar een AMD octa-core (8 threads) zal helemaal niet in de buurt komen van een Intel octa-core met Hyper-Threading (16 threads).

De benaming wordt er niet eenvoudiger op en AMD neemt een behoorlijk risico. Laat de consument zich verleiden door de (marketing-) benaming en worden ze uiteindelijk teleurgesteld door de werkelijke prestaties, of beseft men wat men koopt en is men tevreden met de prijs/prestaties? Hangt allemaal af van hoe het zich in praktijk vergelijkt met een quad-core Sandy Bridge denk ik...

2011 belooft in ieder geval zéér interessant te worden. Heb m'n voorraad popcorn al ingekocht...

[Reactie gewijzigd door c0d1f1ed op 18 november 2010 10:40]

Hoeft toch ook niet? hangt voornamelijk van de positionering af. Als AMD 4modules/8cores krijgt op de opp van intels 4c/8T is dat een perfecte vergelijking.

Amd bulldozer 8core processed 8 threads zoals de intel i7. Ze omschrijven en positioneren het ook zo... ze zeggen immers constant intel HT haalt 30% eff max, zij 80% met onze extra core.

Hoe kunnen ze teleurgesteld zijn in prestaties als ze normaalgezien rond SB gaan presteren? of denk je dat i7 geafficheerd staat met 8threads, mensen boos gaan zijn dat de laatste 4 threads amper iets extra halen?
Hoeft toch ook niet? hangt voornamelijk van de positionering af. Als AMD 4modules/8cores krijgt op de opp van intels 4c/8T is dat een perfecte vergelijking.
Inderdaad, dat is de perfecte vergelijking, maar bemerk dat "core" hier behoorlijk verschillende betekenissen heeft voor AMD en Intel. De gemiddelde consument kent wellicht louter iets over GHz en iets over cores. Threads en modules begrijpen vergt reeds diepgaande kennis van de processorarchitectuur.

Dus zelfs al wil AMD hun octa-core positioneren tegenover een Intel quad-core met Hyper-Threading, de consument denkt dat het gepositioneerd is tegenover een Intel octa-core. En het lijkt er niet op dat AMD de situatie wil verduidelijken door bijvoorbeeld van een quad-core met Hyper-Core te spreken.

Vanuit technisch standpunt vind ik het zeer interessante technologie, maar marketinggewijs zie ik een groot risico voor teleurgestelde consumenten. Een octa-core die presteert zoals een quad-core met Hyper-Threading komt het merk niet ten goede. De consument verwacht superieure prestaties (voor een klein prijsje), maar krijgt een soort compromis en kan zich dus bedrogen voelen.

Als een AMD octa-core gelijk presteert aan een Intel quad-core met Hyper-Threading, zullen veel consumenten volgens mij denken dat AMD inferieure processors maakt. Bij zo'n imago maakt de prijs nog weinig verschil. Mensen willen geen inferieur product. Als ze het echter als een quad-core on steroids marketen, geeft dat denk ik een positiever imago als ze dan ook werkelijk goed met Sandy Bridge quad-cores concurreren.
of denk je dat i7 geafficheerd staat met 8threads, mensen boos gaan zijn dat de laatste 4 threads amper iets extra halen?
Als Intel van vandaag op morgen de i7 gaan afficheren als octa-core, ja dan ga je heel wat boze consumenten krijgen. En ook de benaming octa-thread als primaire aanduiding zou heel wat verwarring, frustratie en teleurstelling teweegbrengen. En bemerk dat AMD het niet gaat marketen als octa-thread, maar wel degelijk als octa-core. Alleen al tegenover hun vorige generatie quad-core en (echte) octa-core processoren gaan de werkelijk behaalde prestaties heel wat mensen doen geloven dat dit een inferieure reeks processoren is.

Kijk maar hoeveel mensen in deze thread denken dat AMD hiermee een grote voorsprong neemt op Intel. Met hun huidige marketingstrategie lijkt teleurstelling mij zeer waarschijnlijk, en zullen ze heel hard hun best moeten doen om de mensen in te lichten dat ze het eigenlijk moeten vergelijken met een quad-core van de concurrentie.

[Reactie gewijzigd door c0d1f1ed op 18 november 2010 11:57]

Een octa-core die presteert zoals een quad-core met Hyper-Threading komt het merk niet ten goede. De consument verwacht superieure prestaties (voor een klein prijsje), maar krijgt een soort compromis en kan zich dus bedrogen voelen.
van HT zei intel dat ze tot 30% meer prestaties kunnen leveren per core.
AMD zegt dat 1 module ongeveer 80% van de prestaties heeft van een volledige dual core.
elke thread by AMD is dus veel krachtiger als bij intel's HT het geval is, en doet weinig onder voor een normale 1cores1thread situatie.

en gezien de kleine meer prijs kan ik me niet voorstellen dat consumenten zich bedrogen voelen. het zou me verbazen als een normale consument het verschil kan merken eigenlijk tussen 2 modules en 4 normale cores.

[Reactie gewijzigd door Countess op 18 november 2010 12:53]

Goh consumten kijken gewoon naar de nummers en dan zien ze 4C/8T en 8C/16T staan.

Je hebt nu toch hetzelfde met de 6cores van amd? (en amd heeft al aangegeven dat elke bd core > elke deneb core in zowel int als fpu).
Goh consumten kijken gewoon naar de nummers en dan zien ze 4C/8T en 8C/16T staan.
Enkel een kleine groep technisch aangelegde consumers kijkt verder dan het aantal GHz en cores. Het kostte me uren om mijn schoonvader te overtuigen dat een 2.4 GHz Core 2 Duo sneller is dan een 2.5 GHz Celeron Duo. Uitendelijk kocht hij de Celeron want een ander familielid had ook een 2.5 GHz CPU... Als ik hem zou proberen uit te leggen dat een AMD octa-core en Intel quad-core wellicht aan elkaar gewaagd zijn gaat hij zich wellicht afvragen waar ik m'n diploma computeringenieur aan verdiend heb.

Soit, nummers zeggen heel weinig zonder correcte interpretatie. En de interpretatie van wat een core is verschilt bij AMD en Intel zo sterk dat grote verwarring / frustratie / teleurstelling nu al vaststaat. Ik had gehoopt dat AMD z'n imago wat kon verbeteren, maar als ze quad-module als octa-core gaan verkopen dan kunnen consumenten zich wel eens bedrogen voelen.
en amd heeft al aangegeven dat elke bd core > elke deneb core in zowel int als fpu
Ik zie niet hoe: c0d1f1ed in 'nieuws: AMD Zambezi komt in quad-, hexa- en octacore-variant'. Of heb je misschien een bron waar AMD dit aangeeft, of een gedetailleerde uitleg?
Er was een uitspraak dat een core van een vergelijkbare nieuwe quadcore sneller is dan een oude quadcore.

Maar wat is vergelijkbaar?
traagste model in de serie?
zelfste prijs (bij introductie)?
zelfde aantal Ghz?
Het was in ieder geval marketing tecnische verdoezelpraat.
Oftewel acht mini-cores die niet opzichzelf kunnen staan, maar per paar een decodergroep moeten delen.
ze moeten idd de decodergroep en de l2 delen (en de fetch overigens ook).
bij intel delen ze de L2 ook dus dat is niet anders (maar dan met 4 threads).

AMD heeft echter wel zorgvuldig gekozen wat ze wel en niet delen. zowel de fetch als de decoder worden op een burst manier gebruikt. ze zijn dus of heel hard aan het werk, of niks aan het doen. ze zijn dus gemaakt om heel snel te werken als ze nodig zijn, maar zitten een groot deel van de tijd uit hun neus te eten.

AMD zegt zo'n 80% van de performance van een normale dual core te krijgen, wat een geweldige prestatie is in maar 12% extra ruimte als een single core, en stukken stukken beter als de 30% max die intels HT weet te realiseren.
al met al vind ik 'mini-cores' dus een te denigrerende naam hiervoor.
zowel de fetch als de decoder worden op een burst manier gebruikt
Klopt, maar dat geldt ook voor de execution units. Bulldozer heeft er meer dan Sandy Bridge, maar tijdens een 'burst' wordt men gelimiteerd door de decoders. Als het enig nut had, zou ook Intel reeds significant meer execution units toegevoegd hebben om bij Hyper-Threading meer simultaan te kunnen laten uitvoeren.

De voornaamste reden dat AMD meer execution units heeft, is net omdat ze niet allemaal gedeeld worden door beide threads, en men uiteraard nog wat single-threaded prestaties wil overhouden. Met andere woorden, om een alternatief voor Hyper-Threading te implementeren (om Intel geen licentiekosten te moeten betalen) heeft AMD een deel van de pijplijn dubbel uitgevoerd, maar dat betekent niet dat deze ook dubbel zo hoge prestaties zullen behalen.
AMD zegt zo'n 80% van de performance van een normale dual core te krijgen...
Dat lijkt me sterk met maar 50% meer execution units (en dan heb ik het over integer, floating-point is gedeeld). En ja niet overlappende 'burst' kunnen de prestaties sterk verhogen, maar als het 80% was dan zou Hyper-Threading bijna net zo veel van niet-overlappende bursts moeten profiteren.
al met al vind ik 'mini-cores' dus een te denigrerende naam hiervoor.
Ze hebben 2/3 de integer execution units, en delen de front-end en floating-point units met een andere core. Zeker in vergelijking met wat Intel voor Sandy Bridge een core noemt is het allesbehalve een volwaardige core. Maar ik wil er ook niet denegrerend over doen. Het is mooie technologie. Ik kon echter niet meteen een betere benaming vinden...
Als het enig nut had, zou ook Intel reeds significant meer execution units toegevoegd hebben om bij Hyper-Threading meer simultaan te kunnen laten uitvoeren.
Ik denk dat er genoeg voorbeelden in de historie van Intel zijn die aantonen dat Intel het pas nodig acht om technologieën te implementeren als het kan gebruikt worden om de concurrent de loef af te steken. Zolang dat niet nodig is blijven ze kassen met de huidige technologie.

Waarmee ik maar wil zeggen dat zulke stellingen gebaseerd op die logica misschien wel wat kunnen rammelen.
Verkeerde beslissingen uit het verleden zeggen absoluut niks over het heden. En er zijn net zo veel voorbeelden waarbij Intel z'n voorsprong nog verder vergrootte. Maak dus niet de fout van Intel te onderschatten. Ze hebben geleerd uit hun fouten en zullen heus verschillende mogelijkheden onderzocht hebben.

En je ziet die theoretische stelling ook duidelijk in de praktijk. Sandy Bridge is een kind van het Tick-Tock model en brengt dus significante vernieuwingen met zich mee. Maar in plaats van te kiezen voor een extra pijplijn besloot men de transistors veel nuttiger te investeren. Bijvoorbeeld voor langere reorder buffers. Zoals reeds eerder aangehaald gebeurt de uitvoer in 'bursts', maar ligt de gemiddelde IPC niet veel hoger dan 1. Door die bursts dus op te vangen met langere buffers kan men met een beperkt aantal pijplijnen toch twee threads bedienen. En de langere buffers nemen zelfs minder plaats in omdat ze pointers naar een fysiek registerbestand bevatten, in plaats van de data zelve. De Hyper-Threading prestaties zijn dus verhoogd zónder extra transistors. Ook de toevoeging van AVX, dat de floating-point prestaties verdubbeld, werd verwezenlijkt met een absoluut minimum aan extra transistors. Ook de spronvoorspelling en instructiedecodering werd steving onder handen genomen en vond Intel dus belangrijker dan extra pijplijnen.

En nogmaals da's ronduid logisch. Een extra pijplijn zou, mede door de langere buffers, amper ooit een nuttige bijdrage leveren. Het zouden grotendeel ongebruikte transistors zijn.

Een Bulldozer module heeft méér pijplijnen maar net omdat ze niet volledig gedeeld worden blijft het gezamelijke gebruik laag.
Dat lijkt me sterk met maar 50% meer execution units
hoezo 50% meer?
AMD zegt per module (dus per 2 cores) 80% van de performance van een normale dual core te kunnen halen.
dus precies de zelfde hoeveelheid execution units als bij de dual core alleen dan met een gedeelde fetch en decoder.
maar tijdens een 'burst' wordt men gelimiteerd door de decoders.
zelden waar. de instructies worden 1 keer gedecodeerd en daarna meestal, omdat de meeste code loops zijn, meerdere malen uitgevoerd.
Dit is even slordig rekenen.
AMD zegt dat de tweede core 80% toevoegd aan de eerste core.
De twee cores leveren dus 180% in vergelijking met een single core.
Er is geen enkele dualcore die 200% levert.
Sterker, de eerste generaties dualcores kwamen vaak niet aan de 180%.

Als een gewone dualcore 200% van de hardware van een singlecore heeft, en deze heeft 112% van een single core, dan is het gewoon een erg goed doordachte architectuur.

Een single core met hyperthreading heeft 105% van een gewone singel core en levert 90%-130% van de prestaties.
AMD zegt dat de tweede core 80% toevoegd aan de eerste core.
Neen, "The firm claims a Bulldozer module can achieve 80% of the performance of two complete cores of the same capability."

Ik denk dat ze hiermee bedoelen twee cores met hetzelfde aantal pijplijnen als één module. Met andere woorden wat ze zeggen is dat de gedeelde front-end voor 20% lagere prestaties zorgt.

Het zegt niks over hoeveel sneller een Bulldozer module is ten opzichte van één Phenom II core.
hoezo 50% meer?
http://www.anandtech.com/...tures-at-hot-chips-2010/5

Van 8 naar 2 x 6.

Maar qua poorten is het zelfs minder dan 50%. Bulldozer kan tot acht integer instructies schedulen, Phenom II tot zes instructies. En het verschil wordt nog kleiner als je ook de floating-point pijplijnen, die in wezen niet veranderd zijn en gedeeld moeten worden tussen de cores, meerekent.
dus precies de zelfde hoeveelheid execution units als bij de dual core alleen dan met een gedeelde fetch en decoder.
Als men het vergelijkt met een dual-core met dezelfde hoeveelheid execution units kan ik dat 80% cijfer best begrijpen. Maar we dienen hier te vergelijken met een Phenom II dual-core, of beter nog een Sandy Bridge dual-core. En dan zie je dat Bulldozer's cores maar magertjes uitvallen. Dat het Hyper-Threading bijbeent kan ik nog geloven, maar men kan niet uit het ijle een module met vier decoders laten presteren als twee volwaardige cores.
zelden waar. de instructies worden 1 keer gedecodeerd en daarna meestal, omdat de meeste code loops zijn, meerdere malen uitgevoerd.
Bulldozer heeft geen cache voor gedecodeerde instructies. En laat dat nu net hetgene zijn dat Sandy Bridge wél toevoegt aan z'n front-end. Sandy Bridge's Hyper-Threading zal dus minder vaak gelimiteerd zijn door de decoders.

[Reactie gewijzigd door c0d1f1ed op 19 november 2010 04:39]

nee, we vergelijken met een dual core van van bulldozer die niet dit gedeelde ontwerp heeft., zo heeft AMD het altijd gesteld. (core with the same capability)
Dat het Hyper-Threading bijbeent kan ik nog geloven,
meerdere review sites, inclusief anand, hebben al gezegt dat dit ontwerp veel sneller zal zijn als wat hyperthreading kan doen.

en de cache voor gedecodeerde instructies zat al in core2, de loop detectie namelijk.
En het verschil wordt nog kleiner als je ook de floating-point pijplijnen, die in wezen niet veranderd zijn en gedeeld moeten worden tussen de cores, meerekent.
wat?
ik geloof dat je wat gemist hebt.
zolang je op 128bit of minder blijft kunnen beide cores het zelfs tegelijk gebruiken, alleen bi AVX moeten ze echt delen. maar die word nog weinig gebruikt in software (omdat er nog geen hardware voor is op het moment)
daarbij heeft de FP zijn eigen schedualer, en hoeft die dus niet te delen met de int, zoals bij intel of de k10.5
een FP instructie neemt dus geen tijd in gebeslag van een int.
http://blogs.amd.com/work/2010/10/25/the-new-flex-fp/

" The beauty of the Flex FP is that it is a single 256-bit FPU that is shared by two integer cores. With each cycle, either core can operate on 256 bits of parallel data via two 128-bit instructions or one 256-bit instruction, OR each of the integer cores can execute 128-bit commands simultaneously."

[Reactie gewijzigd door Countess op 19 november 2010 12:58]

meerdere review sites, inclusief anand, hebben al gezegt dat dit ontwerp veel sneller zal zijn dan wat hyperthreading kan doen.
Ja, maar men vertrekt van minder krachtige cores, én haalt er nog wat pijplijnen uit.

Dus nogmaals ik laat me graag verrassen en het is mooie technologie maar ik verwacht niet dat het een Sandy Bridge core met Hyper-Threading voorbijstreeft.
en de cache voor gedecodeerde instructies zat al in core2, de loop detectie namelijk.
Neen, de Loop Stream Detector in Core 2 bevatte niet-gedecodeerde instructies. De decoders kunnen dus nog steeds een bottleneck vormen (en dan met name vooral bij Hyper-Threading). Vanaf Nehalem werd de buffer achter de decoders geplaatst (28 entries). En met Sandy Bridge worden niet alleen micro-instructies van lussen opgeslagen, maar alle instructies (1500 entries).

De kans dat de decoders een bottleneck vormen is bij Sandy Bridge dus zeer klein. Maar Bulldozer mist al dit moois, en dat is waar ik het over had! Die extra pijplijnen hebben weinig betekenis als de front-end vaker een bottleneck vormt.

80% van de prestaties van een dual-core met hetzelfde aantal pijplijnen klinkt mooi, maar het is maar 33% meer poorten dus 80% van 133% is ~100%. Zap. Weg voordeel.

De enige workload die sneller zal zijn, is slecht geoptimaliseerde code met lage ILP. Maar laat dat nu net de code zijn die niet prestatiekritisch is!
als jouw verhaal klopt dat zou het geen enkele zin hebben voor AMD om 3 shedualers en 2 int + 1 FP units te hebben want de decoder is altijd de bottleneck...
AMD doet wel eens rare dingen maar...

[edit:]
een AMD medewerken verwoordt het zo
http://www.amdzone.com/ph...mp;t=137432&start=625

"A. None of the attempts at diagrams are 100% accurate
B. None of our diagrams show L1 cache implementation
C. We aren't building a bottleneck

Give the engineers some credit for thinking this stuff through. Not all of the data is out there."
[/edit]

daarbij zouden ze dan hier dan heel hard liegen

http://blogs.amd.com/work...ozer-20-questions-part-3/
And don’t worry about the single threaded performance –we have already stated publicly that Bulldozer single threaded performance is expected to be higher than our current core architectures.
per core dus sneller als de huidige architectuur.
dus ook als ze alle 8 worden gebruikt, zelfs met die gedeelde decoder.
80% van de prestaties van een dual-core met hetzelfde aantal pijplijnen klinkt mooi, maar het is maar 33% meer poorten dus 80% van 133% is ~100%. Zap. Weg voordeel.
Ja, maar men vertrekt van minder krachtige cores, én haalt er nog wat pijplijnen
uit.
AMD zegt dat die 3de AGU poort bij de k10 nooit echt heeft bijgedragen aan de performance en dat die weg halen ook geen noemenswaardig negatief effect heeft op de prestaties. de ALU meer, maar word ruimschoots gecompenseerd.

uitleg van anand
http://www.anandtech.com/...tures-at-hot-chips-2010/5
"Each scheduler has four ports that feed a pair of ALUs and a pair of AGUs. This is down one ALU/AGU from Phenom II (it had 3 ALUs and 3 AGUs respectively and could do any mix of 3). AMD insists that the 3rd address generation unit wasn’t necessary in Phenom II and was only kept around for symmetry with the ALUs and to avoid redesigning that part of the chip - the integer execution core is something AMD has kept around since the K8. The 3rd ALU does have some performance benefits, and AMD canned it to reduce die size, but AMD mentioned that the 4-wide front end, fusion and other enhancements more than make up for this reduction. In other words, while there’s fewer single thread integer execution resources in Bulldozer than Phenom II, single threaded integer performance should still be higher."
De enige workload die sneller zal zijn, is slecht geoptimaliseerde code met lage ILP. Maar laat dat nu net de code zijn die niet prestatiekritisch is!
volgens AMD is dat juist wat hyperthreading goed doet (omdat die alleen optimaal kan werken als de software veel gaten laat vallen tussen de instructies) en dat hun systeem juist is ontworpen om niet alleen dan zin te hebben, maar altijd goed te werken

edit 2:
Maar Bulldozer mist al dit moois, en dat is waar ik het over had!
waar staat dat precies? dat bulldozer dat niet heeft. want we weten nog een hele hoop niet over de chip.

hier staat er in ieder geval wel een trace cache (2x 4 kB (8-way associative) voor elke module) op het diagram (een officiële AMD slide)
http://www.chw.net/2010/04/amd-bulldozer-en-exclusiva/2/
en met uitleg waarom deze site van mening is dat de decoders GEEN bottleneck vormen.
en andere sites heb ik er ook niet over gehoord, wat wel het geval zou zijn geweest als het echt zo'n groot probleem zou zijn geweest.

de slide is overigens van deze maand, dus vrij recent. van de Financial Analyst Day wel te verstaan. dit is ook de eerste keer dat ik hem zie.

[Reactie gewijzigd door Countess op 20 november 2010 03:04]

waar staat dat precies? dat bulldozer dat niet heeft. want we weten nog een hele hoop niet over de chip.
Nogmaals, ik hóóp dat ik het fout heb en verrast zal worden! Maar voorlopig kan ik enkel afgaan op wat er wél in de diagrammen voorkomt, toch? En dat is welliswaar boeiend, maar AMD heeft een heel pak in te halen. Ik laat me niet afleiden door enige 'magie' die ze nog in petto zouden hebben, want ook Intel heeft duidelijk niet stil gezeten:

"With Hyper Threading enabled, the Core i5 2400 is actually dangerously close to the 6-core 980X. Whatever Intel has done to Sandy Bridge's FP is big."
Octacore draaien al in de AMD server's dus ze zijn al goed ontwikeld.
Toch lijkt het mij wel wat om 8-core te hebben, ben ook zeer beniuwt naar de spec's :)

Kevinp:Leuk, die vele cores, maar maar al te veel applicaties zijn nog single thread geschreven...

Idd in mederheid van de applicaties zijn nog single maar ik hoop dat ze in de toekomst ook meder-thead's gaan ondersteunen

Leuk nieuwtje van AMD
Edit:Dit zat er aan tekomen

[Reactie gewijzigd door dustx op 18 november 2010 10:35]

de huidige octo-cores bestaan wel uit 2 quad core die's.
2 quadcores in een package/ 1 socket.
maar aangezien elke socket ook 4 channel geheugen heeft, heeft dat geen negatief effect op de prestaties.

maar om deze octo core met de huidige te vergelijken daar verschillende ze veel te veel voor.

[Reactie gewijzigd door Countess op 18 november 2010 14:43]

Wat ik me af vraag of amd ook deze nieuwe cpu's op 32nm maakt...
Gaat volgens mij weer een strijd worden met intel als ik het zo hoor.
De Zambezi-core is voorzien van AMD's Turbo Core-technologie en geschikt voor het AM3+-platform met ddr3-geheugen van 1866MHz. De processors worden op 32nm volgens een soi-procedé gebakken en zijn verkrijgbaar in quad-, hexa- en octacore-varianten
De processors worden op 32nm volgens een soi-procedé gebakken en zijn verkrijgbaar in quad-, hexa- en octacore-varianten.
Astu, staat gewoon in de tekst.

En het is even afwachten waar Intel mee komt (en of ze overclocken moeilijk/onmogelijk maken) maar ik evrwacht inderdaad weer een hele battle.

[Reactie gewijzigd door Chocola op 18 november 2010 10:43]

Ik heb zo'n vermoeden dat Intel heel binnekort een aankondeging gaat doen. De stap naar octacores is dus blijkbaar al gemaakt door AMD, maar Intel zal niet veel verder achter lopen, of sterker nog, ze lopen misschien wel voor op AMD! Anyway, als de specs & prijzen bekend zijn kunnen we pas echt gaan praten.
De stap naar octacores is dus blijkbaar al gemaakt door AMD, maar Intel zal niet veel verder achter lopen...
c0d1f1ed in 'nieuws: AMD Zambezi komt in quad-, hexa- en octacore-variant'

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Luchtvaart Crash Smartphones Laptops Apple Games Politiek en recht Besturingssystemen Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013