Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 63 reacties

AMD gaat het aantal cores in zijn serverprocessors drastisch opvoeren van de vier die de Barcelona momenteel bevat naar twaalf in de 'Magny-Cours' die in 2010 moet verschijnen.

De vrijgegeven nieuwe serverroadmap van AMD toont nog meer nieuwtjes. Randy Allen, hoofd van AMD's server- en workstationdivisie, maakte de nieuwe roadmap 7 mei bekend tijdens een conference call. Tot en met 2008 zijn er geen grote wijzigingen in de bestaande plannen. Zo zal eind 2008 AMD's eerste 45nm-quadcore Shanghai-processor worden uitgebracht. Interessant wordt het in 2009. De geplande achtcore 'Montreal'-chip, bestaande uit twee aan elkaar gesmeedde Shangai-quadcores, is verdwenen uit de lijst met serverchips, terwijl de Istanbul met zes kernen en 6MB L3-cache is toegevoegd. Deze moet het in de tweede helft van 2009 opnemen tegen Intels zesklapper Dunnington.

De echt grote wijzigingen komen in de eerste helft van 2010. Niet alleen zal dan de Sao Paulo, een verbeterde versie van de Istanbul met zes kernen verschijnen, maar we zien dan ook de Magny-Cours het podium betreden met twaalf cores en 12MB aan L3-cache. Dit laatste model bestaat uit twee Sao Paulo-dies op één processor. De Magny-Cours en de Sao Paulo hebben vier Hypertransport 3.0-links, tegenover drie in de Barcelona, Shanghai en Istanbul. Daarnaast zijn de twee voorzien van een 'probe filter', waardoor er minder verkeer tussen de caches van de processorkernen nodig is om cache coherency te behouden. Onbekend is van hoeveel L2-cache de cores voorzien zijn. De Magny-Cours en Sao Paulo maken gebruik van ddr3-geheugen.

Verder blijkt uit AMD's blauwdruk dat het bedrijf de serverchipsets van Nvidia verruilt voor modellen van eigen makelij en dat de Magny-Cours en de Sao Paulo gebruikmaken van een nieuwe processorvoet met de codenaam 'Maranello', voorheen bekend onder de naam 'Piranha'. In 2010 zullen de serverchips van AMD de 35nm Westmere-processor van Intel tegenover zich treffen en misschien wel de Larrabee met een onbekende hoeveelheid cores. Het is onbekend wanneer AMD de Bulldozer-kern in zijn server- of desktopchips zal introduceren.

Update: Het lijkt erop dat het nieuws van gisteren over de Hydra-serverchip met acht kernen met de bekendmaking van de nieuwe roadmap niet juist is gebleken.

AMD roadmap server Magny-Cours Sao Paulo

Gerelateerde content

Alle gerelateerde content (24)
Moderatie-faq Wijzig weergave

Reacties (63)

Ben blij dat AMD niet hardnekkig vasthoud aan hun "native multi-core" idee, en dat ze dus nu ook dezelfde weg als Intel bewandelen en twee (of meer) dies tot één CPU samensmelten daar waar nodig is.

Hun HyperTransport leent zich daar juist perfect voor, en ze hadden een jarenlange voorsprong op Intel kunnen hebben die nog steeds geen QuickPath CPU op de markt heeft.

Als AMD dus vele jaren terug de simpele weg had gekozen, dan had de Phenom nooit de achterstand opgelopen die het nu heeft (de TLB bug was dan namelijk ook nooit ontstaan, omdat L3-cache niet gedeeld zou zijn over beide dies). Blijft koffiedik kijken natuurlijk, maar de marketing praat tussen de twee CPU makers heeft meer drama dan een gemiddelde soap (zeker met de aankomende monopolie rechtzaak in 2009), omdat AMD nogal vel afging tegen Intel met hun non-native ontwerp.

[Reactie gewijzigd door Ron.IT op 8 mei 2008 16:20]

Dus deze 8-core van gisteren is al weer geannuleerd?
nieuws: AMD komt in 2009 met achtcore 'Hydra'-processor
Als je de raodmap even doorblader zie je op pagina 21 dat ie er nog altijd bij staat!
“Montreal”
Octal- & Quad-
Core
• 1M L2/core
• 6-12M L3
• DDR-3
• 4x HyperTransport 3
• AMD-V

Wat wil je nog meer... :)
Dat is de pdf van de 'oude' roadmap uit december 2007
De roadmap van AMD is nu niet 1 van de betrouwbaarste de laatste jaren. Teveel aangekondigde modellen worden veel te laat uitgebracht, zowel conform roadmap als daarmee de achterstand op Intel.

Een roadmap is met name bedoeld voor mensen die op een bepaalde core wachten. Als je er dan al op wacht is het wel iedere keer bitter om nog eens langer te moeten wachten, wat vaak resulteerd in een overstap naar de concurrent ;)

En dat is nu net het probleem van AMD, ze kunnen niet op tijd concurreren met Intel waardoor toch vele AMD gebruikers de overstap naar Intel maken.
Hmm die van Intel is ook niet alles. De Q9450 bijvoorbeeld zou vorig jaar september al uitkomen.
Inmiddels wordt hij mondjesmaat uitgeleverd.
idd. ik denk dat we gewoon wat optimistisch moeten blijven. Ik bedoel toen we de R600- radeon 2900XT voor het eerst zagen vonden we dit in het begin ook een beetje een flop door zijn excersieve energie gebruikterwijl toen de rv670 helemaal klaar was we 3 geweldige kaarten gezien hebben de 3850 3870 en 3870x2. Ik denk dat het ook zo gaat met de phenom. eerst had hij wat flaws TBL bug lage clocks etc.. maar nu de B3 stepping er is zien we dat amd hard aan de weg aan het timmeren is om het gat tussen intels quads dicht te timmeren. zodra ze de 45nm versie introduceren zal het sneller gaan denk ik. meer cache en betere clocks zullen het em doen.
Processors die ook daadwerkelijk werken als ze uitgebracht worden :)

Persoonlijk hoop ik dat AMD het hoofd nog boven water kan houden zodat er concurrentie blijft bestaan. Maar hoe lang AMD het nog vol gaat houden is een grote vraag.
Tijd zal het ons leren.
Het lijkt me erg sterk dat er niks tussen zes en twaalf cores komt.
Nope, zoals ik het lees is de "montreal" processor van de lijst verdwenen, niet de hydra

Ik vindt het trouwens vreemd dat er aan de ene kant namen als hydra worden gebruikt en aan de andere kant plaats namen.. en waarom Magny-Cours... off all places. Komt niet in de buurt van een barcelona of istanbul
Magny-Cours, Barcelona en Istanbul hebben alledrie een F1-circuit. Montréal overigens ook.

Is dat toeval?

[Reactie gewijzigd door MacPoedel op 8 mei 2008 16:29]

AMD sponsort voor F1/ferrari geloof ik.
Ik geloof dat je een beetje verkeerd denkt.
Ieder dorp heeft wat jij zegt.
Maar er zijn maar weinig circuits in de wereld waar een F1 race gereden wordt.
Dus dit is weldegelijk een zeer sterk verband.
Ja zover ik weet zijn de namen inderdaad afgeleid van Formule 1 / A1GP

AMD is een van de hoofdsponsors van het Ferari team en Ferari verzorgd het komende seizoen ook de auto's voor de A1GP (ontwerp/bouw/motoren) en waarschijnlijk gaat die sponsoring dan ook door

Behalve dit heb ik link F1 - CPU namen verschillende keren gelezen
Dat lijkt me logisch; daarom heet de nieuwe voet ook Maranello!
over een paar jaar dan 3Gigacores, allemaal op 3Gigahertz :X
Ik denk eerlijk gezegd dat we wel die kant opgaan. Ipv steeds sneller in GHzjes zullen we meer in de breedte gaan, waardoor multicore omgevingen zeer makkelijk ingezet kunnen gaan worden. Dus systemen met enkele 1000en cores zullen in de toekomst heel normaal zijn (voor high-end servers natuurlijk). De kans dat de cores dan een onderverdeling krijgen, waarbij er een aantal zijn voor een specifieke taak of er een paar worden geoptimaliseerd lijkt me daarin dan weer wel heel groot. Maar ik voorzie een zeer grote schaalvergroting in de breedte.
Goed punt maar ik denk het niet. Het probleem is nog steeds dat veel servers geen multi-role machines kunnen/mogen/moeten zijn in enterprise-omgevingen maar desondanks voldoende hebben aan een dual/quad-CPU met wat geheugen. Dat zou betekenen dat Intel en AMD allebei 2 lijnen CPU's moeten gaan ontwikkelen, eentje voor "all-in-one servers" en eentje voor "single-role servers".

Tja, dan is de vraag of gespecialiseerde CPU's in fysieke machines handiger zijn dan universele CPU's voor virtuele machines; ik ben in ieder geval van mening dat de rol van een OS op een stuk hardware veeeel groter is dan hardware afstemmen op de rol van het OS.
Developers bij Sun zijn momenteel bezig juist de aansturing van de cores weg te halen bij het OS. Ofwel het besturings systeem gaat weer 1 processor zien en de processor zal daarna het werk zelf verdelen over de verschillende cores. Althans dat zijn momenteel enkele geruchten over de UltraSparc T3 (32nm) welke dan met maximaal 24 cores met elk 256 threads (instructie pipelines) wordt uitgerust. De eerste T3 processors staan meen ik voor 2013 op de agenda.

Het maakt in dat geval dan ook niet meer uit of je dan de server gebruikt als dedicated webserver of hem inzet als een vmware server. De CPU regelt dan welke cores welke taak afhandelen.

De Niagara pipelines kunnen al de queue volgorde aanpassen (i.e. taak naar andere pipeline verplaatsen) zodat deze al wordt uitgevoerd terwijl de huidige instructie nog op een 'signal' wacht. Vooral op database gebied bewijst de T2 zijn meerwaarde. Elke T2 core bevat namelijk 4 processing engines, waarmee de T2 maximaal 32 parallelle instructies kan uitvoeren.
Eens! Maar ongeacht het merk Sun/Intel/whatever is het in een aantal gevallen onmogelijk tot zeer problematisch om 1 stuk hardware (zeg een Proliant 580) in te richten met verschillende server-rollen. Mijn ervaring, en dan 99% gebaseerd op Windows-OS, is dat je bijvoorbeeld Exchange en SQL never op 1 stuk hardware mag installeren.

Dit betekent dus dat het idee van Terw_Dan en in jouw voorbeeld de Sun-CPU niet handig is voor een omgeving waar je Exchange en SQL wil draaien; je hebt dan alsnog aparte stukken hardware nodig om elk een rol (hetzij Exchange, hetzij SQL) af te handelen.

Begrijp me niet verkeerd; CPU's die zelf taken gaan verdelen zijn natuurlijk een hele goed uitvinding maar zolang alle bovenliggende OSI-lagen het niet snappen/mogen, dan is differentiatie op CPU-niveau never nooit handig.
Pardon? Ongeacht het merk? Je hebt inderdaad zoals je zelf vermoedt last van Windows-blindheid. Echte Operating Systems hebben fatsoenlijke partitionering (en dan bedoel ik niet VMware en twee OS instances). Een Sun CPU is niet handig met Exchange, nee (is nl Windows) maar Oracle draait netjes in een Solaris Container. IBM kan hetzelfde in AIX, en ik geloof dat HP-UX ook iets in die richting heeft.
Je vergeet het magische woord virtualisatie. Beide systemen staan op dezelfde hardware maar hebben dat in het geheel niet door
Veel machines mogen dan wel geen multi-role zijn, maar samen met virtualisatie zoals ESX sla je twee vliegen in 1 klap en kun je wel met multi-cores uit de voeten en nog steeds elke virtuele machine bij 1 taak houden.

De vraag is niet of het voor de servermarkt interessant is, maar is het wel zo interessant voor de consumenten?

Deze groep draait hooguit 1 a 2 zware taken tegelijkertijd. Het komt dan neer op de vraag hoe goed die 1 a 2 taken op te splitsen zijn in losse threads die goed parallel kunnen lopen. Heeft het dan wel zin om de breedte in te gaan met meerder cores op lagere snelheid, in plaats van 1 a 2 cores die heel snel zijn?

De hoeveelheid cores lijkt nu een maatstaaf te gaan worden voor snelheid. Jammer ook voor de innovatie, 'enige' wat AMD en Intel nu lijken te doen is verkleinen en (oude) cores aan elkaar plakken.
Interessante toekomst, de grote vraag: gaan de ontwikkelingen op multikern-gebied ook ongeveer exponentieel worden (1, 2, 4, 8, 12, 24, 48 enzovoorts)? En natuurlijk los daarvan is er de vraag of de meerdere kernen ook nuttig/effectief gaan worden besteed?

[Reactie gewijzigd door Tjeerd op 8 mei 2008 16:11]

Meerdere kernen worden al jaren nuttig/effectief besteed! Probleem is dat 99.999% van alle mensen kijkt naar hoe een multi-core onder Windows XP/Vista/2000 werkt en dan voornamelijk met "eenvoudige software" zoals Office, spelletjes etc. Tja, daar is inderdaad nog amper multi-core of multi-CPU ondersteuning voor. Gelukkig is dat op servergebied al dik 10 jaar anders geregeld dus geen greintje pijn op dat gebied.
Multicore of multi-processor is toch wel net iets anders. Voor die multicore ondersteuning zullen wel wat aanpassingen aan de software moeten gebeuren denk ik.
Absoluut niet anders! De functionaliteit in code van de software moet zoveel mogelijk verdeelt worden over threads, en dit betekend niets anders dan kleine processen die tegelijk (kunnen) lopen. Sterker nog, software houd zich behalve multithreading helemaal NIET bezig met single of multi core/processors en hoe het daar gebruik van moet maken, dat doet namelijk je OS.
Je OS verdeelt de threads en processen netjes over 1 of meerdere cores of processoren. Inderdaad, multithreading kan ook op één processor plaats vinden, dat is in feite wat er al van oudsher tot op heden gebeurt. Processen worden afwisselend afgehandeld door je CPU zodat je de illusie hebt van multitasking, terwijl je CPU eigenlijk gewoon 1 voor 1 zijn wachtrij er doorheen werkt. Bij multicore is het niet anders, alleen weet je OS dat er een 2e (of meerdere) cores zijn waar het zijn taken heen kan sturen, maar je kunt nog steeds de illusie hebben dat je in 10 programma's tegelijk werkt met maar 2 cores of processoren.

[Reactie gewijzigd door ravenamp op 10 mei 2008 11:03]

Multicore of multi-processor is toch wel net iets anders.
Eh, nee. Voor software is er niet echt een verschil.
Ja lekker makkelijk.... Op server gebied is het dan ook doodeenvoudig om multi-core te werken. Omdat je zoveel taken tegelijk hebt lopen, kun je meerdere ouderwetse domme single threaded taken prima op multi-core laten lopen.

Op workstation gebied is dat een heel andere kwestie... Daar loopt i.h.a. maar één enkele actieve taak. Dus moet je de software intelligenter worden, en die enkele taak multi-threaded maken. Dat vergt een nieuwe manier van werken, en dat blijkt in de praktijk aardig lastig.

En dat heeft dus ook niets met het OS te maken.
@MacPoedel & AHBdV: ik zeg nergens dat het aan het OS ligt maar aan "eenvoudige software". Denk dat we allemaal wel weten dat hele generaties Windows-families al ondersteuning bieden voor multi-core of multi-CPU maar dat overige software dat niet snapt. Dus ja, jullie hebben allebei gelijk omtrent de aanpassingen richting multi-threading voor software anders dan het OS.
Je hebt ten dele gelijk; Op servers is het verdelen van de last gemakkelijk doordat er vele gelijkwaardige taken uitgevoerd worden. Voor een Windows programma is dat minder het geval, maar dat wil niet zeggen dat je niet alsnog multi-threaded verschillende taken kunt verdelen. (ook binnen één applicatie!) Dat dit lastiger is dan een enkele thread meermaals te spawnen hoef ik geen programmeur hier uit te leggen. Er is dus wel degelijk een mogelijkheid op een voordeel voor de prestaties van desktops.

[Reactie gewijzigd door 0rbit op 8 mei 2008 17:47]

Zo triviaal is dat niet altijd: een server met slechts 1 database, die meerdere read en write queries tegelijk moet uitvoeren, en daarbij consistency van de database in de gaten moet houden over meerdere threads: niet eenvoudig.

Alleen-lezen en dergelijke kan weer wel makkelijk ge-multicored worden...
Voor servers zijn meerdere cores essentieel, maar momenteel gaat het echt naar een hype toe. Niet alle toepassingen zijn geschikt om multi-threaded geprogrammeerd te worden.

Me eigen ervaring is dat ik liever een beperkt aantal cores in een middel grote server heb(8-16) die stuk voor stuk zeer snel zijn dan 128 trage cores er tegenaan te gooien. Laatste is slechts met sommige toepassingen zinvol terwijl de eerste oplossing altijd wel goed werkt...
Ik zie anders toch toekomst voor een CPU met 128 erg trage cores die op 1 microwatt ofzo kan werken...misschien dat er ooit nog wel eens krachtige GSM's komen met een batterij die je maar 1 keer om de 2 maand ofzo moet opladen B-) Of wat dacht je van robotvlieg die volledig zelfstandig kan opereren met krachtige AI, zonne-energie en een batterij voor 's nachts.
Hoeveel apps multithreaded zijn is niet zo heel interessant. Het gaat om Virtualisatie ;) Veel servers draaien tegenwoordig virtueel een aantal servers tegelijk om kosten te besparen. Speciaal voor dat segment is multicore processing essentieel!
Met een AMD met 3 kernen die ze al hebben (ook al is er 1 van de 4 uitgeschakeld) lijkt het me waarschijnlijker dat er zoiets als 4 kernen (2x2), 6 (2x3), 8 (2x4), 9 (3x3), 12 (3x4), 16 (4x4), 20 (5x4), 25 (5x5) etc. zullen volgen.

Ook de efficiency waarmee chips uit de die gesneden kunnen worden zal wel meetellen. Toch? :)
AMD streeft denk ik ook naar zo min mogelijk verlies...
Die met 3 kernen is er eigenlijk één met 4 kernen waarvan er 1 gewoon uitgeschakeld is. Daar zit dus niet één of andere symmetrie in. Volgens mij zullen het wel grotendeels veelvouden van 4 of 2 zijn hierna, niet van 3.
Dat hoeft niet maar ligt wel voor de hand.

Stel dat je een CPU met N kernen maakt. De kans dat één van die N kernen kapot blijkt is vrij groot en neemt toe bij toenemende N. Dan kun je de hele CPU weggooien als je vasthoudt aan het N-kernen principe.

Als je stelt dat N een macht van twee moet zijn (om zo toch nog iets van uniformiteit te garanderen) dan zul je blokken van M kernen moeten uitschakelen (dus ook potentieel kernen die niet kapot zijn!) waarbij M een macht van 2 is.

Bijvoorbeeld; Je maakt een CPU met 32 kernen. Er blijken er 2 kapot. Je levert echter geen CPU met 30 kernen, want dan zou je wel heel veel verschillende produkten moeten leveren. Dat is niet handig voor de marketing en onoverzichtelijk voor de klant. Dan moet je noodgedwongen van die 30 kernen er nog 6 bijvoorbeeld uitschakelen om de CPU als 24-core te verkopen.

Misschien doen ze het wel slimmer; De yields voor CPU's met 32 kernen leg je vast op 95%. Vervolgens bepaal je hoeveel kernen je daadwerkelijk in de CPU moet bakken om er in 95% van de gevallen 32 werkend te krijgen. Stel dat dit er 36 zijn. Dan kies je van de maximaal 36 kernen altijd de 32 snelste. De rest schakel je uit. Daar gaat overigens een enorme hoeveelheid testwerk in zitten en dat is niet goedkoop, zelfs niet als is het geautomatiseerd.

[Reactie gewijzigd door 0rbit op 8 mei 2008 17:58]

Eerder 24 (6x4) dan toch? Ze hebben nog geen 5core chips.
In 2010 zullen de serverchips van AMD de 35nm Westmere-processor van Intel tegenover zich treffen...
Effe mieren**ken:
Volgens de info die ik heb kunnen vinden (geen officiele Intel Roadmap), zal de Westmere geproduceerd worden m.b.v. 32nm-technologie en "al" in 2009 het levenslicht zien (maar ja, eind 2009 is ook bijna 2010 ;)). Gevolgd door 22nm-technologie in 2011.

[Reactie gewijzigd door Theadalus op 8 mei 2008 16:33]

Tot op zekere hoogte heb je gelijk ware het niet dat Intel in 2010 ook nog een andere 32nm'r op de markt wil zetten, namelijk de Sandy Bridge, maar dan wel van een hele andere infrastructure dan de Westmere.

PS: Geachte Redactie voor op/aanmerkingen ;)

[Reactie gewijzigd door MAX3400 op 8 mei 2008 16:34]

Ze gaan wel snel met die nm-technogolieën, maar toch houden ze de stappen klein. Waarom slaan ze niet gewoon wat stappen over? Dat zou ook goedkoper moeten zijn.
omdat je dan 2 jaar langer moet wachten met de overstap omdat ASML de machines voor dat process nog niet heeft ontwikkeld en jij er vervolgens nog niks mee hebt leren maken. en dat kost veel meer geld.
dat je je machines vaker moet vervangen is geen probleem, die kan je zonder al te veel verlies weer doorverkopen.

en kleine stappen? elke keer word de oppervlakte van een bepaalde hoeveelheid transistors gehalveerd!
Fudzilla meldde dat nieuwtje met grote stelligheid, maar de Hydra stond nog niet op officiele roadmaps. De Montreal daarentegen wel. Het lijkt er inderdaad op dat er geen quadcore serverchips zullen verschijnen.
Owjah, de Ghz race is voorbij dus nu krijgen we de core-race waarbij innovatie wordt teruggeschroefd om maar meer cores op 1 die te proppen... :X De geschiedenis herhaald zich.
innovatie wordt teruggeschroeft?

IPC gaat omhoog
SSE 5 is toegevoegd
Performance per wat gaat omlaag omhoog (thx Jogai ;)) (itt de gigaherz race)
Er komen low power cpu's (zie de atom) uit die echt interessant zijn

hoezo innovatie wordt teruggeschroeft?

[Reactie gewijzigd door thekip op 8 mei 2008 21:25]

performance per watt gaat omhoog mag ik aannemen..
Hoezo wordt de innovatie teruggeschroeft?
Welke geschiedenis herhaalt zich?


offtopic:
had refresh moeten doen :)

[Reactie gewijzigd door stereohead op 8 mei 2008 17:01]

Het zijn allemaal Formule-1 circuits, de codenamen:
Sao Paulo, Montreal, Istanbul, Magny-cours, Shanghai.

Wil AMD hiermee aangeven dat ze razendsnelle CPU's gaan maken?

En de naam Maranello voor het voetje, ja, da's indeed Ferrari-town.

Barcelona is btw ook de locatie van een F-1 race, maar zo snel is die niet gebleken te zijn.

Maar het is allemaal leuk en aardig, deze core-race, maar laat AMD eerst maar weer eens bewijzen dat ze serieus te nemen zijn op proc-gebied. Goed, het Barcelona debakel hebben ze wel in check, maar met een roadmap geschiedenis zoals ze die nu hebben... eerst zien dan geloven.
Ben benieuwd of er ook nog een Neurenberg cpu komt :+ Die mis ik nog in dit rijtje.
Ben benieuwd of er ook nog een Neurenberg cpu komt :+ Die mis ik nog in dit rijtje.
Nurburgring...

Neurenberg werd gebruikt voor het berechten van Nazi-oorlogsmisdadigers en zal dus wel niet als CPU worden benoemd.

[Reactie gewijzigd door MAX3400 op 8 mei 2008 16:44]

gaat snel op deze manier! :)

4 cores per jaar erbij?

2009 8 cores 2010 12 cores 2015 32 cores?

[Reactie gewijzigd door pino85 op 8 mei 2008 16:40]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True