Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties

IBM is een nieuw consortium begonnen om zijn Power-architectuur aan derden te licenceren. Daarmee kunnen andere partijen hard- en software op basis van IBM's architectuur ontwerpen en in hun producten inzetten.

IBM PowerPC processorHet OpenPower Consortium, zoals de overkoepelende organisatie heet, moet het monopolie van de x86-architectuur op de processormarkt doorbreken. Door de Power-architectuur in licentie aan derden beschikbaar te stellen, zou IBM hopen zijn dalende serververkopen te compenseren. Het bedrijf verkocht afgelopen kwartaal aanzienlijk minder servers met de Power-architectuur aan boord. De x86-architectuur zou zo'n 98 procent van de servermarkt bedienen, zo meldt The Wall Street Journal.

Het OpenPower Consortium moet de Power-architectuur een groter aandeel in die servermarkt gaan geven. IBM heeft zowel zijn hardware- als software-technologie in licentie beschikbaar gesteld aan leden van het consortium. Onder meer Nvidia, Mellanox en Tyan zijn toegetreden tot het OpenPower Consortium. Het nieuwste lid is Google, dat servers met de Power-chips mogelijk in zijn datacentra zal gaan inzetten. Google en de andere leden zouden in plaats van voor x86-servers hard- en software voor servers met de Power-architectuur moeten gaan ontwikkelen.

De x86-architectuur, met Intel en AMD als hoflevenanciers, krijgt met het consortium niet alleen concurrentie van de Power-architectuur. Ook Arm, dat zijn architectuur in licentie aan diverse fabrikanten levert, is inmiddels op beperkte schaal in servers terug te vinden.

Moderatie-faq Wijzig weergave

Reacties (75)

Ik dacht dat Power op sterven na dood was... Zou dit een laatste stuiptrekking zijn of is er een ware revival te verwachten?
PowerPC wordt nog redelijk veel gebruikt in de embedded wereld. Alleen wordt het wel steeds meer door ARM vervangen, omdat die meer performance/watt leveren. Echter worden PowerPCs bijvoorbeeld nog veel in de safety-critical embedded markt ingezet waar ARM nog niet heeft kunnen overtuigen.

Overigens zie ik niet wat er nu zo nieuw is aan deze licentie, er zijn heel veel fabrikanten die licenties hebben op de PowerPC architectuur? Bijvoorbeeld Altera en Xilinx voor FPGAs, STMicroelectronics en Freescale voor embedded CPUs en Cisco voor hun routers. Recent heeft Freescale bijvoorbeeld de embedded 12-core PowerPC-based T4240 aangekondigd voor communicatie-systemen, samen met de 8-core P4080 die bijvoorbeeld voor de vliegtuigindustrie interessant is.

In servers wordt PowerPC nauwelijks gebruikt, en ik ben zeer benieuwd of dit nog gaat veranderen. Ik geef hier ARM toch de betere kansen als om performance/watt gaat.

[Reactie gewijzigd door Garyu op 6 augustus 2013 18:33]

POWER is wat anders dan PowerPC.
PowerPC werd idd al langer in licentie gegeven (mede omdat Apple/Motorola/IBM zelf geen interesse meer hebben in de architectuur).
Voor POWER is dat dus nieuw.

En idd, in servers kom je PowerPC nauwelijks tegen, zit al een beetje in de naam he? Power-PC.
De POWER was de oorspronkelijke high-end server/workstation variant. PowerPC was een simpelere architectuur die hiervan afgeleid werd, voor gebruik in PCs, voornamelijk Apple Macintosh.
Ik snap niet dat je +3 krijgt, want PowerPC is sinds 2006 hernoemd tot Power.
Da's niet helemaal waar.
Wat IBM gedaan heeft, is bepaalde common subsets van POWER en PowerPC-instructiesets onder een nieuwe "Power-architecture" ISA te plaatsen. Hier zijn verschillende versies van geweest, de afgelopen jaren.

PowerPC is dus niet hernoemd naar Power. PowerPC is dood. Het is wel zo dat bepaalde PowerPC-CPUs met terugwerkende kracht bepaalde versies van de Power-ISA implementeren.
Hetzelfde geldt voor POWER (hoofdletters dus).

Wat er hier nu nieuw is, is dat je nu dus ook POWER-architecturen in licentie kunt nemen. Eerst was dit alleen met PowerPC het geval.
Dit is het eigenlijke nieuws: http://www-03.ibm.com/press/us/en/pressrelease/41684.wss
Let op de hoofdletters bij OpenPOWER. Het gaat hier om POWER, niet Power.

[Reactie gewijzigd door Scalibq op 7 augustus 2013 18:20]

Als embedded engineer voor nu al een aantal PowerPC chips van Freescale (waaronder de nieuwe T4240) kan ik het verhaal van Garyu hierboven beamen.. voor de safety-critical tak ziet men nog erg graag de Power-architectuur; ARM en x86 hebben daar maar een klein deel van.

Elke serieuze RTOS vendor heeft ook een brede ondersteuning voor de PowerPC reeks en het is zeker geen dood paard; alleen als consument ze je er weinig van -- tot je kijkt wat er bv. in je NAS of achter het dashboard zit...

De IBM Power chips richten zich overigens meer op de grote servers, Freescale gaat meer voor de embedded hoek.

[Reactie gewijzigd door The Dutch Dude op 6 augustus 2013 19:17]

Het nieuwe is dat het nu je nu niet meer een eigen PowerPC core moet ontwerpen maar dat het nu mogelijk is een licentie te nemen op een chip ontwerp van IBM,
Klinkt leuk maar gaat ibm ook verder ontwikkelen met het ontwerp.

Je ziet nu als dat sommige arm te langzaam vinden en een eigen ontwikkeling er op los laten zoals apple.

Een chip sneller maken kost geld en een standaard ibm ontwerp zal gewoon niet snel genoeg zijn in vergelijking met x86, dat is immers de reden dat ze het vrijgeven.
Kijk anders eens daar de top 500 supercomputers, in de bovenste regionen van de lijst staat IBM/Power nog altijd sterk. Als je kijkt naar de snelste 25 bijvoorbeeld, dan heeft IBM hier zo'n 45% marktaandeel, daarnaast gaat er 45% naar Intel, de rest is voor AMD en SPARC.


Waarschijnlijk ben je in de war met PowerPC, wat wel, zeker nu Microsoft en Sony voor x86 gaan met de nieuwe consoles, op sterven na dood is...

[Reactie gewijzigd door knirfie244 op 6 augustus 2013 20:54]

het klinkt een beetje als too little too late,
maarja wie weet, als het 3-4 jaar geleden was gebeurt waren de next gen consoles wss weer Power gebaseerd geweest, en ik denk dat dat iig had geholpen, maargoed als Nvidia bijv eigen power processoren gaat maken, of ala maxwell gaat integreren met haar GPU's (in maxwell zit naar verluidt een arm core) dan kan het nog wel eens erg interessant gaan worden...

x86 staat al een tijdje stil (mainly door gebrek aan innovatie aan amd's kant)
Intel's ivy bridge E heeft bijv 12 cores op de die, maar wij krijgen er maar 6, want er is toch niets snellers... mogelijk helpt dit Intel realiseren dat ze niet alleen met AMD concureert....
Het is toch duidelijk dat er geen vraag meer is naar snellere processors? De meeste pc's zijn momenteel bijna idle aan het draaien en pieken zelden.

Ik zie hetzelfde met onze servers, zelfs op vmware met een 6 tal servers, gaat de CPU gemiddeld maar 6%.

De tijd dat er nood is aan snelheid is voorbij, momenteel focussen we ons op disk access!
loop dan dringend eens wat andere bedrijven binnen
er zijn zat professionele programma's die de huidige PC's moeiteloos op de knieŽn krijgen
ik heb laatst nog een script na een volle week rekenen stopgezet omdat het, na berekening van de vermoedelijke duurtijd) een paar maand ging duren... nu gaan we het op een andere manier proberen uit te voeren, maar daarvoor moeten we wel een weekje programeren
Tja, dat hoeft dan dus niet alleen aan de processorkracht te liggen. Er zijn legio voorbeelden waarbij er gewoon verre van optimaal geprogrammeerd is omdat de processor toch wel snel genoeg is.....tijdens het ontwikkel en test traject. Op het moment dat er dan meer belasting komt, schiet de processorbelasting ook in het rood terwijl de oorzaak dan toch echt bij het programma ligt.
Het is een kostenafweging. Vaak kan efficiŽnter best, maar kost het wel veel moeite om dat eerst voor elkaar te krijgen, en dan ook nog eens te blijven onderhouden. Developertijd kost heel veel geld. Je maakt dan ook gewoon de afweging of het snel genoeg is of niet. Als dat zo is, dan stop je met het optimaliseren op snelheid.
WMS...

Dergelijke software vind zijn oorsprong vaak al meer dan 10 jaar geleden en uitbreidingen zijn letterlijk schil boven schil. Snellere hardware lost een deel van de problemen op,
echter kern van het probleem blijft hetzelfde. De software maakt bij lange na geen gebruik van alle mogelijkheden van de huidige hardware. Dat vangen ze vervolgens telkens weer op met snellere hardware maar dat houd op een gegeven moment ook eens een keer op.

Eisen die gesteld worden zijn ook praktisch onmogelijk cq er kan niet de garantie worden afgegeven dat het gelijk werkt als het systeem van scratch wordt opgebouwd.
dan moet je ook geen kantoorautomatisering willen draaien. ik heb servers met 16 threads die regelmatig op 100% draaien.
Dan heb je dus te veel servers zo te horen.

Maar kijk naar google, die interesse heeft. die server staan niet op 6% te draaien maar eerder richting 80-100%.

CPU Architectuur is echter iets dat niet stilstaat. Arm investeerd en geld in Intel miljarden om de x86 sneller te maken en IBM heeft schijnbaar te weinig gedaan om de powerpc qua snelheid te kunnen laten concurreren met x86.

Je kan het nu vrijgeven maar dat betekend niet dat iemand de architectuur zo maar kan gebruiken en chips maken die qua snelheid vergelijkbaar zijn met x86. Je zal heel veel geld moeten investeren en blijven investeren om een cpu steeds sneller te laten worden.

Het lijkt meer op een soort noodoplossing van ibm. Als we x86 niet kunnen verslaan en geven we het maar vrij zodat anderen en misschien iets mee kunnen. Denk dat het te laat is.
Het is toch duidelijk dat er geen vraag meer is naar snellere processors?
Wat herhaalt de geschiedenis zich toch vaak zeg.

Ooit, lang geleden, kende ik iemand die processors met meer dan 100Mhz COMPLETE ONZIN vond, want... bij WordPerfect (DOS versie) draaide al alles volledig instant. Meer Mhz was volledige onzin en hij zou de boel gaan boycotten en het was alleen een samenzwering van de industrie om ons geld uit de zakken te kloppen.

Als het aan hem gelegen had hadden we nu ten hoogste frequenties gehad van 99.9Mhz en zaten we allemaal nog met software te werken zoals de DOS versie van WP :X
En hadden we geen problemen met vastlopende corrupte word bestanden.

100 MHz zegt overigens niks, hoeveel cores, hoe breed/groot is de pipeline.

Ik zie hier lokaal een ESXi test server met een gemiddelde load van 50 MHz voor een inactieve Ubuntu Server en 250 MHz voor een inactieve Windows Server.

Pieken? 4400 MHz voor zowel Ubuntu Server als Windows Server kortstondige maar wat je dan vroeg gebeurt wel lekker snel.

Probleem voor de Power architectuur lijkt me eerder ARM dan x86 want die zijn nu eenmaal goedkoop en ook krachtig te vinden voor Blade servers etc.
Hangt er maar nťt vanaf wat je doet. Misschien een beetje kantoorserver die de hele dag uit zijn neus staat te vreten, maar er zijn zŠt grote toko's (meestal banken e.d.) die toch echt wel behoefte hebben aan hele grote krakers. Wie denk je dat die dikke Sun's koopt? Of dat Oracle voor de grap een Exadata heeft gemaakt? Er zijn anders best nog wel klanten voor. Alleen niet zo veel meer als voorheen.
Zo'n hele dikke IBM is overigens ook een hele grote VM bak. Vergeet niet dat IBM die hele VM shizzle al in de jaren 60 deed. Een grote System Z server kan opgedeeld worden in LPAR's (zeg maar VM's). Da's allemaal hardwarematig, en het werkt als een speer. Kan makkelijk een groot ministerie op draaien. Zo'n System Z kan scalen tot 2000 cpu's en gaat gegarandeerd nooit zomaar uit. Ook al knip je de stroomkabels door nŠ de UPS. Zelfs dan gaat ie nog gracefull down.

Kost een paar centen, maar als je die bijzondere eisen hebt, redt je dat niet met je VMware bakkie.
Geen innovatie op x86? Daar ben ik het niet mee eens! SB was een hele stap vooruit en IB toch ook weer 10-15% sneller clock voor clock. Intel gaat ook de concurrentie aan met ARM op de markt voor tablets met de nieuwe aangekondigde Atoms (zie nieuwsbericht eerder vandaag). Daarnaast waren er zonder Intel geen Ultrabooks geweest.
ik bedoel niet dat er compleet geen innovatie is, de chips worden zuiniger, en ze worden kleinere, en nieuwe cores worden toegevoegd, echter we hadden nu al op 12 cores kunnen zitten als Intel dat had gewild. (die zitten nota bene op de die)
Er worden gewoon 6 cores afgefused omdat Intel heeft beslist dat wij die niet nodig hebben. Het punt is ook niet dat de ontwikkeling is stopgezet, de IPC gaat wel omhoog maar verder gebeurt er weinig, want intel voedt ons mondjesmaat minimale updates...

met echte concurrentie hadden we die cores al lang gehad, en daarmee een 100% toename in snelheid op goed mutlithreadable taken op high end platformen,
ik ben he tmet jullie eens, de meeste mensen hebben zal aan een dual core, laat staan een quadcore. maar er zijn mensen die echt wel gebruik kunnen en willen maken van een 12 core... voor bijv 3D rendering modeling, physics, etc.

ik weet dat ik die power in elk geval goed gebruik, maar ik moet nu een dual socket 8 core xeon kopen, voor veel meer geld omdat intel weet dat ze op die manier meer geld verdienen.

edit-
overigends was sandy bridge E uitgerust met 10 cores, die we dus zelfs als xeon klant niet krijgen... de vraag is dus of ik mijn workstation kan updaten naar een dual 12 core, of niet... zoniet dan ga ik geen geld uitgeven in elk geval, want verder is er practisch geen performance gain...

edit- @ dreamvoid:
omdat mijn software x86 compiled is ;)
Houdini en Maya

[Reactie gewijzigd door freaq op 6 augustus 2013 19:31]

Hoe weet je dat Intel ons minder innovatie biedt dan ze zouden kunnen? Heb je daar een bron bij?
Sowieso, hoe meet je de hoeveelheid innovatie?
Zijn betoog gaat kennelijk vooral om het aantal cores.
Maar dat is maar 1 aspect van de CPU. Intel heeft de Core-architectuur de laatste jaren op vele punten verbeterd. Nieuwe instructies toegevoegd, en bij iedere nieuwe generatie is de CPU ook zo'n 10-15% efficienter op bestaande code.
Daarnaast is het stroomverbruik aanzienlijk teruggedrongen (wat ik persoonlijk een goede ontwikkeling vind). Neem je bv de Nehalem, toen had je nog 130W TDP voor een quadcore met HT. Later werd dat 95W, en toen 77W. Bijna gehalveerd dus, terwijl de CPUs ook nog eens sneller werden.

En daarnaast heeft Intel dus steeds meer geintegreerd in de CPU. Eerst de geheugencontroller, daarna de PCI-e controller, en nu zit er ook een GPU in.
Die GPU wordt ook iedere generatie een stuk sneller, en is inmiddels een redelijke optie voor de lichtere games.

Dus ja, misschien dat Intel niet innoveert op het gebied waar jij in geinteresseerd bent... maar echt stilzitten doen ze ook niet bepaald.
dat klopt, voor thuisgebruik of servers is dat allemaal zeer leuk
voor workstations is dat compleet anders: het interesseert mijn baas geen ruk of dat ding nu 130W of 77W verbruikt, zolang mijn werk maar sneller vooruit gaat
de software die ik gebruik is wel multithreaded, maar helaas is de efficiŽnte toename per extra core laag
4 cores is dus nog interessant, 6 is nauwelijks sneller
moest er dus een Xeon Quad core bestaan die 130W TDP heeft en een stuk sneller is dan wat ik nu heb (geen 10% en dergelijke), dan kopen we dat gewoon
Ja, da's een beetje hetzelfde verhaal als mensen die graag zo veel mogelijk cores willen hebben: Dat is momenteel niet de richting die Intel op wil.

Intel legt juist de focus op het terugdringen van het stroomverbruik zodat ze de concurrentie met ARM aan kunnen gaan.
het feit dat de helft van de CPU gedeactiveerd is bijv.

Intel "innoveert" ook wel, maar ze leveren niet alle cores die ze zouden kunnen leveren, en houden dus performance achter wegens gebrek aan concurrentie.

Hasswell is een prima processor, maar als we Hasswell tegenover Nehalem zetten dan is het wel iets zuiniger geworden, maar niet extreem veel sneller,
zo'n 30% over 4-5 jaar dat is niet veel.

zeker als we terug kijken naar de revolutie van de 5 jaar daarvoor. of de ontwikkelingen in ARM. en Intel kan dus prima 12 cores leveren, maar doet het niet. wederom Innovatie is mischien het verkeerde woord, maar intel houdt performance bewust achter, en dat is jammer.

(en dan vragen ze zich af waarom niemand upgrade....)
Hasswell is een prima processor, maar als we Hasswell tegenover Nehalem zetten dan is het wel iets zuiniger geworden, maar niet extreem veel sneller,
zo'n 30% over 4-5 jaar dat is niet veel.
Ten eerste is het wel een stukje meer dan 30%: http://www.anandtech.com/...-i74770k-i54560k-tested/6
http://www.anandtech.com/...-i74770k-i54560k-tested/7
Die tweede test is dan nog wat eerlijker, omdat de 4770K een mainstream-CPU is, en de 965X een high-end CPU (waar nu dus LGA2011 voor is gekomen). De 920 was de mainstream-Nehalem (qua prijs beiden rond de 300 euro).

Ten tweede is Intel in die jaren flink uitgelopen ten opzichte van concurrent AMD.
owk:
http://images.anandtech.com/graphs/graph7003/55319.png
8.07/6.21 = 1.29951690821

30% sneller.
en dat is een benchmark die echt geldt, de rest kan je bijv specifieke extensions pakken etc. maar op pure power zijn we 30% vooruit gegaan...

er zijn benchmakrs waar er 40% gepakt wordt, en een paar waar het 800% is (quicksync) maar in principe is het als je de hele cpu gebruikt zo'n 30-35%
Da's 1 benchmark. Cherry-picking much?
Je berekening klopt trouwens niet.
6.21 is de i5-4670K.
Je had 5.66 moeten kiezen voor de 965X Nehalem.
Dan is het: 8.07/5.66 = 1.425.
Dus ruim 42%

Anandtech komt zelf ook ongeveer 40% uit in hun conclusie (al vind ik hun 'same clocks' criterium wat vreemd, tegenwoordig zijn de CPUs eenmaal wat hoger geklokt... Nehalem ging maar tot 3.33 GHz, en die was er bij de introductie nog niet... en kostte ook $999):
If you’re upgrading from Sandy Bridge you can expect to see an average improvement just under 20%, while coming from an even older platform like Nehalem will yield closer to a 40% increase in performance at the same clocks
Maar zoals je kunt zien, ten opzichte van de 920, die vergelijkbaar geprijsd was, is het nog wel meer dan 40%.
Als je dan Cinebench multithread pakt:
http://images.anandtech.com/graphs/graph7003/55335.png

28623/16211 = 1.765.

Dus ruim 76% meer performance voor dezelfde prijs als 4-5 jaar geleden, en dat ook nog eens tegen bijna de helft van het energieverbruik.
Da's wel vooruitgang.

[Reactie gewijzigd door Scalibq op 8 augustus 2013 10:04]

En dan zeggen ze dat AMD de boel tegenhoudt |:( terwijl Intel de 12 core Xeons terugschroeft naar max. 6.
Dat doen ze niet omdat ze niet willen dat consumenten die kracht hebben, of dat ze denken dat het niet nodig is, nee dat doet Intel omdat anders een i7 van een kleine 1000 euro de veel duurdere Xeons voorbij raast in prijs/prestatie en voor bedrijven een interessantere keuze wordt dan de Xeons.
Bovendien vind ik steeds maar 10 tot 15% hogere prestaties nou niet echt een reden voor Intel en AMD om een nieuwe CPU serie uit te brengen...
Nee de CPU markt staat al jaren zo goed als stil, de kracht die CPU's 5 jaar geleden al hadden was meer dan genoeg voor de gewone consument en alleen de echte powerusers hebben die extra 10-15% nodig.
Iedereen focust zich er zo op het 'WE MOETEN NIEUWER DA"S BETER' terwijl er niet gekeken wordt naar wat een systeem tegenwoordig nou echt snel maakt, en dat is toch echt de opslag (SSD/RAID etc.) en de GPU, voor gamers en ook voor ontwikkelaars in bijv. Visual Studio waar de CPU al lang niet meer uren op 100% moet draaien voor compilatie...

En voordat we weer het Intel is beter dan AMD, of AMD is beter in prijs dan Intel etc. gaan beginnen: er zijn 2 merken, neem die kans als consument en kies het beste van de twee, niet het leukste, grootste of gewoon favoriete bedrijf...
(Overigens draai ik een simpele Athlon 2 als homeserver maar mijn laptop draait weer op een i7 enzovoorts, het is maar net waar die ene CPU beter voor gebruikt kan worden.)

Ik hoop dat er nu een nieuw bedrijf de ring instapt en de strijd met AMD en Intel aan gaat, en we weer innovatie gaan zien zoals nog snellere onboard GPU's, meer geheugen ondersteuning (Voor virtualisatie bijv. of een flinke RAM drive) eigenlijk dat de chipsets en onboard opties van de CPU's flink worden uitgewerkt om zo de concurent voor te blijven, die CPU's zijn snel zat, die opties moeten uitgebreid.
Dat zal voor desktops zeer zeker het geval zijn, maar zoals boven al genoemd zijn er nog zat taken die wel CPU-bound zijn. Wat dat betreft slaat je argument dan ook nergens op. Dat jij het niet nodig hebt, betekent niet per definitie dat anderen dat ook niet nodig kunnen hebben...
ik zeg niet dat het AMD's schuld is, ik zeg alleen dat door gebrek aan concurrentie van AMD, Intel zichzelf inhoudt...

hier kan AMD weinig aan doen, maar dat is de reden,
waren AMD's processoren sneller geweest had Intel echt wel 8 of 12 cores geshipped...
Wat een verhaal en toen was er AMD. als Intel het zoals je zegt niet doet dan had AMD het al lang kunnen doen.

Feit is echter dat AMD sowieso achter intel blijft aanlopen qua snelheid.

Conclusie je verhaal klopt niet.
AMD doet het toch ook? Ze leveren Opterons met 16 cores.
Sandy Bridge-EP is een 8 core die toch? Westmere-EX is de 10-core, die dit najaar wordt opgevolgd door de 15-core Ivy Bridge-EX.

Maar als je werkelijk meer cores nodig hebt, waarom koop je dan geen Sparc T5 machine? 16 cores, 8 threads per core.

[Reactie gewijzigd door Dreamvoid op 6 augustus 2013 18:44]

Ik type dit nu van een Xeon met 8 cores hetgeen via HT dus 16 effectieve software cores geeft. Probleem is dat vrijwel geen enkele software deze cores gebruikt. Voor de meeste taken is een 4 core systeem al ruim voldoende.

We moeten oppassen dat 'meer cores' niet de 'meer GHz' wordt. :)
Ik denk dat jij het hebt over het Windows platform. Voor de grote jongens (= de mensen die power nodig hebben) op echte platformen is het geen probleem om heel veel cores en heel veel cpu's aan het werk te houden.

Bedrijven die Big Data verwerken hebben soms een hele 'straat' in het DC vol staan met Oracle Big Data Appliances. Die hebben zo uit het hoofd 128CU's per stuk.
X86 is juist erg goed voor game consoles momenteel vanwege de prijs van de SoC's. §50 voor een SoC met DirectX11 ondersteuning.
Het is niet voor het eerst (en zeker ook niet voor het laatst) dat een chip meer zou kunnen dan waarvoor het verkocht wordt. De redenen zijn simpel, hogere yield en vooral meer product differentiatie.
Power doet t op zich nog prima in de high end server/mainframe markt, maar daarbyiten kan het net als bv SPARC maar weinig potten breken. De G5 was het laatste succes in de lagere segmenten, maar die was uiteindelijk te traag en veel te onzuinig tov Intel's Core arch.

Dat IBM zijn ISA in licensie geeft is niet echt niets nieuws, Sony en Toshiba deden de Cell, en Motorola deed de G4 chips, allebei Power chips.
POWER is geen PowerPC.
G3, G4, G5 en andere chips gebruikt in Macs zijn PowerPC, niet POWER.
Dat is het wel, PowerPC is in 2006 hernoemd tot Power :)

[Reactie gewijzigd door Dreamvoid op 7 augustus 2013 17:04]

Dan heb je het artikel dat je linkt niet goed gelezen.
PowerPC is helemaal niet hernoemd.
PowerPC is een brandnaam voor een serie CPUs.
POWER (hoofdletters) is een andere brandnaam voor een serie high-end CPUs, waar PowerPC van afgeleid is.
Power-architecture is de naam voor een serie specificatie van instructiesets gebaseerd op PowerPC en POWER.

Ook na 2006 zijn er nog CPUs onder de naam 'PowerPC' en 'POWER' gereleased, die dan ook weer een bepaalde versie van de 'Power-ISA' implementeren.

IBM had wel wat minder verwarrende namen mogen kiezen... Hoe dan ook, het punt was dat er nu dus ook POWER-architecture te licentieren zijn, voorheen was dat alleen PowerPC.
Ziehier, dit is het eigenlijke nieuws: http://www-03.ibm.com/press/us/en/pressrelease/41684.wss

Let op de hoofdletters bij OpenPOWER.
Dit nieuws is slecht gebracht door veel sites (waaronder Tweakers, sowieso, waarom is dit bronbericht niet gelinkt?) omdat mensen het verschil tussen POWER en Power niet begrijpen, en dus alleen over Power praten. Het gaat hier om POWER.
Snap je het nu?

Of om het in Jip-en-Janneke-taal te proberen:
PowerPC en POWER kun je zien als Core en Xeon, of Phenom en Opteron.
Power-ISA kun je zien als IA-32, x86, x64, x86-64, AMD64, of hoe ze het ook noemen.

[Reactie gewijzigd door Scalibq op 7 augustus 2013 18:22]

En sowieso was de PowerPC G5 van Apple rond de tijd van de Pentium 4, namelijk in 2003. In die tijd was hťt grote argument voor PowerPC dat het de eerste 64 bit consumenten CPU was. Dat, en dat er daadwerkelijk dual core en dual en quad CPU varianten van waren. Toendertijd was PowerPC sneller dan wat Intel op tafel bracht.

Helaas is dat tij gekeerd met de komst van de nieuwe Core architectuur. Deze waren een heel stuk sneller dan wat er met de PowerPC te halen was, en met een stuk lager energieverbruik.

Ik zou het best leuk vinden om nog eens met een POWER systeempje te spelen, gewoon om eens te kijken of er in "dagelijks gebruik" (aka webdevelopment + database management e.d.) een merkbaar verschil is. Ik denk echter dat dit heel erg tegen zou vallen :) En als het er al is, dat het niet opweegt tegen de kosten die je maakt voor een "goedkoop" POWER werkstation...
goede stap van IBM, hoewel de kracht van het POWER platform voornamelijk zit in de lineaire schaalbaarheid en ongeevenaarde virtualisatie techniek van de hypervisor.

Aan de andere kant is het breed gebruik van POWER natuurlijk wel heel waardevol voor R&D en levert het geld op.

Dankzij PowerVM heb je zeer veel vrijheid en controle mogelijkheden om heel veel workloads naast elkaar te draaien met een overcommit model, en is er ondertussen voldoende I/O bandbreedte richting memory, netwerk en disk. Op x86 platformen is dat gewoon beperkter.

uiteraard, Vmware en MS komen een aardig eind maar met Linux workloads op een footprint kun je met POWER meer workloads consolideren.
Virtualisatie technieken beter bij Power? Het gaat op een gegeven moment niet meer om hoeveel VMs je max op een bak kunt zetten. Natuurlijk kunnen er meer VMs per core op een power 7 bak ipv de gangbare x86 server. Maar dan vergelijk je ook iets met wat 5 keer zo duur is (de gemiddelde Porsche loopt ook sneller dan een Volkswagen).

Maar buiten dat zijn de software mogelijkheden zeer beperkt: zo heb ik bij een klant meegemaakt dat IBM zei dat Disaster Recovery (volledig uitwijken van een data centre) hetzelfde is als High Availibility (het re-starten van een Vm op een ander stuk hardware)!
Ook de andere software eromheen is gigantisch verouderd, eg. Backup, system management, monitoring.

Grappig is dat veel bedrijven nu voor grote linux servers nu x86 servers pakken omdat deze standaard 512GB of 1 TB geheugen hebben en de kleinere Power blades maar 256GB.
TPC benchmark/$ toont ook aan dat x86 5 keer zo goedkoop is als power.

De enige reden waarom er nog Power systemen draaien bij grote klanten is dat het zo moeilijk lijkt om ze te upgraden/om te katten naar x86. Hele afdelingen bij grote bedrijven bestaan alleen maar vanwege power/aix en al die mensen beschermen hun baan natuurlijk. Rationeel gezien hebben ze de race allang verloren van x86.

Wel begrijpelijk deze move: het is de meest voor de hand liggende move van een bedrijf (afdeling in dit geval) dat aan het eind van zijn lifecycle zit (nog even extra cashcowen totdat het afgelopen is).
IBM is misschien nog aan het cashcowen (en HP's Itanium/HP-UX biz zeker), maar Oracle is nu fors aan het investeren in SPARC (met hun "elke 2 jaar de performance verdubbelen" roadmap), die zien er duidelijk nog brood in.
ach..

Sun/Oracle maakt ook nog steeds nieuwe SPARC processoren. Ook mooie dingen.
Maar net als IBM met de Power...
De prijs-prestatie verhouding is EXTREEM in het voordeel van x86.


Zeer recent nog in de praktijk mogen ervaren.

x86 kost nagenoeg niets. Voor een paar duizend euro heb je al een dikke machine op basis van supermicro. Leg je er nog wat bij heb je een 'A-naam'.


Daarnaast maakt IBM zelf ook heel mooie x86 oplossingen. zie: http://public.dhe.ibm.com...3054usen/XSD03054USEN.PDF

4x 10-core met 3Tb ram :P
Probleem voor IBM is niet dat ze inde high end niet meekomen, maar dat ze alleen nog maar de high end hebben. Intel kan de Ivy Bridge arch in <$30 Celerons tot >$2500 15-core Xeons kwijt, en kan zo de investeringen in R&D, fabs, etc over veel markten uitspreiden.

Ik snap dus heel goed dat ze een nieuwe poging wagen om van Power weer een massaprodukt te maken, net als tien jaar geleden. IBM moet wel uitkijken dat niet 1 of andere handige jongen Power7 klonen gaat maken en die voor een grijpstuiver de markt in duwt, dan is IBM zijn melkkoe kwijt :)

[Reactie gewijzigd door Dreamvoid op 6 augustus 2013 18:47]

Waarom is Power dan zoveel duurder?
En hoeveel duurder eigenlijk, ik heb daar geen idee van.
Misschien dat met dit nieuwe consortium de prijs ook omlaag gaat?
Als dit consortium, gewoon gelijk Intel en amd deed in de jaren negentig. Dus sockets, een aantal chipsets en zich richten op zelfbouw. Ik denk dat tweakers, hackintoschers. Dit we zouden kopen gewoon omdat het kan.
hackintoshers hebben tegenwoordig meer aan een x86 platform dan aan een POWER platform, sinds apple is overgestapt een aantal jaren geleden.
Ik denk dat de markt waar intel/AMD in de jaren 90/00 goed rijk mee zijn geworden ondertussen niet meer zo groot is (een tablet/smartphone/goedkope laptop kan nu makkelijk aan waar je toen standaard een desktop voor inzette). Momenteel zit de big business in de zuinige SoC's voor tablets, settop boxes, smart tv's etc.

Power architectuur is juist goed in het multicore multiprocess gebied (maw dikke database servers). Dit zie je ook terug in de Power lineup van IBM, waarbij de aandacht ligt op stabiliteit, schaalbaarheid, virtualisatie en uptime. Ze hebben met power 6 lineup nog geprobeerd om de energie-zuinigheid te gelden te maken, maar dat was niet echt een verkoopargument.

Je ziet echter wel terug dat de rauwe CPU kracht niet meer het enige is wat telt. Zo wordt er ook memory compressie aangeboden (hiervoor is zelfs een dedicated processor aanwezig in de power 7+).
Anders ik wel. Heb reeds lekker gestoeid met een RS6000 en dat smaakte naar meer, maar beetje traag he naar huidige maatstaven. Ook een Itanium had ik hier staan, maar die zoop dat was niet mooi meer.

Ik zou maar wat graag met een recente Power cpu knoeien, mits energieverbruik een beetje binnen de perken blijft.
AIX op Power is veel schaalbaarder dan welk OS dan ook op x86-64; dat houdt bij 32-64 cores wel op (performance neemt nauwelijks meer toe met meer cores). AIX+Power is dus vooral voor de mid-range en zeker niet "op sterven na dood"; dan heb je wel erg weinig kennis van high-end computing... ;-)

Low-range heeft x86 alles opgeslokt, dat is zeker waar.
Volgens mij is het AIX deel minder van invloed hierop dan het Power deel: de eerste non Linux top500 machine zie ik pas op plek 44 (en Windows is helemaal droef: plaats 187). M.a.w. Linux op Power schaalt nog beter dan Aix op Power om nog maar niet te spreken over schalen van x86 (nr. 1 & 3 op de lijst zijn een Intel en een AMD machine). De grap waarom Power altijd beter schaalde lag voornamelijk in de chipset eromheen. Als je de top machines kijkt in de top500 dan zit de slimmigheid voornamelijk in de interconnects tussen de processoren (gemakshalve even de chipset).
De performance van die Top500 machines wordt vrijwel geheel bepaald door de de hoeveelheid hardware die er tegenaan gegooid wordt, de keuze van het OS heeft daar weinig invloed op.
POWER is misschien een alternatief voor apparaten waar nu iets non-x86 in zit, zoals, MIPS, ARM, en dan zijn er nog wel een paar, bijvoorbeeld in TV's, setopboxen, NAS
<sarcasme>
Ik snap de gehele discussie niet. We weten toch allemaal dat Intel Itanium de toekomst is. Door dit project is het hele leuke Alpha concept gelukkig de nek omgedraaid. DEC Alpha, bliksemsnelle multicore 64-bit RISC server / 3D processors in 1990.
</sarcasme>
Zo snel was die Alpha cpu nu ook weer niet. De linux kernel compileren kost op een 266 MHz Alpha cpu evenveel tijd als op een 166 Mhz pentium.

De Alpha en PA-RISC CPU zijn door HP de nek omgedraaid met als argument dat Itanium systemen beter waren. Met als resultaat dat ze nu bijna alleen nog x86 systemen verkopen van het vroegere compaq.

Tot voor kort waren in veel satelliet setop boxen powerpc cpu's te vinden. Kennelijk zijn er nu goedkopere alternatieven.
In UNIX land (waar ik AIX ook onder schaar) zijn Power processoren heus nog wel gangbaar. IBM heeft intern de hardware goed op orde. De iSeries/system i (voormalig AS/400) draait op nagenoeg identieke hardware als pSeries/system p (AIX). De POWER (inmiddels de 7+ generatie) doet dus gewoon mee.

Omdat onze klanten nog AIX gebruiken, moeten wij ook. Wat me wel opvalt is dat met al dat x86 geweld met haar veel betere prijs/prestatie IBM met iets soortgelijks komt (express varianten, bijv. de 710, zie ook: http://www-03.ibm.com/sys...migratetoibm/compare.html). Echter er zijn geen fantsoenlijk presterende IBM p systemen met interne disks (en een goede RAID controller). Met losse disksystemen (vaak duur) zijn de prestaties prima, maar een systeem onder de 10k (en dat is toch al snel 2 a 3x zo duur dan een vergelijkbare x86 oplossing) is niet snel. Wellicht werk ik met verkeerde p systemen, maar het is toch wel merkwaardig dat ik dit al diverse keren heb ondervonden. Een x86 oplossing (en zeker met Linux) draait voor de taken waarvoor wij de systemen gebruiken (C/C++ development) met een vinger in de neus rondjes om de IBM p hardware.
Stilstand is achteruitgang in de computerwereld. Toch een beetje raar dat er om 5 voor 12 nog wat beweging komt in de Power-architectuur. Wellicht hebben ze bij IBM geniale/grootse plannen voor de Power-architectuur waar wij nog niks van af weten maar anders lijkt mij het einde toch echt in zicht..
Het lijkt me dat ze de power-ISA in licentie geven, niet de specifieke architectuur die ze gebruiken? Dat zou nutteloos zijn, want de huidige versies van IBM's Power-CPUs zijn eigenlijk op elk punt inferieur aan ARMv7 en x86-64. Het zal nodig zijn om nieuwe spelers te vinden die hun eigen architecturen rondom die ISA bouwen als IBM wil dat er een serieuze concurrent voor x86 komt.
Als ik het goed begrepen heb, kun je nu zowel de ISA als ook een specifieke architectuur in licentie nemen (zoals bv ook bij ARM).
Op zich kan dat relatief eenvoudig, je schroeft gewoon een Power decoding front end op een goede x86 of ARM arch, en voila - een Power chip. Zo deed AMD het ook met de K5, en dat zouden ze ook met bv Steamroller kunnen doen.

[Reactie gewijzigd door Dreamvoid op 7 augustus 2013 17:03]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True