Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

IBM introduceert Power10-generatie van 7nm-serverprocessors

IBM heeft zijn IBM Power10-generatie van processors aangekondigd. IBM maakt de serverchips op 7nm bij Samsung. Naast verbeteringen bij energie-efficiëntie en prestaties is er de functie Memory Inception voor clusters van geheugen.

De Power10-generatie is de opvolger van de Power9-chips die IBM sinds 2017 levert. Daarmee maakt IBM de overstap van de 14nm-chipnode van Power9 naar 7nm bij Power10. IBM claimt dat de prestaties van servers tot drie keer hoger bij hetzelfde verbruik kunnen uitvallen. Voor die claim vergelijkt het bedrijf Linpack-resultaten van een dualsocketserver met in totaal zestig cores van Power10 met een server met in totaal vierentwintig cores van Power9.

IBM maakt dualchipmodules met tot aan dertig Power10-cores en singelchipmodules met maximaal vijftien cores. Om tot zestig cores in een systeem te komen, gebruikt het bedrijf dus twee dualchipmodules. Een enkele singlechipmodules met vijftien cores heeft een afmeting van 602mm² en is opgebouwd uit achttien miljard transistors. In een systeem kunnen tot aan zestien singlechipmodules en maximaal vier dualchipmodules aan elkaar geknoopt worden.

Van de chips komen versies met IBM's multithreadtechnieken SMT8 en SMT4 beschikbaar. Bij SMT8 kan elke core tot aan acht threads verwerken. Een dualsocketsysteem met zestig SMT8-cores kan zo in totaal 480 threads afhandelen.

Overigens bevat een singlechipmodule in de praktijk zestien cores, maar om de opbrengst van goed werkende chips te verhogen, is er een core standaard uitgeschakeld om voor defecten te compenseren. De cores in zo'n chip kunnen over twee keer 64MB L3-cache beschikken. Elke module is daarnaast van zowel een Open Memory Interface als een IBM PowerAXON-interface voorzien, om met 32GT/s met geheugen en accelerators te kunnen communiceren. Tenslotte is een pci-e 5-interface aanwezig.

Initieel kunnen Power10-systemen met tot aan 4TB ddr4 met een maximale bandbreedte van 410GB/s overweg, maar IBM stelt dat er met de Open Memory Interface op termijn met ddr5 gecommuniceerd kan worden voor hogere bandbreedte en capaciteiten.

IBM richt zich onder andere op gebruik voor berekeningen rond kunstmatige intelligentie, waar bijvoorbeeld bij enterprisetoepassingen steeds meer behoefte aan is. Daarnaast wijst IBM op de verbeteringen om data in het geheugen en containers hardwarematig te versleutelen en versleuteling te versnellen dankzij de aanwezigheid van meer encryptie-engines voor aes. Nieuw bij de Power10-generatie is verder Memory Inception. Dit werkt via de PowerAXON-interface en stelt systemen in staat het geheugen van een ander systeem in te schakelen en te gebruiken als ware het eigen geheugen. Volgens IBM kunnen gebruikers zo geheugenhoeveelheden van meerdere petabytes inzetten voor clusters.

De volledige pdf met eigenschappen van IBM Power10 is hier te vinden.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Olaf van Miltenburg

Nieuwscoördinator

17-08-2020 • 08:40

63 Linkedin

Reacties (63)

Wijzig sortering
Waarom roept Intel geen hulp in van Samsung voor de 7nm technologie?
Omdat het probleem 'm niet zit in de 7nm, maar in dat de Intel 7nm iets heeeel anders is dan de Samsung of TSMC 7nm. Dat ze toevallig eenzelfde 'maat' gebruiken, betekent niet dat de hele techniek hetzelfde is. Niemand, behalve Intel, kan nu bakken wat Intel wil laten bakken. Intel is te high-tech gegaan met hun 10nm en 7nm en dat heeft slecht uitgepakt. Ze zijn technieken gaan gebruiken die nog niet volwassen genoeg waren en die toch uiteindelijk te moeilijk te implementeren waren.

Bedenk even dat Intel op 10nm meer transistors per mm2 kwijt kan dan TSMC op 7nm. De 7nm en 10nm is meer een marketingterm geworden dan daadwerkelijk een term met betekenis.

De problemen van Intel zitten 'm in een te complex ontwerp en het teveel uit 10nm te willen persen. Dat hadden ze niet moeten doen. Je ziet dat AMD, IBM, HiSilicon, dat allemaal veel makkelijker hebben, omdat hun producten simpelweg met een 'simpeler' maar op papier kleiner proces gemaakt kunnen worden.

Aan de andere kant is het Intel 14nm++ erg vergelijkbaar met 10nm van TSMC, dus als ze het voor elkaar hadden gekregen om 10nm met dezelfde efficiëntie en ontwerpen te laten werken, had er een flinke voorsprong kunnen liggen. Ze hebben zich er alleen gigantisch in vergist.
Het is bedenkelijk wat u zegt:

Intel 10nm Ice Lake kan maar 4% meer transistors kwijt per mm2 dan TSMC N7 (niet-EUV), 6% dan Samsung 7nm (EUV), en minder dan TSMC N7+. Maar dat is op de allerdichtste variant. Dus niet per se de variant die voor servers wordt gebruikt. Samsung heeft een 6.75 track library voor hoge dichtheid-toepassingen, Intel 6.18T; maar die gebruik je zeker niet voor hoge frequenties. Volgens mij hebben ze dan een 7.5T variant in de aanbieding. Maar daar adverteren ze allebei niet mee. Samsungs proces haalt 100MTr/mm2. Maar de praktijk van deze chip zit slechts op 30!

Intel 10nm Ice Lake heeft volgens Scotten Jones (details op Semiwiki) een 'Metal Poly Pitch' van 44nm.

TSMC N7 zit op 40nm.
TSMC N7+ (EUV) zit op 36nm.

https://semiwiki.com/semi...-process-technology-lead/

Intel _heeft_ geen EUV proces; Samsung en TSMC wel.

Intel Ice Lake 10nm is ongeschikt voor Server CPU's, TSMC N7 en Samsung 7nm wel.

Het is dus precies andersom als u zegt: Het is juist Intel die niet kan bakken wat TSMC en Samsung bakken:

Samsung bakt een server processor op EUV, TSMC een server CPU met dichtheid >100M transistors /mm2. Intel Kan allebei niet. Met Ice Lake SP beweren ze van wel, maar de prestaties schijnen lachwekkend te zijn. En de praktijk dichtheid van Samsung 7nm weten we nu; die van Intel is onbekend.

[Reactie gewijzigd door kidde op 17 augustus 2020 13:06]

De boel is wat complexer dan in een reactie hier uit te tekenen is. Ik probeerde vooral het punt te maken dat TSMC, Samsung en Intel 7nm niet zo 1 op 1 met elkaar te vergelijken zijn door een te versimpelde meting te pakken.

Het klopt helemaal wat je stelt, maar de plannen van Intel waren een veel agressieve reductie bij 10nm op veel meer vlakken om een nóg hogere dichtheid te kunnen halen. Die plannen staan in de ijskast en de uitgekomen 10nm chips missen een aantal van de zaken die Intel had willen introduceren met 10nm.

Daarom is de praktijk nu zo anders dan de plannen van Intel. Maar er zijn nog veel meer onderdelen om rekening mee te houden dan de transistors per mm2. Al was dat een makkelijke om te laten zien dat de boel niet zo zwart/wit is. Er is namelijk ook nog de fin pitch, gate pitch en cell hoogte.

Een AMD Ryzen chip met zen2 heeft een dichtheid van iets meer dan 50 miljoen transistors per mm2. Een intel core i3 op 10nm zit boven de 100. Maar door de niet gebruikte silicon bij AMD kan die wel goed met hitte om gaan. Dus ook dichtheid hoeft geen doel op zich te zijn bij een kleiner proces.
Ik had ook begrepen dat fabrikanten hun eigen definitie er op nahouden hoe ze de die hoeveelheid nanometers bepalen en uitrekenen. Maw er is geen centrale definitie die bepaalt wat een 10 nm chip een 10 nm chip maakt. Dat gecombineerd met marketing, maakt het kijken naar het aantal nm eigenlijk niet interessant en zou je meer naar effectieve performance moeten kijken.

Ik heb genoeg ervaring in de chip industrie om te snappen dat deze discussie niet zwart wit is. Ik denk vooral dat AMD het nu goed doet met hun chiplet based design waardoor ze kunnen schalen als een malle qua core count. Maar als de nanometer discussie echt hout zou snijden zouden intel chips qua raw core performance nooit sneller kunnen zijn als AMD... maar daar wint Intel nu nog (net).
Is het aantal transistors per vierkante centimeter (mm of meter als we ISO standaarden aanhouden) een bruikbaarder maat om vergelijkingen te maken in de nanometer-marketing oorlog?
(Gezien de ontwikkelingen in de diepte zou per kubieke mm ook mee kunnen tellen.)
Ik ben geen expert op dit gebied, verre van, maar het is op zich iets bruikbaarder volgens mij, maar nog steeds niet echt.

Het probleem is, wat wordt gedaan met die transistors? Stel je voor, je hebt twee chips met precies dezelfde aantal transistors, maar de ene heeft veel meer transistors voor I/O en andere technologieën nodig, terwijl die andere veel meer transistors gebruikt voor berekeningen. Dan heb je nog steeds een compleet verschil in technologie. Sommige chips kunnen gewoon meer met hetzelfde aantal transistors, en wat chips doen met de transistors is ook niet hetzelfde.
Is het aantal transistors per vierkante centimeter (mm of meter als we ISO standaarden aanhouden) een bruikbaarder maat om vergelijkingen te maken in de nanometer-marketing oorlog?
Nee; helaas.

Als u een auto uit de jaren 90 krijgt (dus zonder auto-piloot etc), hoe dicht kan u op uw voorligger blijven rijden op de snelweg? Ik denk, dat u 30cm makkelijk haalt. Dus dat kan u op uw CV zetten! En als iedereen dat zou doen, zouden er heel veel auto's op 1km snelweg passen.

Maar doet u dat in de praktijk? Hopelijk niet. En is het nodig??? Nou, als u in de file staat misschien wel. Dus als snelheid niet belangrijk is.

Maar naarmate u sneller wil, zal u meer afstand houden (hopelijk). En Formule 1 raceauto's die te dicht op elkaar rijden, kunnen zelfs oververhit raken; schijnt.

Zo werkt het hier ook: Het CV van Samsung 7nm EUM en Intel 10nm zegt: >100MTr/mm2. Dat geldt dan vooral voor smartphone- / laptopchips; die met miljoenen verkocht worden, relatief goedkoop moeten zijn en geen hoge prestaties nodig hebben.

Nu, heb ik zojuist voor een andere reactie uitgerekend, is de dichtheid hier slechts 18 miljard transistors / 602mm2 ~ 30. Dat is dus maar 30% van de dichtheid waarmee geadverteerd wordt.

Waarom? Omdat dit spul snel moet gaan!

Boeit het IBM iets hoeveel mm2 er nodig is? Nee, ruimte zat in een 1U / 2U chassis, ten opzichte van een smartphone. En als er niet zoveel inpassen, dan koop je gewoon wat meer racks en airco capaciteit.

Boeit het IBM iets, als er voor iedere 20 geproduceerde Power 10 CPU's 10 weggegooid moeten worden omdat ze kapot zijn? Nee, prijs is niet zo belangrijk. Dit wordt alleen gekocht door rijkere bedrijven die formule-1 prestaties nodig hebben.

Boet het IBM iets, dat er veel mm22 zijn die gekoeld moet worden, naarmate ze de transistors verder uit elkaar zetten? Welnee, gewoon een grote ventilator erop, of waterkoeling. Dit is geen telefoon.

Er is normaal gesproken dus een afweging die bekend staat als PPAC en TTM hoort erbij:

-(Low) Power
-(High) Performance
-(Low) Area / Cost, dus hoge dichtheid,
-(Snelle) "time to market".

Je krijgt 10 punten, en je mag ze verdelen over die 4 opties.

Wat kiest een Apple voor iPhones? 3 puten Low power, 3 punten low cost, 3 punten high performance en 1 punt snel naar de markt. Dan komt de dichtheid mogelijk in de buurt van de marketing-getallen. Maar het aantal gHz haalt nooit de 'max' uit de TSMC-brochure, 4.2gHz die de Ryzen-processors wel halen op nagenoeg hetzelfde proces.

Wat kiest Apple voor ARM iMac-desktops (of hoe heten die dingen)? Waarschijnlijk iets anders; er mag gerust maar 1 punt naar "low area".

Wat kiest IBM voor deze peperdure server CPU's? Gewoon 10 punten op "high performance" en de rest boeit niet. Dus dan haal je nooit de dichtheid uit de Samsung-brochure; maar wel het max aantal gHz.
een bruikbaarder maat om vergelijkingen te maken in de nanometer-marketing oorlog?
Het aantal leugens per uur vermenigvuldigt met hoe grof de gemiddelde leugen is :P
Ik had ook begrepen dat fabrikanten hun eigen definitie er op nahouden hoe ze de die hoeveelheid nanometers bepalen en uitrekenen. Maw er is geen centrale definitie die bepaalt wat een 10 nm chip een 10 nm chip maakt.
Dat lijkt me inderdaad niet onlogisch. In andere markten zie je dat ook. Zo hebben bussen bijv. standaard marketingmaten als 12m, 15m, 18m, etc., maar de ene 12-meterbus is 11,93m en de andere 12,2m, en zo ook bij die anderen.

[Reactie gewijzigd door TheVivaldi op 17 augustus 2020 12:07]

Vergeet de xeon processors niet die kan ook aardig wat cores kwijt kwa oppervlakte.
Maar je hebt gelijk het licht met name aan het chip ontwerp ook mede hoelang je het kan uitmelken.
Ibm heeft er volgens mij minder problemen mee als intel.
Het kan allemaal kleiner en beter, maar ik ben benieuwd hoelang ze nog door kunnen gaan met met name alles keiner te maken zodat er meer cores op een die passen.
Als ze niet meer veel kleiner kunnen moeten ze een geheel nieuw chip ontwerp komen als ze tegen die grens aanzitten en er komt een geheel nieuw ontwerp zal dat volgens mij de consument moeten gaan betalen en worden zo duur dat ze zich zelf uit de markt gaan prijzen (niemand zit daar op te wachten).
Die verklaring wordt wel steeds lastiger: Een architectuur backporten naar 14nm, zoals Intel nu doet, is ongetwijfeld veel lastiger dan de architectuur porten naar een eenvoudiger 7nm. De fabricage-afdeling loopt nu al zoveel jaar aan te modderen dat ze ondertussen al 10 keer de kans gehad hebben om te constateren dat wat ze willen te moeilijk is en een eenvoudigere 7nm uit te rollen.

Hoe langer het duurt, hoe meer ik overtuigd raak dat Intel echt helemaal geen 10nm en geen 7nm kan maken, geavanceerd of niet. Wellicht dat TSMC 7nm iets minder kleine transistoren heeft dan Intel 10nm, maar de transistoren van TSMC functioneren wel stukken beter dan die van Intel en uiteindelijk is het doel van miniaturisering betere (en goedkopere) transistoren.
omdat Intel hun eigen fabs heeft, en moesten ze hun volledig volume plots outsourcen naar Samsung of TSMC, die hebben de capaciteit niet om dat zomaar binnen te trekken. Dat zou leiden tot prijsstijgingen across the board voor alle partijen.

Plus als ze opgeven hun eigen fab te verbeteren, dan is er weer een speler minder op de markt, die nu al maar 3 spelers meer heeft, na het afhaken van GlobalFoundries.
Klopt! Er zijn nog maar twee FABs die 7nm kunnen maken; Samsung en TSMC. Ik vind het best spannend, dat die twee in dezelfde regio liggen. Wanneer er daar iets misgaat (natuur of politiek, maar vooral dat laatste), dan hebben "we" echt een probleem. Ik hoop dat er snel players bij gaan komen die wat meer verspreid liggen, want het is best een hoog risico dat de hele tech sector loopt.
die gaan er niet komen, buiten uit China waar er staatssponsorschap achter zit.

cost of entry is te hoog voor nieuwe spelers om in een commerciële markt zich nog op te kunnen bouwen.

wat er nu gebeurt is, gebeurt in alle markten met een hoge barrier en cost of entry: de markt krimpt naar 2 tot 3 spelers die elkaar als het goed mee zit beconcurreren en that's it.

kijk maar naar andere markten:

Hard disks : markt gereduceerd tot 2 grote spelers (WD en Seagate) met 1 extra kleine speler

Cloud : overgrote deel van de markt is in de hand van 3 spelers (Microsoft, Amazon en Alphabet), waar in sub-segmenten van de markt er eigenlijk maar 2 zijn (Amazon heeft geen productivity suite a la O365 en Gsuite, Google heeft geen IaaS zoals AWS en Azure)

Consoles : 2 spelers die elkaar beconcurreren (Sony en Microsoft) + een speler die in zijn eigen niche zit (Nintendo). En zelfs dat gaat veranderen, het ziet er naar uit dat Sony en Microsoft in de opkomende generatie elkaar iets meer uit de weg gaan gaan voor concurrentie, met Sony die het "klassieke" model blijft aanouden en Microsoft die meer gaat inzetten op subscription models.

Smartphone platform : 2 spelers (Apple en Google), de beste poging voor een 3rde speler was Microsoft met Windows Phone, en we weten allemaal hoe dat uitgedraaid is
Ja absoluut, ik ben het heel erg met je eens. De enige mogelijkheid die ik zie is dat alle TSMC klanten zich verbinden en eisen plus meewerken aan een FAB buiten Taiwan. Dezelfde player, maar meer fail-safe. Ik denk, dat wanneer de spanningen rondom China nog meer toenemen, dat bedrijven als Apple, AMD, Xilinx en vele anderen graag investeren in een redundante oplossing om tijdens een crisis levensvatbaar te blijven.
Yep en nope
Yep: De entry cost is te hoog als je precies het zelfde wil maken, een uitgekauwde markt.
Nope: Er is oneindig ruimte voor partijen die iets nieuws gaan maken, iets waar de toekomst op wacht :-)
Dit ligt toch iets anders. Zoals een tijdje terug ASML al aangaf dat het makkelijk is om een apparaat van hun te kopen, uit elkaar te draaien en dan weer in elkaar om zelf zoiets te maken. Echter de techniek is dermate complex dat zij inschatten dat China nog 10 jaar achterligt ondanks de miljarden die de Chinese staat er tegen aan gooit.

Idem voor chip ontwikkeling zelf, dit is wederom uitermate complex en hoewel China ook hier wederom zwaar in investeerd, zie je dat ze nog steeds jaren nodig hebben om op gelijke trend van vandaag te komen. In de tussentijd is de rest weer zoveel verder.

Uiteindelijk is zowel de ontwikkeling van de chip als productie niet iets wat men "even" doet ondanks dat specifiek China tientallen miljarden hierin investeerd. Hier zit jaren ontwikkeling achter, hier heeft men letterlijk de slimste mensen voor nodig. En zelfs met de nodige diefstal, komt China er nog steeds niet. Dus als een land dat alles meeheeft, nog steeds niet kan meekomen, hoe verwacht je dat een nieuwe speler uit het niet komt.
Kleine opmerking - google heeft wel IaaS: Google Cloud Platform. Maar kan mij voorstellen dat het je ontschoot, ze denken er (naar geruchten) toch over om de stekker eruit te trekken.
Internet maakt de wereld tot een 'winner takes all'.
Office suites, operating systemen, webwinkels en ga zo maar door: alles lijkt uit te monden in twee tot drie grote spelers met een handvol kleintjes in de periferie.
Cloud : overgrote deel van de markt is in de hand van 3 spelers (Microsoft, Amazon en Alphabet), waar in sub-segmenten van de markt er eigenlijk maar 2 zijn (Amazon heeft geen productivity suite a la O365 en Gsuite, Google heeft geen IaaS zoals AWS en Azure)
Dat laatste zinnetje is niet helemaal waar, Google heeft Google Cloud Engine, wat zo te zien ongeveer dezelfde functionaliteit heeft als AWS/Azure.
compleet off-topic, maar AWS en Azure zijn een heel pallet aan cloud diensten, net zoals GCP. Daarbinnen heb je voor compute bijvoorbeeld ec2, of gce.
Spreiding is het probleem niet echt, Intel zal op termijn ook de stap maken naar 7nm. Ook zal er uiteindelijk een Chinese partij dit gaan doen, al maakt dit de zorg enkel groter.

Daarnaast begint TSMC met de bouw van een fabriek in Arizona.

Ben benieuwd wanneer er een top end fab in Europa komt. Lijkt me toch wel wenselijk.
ik denk dat het eerder lastig is, dan een probleem, de wereld draait door
Ik dacht dat Samsung ook een nieuwe fabriek aan het bouwen was in Korea om meer processors te kunnen produceren.

https://tech.hindustantim...q1kGEpyXoelljUCQ8xvK.html
Wacht, wanneer is GloFo gestopt met productie van fabs?
Er waren ook geruchten dat GloFo en Samsung zouden gaan samenwerken:
https://www.kitguru.net/c...nvest-in-globalfoundries/
Yep, Samsung 8nm en verder is een samenwerking van GloFo en Samsung.

https://www.youtube.com/watch?v=NTGkW9cRUKI
Maar dat heeft dan weer weinig met CPU's te maken: GloFo Dresden is een 22FDX en voor FD-SOI. Totaal andere technologie, is geen FinFET, maar de keuze tussen laag verbruik / hoge prestatie is real-time tijdens het gebruik aan te passen. Dus voor IoT, radio communicatie chips /5G en automotive.

Samsung is vziw gestopt met het ontwikkelen van hun FD SOI Technologie. Dus vragen ze nu GloFo.
Samsung heeft de capacitiet juist wel! Die hebben capa genoeg.

NVidia wilde de Ampère bij Samsung laten maken. Maar de yield was te laag. Dan wordt het erg duur.

Dus wilden ze de gehele productie overhevelen naar TSMC. Maar die heeft idd de capa niet.

Compromis: T/m 3080 wordt gemaakt bij Samsung, juist omdat die de capaciteit hebben. 3090 bij TSMC.
Ze overwegen het niet, kogel is al lang door de kerk. Ponte Vecchio GPU kernen (voor datacenters) laat Intel voorlopig maken op TSMC 7nm.
Een eerder hypothetische vraag: tijdens het booten, wanneer de linux kernel van disk naar memory wordt gelezen, zou deze dan op een gegeven moment volledig in de L3 cache zitten?
Nee, de L3 cache is een cache voor instructies die uitgevoerd zijn in de CPU. Aangezien niet de hele kernel uit instructies bestaat en ook niet alle instructies uit de kernel uitgevoerd worden, komt de kernel ook nooit helemaal in de L3 cache te staan.
Hoe kom je hierbij?

Vrijwel alle recente CPU's in het commerciële HPC en server segment die ik ken hebben alleen in L1 een aparte instruction cache. De CPU tot aan dat niveau wordt vaak geclassificeerd als een modified harvard architecture. De rest van de lagen volgt een Von Neumann architectuur. Instructies en data zitten hier gewoon door elkaar, volgens het stored program concept.
Een L3 instruction cache heb ik nog nooit gezien, en het is ook niet aanwezig in deze POWER10's. Als je dat ergens ooit hebt gezien dan ben ik zeer benieuwd waar!

Om op de oorspronkelijke vraag terug te komen: ja, als het past zou het technish kunnen dat de hele linux kernel in de L3 cache zit, maar dan moeten alle cachelines wel "gehit" worden (dus een van de instructies in een cacheline en niet perse alle instructies).

Dat lijkt me met een kernel zoals de Linux kernel, waar veel code paths mogelijk zijn, zeer uitzonderlijk in de praktijk.
Correct. Niet alleen is de L3 cache shared tussen code en data, die is zelfs shared tussen cores, op POWER10 en alle andere moderne vergelijkbare ontwerpen.

WBT kernel in cache - x64 heeft een PREFETCHT2 instructie om expliciet naar L3 te laden. Dat zou dus in theorie kunnen. Maar waarom?
De bootrom van je BIOS draait wel volledig in de L1 cache - sterker nog de L1 cache is op dat moment memory mapped, aangezien er nog geen toegang is tot DRAM geheugen.
Is dit de eerste reeks CPU's die onder het OpenPOWER concept wordt uitgebracht?
Want dat zou namelijk wel interessant zijn voor het artikel.
OpenPOWER specificeert alleen de ISA, de POWER processor series van IBM volgt die als sinds het begin van de OpenPOWER foundation.
Sinds de POWER8 generatie zijn er diverse OpenPOWER systemen op de markt verkrijgbaar (sinds 2015).
Bij POWER9 zijn er kleine verschillen tussen IBM POWER en OpenPOWER CPU's te vinden. Zoals ondersteuning voor SMT4 of SMT8 en wel of geen ondersteuning voor PowerVM en AIX.
Mooi voorbeeld van een OpenPOWER server is dit systeem: https://openpowerfoundati...tron-corp-p93d2-2p-mihawk
Je kan hiermee een 400Gbit/s NVMe opslag systeem bouwen in 2HE.
Mooi spul, maar (peper)duur. Denk aan startprijzen rond de 10K en doorlopend tot grote veelvouden daarvan. In Intel/AMD land is het niet ongebruikelijk (d.w.z. dat is mijn ervaring) om een compleet systeem te hebben met interne storage. Bij IBM p-Series is daar eigenlijk geen fatsoenlijke hardware voor. De PCIe RAID kaarten die er zijn, hebben zelfs soms geen cache. IBM lijkt meer de voorkeur te geven aan deciated storage oplossingen, waardoor de prijs nog een paar keer over de kop gaat.

Al met al: flexibiliteit, partitioneerbaarheid (LPARs ala VMs), schaalbaarheid zijn subliem, maar de bijbehorende prijzen ook. Je hebt best kans dat een systeem altijd met 2 CPU's uitgeleverd wordt, maar dat er een licentie key nodig is om hem te ontsluiten. Onder de motorkap zijn iSeries en pSeries toch grotendeels identiek.

Dit soort systemen zijn er w.s. nog omdat een club bijv. op AIX draait, en overstap op Linux/Intel (bijv. a.g.v. schaalbaarheid) (nog) onmogelijk is. En bijv. incompatibiliteiten de boel blokkeert (er zijn bijv - helaas - subtiele verschillen tussen hoe shell scripts zich gedragen op de diverse *NIX smaken en zo is er meer). Persoonlijke ervaringen uit het verleden lieten zien dat als een klant afscheid neemt van Solaris/HPUX of AIX, daar vaker Windows ipv Linux komt. Geen idee waarom. Zelf vind ik dat tamelijk onlogisch (Linux ligt qua gebruik veel dichter tegen UNIX smaken aan dan Windows en performed doorgaans beter dan Windows op dezelfde hardware). In het rijtje AIX, Solaris (SPARC), HPUX (Itanium), was AIX meestal (voor het aanschafbedrag wat wij konden/mochten spenderen) de traagste. Mijn ervaringen stoppen bij Power7. HP Itanium is sowieso verleden tijd. En SPARC eigenlijk ook. IBM is daarmee zo'n beetje de laatste overgebleven grote leverancier in UNIX land (wat op zich ook al een niche begint te worden).
De iseries was voor de IBM-I (AS-400), tegenwoordig worden hier inderdaad gewoon de P series voor gebruikt. Er is ook nog een lijn voor Linux on Power (scheelt je de AIX licentie kosten). Ten tijde van power6 hadden ze het echt te duur ingezet, maar dit is toen met power 7 wel flink verbeterd. Nog steeds betaal je er grof voor, maar zelf vind ik de hardware wel degelijk en duidelijk. Laatst nog SAS adapters staan vervangen waar ook een battery pack bij zat (dus ze zijn er wel). In het verleden nog wel eens een Power systeem met RAID adapter gezien, maar ze zijn inderdaad zeldzaam. Doorgaans wordt het vaak via SAN gekoppeld (met bijvoorbeeld een V5000 of V7000 om in het blauwe kamp te blijven), waarbij de IOPS en throughput toch hoger liggen dan losse disken (en de prijs natuurlijk ook weer lekker toe neemt).
Wij gebruikten het voor development voor klanten. En hadden zelf niet zo heel veel eisen, afgezien van CPU en disk power en een beetje lekkere I/O, wat makkelijk in 1 doos had gekund. Echter, binnen een prijs van zeg 25-30k is daar bij IBM niets voor te halen, terwijl je een Linux doos met vergelijkbare power, voor een kwart of minder van de prijs hebt (en beter presteerde). Een SAN erbij voor genoemd budget is/was bij IBM onmogelijk.

Daarnaast: NVMe SSD (U2 of M2): het was er niet of het was allemaal peperduur. Om OS patches te krijgen, heb je ook nog een aanvullend contract nodig (weer eurotjes). Al met al (erg) veel geld, voor mooi spul, maar prijs/prestatie was wel behoorlijk scheef als je het Intel kamp bekeek (3 jaar geleden alleen Xeon als alternatief, nu eventueel AMD Epyc2 met nog betere prijs/prestatie verhouding). En tegenwoordig is de bandbreedte van lokale (SSD) storage zo verschrikkelijk hoog, dat SAN daar nauwelijks tegen op kan (latency is hoger, bandbreedte bijna altijd lager, IOPS soms beter). SAN heeft wel andere voordelen (centrale back-up, 'makkelijker' uit te breiden), maar dan kom je in een prijs klasse van 10k+ en (veel) meer. Bizar veel duurder dus (alle waar naar zijn geld, maar ik kan me niet aan de indruk onttrekken dat storage boeren helemaal ongelofelijke marges hebben).

Als je software aanbiedt voor AIX en je klant op AIX draait heb je weinig keuze... En nog steeds zijn er use cases te verzinnen waarin Intel niet kan voorzien (en IBM wel). Maar nogmaals: het is en wordt steeds meer niche spul (waar ik tegenwoordig niet meer mee te maken heb, maar soms weer de wenkbrauwen frons bij Windows gekkigheden :-)).

PS. Ik heb de indruk dat SAN een beetje op z'n retour is en 'meer kleine dozen met interne storage en distribueren van data' meer in is... Het wordt dan wel complexer, maar je hebt geen single-point of failure van je SAN. Maar in deze markt ben ik onvoldoende thuis om hier voldoende van de weten. Een dik IBM systeem een dikke SAN en veel LPARs, daarvan is het nut nog wel voor te stellen (ook misschien nog uit oogpunt van TCO).
Echter, binnen een prijs van zeg 25-30k is daar bij IBM niets voor te halen, terwijl je een Linux doos met vergelijkbare power, voor een kwart of minder van de prijs hebt (en beter presteerde). Een SAN erbij voor genoemd budget is/was bij IBM onmogelijk.
Het begint totaal offtopic te gaan, maar mijn gevoel met IBM en lokale storage, is dat men er eerder een Storwize V3000 bij verkoopt en via SAS of FC aansluit ipv lokale disken. 30k zal dan wel aan de krappe kant zijn, maar je geraakt er toch een heel eind mee, hoor. Rekening houdend dat zo'n V3000 naar mijn ervaring een stuk minder hoofdpijn geeft dan interne disken met een RAID-controller.
SMT4 en SMT8 :o dat is nice :) ik denk dat AMD gaat volgen met ZEN4 :) gewoon voor de server markt.
Al vanaf de Power 8 (uit 2014) is SMT 8 beschikbaar. Er is in te stellen met hoeveel SMT er gedraaid moet/mag worden. Verder zijn er legacy setttings (per virtuele host) zodat oudere OS versies en/of software kunnen blijven werken (processor compatibility mode).
Ha sweet wist ik niet.
leuk (maar duur) spul die power systemen :)
Je kan zelfs x86 emulatie erop draaien en ook de endianness aanpassen

probleem blijft de prijs (intel/AMD x86-64 systemen zijn per performance vaak goedkoper cq. makkelijker te krijgen).
Volgens dit artikel https://tweakers.net/revi...oor-met-rappe-opslag.html krijg je wel 3x meer rekenkracht voor dubbele kosten (in dit geval natuurlijk). Dan is er zeker een casus te maken om voor POWER te gaan met zelfs de prijs in gedachten.

[Reactie gewijzigd door lasermen op 17 augustus 2020 13:02]

ligt zeker ook aan de applicaties ja (overigens hadden intel CPU in die tijd minder cores, iets wat ze ondertussen ingehaald hebben). Helaas loopt o.a. Oracle DB software voor Power achter op die van Intel (de oracle exadata's zijn bijvoorbeeld ook intel based) wat af en toe leidt tot performance verlies (of een significante verhoging van IOPS). Wel heb ik meerdere malen gezien dat een Power systeem (met AIX) echt meer IO kan verstouwen dan een intel/Linux bak. Bijkomend voordeel van Power vind ik nog altijd wel de virtualisatie, die er helemaal ingebakken zit. Zo ben ik nog geen x86-64 VM omgeving tegen gekomen die virtual fiber channels bied (en dus de driver direct in de client afghandeld wordt). Vmware kan bijvoorbeeld wel met NPIV virtuele WWPN's bieden, maar dan moet je alsnog de disk weer door zetten (naar mijn ervaring).
Bijkomend voordeel van Power vind ik nog altijd wel de virtualisatie, die er helemaal ingebakken zit.
Vergelijkbaar met SPARC. Je draait je verschillende besturingssystemen rechtstreeks op de hardware. Geen hypervisor nodig. Ongelofelijk krachtige en indrukwekkende technologie.
Klopt, en die kan ook NPIV tot aan de client. Wel altijd ruzie met ldm omdat ik hem niet gewend ben (en puzzelen met primary en alternate cdom).
Dat is al bekend hoor, dat toekomstige iteraties van Zen SMT4 gaan gebruiken.
Dat zijn een hoop meer cores die in een systeem gefrot kunnen worden. Wel apart dat de dual chip maar met max 4 sockets kunnen en single chip met 16 sockets (had verwacht 8 omdat je dan hetzelfde aantal interlinks behoud).
Fancy slide wel anno 2020 ;)
Dit zijn IBM-chips
Dat zou dan een IBM-security hole moeten zijn toch?
IBM heeft met power al een hele tijd de mogelijkheid om niet alleen CPU's (multisocket en multi CEC) met elkaar te laten samenwerken en hardware te delen, maar ook om tussen de systemen in geheugen "over te zetten" (Live partition mobility). Gewoonlijk worden meerdere power systemen beheerd door 1 of 2 Hardware management consoles. Door de manier van virtualiseren (hardware virtualisatie met de hypervisor in de firmware in plaats van als los host OS) kan IBM de nodige garanties afgeven voor multi-tenant gebruik (net zoals gescheiden virtuele netwerken via interne virtual switches).
Memory inception enables to map another ...
ik zie ik de volgende Intel-security hole er al aankomen.
Wow, wat knap dat je dat uit 6 woorden kunt concluderen.

Op dit item kan niet meer gereageerd worden.


Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Microsoft Xbox Series X LG CX Google Pixel 5a 5G Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True