HPE heeft memory-driven computing-architectuur werkend

HPE heeft een prototype van zijn proof-of-concept The Machine gedemonstreerd. The Machine moet de mogelijkheden van een op geheugen in plaats van processing gebaseerd computingplatform aantonen.

HPE houdt de demonstratie tijdens de Discover 2016-conferentie in Londen, maar heeft de architectuur op 24 oktober werkend gekregen. Nu het prototype aan de praat is, gaat HPE het systeem evalueren en testen, om te kijken hoe de onderdelen van de nieuwe computerarchitectuur commercieel in te zetten zijn. HPE werkt al sinds 2012 aan een proof-of-concept voor zijn memory-driven computing-architectuur en in 2014 werd het idee voor The Machine aan het publiek gepresenteerd.

HPE's doel was om een geheel nieuwe architectuur te bedenken, die beter toegerust is op de grote hoeveelheden data waar bedrijven en datacenters tegenwoordig mee werken. De nieuwe architectuur zet daarom geheugen centraal in plaats van de processor, wat voor grote snelheidswinsten bij het werken met omvangrijke datasets moet zorgen. In zo'n systeem moeten meerdere processors een pool van 2TB of 4TB geheugen kunnen benaderen en ook moeten meerdere nodes in een cluster het geheugen als fabric-attached memory aan kunnen spreken. Hiervoor heeft het bedrijf een memory-fabric switch ontwikkeld.

HPE The Machine
Daarnaast maakt HPE gebruik van optische interconnects, waaronder de fotonische X1-module. Bij eerdere demonstraties met een moederbord met deze X1, behaalde de module een snelheid van 1,2 terabit per seconde, maar niet bekend is of deze snelheden bij het werkende prototype van The Machine ook gehaald worden. Het systeem draait een speciaal op Linux gebaseerd besturingssysteem, in combinatie met op maat gemaakte socs.

Aanvankelijk speelde het gebruik van memristors een grote rol bij de architectuur. Dit zuinige non-volatile geheugen, een combinatie van werk- en opslaggeheugen, wordt vanwege hoge onderzoekskosten waarschijnlijk niet meer uitontwikkeld, zodat besloten is voorlopig gewoon dram in te zetten voor The Machine. Vanaf 2018 moet een alternatief niet-vluchtig geheugen ingezet worden, reram, dat samen met WD ontwikkeld wordt, schrijft The Register.

HPE The MachineHPE The Machine

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Door Olaf van Miltenburg

Nieuwscoördinator

29-11-2016 • 22:58

44

Reacties (44)

44
43
33
5
1
10
Wijzig sortering
HPE heeft een PDF die in ieder geval meer uitlegt dan de video

http://www.mcs.anl.gov/ev...lides/ross2015-keeton.pdf

Waar het op neer komt is dat dit de eerste stap is naar het uitfaseren van het verschil tussen korte en lange termijn geheugen binnen computers. Heel simpel gesteld is deze eerste stap niks anders als een computer met ontzettend snelle storage.

Op de lange termijn zal het geheugen vervangen gaan worden door de memristor waarbij het mogelijk wordt om snellere toegang tot gegevens te krijgen en deze tegelijkertijd op basis van de toestand van de memristor (geïntegreerde schakelingen) te laten schakelen.
Toch moet ik bekennen dat dit teleurstelt, want de originele visie draaide om een memristor-gebaseerde architectuur, met alle voordelen van dien bv non-volatile maar supersnelle opslag waarmee de memory hierarchy grotendeels platgeslagen kan worden (modulo wat caches zoals de CPU L1 en L2 cache), geïntegreerde schakelingen voor gelocaliseerde berekeningen (maw breng niet de data naar de CPU maar de CPU naar de data) en energiezuinigere hardware.
Wat ze hier presenteren is zeker sneller dan wat ervoor kwam maar gegeven hoe veel research ze erin hebben gestopt plus hun originele visie, is dit echt teleurstellend.

[Reactie gewijzigd door Jeanpaul145 op 22 juli 2024 20:29]

Het is inderdaad teleurstellend als je meekijkt vanaf de wal. Je hebt dan theorieën in gedachte die vaak net niet zo werken in de praktijk.

Dacht ook vaak wat een sukkels die Apple en Samsung waarom niet zo gedaan of gebouwd etc.

Tot je een rondleiding krijgt in en fabriek en uitgelegd wordt waarom dit niet kan.
En wat de praktijk had geweest als ze mijn idee hadden uitgevoerd.

[Reactie gewijzigd door EdvanAl op 22 juli 2024 20:29]

Ik durf te wedden dat de echte reden is dat memristor technologie niet zo heel ver ontwikkeld is (in feite het minste van de handvol basale soorten schakelingen, naast resistors, capacitors etc) gekoppeld aan het feit dat HP wel een bedrijf blijft en dus net wat @TheekAzzaBreek zegt winst moet maken. Dus op zich is dat niet zo heel vreemd.
Wat het teleurstellend maakt is HP die het wel echt deed voorkomen alsof dit 'm ging worden voor memristor technologie, en het blijkt nu dat memristors niet eens in de oplossing worden gebruikt.
Ik had ook op meer gehoopt, maar ik snap wel dat ze nu met 'iets' komen, er staat namelijk wel druk op.
Intel en Micron zijn met iets vergelijkbaars bezig: Xpoint, en die hebben al 'iets' op de markt. Dat is ook nog ver verwijderd van de gedroomde revolutionaire computerarchitectuur (tot dusver verkopen ze alleen storage accelerators) maar als die super machine ooit komt, kunnen ze zeggen dat het op in de praktijk bewezen technologie is gebaseerd.
HPE heeft een PDF die in ieder geval meer uitlegt dan de video
http://www.mcs.anl.gov/ev...lides/ross2015-keeton.pdf
Held, 1000x dank! Eindelijk eens iets wat inhoudelijk en technisch beschrijft wat ze nou aan het bouwen zijn, in plaats van al hun videos en websites die alleen maar gevuld zijn met marketing buzzwords en een hype proberen te creeren zonder werkelijke inhoud te geven over wat "the Machine" nou is. Hier was ik al een tijdje naar op zoek :)

Eigenlijk is het dus niets anders dan een Single-level store ontwerp, waar je een groot persistent en adresseerbaar geheugen hebt, eigenlijk waar al in de jaren 60 mee gepionierd werd op o.a. MULTICS, waarna, nadat dit project eind jaren 60 mislukte, een deel van deze ideeen werden opgenomen in wat uiteindelijk UNIX geworden is. Dit zie je nu nog terug in het idee van de mmap() system call eigenlijk. Het doet me ook een beetje denken aan het Fresh Breeze project van prof Jack B. Dennis, emeritus professor aan MIT. Niet geheel verwonderlijk eigenlijk, aangezien hij een van de originele medewerkers aan het MULTICS project was :)
Misschien ook interessant een talk van Kim Keeton over The Machine bij UC Berkeley (EECS department): https://www.youtube.com/watch?v=0EQY0q4EykY
Ondanks het een keer of honderd gebruiken van het woordje memory driven komt er geen enkele uitleg op wat voor manier het dan memory driven is.

Voor zover ik uit de tekst en het plaatje kan halen is het een hoop geheugen met nog steeds een processor die het werk doet, alleen met een op licht gebaseerde communicatie tussen de modules en wellicht een andere manier van geheugen benaderen zodat er makkelijker meerdere processors tegelijk kunnen werken. Maar het lijkt me dat de processors nog steeds het werk doen.

De enige manier die ik hierbij kan bedenken waarom je het memory driven zou noemen is dat zodra er nieuwe informatie in het geheugen gevoerd word automatisch alle berekeningen opnieuw gedaan worden in die voorgeprogrammeerde processors.

--- update:
Na de pdf van kikkervis gelezen te hebben kom ik tot de conclusie dat het inderdaad is zoal ik dacht. Niet memory driven, maar memory centric. Er word zelfs in de .pdf consequent memory centric gebruikt. Het verschil is voornamelijk hoe processors met het geheugen communiceren, maar het zijn nog steeds de processors die alles aansturen.

[Reactie gewijzigd door StefanDingenout op 22 juli 2024 20:29]

In een klasieke architectuur staat de CPU in het midden en heeft hij een noord en een zuidbrug om met geheugen en randapparaten te praten. Een CPU beheert het geheugen. Meerdere CPU's claimen stukjes geheugen voor zichzelf en soms delen ze wat om informatie met elkaar te delen. Dat is tegenwoordig met multicores en gpu's en geintegreerde bruggen niet meer zo statisch. Wat HP doet is een experiment om het geheugen centraal te stellen en bewerkingen uit te voeren met meerdere processors. Het geheugen stuurt de CPU aan en dat is nu andersom.
Dit lijkt sterk op de architectuur van de PDP 11 (DEC, heeel lang geleden). Hierbij was alles, ook de aangesloten peripherals, als geheugen te benaderen. Elk aangesloten apparaat kon zelfstandig geheugen benaderen en aanvullen/wijzigen. Uiteraard was de hoeveelheid benaderbaar geheugen in die tijd beperkt door de adresbreedte.

N.B. DEC is via Compaq overgenomen door HP.
Dat is met X86(-64) ook al zo. Bus master DMA waarmee randapparatuur direct in het geheugen kan lezen en schrijven bestaat al jaren. Zelfs de ISA bus kon dat.

Wat ik uit de slides van de post van kikkervis begrijp is dat HPE geheugen als een gedeelde resource voor meer systemen gaat gelden. Net zoals je nu een SAN voor storage hebt. Met een SAN echter kopieer je gegevens naar het lokale geheugen van een machine en voer je op die kopie de bewerkingen uit. Met wat HPE aan het doen is vervalt het geheugen in de machines op wat caches na en gebruik je geheugen uit de centrale pool. Door dat je het geheugen niet als block storage ziet verlaag je de overhead. Dat is nodig omdat met de steeds snellere vormen van niet vluchtig geheugen deze overhead steeds meer een bottleneck vormt.
Ja, maar is het memory centric, waarbij de processors nog steeds zelf beslissen wat ze wanneer verwerken? Want dat is nog steeds processor driven, ook al staat die niet centraal in de architectuur.

Of is het echt zo dat het geheugen interrupts genereert onder specifieke (voorgeprogrammeerde) omstandigheden en zo de processors triggered. Want alleen het laatste is daadwerkelijk memory driven. Maar dat kan ik uit dat verhaal niet halen, want ze geven geen details.
Het zijn twee woordjes die hype moeten veroorzaken voor een totaaloplossing en niet een enkele techniek. Wat ze willen doen is dmv. de connectiviteit in de wereld (cloud) alle devices met elkaar laten communiceren en de HP tech gebruiken voor analyse die voor ons het leven makkelijker/veiliger maakt. Natuurlijk zijn hier hele profitable solutions mee te bedenken...

Qua techniek zijn ze bezig met een geheugen type die de voordelen van RAM (snelheid) en HDD (prijs/volume) combineert. Dus niet meer eerst vanaf een SSD/HDD iets in het RAM inlezen maar direct vanuit storage iets super snel kunnen verwerken, vervolgens interconnectiviteit tussen storage en processor cores veel sneller laten verlopen dan dat het nu gaat, op die manier kan je veel meer kleine cores inzetten zonder alles op een dure chip te hoeven proppen. Dan hebben we nog eens de communicatie tussen de verschillende nodes in een datacenter, daar willen ze lasers (licht) voor gebruiken ipv. koper, natuurlijk is dat niet nieuw. Maar het wordt hier in een totaal oplossing gegoten die een hoop 'power' woorden heeft die investeerders/managers die weinig van de techniek weten motiveert om voor HP te kiezen...

Ansich is HP niet verkeerd bezig, de huidige computer industrie is bezig om een auto naar Mars te laten rijden, de huidige techniek heeft zijn limieten en de mogelijkheden zijn er om eens goed de boel overhoop te halen en vanaf de grond af opnieuw op te bouwen. Als HP daarmee de gok wil wagen, be my guest ;-)

Ze willen tech klaar hebben staan voor het moment dat bv. alle auto's smartcars zijn en ze alle sensor data kunnen gebruiken en realtime kunnen analyseren en daarmee verkeersstromen en ongelukken kunnen voorkomen. Efficiënter kunnen rijden, energie en daarmee milieu besparing. Hogere snelheden, mensen sneller op bestemming. Overheden, verzekeringsmaatschappijen, etc. zien dat wel zitten, minder kosten, hogere efficiëntie, etc.

Exacte technische implementatie zullen we waarschijnlijk weinig over horen.

Bekijk het filmpje hier eens (en prik even door de hype en de marketing speak heen):
https://www.labs.hpe.com/the-machine
Ik heb het vermoeden dat dit werkt als een worker-pool application op hardware-niveau. Je hebt een hoop werk (lees: geheugen met data) en je kan zoveel workers (processoren) inpluggen als je wilt. Dit baseer ik op het volgende stukje:
In zo'n systeem moeten meerdere processors een pool van 2TB of 4TB geheugen kunnen benaderen en ook moeten meerdere nodes in een cluster het geheugen als fabric-attached memory aan kunnen spreken
Ook snap ik de conclusie die jij maakt niet helemaal, zou je dit stuk kunnen uitlichten?
De enige manier die ik hierbij kan bedenken waarom je het memory driven zou noemen is dat zodra er nieuwe informatie in het geheugen gevoerd word automatisch alle berekeningen opnieuw gedaan worden in die voorgeprogrammeerde processors.
Een worker pool is niet memory driven. De processors besluiten wanneer er iets berekend moet worden en hoe, dus is het processor driven. Memory driven betekend dat het geheugen op de een of andere manier besluit wat er wanneer moet gebeuren. Waarschijnlijk hebben ze gewoon het verkeerde power word gekozen en bedoelen ze memory centric.
werkt met niet-vluchtig reram geheugen, dwz. geheugen zal dan de taken kunnen overnemen welke eerst met de prosessor werden uitgevoerd. dus het geheugen houd na stroomloos te zijn geweest toch steeds alles vast voor verder te werken en waarbij er niets verloren is geraakt. weet dus niet of er zoiets van een virtuele prosessor al op die reram reepjes aanwezig is met de benodigde instructies voor het uitvoeren cq. het opstarten van diverse software/hardware... zou bijna denken van wel... anders heb je nog steeds een prosessor nodig. ;)
correct me if i'm wrong ;) in dit geval zal dan een laadtijd/uitvoer met een normale prosessor overgeslagen kunnen worden en met een supersnel geheugen ook vele malen sneller gaan werken daar alles al 24/7 vastligt op de reram reepjes.

https://en.wikipedia.org/wiki/Resistive_random-access_memory

[Reactie gewijzigd door speed112 op 22 juli 2024 20:29]

Dat geheugen informatie vasthoud zonder stroom betekend niet dat het berekeningen kan uitvoeren. Dat is juist het hele punt waarom het hele memory driven verhaal me zo vreemd voorkomt. Als iets instructies uitvoert is het een processor, geen geheugen.

Zoals jij het omschrijft is het eerder een combinatie van geheugen en kleine processors, wat op zich best kan zijn hoe het werkt. Maar tenzij dat het geheugen ook inderdaad zelf interrupts genereert zonder zelf berekeningen te doen is het nog steeds processor driven, hoewel memory centric.
Dus is dit nou een computer? Of een data-delivery systeem?... Ik kan uit het plaatje noch het artikel halen hóe er nou dingen berekend wordt.

Dat je x aantal bitjes heel snel kunt serveren is leuk maar waar worden die aan geserveerd?... Er zal toch ergens processing plaats moeten vinden lijkt me...
Ik denk vooral data crunching. In het kader van Big data en machine learning bruikbaar
Kan iemand uitleggen hoe zo'n memory driven computer nou fundamenteel anders werkt dan een gewone computer? En wat de grote voordelen/nadelen daarvan zijn? Zoals ik het nu begrijp is het niks anders dan een gewone computer met heel veel werkgeheugen.
komt naar mijn idee op dit uit...

30 november 2016 08:26
werkt met niet-vluchtig reram geheugen, dwz. geheugen zal dan de taken kunnen overnemen welke eerst met de prosessor werden uitgevoerd. dus het geheugen houd na stroomloos te zijn geweest toch steeds alles vast voor verder te werken en waarbij er niets verloren is geraakt. weet dus niet of er zoiets van een virtuele prosessor al op die reram reepjes aanwezig is met de benodigde instructies voor het uitvoeren cq. het opstarten van diverse software/hardware... zou bijna denken van wel... anders heb je nog steeds een prosessor nodig. ;)
correct me if i'm wrong ;) in dit geval zal dan een laadtijd/uitvoer met een normale prosessor overgeslagen kunnen worden en met een supersnel geheugen ook vele malen sneller gaan werken daar alles al 24/7 vastligt op de reram reepjes.

https://en.wikipedia.org/wiki/Resistive_random-access_memory

[Reactie gewijzigd door speed112 op 22 juli 2024 20:29]

Anoniem: 582717 29 november 2016 23:20
Voor de startrek meets the machine promo van HPE ( in 480P max) check even hier. ( slechter kan niet IMHO).
https://www.youtube.com/watch?v=y3sHh6CsN7c
Ik weet niet of ik nou moet lachen of huilen om dat filmpje :p Misschien moet HPE wat minder geld aan hun marketing afdeling geven, of gewoon dit soort filmpjes niet maken...
Er wordt gesproken over een nieuwe architectuur, maar dat komt niet helemaal goed uit de verf in dit artikel. Het doet vermoeden dat het hier nog steeds om de Von Neumann Architectuur gaat.

Vanmorgen werd dit op BNR ook besproken, en toen werd er op gezinspeeld dat het geheugen hier taken van de cpu over zou nemen. Hierbij werd de indruk gewekt dat zaken die normaal gesproken berekend worden nu als een soort van 'look up tables' beschikbaar zouden zijn omdat dit sneller is. Ook zou je middels de inhoud van dit geheugen de werking van de cpu kunnen aanpassen alsof het een soort van microcode is. Volgens mij volstaat een reguliere cpu dan niet meer, en heb je hele specifieke processors nodig om dit te kunnen bewerkstelligen.

Het artikel spreekt ook over op maat gemaakte soc's, maar in hoeverre dit op bovenstaande slaat is allemaal nog vrij onduidelijk. Op zich zou je dan wel van een andere architectuur kunnen spreken. Ben benieuwd...
Het idee is meer dat je de berekening naar het geheugen brengt ipv de inhoud van het geheugen naar de cpu. Big data beslaat ettelijke terabytes per server en dus is het niet rendabel om dergelijke dat in memory te zetten. Dat gaat over grote storage arrays zoals HP ook heeft met bijvoorbeeld 3PAR.

Het probleem zit hem er in dat je daar geen berekeningen over kan uitvoeren omdat er gewoon te weinig rekenkracht en geheugen in dergelijke systemen zit om dat binnen een zinvolle tijd te kunnen doen.

Deze "machine" heeft een enorme berg geheugen met direct de opslag geïntegreerd. Dit zorgt ervoor dat je direct in je opslag kan gaan graven. Een optel som is daardoor niets anders dan een kopieeractie en een bitwise operation.

In de conventionele architectuur betekent het eerst een read van drive, copy to mem, bitwise operation op de CPU, result to mem, mem to disk. In alle gevallen is daarvoor een cpu operatie voor nodig.

Wat HPE nu doet is die berekening direct uitvoeren in het geheugen door oa de controller slimmer te maken. Immers weet de controller precies waar dingen staan. Door nu toe te voegen dat ie ook weet wat er dan precies staat krijg je eigenlijk een kleine geheugen SOC die vele malen sneller berekeningen kan uitvoeren.

Vrijwel iedere binary operation kan daardoor in 2 of 3 acties ipv 5. In place data manipulatie kost dan vrijwel helemaal geen cpu time meer.
Ik denk dat het in zeer speciale gevallen zoals met hele grote databases wel degelijk een mooie oplossing zal zijn, de tijd zal het leren.
Als de geheugen prijzen blijven zakken word het misschien een goede oplossing zeker omdat als je niet meer afhankelijk bent of de cpu wel tijd heeft om de gevraagde data op dat moment te leveren. Hoe dat zal nog niet helemaal worden vrijgegeven voor men alles goed werkend heeft.
4 TB zou een mooi begin zijn vooral met de massale data die bedrijven en regeringen nu door willen spitten { lees het dagelijkse internet/telefoon verkeer van iedereen onder de noemer terreur bestrijding }
Op dit moment werken de meeste bedrijven ook allang met virtuele processor kernen die toegewezen worden aan een taak. Ben benieuwd op welk cpu platform dit geheel zal worden gebaseerd.

[Reactie gewijzigd door rschwartnld op 22 juli 2024 20:29]

4TB memory adresseren is het probleem niet. Er zijn gewoon machines die dat tegenwoordig kunnen.
Het grote probleem is de grote hoeveelheid data waarop wij als mensen bewerkingen willen doen, die moet allemaal langs het memory en door de CPU en daar zit momenteel een bottleneck. Vanwege elektronische circuits is dat haast niet meer sneller te krijgen en zoeken ze dus naar manieren om met licht te werken en de processing dichter bij de data te doen.

Volgens mij is dit een aardige stap in de goede richting maar zoals gezegd gebruiken ze nog steeds DRAM en dus volatile memory.
Ik ben het deels met je eens maar je moet toch echt anders kijken.
Er staat duidelijk dat de machine kijkt welke data er verwerkt gaat worden en dan beslist welke cpu ('s) deze het beste kunnen verwerken.
Uiteraard is daar ook weer logica voor nodig.
In de praktijk blijken er niet zo heel veel machines met lappen van 4 TB te kunnen werken.
Het heeft in mijn verleden ook al heel wat problemen veroorzaakt als je rond de 2 TB direct moest verwerken. Ik durf zelfs te bestrijden dat er heel wat machines dat kunnen.
De meeste maken er eerst kleine brokken van om ze beter te kunnen verwerken.
Misschien op papier is 4 TB haalbaar, maar in de praktijk valt dat vies tegen.
Zoals we allemaal weten is op papier heel veel mogelijk maar in het echt ga je toch raar op je neus kijken.
Zoals ik vaker heb gepost over de huidige game moederborden, er staat doodleuk dat ze 64 tot 128 Gb geheugen kunnen draaien op bijvoorbeeld 3300 mhz.
Ik heb nog geen enkel normaal bord gevonden die het zelfs met maar 16 of 32 Gb stabiel wilde draaien met 3000. We praten dus niet over de x serie borden die vaak ook heel wat duurder uitvallen.
Zelfs mijn laatste z170 telg met ddr4 gaat vrolijk terug naar 2133 mhz inderdaad dus de laagste snelheid. En dat nadat ik met 14 sets geheugen te hebben getest en met hulp van corsair er nog niet uitkwam .....
Alleen met de laagste klokspeed en zeer losse timings wil het draaien.
Dus op papier veel beloven maar in de praktijk nooit willen werken.

Terug on topic
In ieder geval deze wijze van HP is volslagen andersom en zou best wel eens een klapper kunnen worden. Uiteraard zal dit niet zo gauw nuttig worden voor het midden en klein bedrijf . Maar voor de grote bedrijven zie ik veel potentie.
Je vergelijkt game moederborden met enterprise systemen.
Een Power E850 (midrange enterprise) kan al 4TB alloceren.
Een Power E880 (high enterprise) kan 32TB over 4 building blocks alloceren.
En zo zijn er nog meer enterprise machines van bijvoorbeeld ook Oracle/HP die dat al kunnen hoor.
Het probleem zit oa in de route die de huidige data moet afleggen van memory naar cpu en vice versa.
Dit prototype gaat mogelijk straks dit gat dichten en dus dichter op de data de processing doen. Even in het midden gelaten of dit cpu's zijn. Zoals je ook al aanhaalt, hij kijkt naar dichtsbijzijnde resources om de verwerkingen te doen. (Zo dicht mogelijk bij de data dus)

[Reactie gewijzigd door GeeMoney op 22 juli 2024 20:29]

Maar nu het gewoon dram is, valt toch alle gegevens weg als de stroom uitvalt?
daarom zijn die reram reepjes welke alle gegevens en instructies vast kunnen leggen.


https://en.wikipedia.org/wiki/Resistive_random-access_memory

[Reactie gewijzigd door speed112 op 22 juli 2024 20:29]

Interessant concept. Ook leuk dat mensen wat out-of-the-box denken en alles opnieuw durven uit te vinden om hedendaagse problemen op te lossen.

Ik gun HPE van harte dat dit niet zo hard gaat falen als haar ander geestkindje Itanium :)
Uhhh Itanium is het geesteskind van Intel niet van HP.
Ik denk dat hun geesteskind nog steeds de hp 9000 mainframes zijn, die volgens mij nog steeds worden verkocht.
Deze Itanium is een krachtige intel cpu welke in de praktijk toch niet zo snel bleek te zijn als men had gedacht. Althans bij normale gebruiks situaties.
Zelfs in de fabrieks benchmarks kwam deze cpu samen met de andere concurrent de apha cpu zeer goed uit de benchmarks. Maar beide zijn ondanks de lange periode dat ze verkocht zijn alleen in heel speciale servers verkocht. Volgens mij kan je ze nog steeds kopen, op hun gebied zijn het nog steeds goede processors.
Toch is het een zeer krachtige cpu alleen ontbrak het aan programmeurs/ontwikkelaars die goede pakketten wilden aanpassen om deze te gebruiken. De processors zijn totaal niet bruikbaar voor simpel huis en kantoor werk. Vandaar dat je ze amper nog ziet.
Hetzelfde verhaal gaat op voor het amd concept FXxxxx met het shared cache ... achteraf bleek het in de praktijk ook tegen te vallen. Het idee was goed en op papier leek het snel, helaas weten we nu dat het alleen in enkele gevallen kan opwegen tegen de snellere intel varianten.
We weten allemaal dat een hogere kloksnelheid met goed afgestemde caches met het juiste formaat en niet gedeeld met de andere cores letterlijk sneller blijkt te zijn.
Het is niet helemaal zo zwart/wit maar goed dat is niet van belang.
Uhhh Itanium is het geesteskind van Intel niet van HP.
Juist wel.

De onderzoekers van de enterprise afdeling van HP (de latere spinoff HPE) begonnen ermee. Daarna is de samenwerking met Intel aangegaan.

Bron: https://web.archive.org/w...om/2100-9584-5984747.html (scroll naar Back in the day)

[Reactie gewijzigd door RoestVrijStaal op 22 juli 2024 20:29]

Het idee kwam wel degelijk van HP om een CPU te creëren die veel beter taken in parallel per CPU cycle kon uitvoeren. Ze hebben dan een samenwerking met Intel hebben opgestart. Zonder HP had er van Itanium zeker geen sprake geweest.

In principe had HP net zo goed voor een andere CPU bakker kunnen kiezen voor hun concept. Intel was waarschijnlijk gewoonweg de beste match.

[Reactie gewijzigd door FragileM64 op 22 juli 2024 20:29]

ja klopt de zucht naar steeds sneller is een verantwoording van deze bedrijven.
Misschien moeten ze iets net als eerder vermeld met iets heel anders komen zodat je weer andere aandachtpunten krijgt zodat het misschien op een simpelere manier meer snelheid gehaalt kan worden.
En als er veel geheugen beschikbaar is kunnen ze ook een os geheel in het geheugen laten laden zodat de harde schijf niet hoeft te swappen en door het swappen dus trager word.Maarja de tijd zal het leren.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 20:29]

echt een zeer interessante ontwikkeling dus. overall zou je dus in de toekomst verder de budgetten welke nu nodig zijn voor ontwikkeling van zowel nieuwe generatie's prosessors en geheugen bij elkaar kunnen gooien voor de verdere ontwikkeling van dit nieuwe RERAM geheugen... dus twice the money ipv. 2 maal enkel (huidige prosessors en geheugen!)

Op dit item kan niet meer gereageerd worden.