Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 14 reacties
Bron: News.com

News.com heeft een artikeltje gepost met wat meer info over de Memory eXpansion technologie van IBM, waarover je eerder vandaag al een nieuwsposting hebt kunnen lezen. MXT maakt 't mogelijk om on-the-fly hardware compressie op RAM geheugens los te laten, waardoor 'miljoenen dollars' bespaard zouden kunnen worden op de aanschaf van RAM reepjes. De technologie zal voor het eerst worden toegepast in IBM Netfinity servers, maar IBM ziet ook mogelijkheden voor handhelds en desktop PC's. Server chipset fabrikant ServerWorks heeft al aangekondigd dat het een licentie neemt op de technologie:

IBM is launching today a new technology that effectively doubles the amount of memory in a computer. The technology could be used in desktop PCs and even handheld devices, IBM said. It will be introduced first for IBM's Netfinity line of servers with Intel processors for corporate networks and Web sites.

[...] MXT could save a typical Internet service provider millions of dollars in memory, IBM said. The Armonk, N.Y., computer giant did not reveal how much the feature will cost.

ServerWorks Corp., a Santa Clara, Calif., maker of chips for Intel-based servers, will license the technology from IBM and make it available to other server manufacturers.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (14)

Hmmm... Als serverworks het in produktie neemt zal dat waarschijnlijk zijn als onderdeel van de chipset. Wellicht wordt het dan wel betaalbaar.

Ik vraag me nog steeds af hoe het met de snelheid zit. In principe is het mogelijk om het realtime genoeg te doen om de bandbreedte te kunnen behouden, maar de vraag is of het met de latency gaat spelen. En van rambus weten we wat bandwidth vs/ latency oplevert...
Jasper Janssen:
Latency hoeft geen probleem te zijn. Als ze een buffer inbouwen waar data in bewaard wordt tot deze gecomprimeerd is, lijkt het alsof schrijven naar het geheugen supersnel gaat. Mogelijk zelfs sneller dan naar gewoon RAM.
Als de compressie throughput genoeg is, dan is die buffer weer leeg voordat de volgende lading bytes geschreven wordt.

Ik denk wel dat operating systems aangepast moeten worden om met dit RAM om te gaan. Huidige operating systems gaan er van uit dat de hoeveelheid RAM constant is. Maar aangezien je nooit een compressiefactor (van meer dan 1) kan garanderen, heb je eigenlijk een veranderlijke hoeveelheid RAM in je systeem zitten.
Dit zou wel eens 'een' oplossing kunnen leveren voor het geheugen bandbreedte probleem.
Stel: je comprimeert de data 2X. Het geheugen poept dan in 1 seconde effectief 2X zoveel data uit als ongecomprimeerd.
Als je dat codeer/decodeer chippie snel genoeg maakt (desnoods met hulp van heftig koelen, als een soort tweede CPU) dan levert het comprimeren geen snelheidsverlies meer op, aangezien de comprimeer proc het geheugen makkelijk bijbeent.

Je hebt natuurlijk altijd wel wat verlies door de extra rekentijd voor de data daadwerkelijk bij je andere componenten is, maar zou wel eens weg kunnen gaan vallen tegen de winst.

Een oud voorbeeld: Mijn buurman had een XT die sneller was als hij stacker geinstalleerd had. Die HD was zo traag in verhouding met de rest dat de snelheidswinst door het minder data hoeven lezen opwoog tegen de rekentijd voor het comprimeren. Iets soortgelijks heb je nu misschien ook wel met ons o zo trage (ahum) geheugen.
Schrijven is geen punt nee, maar daar heb ik het ook niet over. Ik heb het over lezen.

Inderdaad, een OS zal bij voorkeur hier weet van moeten hebben, anders kom je ontzettend in de knoop met je paging strategie. In feite moet je voor vrij geheugen een factor 1 rekenen, en voor gebruikt geheugen de werkeliojke factor.

Een godawful mess, kortom, net als met gecomprimeerde HDs.
Jasper:
Wat betreft de latency van lezen: decompressie gaat waarschijnlijk in blokken. Een losse byte lezen is dus relatief traag, maar een aantal opeenvolgende bytes zou best snel kunnen zijn.

OS-en krijgen het nog lastiger dan ik eerst dacht. Stel je maakt een nieuw bitmap plaatje in je tekenprogramma. In het begin is heeft dat plaatje een egale achtergrond in 1 kleur en is dus supergoed te comprimeren. Maar hoe meer je tekent, hoe moeilijker het plaatje te comprimeren wordt. Dus het geheugengebruik van dat ene plaatje neemt steeds toe.
Het OS moet er dus rekening mee houden dat de hoeveelheid vrij geheugen afneemt, terwijl het OS geen geheugen uitdeelt. En wat moet er gebeuren als het geheugen op die manier vol raakt? Dan moet de compressiechip aan het OS duidelijk maken dat er geswapped moet worden, of iets dergelijks.
Dit is dus meer dan een simpele driver, het OS zal echt overhoop moeten, omdat aannames die voor gewoon geheugen gelden niet meer waar zijn voor gecomprimeerd geheugen.

Armada:
Dat hangt er helemaal van af hoeveel cache ze nodig hebben om het soepel te laten lopen. Met de huidige informatie is daar weinig over te zeggen.
mm.
dus als ik het goed begrijp moeten we minder gaan investeren in memory, omdat we met deze hoeveelheid de dubbele hoeveelheid eruit kunnen slepen/gebruiken?! ideaal, naar mijn idee. alleen even afwachten hoelang het duurt voordat ook gewone mensen deze technology kunnen toepassen.
Neej, je moet dan hun geheugen met die speciale compressie processor gebruiken...
Ze willen het alleen in lecensie gaan verkopen..
dus niet zelf gaan fabriceren...

(Zie eerdere posting vandaag)
Ik denk niet dat je deze technologie in een bestaand systeem kunt toepssen aangezien dit zou betekenen dat je dan of de chips in een pci poort zou moetn steken welke te langzaam is
of je geheugen zou moeten vervangen
* 786562 ultimate
Iedereen denkt nu dat we minder geld kwijt zijn aan RAM, maar dit is maar tijdelijk
- Zo'n MXT chip zal wel niet goedkoop zijn
- Als iedereen zo z'n RAM heeft verdubbeld komt er wel weer software waar iedereen weer meer RAM voor nodig heeft.
bakkus:

serverworks maakt toch alleen chipsets etc voor servers. als dat zo is dan duurt het aardig lang voordat de gewone mensen het kunnen gebruiken

* 786562 muggs

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True