Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties
Bron: TG Daily

IBM heeft een patent verkregen op een technologie waarbij een gebruiker via een externe behuizing tijdelijk extra werkgeheugen aan een systeem kan toevoegen.

Het patent beschrijft drie onderdelen: een speciale connector die in een geheugenslot geprikt moet worden, een externe behuizing en de verbindende kabel. Het in de externe behuizing aangebrachte werkgeheugen wordt volgens de beschrijving van IBM direct door de computer herkend. Als de externe sloten leeg zijn, dan beschouwt de op het moederbord aanwezige geheugencontroller het slot als 'leeg'. Volgens de patentgegevens kunnen in de externe behuizing maximaal vier geheugensloten gevuld worden.

IBM lijkt met zijn vinding een goedkope en flexibele manier te willen aanbieden om systemen tijdelijk meer werkruimte te bieden. De oplossing zou toepasbaar moeten zijn op zowel desktops als servers. Door de makkelijk verplaatsbare behuizing zouden dram-modules door meerdere computers om en om gebruikt kunnen worden. Onduidelijk is nog wat IBM exact met de in het patent omschreven vinding wil gaan doen.

Schets uit IBM-patent
Moderatie-faq Wijzig weergave

Reacties (67)

Ik vraag me een beetje af wat het nu hiervan is...

als je toch de behuizing open moet maken om de speciale connector te plaatsen kan je het geheugen toch ook gewoon de een ram sleuf stoppen, en de snelheid zal waarschijnlijk ook wel een forse klap krijgen.

of kan je hiermee ook meerdere ram modules op 1 geheugenslot plaatsen?

[Reactie gewijzigd door Raphaelo op 13 juni 2007 11:47]

In het externe kastje kun je er vier doen terwijl je het op een geheugenbank aansluit dus zou zeggen ja.

Uit de bron:
According to the patent, the RAM box can provide up to four memory slots for every DRAM slot within a PC case.

[Reactie gewijzigd door SRI op 13 juni 2007 11:56]

Als je dan 4 repen gebruikt in dat externe kastje, en dat is dan aangesloten op 1 geheugen slot intern, in hoeverre heb je dan last van de versmalde bandbreedte, die moet nu door 4 repen gedeelt worden.
Je hoeft nu maar eenmalig de behuizing open te schroeven en daarna kan je de extra RAM toevoegen of weer verwijderen.
Aangezien IBM zelf servers maakt zal het waarschijnlijk basis worden ingeplaatst. Dus de PC of server open doen om het extended geheugen in te kunnen plaatsen zit er niet in (naar mijn gedacht).
Als je dan als beheerder bijvoorbeeld een zware taak wilt uitvoeren, dan kan je even rap extra RAM in de server steken zonder veel moeite.

Ik zie het vooral in toepassingen zoals servers die normaal gezien weinig werk te verduren krijgen maar op andere tijdstippen dan weer wel.
Leuk idee, maar moet je dat ding dan niet een reboot geven?

Oftwel is dit hotpluggable compatible of moet alsnog het apparaat even down om de zooi aan de gang te krijgen. Als dat zo zou zijn dan is de meerwaarde van "die server niet open hoeven schroeven" ook bijna te niet gedaan.

Zou mooi zijn als dit kastje de eigenschappen van het moederbord overneemt mbt hotplug/swap e.d.

:)
Ik dacht dat moederborden een maximum hebben voor de hoeveelheid RAM die ondersteund wordt. Betekent dit nu dat hiermee dit maximum omzeild kan worden?

Had de C64 niet al een soort cartridge die iets vergelijkbaars deed?
Ik dacht dat moederborden een maximum hebben voor de hoeveelheid RAM die ondersteund wordt. Betekent dit nu dat hiermee dit maximum omzeild kan worden?
In de AMD64-systemen zit de geheugencontroller in de CPU en die beperking zullen we nog niet zo snel bereiken.
Er is een aantal adresserings-modi waarvan de kleinste (in 64-bits mode uiteraard) 40 bits is meen ik, maar de CPU ondersteund ook 48 bits adressering.
2^40 = 1TB, dus daar zitten we qua geheugen nog niet aan.
dat denk ik niet, en zeker niet als die geheuge chip onboard zit zoals bij amd...
nou is het natuurlijk wel zo dat de geheuge bus op servers een aanzienlijk stuk breder is dan thuis pc's en dat de kans dat je aan diens max komt ook niet heel groot is (iig niet voor gewone servers),

misschien heeft het toch wel zin als de techniek 't toelaat....
IBM staat bekend om alles wat los en vast zit een patent voor aan te vragen. Voornamelijk om te voorkomen dat een vaag bedrijf de halve wereld aanklaagt voor geld.
een technologie waarbij een gebruiker via een externe behuizing tijdelijk extra werkgeheugen aan een systeem kan toevoegen.
En ook hier betreft het weer eens geen nieuw idee.
Voor de MSX-computer waren er cartridge-extenders te koop en geheugen-cartridges.
Ik herinner me nog die foto in de MCN (of was het toen al MCCN?) met een MSX-turbo-R met maar liefst 33 MB geheugen. (1 onboard en 8x 4MB cartridges)
Dit was omstreeks '91 +/- een jaar. meen ik.
Oe.. MSX.. Ik heb ooit een 32KB geheugen-cartridge gehad voor mijn VG8020 :9
Yepz, de MSX Slot Expander; moest ik ook meteen aandenken. Zelfde idee; al was het niet expliciet voor geheugen maar meer 'general purpose', het werkte b.v. ook voor games en andere hw. zoals SCSI interfaces en Audio-chips. In Brazilie worden die dingen (ander ontwerp, maar verder hetzelfde idee) nog steeds gemaakt.

On-topic: Indien ze het kastje in een 5.25" bay-formaat maken, kan het best handig zijn in bepaalde gevallen :)
Ik vind dit patent van het type "dubbelklik" eigenlijk.
Ja, het is gewoon een sooft veredelde verlengstuk voor je geheugensockets. Nou niet echt een geniaale uitvinding als je het mij vraagt.
RAM packs waren al beschikbaar voor diverse home computers, ergens in 1984 of zo, op een ZX81...

http://images.google.com/...e=off&q=zx81%20ram%20pack

Ik gok dus dat IBM op geen enkele mogelijke manier patent op het externe geheugenkasje gaat krijgen, maar op de manier waarop het kastje met de computer gaat communiceren zonder (al te veel) snelheidsverlies.

[Reactie gewijzigd door J.J.J. Bokma op 13 juni 2007 19:27]

Ik kan mij voorstellen dat dit bij testservers een goede oplossing is. Naar gelang de behoefte aan een bepaalde type omgevingen kan het geheugen opgeschaald worden.
Tja. Ik zie eigenlijk de lol niet zo: RAM kost geen bal tegenwoordig, dus je kan voor de meerprijs van de kast en kabel ook gewoon extra DIMMs kopen en je testmachines uitrusten met geheugen. Ben je gelijk klaar. Het is ook niet dat je RAM over kan prikken van de ne naar de andere PC om gegevens uit te wisselen ofzo, dus eerlijk gezegd vind ik dit een beetje rare constructie om als mobiel product of wisselbaar product te willen gebruiken.
Wat ik wl snap is dat je het kan gebruiken om een mobo met maar 4 sloten te voorzien van 16 geheugen kaarten en zo je niet heel snelle maar nog lang niet afgeschreven database server een flinke duw in de rug te geven. Ga je van 8 naar 32 GB ram, dan kn het wel eens sneller worden ;)
Het is inderdaad moeilijk voor te stellen voor productiegebruik, maar ik zou het zeker interessant vinden om zonder de kast te openen of te herstarten eventjes te zien of iets beter werkt met meer RAM.
Voor portables is het natuurlijk wel een mooi product als het volwaardig ram is.
Zo zou je op je werkplek waar je zware software draait ram kunnen bijprikken en mobiel enkel het interne geheugen gebruiken waardoor de batterij ook weer langer meegaat (als je het ram niet nodig hebt tenminste). :)
Ik denk dat virtualisatie dan een veel betere oplossing is.
Ga je tijdelijk meer load op de test/development machine hosten, dan kan je middels virtualisatie tijdelijk extra geheugen toewijzen. Ben je klaar, dan wordt dit weer beschikbaar voor andere testmachines.

Met sommige hypervisors is het mogelijk om een gedeelte van het geheugen dynamisch te laten toewijzen aan de machine die dit het meeste nodig heeft.

Dit lijkt me echt veel beter en flexibeler dan een hardware module die je steeds heen en weer moet slepen.
Ook een virtuele machine heeft fysiek geheugen nodig :+

Maakt niet uit of er nou een database, VM omgeving, oid op draait. Als er (tijdelijk) extra geheugen nodig is, kan je er op deze manier bij prikken.

Alleen ik vraag me wel af hoe ze dat gaan doen als die kabel stuk/los gaat ;)
Dan mis je opeens een stuk van je geheugen; een kernel panic lijkt me dan wel op zijn plaats. :)
Zeker met de dynamische toewijzing is de kans groot dat essentieel werk geheugen op die media terecht komt.
Geheugen wordt toch zo dicht mogelijk bij de processor gezet om ervoor te zorgen dat het zo snel mogelijk beschikbaar is voor de processor?
Hoe het nu op de schets uitziet zal er een behoorlijke vertraging in de snelheid komen, vraag me dan af of het nog zo effectief is om "extra" geheugen bij te plaatsen.
Die extra afstand maakt niet zo heel veel uit. Voornamelijk de timing is erg moeilijk, aangezien alle lijnen even lang moeten zijn, en omdat het nogal veel lijnen zijn. Hoe verder je die dan van de processor plaatst, hoe moeilijker de routing van de koperlijnen op je moederbord word, aangezien die lijnen dan nogal in de weg gaat zitten voor je andere onderdelen.
gaat de electronenverschuiving niet aan -bijna- lichtsnelheid?
electronen bewegen heel langzaam. Maar met enkele 10-tallen cm/s.
Je moet electriciteit zien als een buis gevuld met knikkers. Als je aan de ene kant een knikker erbij duwt, komt er vrijwel meteen een knikker aan de andere kant uit. De knikkers zelf zijn echter nauwlijks verplaatst.

De snelheid van signaaloverdracht is afhankelijk van het medium. Voor koper is dat zo'n 0,3 c meen ik.
Een collega van mij beweerde laatst trouwens dat de overdracht in hydolische vloeistoffen sneller gaat dan electriciteit in koper.
De netto snelheid van elektronen in een koperdraad is in de orde van enkele millimeters per seconde, afhankelijk van het elektrische veld.

De snelheid van een elektromagnetische golf in een koperdraad is ongeveer 2/3 van de lichtsnelheid. Laatste is dus de snelheid waarmee data overgedragen kan worden door een koperdraad.

Zie b.v. http://en.wikipedia.org/wiki/Speed_of_electricity
Het grote nadeel van lange kabels is de grotere capaciteit dat deze bezitten, die capaciteit moet opgeladen worden, wat de snelheid fel naar onder haalt.

80pins aderige IDE is zo naar het schijnt hetzelfde als een 40pins/40aderige, alleen dat er een losse kabel telkens tussen zit om 2 capaciteiten in serie te hebben. (C in serie = C/2) Kleinere capaciteit betekent minder tijd nodig om de capaciteit van de kabel op te laden en dus een hogere doorvoersnelheid.
Dat hebben ze mij toch probere wijs te maken!

[Reactie gewijzigd door kluyze op 14 juni 2007 12:13]

Wijs hebben ze je er niet mee gemaakt. :(
de connectoren zijn beide 40 pins maar de kabels hebben 40 of 80 aders.
Bij een 80-aderige kabel zit er steeds tussen 2 signaal-draden een massa-draad. (ader 1 is de eerste signaaldraad, ader 2 is massa, ader 3 is de tweede signaaldraad, ader 4 is weer massa, etc.) Zouden de signaaldraden direct naast elkaar liggen, dan is de overspraak groter en zie je het signaal van de ene draad duidelijker op de andere draad terug. En dus is dan slechts een lagere snelheid haalbaar.

Ideaal zou het zijn om elke signaaldraad te omhullen met een massa (volledig shielden), maar dat levert erg dikke en stugge kabels op. SATA doet dat wel, maar daar zitten dan ook geen 20 signaaldraden in 1 kabel, maar maar 4)

(en dan heb je mafketels die de kabels rounden en daarmee een kabel maken tot iets wat nog slechter presteert dan een 40-aderige kabel, maar als je je kabels kort houdt gaat het nog wel, ook omdat de bussnelheid toch hoger ligt dan de snelheid van de schijf en je toch niet zult merken dat je 'maar' 25MB/s over het draadje kunt versturen.)
Aanvulling: echte rounded kabels zijn intern twisted-pair en komen daarmee juist weer dichter bij de ideale afscherming. Zelf een kabeltje modden is inderdaad niet verstandig.
Die 'overspraak' heet inductie. Daarom worden die 80 aderkabels ook wel inductiekabels genoemd ;-)

(en ja.. ik zeg ook wel regelmatig foutief 80-pins, klinkt gewoon lekkerder, net zoals ik een wandcontactdoos voor stopcontact uitmaakt, ook al ben ik electrotechnicus ;-))
Volgens mij is de vervangingscapaciteit van 2 condensatoren in parallel (want dat staan ze) gewoon C1 + C2.
Dat is ook wel logisch, want je vergroot het oppervlak van die platen en dus de capaciteit.
Die extra aders zitten er volgens mij gewoon tussen om als shielding te werken om zo de ruis tussen 2 datalijnen te verminderen.

[Reactie gewijzigd door TD-er op 13 juni 2007 13:23]

Inderdaad. Maar computers draaien ook op enorme kloksnelheden.
En 1 GHz komt overeen met 1x10-9 seconde. De lichtsnelheid is 3 x 108 m/s. Dus in n kloktik heb je dan maar 30 cm afstand...
Bij lange na niet... meer een tiende ofzo...
Het lijkt me dat een uiteindelijke implementatie toch wel wat meer vraagt dan alleen wat lijntjes doorvoeren en wat weerstandjes aan het eind plaatsen.
Zou me niets verbazen als ze een controllertje maken die de data over een serieele verbinding stuurt en aan de andere kant ook een controller die de modules aanstuurt.
Laten we even rekenen. Stel dat de kabel 1,5m lang is. Elektriciteit gaat, net zoals licht, met een snelheid van 300km/s. Per kloktik moet een adres op de bus gezet worden, en moet de data terug. Voor het gemak gaan we ervan uit dat de data meteen beschikbaar komt zodra de adres-bits veranderen.

Dan komen we uit op 3m / c = 10 microseconden. Dit betekent dat het geheugen maximum aan 100MHz geklokt kan worden!

Dan moet IBM dus ook een techniek bedenken waarbij rekening gehouden wordt met deze vertraging. Dwz: een adres-woord op de adresbus zetten, geeft de memory content bv. maar 10 kloktikken later terug.
Elektriciteit gaat, net zoals licht, met een snelheid van 300km/s.

Correctie 300.000 km/sec afgerond. http://en.wikipedia.org/wiki/Speed_of_light

Dan komen we uit op 3m / c = 10 microseconden. Dit betekent dat het geheugen maximum aan 100MHz geklokt kan worden!

Word:
Dan komen we uit op 3m / c = 10 nanoseconden. Dit betekent dat het geheugen maximum aan 100MHz geklokt kan worden!

3m lijkt me geen rele lengte ik vermoed dat je centimeters een relere lengte zijn. 40cm of zo maximaal, 75 cm is 1/4 lambda voor 100 MHz.

Het probleem is niet alleen de timing, het effect van "lange lijnen" zal een behoorlijke invloed hebben. Dit zijn lijnen langer dan 1/4 lambda, hier kun je staande golven en reflecties op krijgen waardoor je geen betrouwbare data overdracht kunt krijgen.

http://www.allaboutcircuits.com/vol_2/chpt_14/5.html

[Reactie gewijzigd door worldcitizen op 13 juni 2007 14:41]

Dit is een verkeerde berekening.

Elektriciteit is niet snel. Tevens over dit soort databus geld het standaard electriciteit draadje trekken niet meer maar is er een andere benadering en dat is het hoogfrequent gebeuren.

Golven gaan door coax met 2/3 van het lichtsnelheid. Dit geld voor zowat elk koper medium. Tevens deze golven planten zich NIET voor in het koper maar tussen de kern en mantel (dielektrisch materiaal). Op moederborden is dit tussen het datalijntje en de groundplaat die er onder ligt.. (Dus in de printplaat)

De delay zal inderdaad stuk hoger zijn van dit geheugen maar ik denk nog altijd sneller dan een hardeschijf. Wat voornamelijk moeilijk is, is storing van buiten af en capacitieve overspraak (2 draden naast elkaar), hiervoor wordt meestal een ground lijntje tussen gelegd.

Het is nog altijd een patent en zegt nog niets dat ze het al werkend hebben...

[Reactie gewijzigd door MarcusKara op 13 juni 2007 14:54]

naar mijn weten was lichtsnelheid toch wel echt 300.000Km/sec
dus dan gaat het nog tot 100.000MHz volgens jouw berekening
Voor een pda is het wel een leuke oplossing om meer werkgeheugen te creeeren, want deze openmaken en een ram bijprikken gaat niet zo makkelijk. Verder zou ik niets kunnen verzinnen waar het anders nut zou hebben.
Hot-swap toepassingen voor in servers. Dan hoef je de hele server niet meer van z'n plek te halen om geheugen uit te breiden of te vervangen. Dat scheelt weer downtime en dat laatste gaat in de toekomst nog meer meespelen nu we steeds meer computers gaan virtualiseren.
Mijn eerste reactie is: geeft dit geen timingproblemen? Ik dacht altijd dat de lengte van de baantjes tussen de geheugenmodules en de northbridge (of processor bij ingebouwde geheugencontroller) gelijk moest zijn om timingproblemen te voorkomen.
Volgens mij gaat dit dan met een serieele aansluiting, zoals fbdimm's?
Hoezo fbdimm's? Volgens het bronartikel werkt het van PDA tot server dus denk dat ze het in principe willen toepassen voor elk soort werkgeheugen.

(Misschien dat ze hiet (nog) niet in de praktijk kunnen maar dat boeit niet als je een patent op het idee hebt dan zit je toch al redelijk goed. De praktijk komt later wel).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True