Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 24 reacties
Bron: TG Daily

Innovative Silicon heeft een tweede klant gevonden voor zijn Zram-techniek. Na eerst de interesse van AMD te hebben gewekt, heeft nu ook Hynix een bedrag met zeven nullen betaald voor een licentie.

Zram maakt gebruik van de unieke eigenschappen van soi-wafers om informatie in één transistor op te slaan. Voor traditionele geheugens en caches is veel meer nodig: dram gebruikt twee transistors per bit en sram heeft er zelfs zes per bit nodig. Het voordeel is dus dat er meer informatie op hetzelfde oppervlak gestopt kan worden.

Nadelen zijn er echter ook: met name de eerste generatie werd geplaagd door een lage snelheid (100MHz) en zelfs 'vergeetachtigheid', waardoor opgeslagen data na een tijdje onleesbaar werd. In de tweede generatie is de betrouwbaarheid en snelheid behoorlijk verbeterd, waardoor inmiddels 500MHz mogelijk is.

Zram

Hynix gaat de komende twee jaar intensief met de patenthouders bij Innovative Silicon samenwerken om zram-geheugens te ontwikkelen die compatible zijn met standaard ddr3-gleuven. Men gelooft na een jaar van vooronderzoek dat zram een revolutie binnen de geheugenmarkt kan worden. Een concrete datum waarop het feest kan beginnen wil men echter nog niet noemen.

AMD zou volgens sommige geruchten zram willen gebruiken als L3-cache, maar heeft officieel niets meer gezegd dan dat het de technologie aan het bestuderen is.

Moderatie-faq Wijzig weergave

Reacties (24)

Waarschijnlijk levert dit geen directe latency of directe stroomverbruik verlagingen op maar voornamelijk toename in capaciteit. Dat biedt drie voordelen. Meer geheugen voor hetzelfde geld, meer geheugen mogelijk, minder kosten en energie nodig voor het produceren van hetzelfde geheugen.
Of de compromis mode, iets meer geheugen dat iets minder ruimte inneemt voor iets minder geld. Ik denk dat het van de prestaties afhangt. Als die minder zijn dan bij conventioneel geheugen dan zal het juist voor budget systeempjes gebruikt worden, als de prestaties juist beter zijn dan zal men idd gaan voor meer geheugen in plaats van goedkoper.
En aangezien het milieu tegenwoordig helemaal hot is. Kan dit mooi gemarket worden als milieuvriendelijk! Althans het lijkt me dat 1 transistor altijd minder stroom kost dan 6 transistors. Mooie techniek, zou de latency ook lager zijn?

Wat me ook wel een voordeel lijkt is dat het maar liefst 5x dichter is dan ons huidige RAM, ik zie de 10 GB reepjes al verschijnen. :D

[Reactie gewijzigd door Hieronymus op 13 augustus 2007 21:14]

Wat me ook wel een voordeel lijkt is dat het maar liefst 5x dichter is dan ons huidige RAM, ik zie de 10 GB reepjes al verschijnen. :D
Helaas, het is (maximaal) 5x dichter dan SRAM (bv. cache op de processor) , maar maximaal 2x dichter dan DRAM, wat het RAM is dat je waarschijnlijk bedoelt.
Op EEtimes staat dat Z-RAM 2x dichter dan embedded DRAM zou zijn, maar embedded DRAM is meer dan dubbel zo groot (ik heb hier helaas niet direct exacte getallen voor me liggen, en geen zin om ze zo laat op te zoeken) dan standalone DRAM, dus ik vrees dat dit teleurstellend zou kunnen zijn?


gewone DRAM is trouwens een 1T1C cel: 1 transistor en 1 condensator per bit...
4 van die reepjes erin en je kan de hele computer in het geheugen laden.
Zijn we ook direct af van vertragingen door trage harddisks.
dat zou mogelijk moeten zijn.

Er bestaan al RAM PCI kaarten (meede van Gigabyte) Hierin kan je een X aantal GB drukken en ook gebruiken om van op te starten. Windows XP ondersteund het zelfs.

er zit een soort van BBU op

nieuws: Gigabyte iRAM SATA-ramdisk doorgemeten

en tsja wie echt geld te veel heeft raad ik dit aan :)
nieuws: Texas Memory Systems bouwt 1TB RAM-drives
Maar daarbij is het mij in iedergeval nog nooit gelukt om de maximale theoretische snelheid van DDR(2/3) te halen.
Er zal toch altijd informatie blijven die je ook wil bewaren nadat je je pc een keer uitzet ;).
Natuurlijk, maar bij het opstarten kan alles weer in het geheugen geladen worden.
Ik denk dat de mensen hier niet helemaal weten hoe de data stroom binnen de pc in elkaar zit.
Als we dan toch aan het dromen zijn dan wil ik liever 10GB een level 1 cache in mijn 32 core cpu hebben en daarnaast wil ik liever helemaal geen SSD of RAM te hebben maar doe dan maar 10TB aan Level 2 cache die zo energie zuinig is dat deze zijn informatie kan vast houden met een batterijtje. Dit is weer met een 1 TerraBit fiber verbinding verbonden met de servers van google die alle informatie hebben dat er maar te vinden is en binnen een lichtflits is geladen is in het level 2 cache.

jongens.. we hebben een hard disk omdat floppys/cd's/dvd's/BluRay toch wat te langzaam is. En we hebben RAM in onze pc zitten omdat de hard disk wat traag is en we hebben level 2 cache vlak naast de CPU zitten omdat het RAM zo enorm traag is en in de cpu hebben we level 1 cache zitten omdat de 4 MB van de level 2 cache zo veel centimeters moet afleggen op het moederboard en daardoor zo langzaam is. Dan hebben we in de CPU zelf nog een aantal registers zitten omdat met de data van level 1 cache niet te rekenen valt.

Het hele idee is dat er altijd iets snellers/kleiners is wat als buffer fungeert, met andere woorden een hard disk zal nooit zo snel worden als het RAM en het ram zal nooit zo snel worden als de level X caches van je CPU/moederboard. Als dit namelijk wel het geval zou zijn dan wordt het er gewoon uitgegooit.

Persoonlijk zie ik draagbare media het eerste verdwijnen omdat we het wonderbaarlijke internet hebben waar je alles op kan zetten. daarna is de hard disk aan de beurt. En hoe raar het ook klinkt we gaan weer terug naar het idee van de jaren 40 waar je achter een terminal zit en verbinding hebt met een server die alles voor jou doet.
Je ziet het nu al gebeuren met de google revolutie.... maargoed, time will tell.

[Reactie gewijzigd door Madcat op 14 augustus 2007 07:58]

En hoe raar het ook klinkt we gaan weer terug naar het idee van de jaren 40 waar je achter een terminal zit en verbinding hebt met een server die alles voor jou doet.
Daar zit ik alweer...

We gaan hier mischien een stel van deze dingen krijgen
Ja lekker, 'even' 40GB lezen, dat komt je opstarttijd ten goede!

Beter bouwen ze snelle SSD's zodat geheugen overbodig wordt ;)
Wat dacht je van een combo van snelle SSD's en lekker veel van dit RAM? :)
SSD's zullen NOOIT -ik herhaal NOOIT- zo snel worden als main memory. Waarom vraag je? het antwoord is simpel: Terwijl ssd's sneller worden staat de ontwikkeling van main memory natuurlijk ook niet stil he ;)
Achilles kan de schildpad nooit inhalen? (zie Zeno)
Zeg nooit, nooit! Daarnaast is het natuurlijk ook de bedoeling dat main memory sneller is dan SSD's. Waarom zouden we anders main memory gebruiken als die de lelijke bijwerking heeft dat hij al zijn gegevens verliest als je de computer uitzet.
Ehm, stel ik heb zoveel RAM als HDD ruimte. Dan moet ik met de huidige HDD technieken dan moet ik bij iedere keer opstarten zo'n twee uur wachten om alles ingeladen te krijgen. Ik denk dat we nooit op een punt zullen komen dat alles in het RAM zal staan. Al was het maar omdat over de afgelopen dertig jaar HDD-ruimte harder toegenomen is dan RAM.
"Zram maakt gebruik van de unieke eigenschappen van soi-wafers om informatie in één transistor op te slaan. Voor traditionele geheugens en caches is veel meer nodig: dram gebruikt twee transistors per bit en sram heeft er zelfs zes per bit nodig. Het voordeel is dus dat er meer informatie op hetzelfde oppervlak gestopt kan worden."

Is keigoed, maar om hoeveel "informatie meer" gaat dit dan?
In SOI-transistoren zijn transistoren elektrisch gescheiden van het substraat d.m.v. een extra laag siliciumdioxide. Ten gevolge van de elektrische scheiding ontstaat er een capaciteit tussen de bulk van de transistor en het substraat. In deze capaciteit kan lading opgeslagen worden. In theorie zul je hier meerdere bits in op kunnen slaan, maar het is al lastig genoeg om een '0' van een '1' te kunnen onderscheiden.

Het belangrijkste voordeel is dat je bij zram de helft minder transistoren nodig hebt.
Niet verkeerd dat ze dit ook gewoon in een ddr3 reep willen gaan (proberen te) proppen.
Ik denk niet dat men zit te wachten op weer een overstap naar een ander platform vanwege het geheugen.
Inderdaad, het begin van het verhaal deed me denken aan het RIMM-fiasco tot ik las dat het ddr3 compatible moet gaan worden ;)
Ik vond RIMM niet echt een fiasco. Ik vond het eerder een goede uitvinding op het verkeerde moment die op een verkeerde manier werd verkocht.. Ik bedoel het koste gewoon extreem veel, voornamelijk door de license fees en een tijdje later veegde DDR de schoenen er mee af qua snelheid.

PC133 SDRAM had een bandbreedte van 1066MB/s.
RDRAM had een bandbreedte van 1600MB/s.
DDR-SDRAM had een bandbreedte van 2100MB/s.

Als ze er eerder mee waren gekomen en was het goedkoper geweest was het zeker een hit geworden. Een mooie tussenstap tussen SDRAM en DDR-SDRAM.

[Reactie gewijzigd door Psychatic op 14 augustus 2007 00:20]

Maar hoe is dat wat jij beschrijft geen fiasco voor RDRAM (of RIMM, wat je wil)? Verkeerde moment en hoge prijs is voor mij genoeg reden om het een fiasco te noemen.

Deze Zram-technologie kan ook goed zijn, maar als de prijzen te hoog zijn en er geen compatibiliteit is (zoals bij RIMM) dan wordt het toch echt niks en dus een fiasco.

[Reactie gewijzigd door praseodymium op 14 augustus 2007 00:22]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True