Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 51, views: 23.842 •

IBM claimt een grote doorbraak in de ontwikkeling van spintronics, waarmee de snelheid van ram met de voordelen van flashgeheugen gecombineerd moet worden. Onderzoekers ontdekten hoe ze de spin van elektronen langer vast kunnen houden.

Met spintronics wordt de spin, een kwantummechanische eigenschap van onder andere elektronen, gebruikt om data in bits op te slaan. Doordat de elektronen nu iets langer dan een nanoseconde in dezelfde spin-oriëntatie worden behouden, kan een processor op 1GHz de data nu gebruiken. De technologie wordt door de onderzoekers 'persistent spin helix' genoemd. Zonder de door IBM beproefde techniek wisselen elektronen dertig keer sneller van spin, waardoor de data geen clock cycle bewaard kan blijven.

De doorbraak betekent niet dat er op korte termijn al spintronics-geheugen kan worden geproduceerd: de onderzoekers hebben de experimenten uitgevoerd bij een temperatuur van -233 graden Celsius en het kan nog niet worden gereproduceerd op kamertemperatuur. Die horde moet nog worden genomen, maar vormt nog bij vele kwantummechanische toepassingen een probleem: bij temperaturen die dicht bij het absolute nulpunt liggen zijn kwantummechanische fenomenen namelijk gemakkelijker waar te nemen. De resultaten van het onderzoek verschijnen later deze week in het wetenschappelijke tijdschrift Nature, schrijft Computerworld.

Spintronics-geheugen moet de voordelen van flashgeheugen met de snelheid van ram combineren: ook als de stroom uitgeschakeld wordt, kan de data worden bewaard. Het is nog onduidelijk wanneer spintronics-geheugen op de markt zou moeten komen.

IBM : sturen van rotatie elektronen voor spintronics

Reacties (51)

Helaas zijn we weer 10 jaar verder voordat dit soort technologieŽn Łberhaupt op de markt komen.
Als je bekijkt wat de laatste 10 jaar allemaal is gekomen.. Bedoel kijk naar telefoons..
Maar goed was ook niet een andere techniek die ongeveer zelfde voordelen hadden?

Oh, even opgezocht meende dat het Phase-Change Memory was die ook deze voordelen hebben. Samsung had laatst 8Gbit chip ontwikkeld meende ik.

Maar mooi te zien dat techniek nog lang geen einde heeft, denk dat ik me niet kan voorstellen wat voor computers er zijn over 10 jaar :)

[Reactie gewijzigd door linkkrw op 13 augustus 2012 17:40]

Als je bekijkt wat de laatste 10 jaar allemaal is gekomen.. Bedoel kijk naar telefoons..
In moderne telefoons zit weinig bijzonders qua fundamentele techniek. Het is gewoon geminiaturiseerd bestaand spul. Geen spintronics, geen magnetisch RAM of holografische opslag of al dat soort dingen die al jaren geleden in het nieuws geweest zijn. Het enige wat we eindelijk hebben (in telefoons) is OLED.
Wat een bijzondere negatieve kijk!

Misschien is het niet in jouw ogen fundamenteel, maar als ik kijk naar batterijduur, helderheid van schermen, pixeldichtheid van schermen, bereik, processor snelheid, processor kernen, dan zijn wij nu toch een behoorlijk stuk verder. EN een vele malen snellere processor, EN een betere scherm (resolutie, helderheid, pixeldichtheid), EN veel meer geheugen, EN kleiner, EN met al deze verbeteringen toch een lange batterijduur. Dus hoezo 'weinig bijzonders'.

Alleen: het is geen sexy technologie. Batterijen? Boooooring. (En toch zijn de mobieltjes van nu toch vele malen kleiner dan de eerste bakstenen) Retina display? Is maar even van belang. (Maar het is gewoon prettiger werken, alleen sta je als gebruiker er niet bij stil). Snellere processor. 'T is gewoon evolutie. (Maar verdomd moeilijk om de wet van Moore te blijven bevestigen).

Kijk maar naar de iPad1 en iPad3: meer geheugen, 4 keer zo hoge resolutie, sneller, dunner, en toch nog steeds gaat ie 10 uur mee.

"Het is gewoon geminiaturiseerd bestaand spul." Probeer eens er bij stil te staan wat miniaturisering betekend en wat voor geweldige uitdagingen genomen moeten worden.
ipad1 is een slecht voorbeeld natuurlijk. over knullige hardware specs gesproken met name van de cpu en dan ook nog een hele oude iOS versie erop (vet ouder dan van de iphones).

Een iOS versie die niet eens kan multithreaden noch multitasken...

Het belangrijkste van al die apparaatjes is dat ze spotgoedkoop geproduceerd kunnen worden, waardoor de winstmarge hoger ligt.
OT-antwoord: zoals gebruiklijk snappen tweakers het gewone peupel niet.

Het gaat niet over specs, het gaat over de gebruikerservaring. En die was bij de iPad1 gewoon goed.

Geen multi zus, geen multi zo: geen punt! Het apparaat deed wat het moest doen. En de ontbrekende features zijn vanzelf later bijgekomen. Iedereen schreuwte dat het de doodsklap was dat Flash niet ondersteunt werd. Nou, volgens mij geven de verkopen aan dat dat absoluut geen breekpunt was.

Wat betreft featuritis: liever helemaal geen feature dan eentje die het maar half doet. Geldt trouwens niet alleen voor gadets maar ook voor programma's. Als ik zie hoe halfbakken sommige functies in Office en andere prog's en app's zijn uitgevoerd; ik heb echt liever dat een prog/app iets niet doet dan dat ik mij zit te ergeren omdat het net niet goed gaat.

Ik gebruik mijn iPad1 nog steeds ieder dag met veel plezier, zonder iets te missen. En mijn iOS-versie is 5.1, ik zou niet zeggen dat deze versie 'vet ouder dan van de iPhones' is.
Sorry jonge, moet ik je toch teleurstellen.

De schermen zijn oude technologie doorontwikkelt. LCD is echt al een oud beestje onderhand. Er is wel veel onderzoek gedaan naar dunnere schermen, betere integratie met touchscreens en ook de pixeldichtheid is opgeschroeft. Allemaal leuk en belangrijk maar fundamenteel is het niet, het blijven verbeteringen van een bestaand concept. OLED is wel iets nieuws, zoals Aham al zei, maar lijkt het toch niet te winnen van LCD oplossingen (waarschijnlijk te weinig op verbeterd).

Het batterijtype dat men nu gebruikt is Litium Polymeer. Heeft al tijden gebruik gezien waar hoge energiedichtheid en lange energie retentie belangrijk waren, NASA heeft ze in ruimteschepen. Ze zijn nu relevant voor smartphones omdat het vergeleken met onze oude mobieltjes stroomvreters zijn van een hoog niveau en we geven om elke gram. (ik zou liever een veel zwaardere telefoon hebben om een langere batterijduur te krijgen) Ook in de vliegtuig modelbouw zijn de LiPo's erg gelieft. Als je een hoge capacitieit LiPo wilt (voor je frankenphone bijvoorbeeld) kan je het beste in dat wereldje zoeken (tip: hobbyking).

De proccessors zijn gespecialiseerd gebakken ARM processoren. Ofwel: een gewone ARM chip die samen met wat andere componenten, zoals een videokaart, op een enkele "die" (een enkel plakje silicium) worden gebakken. De mensen van ARM zijn ook niet gek en ontwerpen speciaal voor mobieltjes ook chips. De trend van het integreren van een videokaart is echter niet uniek voor mobieltjes, de i3, i5, i7 series van Intel bevatten nu ook vaak een videokaart. Het loont om speciaal ASIC (Application Specific Integrated Circuit) boards te maken omdat de afname van een enkel type mobieltje soms in de miljoenen loopt. Allemaal echter niets nieuws onder de zon en bovenal geen breken met Moore's law.

Dus: ja er worden enorme stappen voorwaards genomen in de mobiele industrie.
Maar: nee er is (bijna) niets revolutionairs, slechts evolutionair.
Natuurlijk, het zijn doorontwikkelingen. Gelijk heb je.

Heb je je wel eens afgevraagd hoe ze dat voor elkaar krijgen, om telkens meer dichtheid te generenen voor de wafers? En hoe komt het toch dat LCD steeds beter is gewoorden, met meer lichtopbrengst bij minder energieverbruik. En hoe kregen ze het voor elkaar om de uitval bij het produceren van LCD-panelen zwaar te reduceren?

Het klinkt zo eenvoudig 'gewoon evolutionair'. Maar achter deze evolutie zitten wel revolutionaire concepten om bijvoorbeeld het productieproces te verbetern.

Alleen, zoals ik eerder zei: tweakers vinden dit 'boooooooring'. Nou; neen. Het is fascinerend om de artikelen te lezen waar beschreven staat wat ervoor gezorgd heeft dat de lichtopbrengst weer met 10% gestegen is, dat de energieverbruik omlaag ging, etc.

En dat een bestaand concept verbeterd wordt wil niet zeggen dat het alleen maar evolutionair is. Het is zondermeer mogelijk om een bestaand concept op een andere manier aan te gaan en uit te voeren. Klein voorbeeldje: touchscreen. Het concept is: je raakt iets aan om een apparaat aan te sturen. Ga eens googlen hoeveel verschillende mogelijkheden bestaan om aanraken te detecteren. Het concept blijft hetzelfde maar de uitvoering is toch wel erg verschillend.
Probeer eens er bij stil te staan wat miniaturisering betekend en wat voor geweldige uitdagingen genomen moeten worden.
Qua business-penetratie en massa-productie heb je helemaal gelijk. Qua fundamentele technologie noem je allemaal voorbeelden die tien jaar geleden (het was toen ook al immers 2002) al op de research-plank lagen, maar vanwege het 'uitmelken' van bestaande investeringen (Apple kan nu eenmaal financieel niet elke twee weken nieuwe hardware aan hun bestaande productlijnen toevoegen, dat is business-technisch onhaalbaar) moeten eerst de 'oude' zaken hun geld terugverdienen.

De technologie/wetenschap achter zaken die wij vandaag de dag als 'consument' als 'nieuwe techniek' beschouwen, zoals bijvoorbeeld retina displays en accu's met korte laadtijd/lange levensduur, waren voor ingenieurs en studenten toegepaste natuurkunde al jaren gesneden koek. Qua concept dan. Want geen van die studenten had het geld om deze techniek in massa aan de man te brengen. Totdat ze die ene banklening krijgen....Of via een student-recruitement program bij een Samsung of Apple komen te werken. Maar ook in dat geval zal de technologie zelf inmiddels al weer een paar jaar oud zijn.

Daarnaast duurt het gewoon relatief lang voordat een nieuwe techniek een complete consumentenmarkt kan penetreren, gemeten vanaf de 'conceptie' van diezelfde techniek. Kijk maar naar LED-verlichting en electrische auto's/scooters...beide al ruim 20 jaar beschikbaar, maar het is pas vrij recent dat dit ook daadwerkelijk de consumentenmarkt begint te penetreren. Dat het daar opnieuw als 'nieuw' en 'modern' wordt gezien, is natuurlijk logisch: het vervangt een nog oudere technologie die mensen gewend waren. Maar dat maakt het natuurlijk nog lang niet zo 'niegelnagelneu' als de heren marketing-afdeling ons willen doen geloven! ;)

IBM is nu net het schoolvoorbeeld van een bedrijf dat z'n geld verdient door technologie te licenseren aan andere bedrijven, zoals Samsung en Apple, die er dan jaren later een product mee op de markt brengen. Maar dan bestaat de technologie zelf dus al jaren. En na een goede beurt van een goede marketing-afdeling, wordt zo'n reeds bestaande, gelicenseerde techniek dan bij ons als 'splinternieuw' aan de man gebracht. En wordt het bedrijf dat de licentie bij IBM neemt als 'innovatief' gezien, terwijl de echte innovatie natuurlijk al jaren daarvoor heeft plaatsgevonden. Innovaties zoals bijvoorbeeld in dit artikel.

[Reactie gewijzigd door tofus op 14 augustus 2012 17:50]

over elektrische auto's gesproken, de oudste auto's (niet stoomvoertuigen) waren elektrisch :P
Maar OLED verbruikt dan weer meer dan LCD.

Hoe dichter de wetenschappers bij het nulpunt zitten, hoe langer de elektronen hun spin zullen behouden. Bij het absolute nulpunt (dat overigens onmogelijk te bereiken is) beweegt er niets meer. Echter bij hogere temperaturen zal de spin weer sneller veranderen.
Maar OLED heeft dan weer geen achtergrondverlichting nodig ;)
Ach dat gezeur over 10 jaar verder. Ontwikkeling kost tijd en als je kijkt hoe snel alles de afgelopen 50 jaar gegaan is ten opzichte van de 500 jaar daarvoor (qua techniek) dan is dat gigantisch te noemen.

10 jaar geleden was je hdd nog geen gb groot en nu is 1 tb het 1000 voudige al standaard. Het kost tijd om dingen marktrijk te maken dat is een feit maar ja je sommige mensen kunnen niet wachten he.
O? 10 jaar geleden had ik al een 80GB schijf, zelfs 4 stuks in raid5 :)

Ik heb in 1996 mijn eerste 1GB schijf gekocht, dat is 16 jaar geleden.

Maar ik snap je insteek, echter ik moest en zou je erop corrigeren ;)
mijn eerste opslagmedium was een cassettebandje... bij de ATARI 400XL... met 4 kB geheugen... dat was rond 1981-1982 geloof ik.... we zijjn 30 jaar verder.... en over nog eens 30 jaar ... onvoorstelbaar hoe snel dingen gaan!
Maar snap je ook waarom die progressie er was. Het lijkt mij van fundamenteel belang te snappen hoe zich dat kon voltrekken.
Natuurlijk waren er al GB-hdd's, maar de gemiddelde gebruiker had kleinere hdd's in zijn kast. Als je 500MB had was het een grote schijf. Tegenwoordig is 1TB standaard.

En waar sommigen vroeger al de 'grote' schijven hadden van 1GB hebben dezelfde gebruikers nu 4TB.

Dus het rekensommetje klopt nog steeds; de 'gemiddelde' gebruiker ...
geen idee hoor, maar sinds Windows 98 zitten mensen met meerdere GB schrijven.
Ik had ten tijde van Win98(SE) een 10gb schrijf (en dat was een Hewlett Packard (stinkdingen) van mijn moeders werk toendertijds. (wel 1na duurste beschikbaar, maar toch) en als tweakers hier in die tijd het deden met 1-2gb schrijven, wat sneu :P
Rond WinME/WinXP overgang zat ik (en vrijwel iedereen om mij heen) toch echt wel aan minstens 80GB, 160GB en de enkele op 250-300GB.

Maar dat waren allemaal kant en klare PC's. Juist van die PC's die iedereen kocht (wie herkent ze nog, HP CRT schermen met die halfronde detachable speakers aan de zijkant? :P) ik bedoel, wie had nou niet zo'n HP of Compaq PC, de gemiddelde computerboob in ieder geval wel.
Of het komt niet op de markt. Toen ik 20 jaar geleden mijn eerste IT-opleiding volgde, werd er al gesproken over flink gekoelde plexyglas platen waar enorme hoeveelheden data op konden. Nooit het levenslicht gezien voor de consument. Want ik zie het niet gebeuren dat er ijskasten van -200C bij de consument in huis worden geplaatst. In ieder geval niet de komende 10 jaar. Het lijkt allemaal wel snel te gaan, maar het is wel steeds voortborduren op dezelfde techniek, alleen kleiner en sneller.

Ik heb zelfs het idee dat het de afgelopen 5 jaar nauwelijks nodig is geweest om snellere PC's te maken en dat dit hooguit gedreven wordt door de games-industrie. Met de komst van Windows 7 is er een radicale draai gemaakt naar lichtere systemen i.p.v. zwaardere. Vista was voor veel mensen nauwelijks een vooruitgang t.o.v. XP terwijl je wel zwaardere hardware nodig had. De enige toevoeging die meer rekenkracht vergt is eye-candy. Je hebt geen quantum-computer nodig voor office-gebruik en een beetje internetten of filmpjes kijken.

Maar goed, dit is een doorbraak op quantumniveau en dat maakt het zeker bijzonder.
Voor foto en videobewerking is de laatste 5 jaar enorm veel tijdswinst behaald met snellere systemen. En voor de toekomst zal het zeker nodig zijn, als er meer 30+ Mpixel camera's uitkomen. Voor video is het altijd al handig geweest om snellere PCs te maken. Voor renderen ook.
En de grootste winst is voor de smartphones natuurlijk, die nu dingen kunnen die 5 jaar geleden onmogelijk waren.
Voor bepaalde toepassingen is een snellere PC inderdaad handig. Maar dan heb je het niet over de standaard consument. Foto's die 30+ Mpixel zijn vind ik alleen maar onhandig. Ik druk mijn foto's niet af op giga-posterformaat en zal een camera dus altijd flink lager instellen. Anders kost het belachelijk veel onnodige ruimte op mijn harddisk.

Smartphones vallen bij mij onder het kopje 'kleiner en sneller'. 5 jaar geleden kon mijn Qtek ook al navigeren (met TomTom), mailen, applicaties installeren, internetbrowsen, chatten, etcetera. Het is nu alleen beter uitgewerkt, sneller en handiger dankzij appstores. En ik heb geen stylus meer nodig ;)
Nodig is het zeker niet. Als ik om me heen zie hoe die camera's gebruikt worden dan kan ik niks anders doen dan een facepalm. Mensen die met een hoge resolutie camera een filmpje maken van bijv een concert. Het resultaat: zeer slecht geluid, bijna geen licht wat tot gevolg heeft dat het beeld er dramatisch uitiziet. Maar de resolutie is wel zeer goed! Nu heb je video's van 1 GB per minuut(niet overdreven) die in kwaliteit het zelfde is als 10 jaar geleden. 8)7

[Reactie gewijzigd door martijnpatelski op 14 augustus 2012 11:50]

Dat de wet van Moore niet meer van belang is, komt deels omdat 'vroegah' de Software(en games) vooruitliep op de hardware. Het is nu al jaren zo, dat de hardware ver vooruitloopt op de software. Alhoewel ik begin te merken dat programmeurs en designers erg lui worden, optimaliseren gebeurt gewoon niet/nauwelijks meer. Memory leaks boeit ook niemand (FF komt er nu ook al 10 jaar mee weg bv).
Maar het is ook niet bij te houden, software gaat de race tegen hardware allang niet meer winnen.

Ik snap mensen ook niet echt, ken er een aantal met quad cores, die toch koste wat het kost naar octo's overwillen/gaan. Hoezo geld verspilling? Alsof je met redelijk normaal gebruik (dus geen VM's, BOINC of dergelijke) ook maar in de buurt komt van 100% voor meer dan een minuut op een AMD/intel quad.
RAM heb je met 4-6GB ook meer dan zat aan. (tenzij je natuurlijk graag met VMs speeld of graag Crysis2 en Sins of Solar Empire tegelijk speelt, maar de gemiddelde computerboob doen dit soort dingen dus echt niet, meeste tweakers als niet eens)
Wauw, kwantum mechanica in actie, Ook mooie illustratie's. Nu nog een supergeleider uitvinden die bij kamer temperatuur werkt...
Wauw, kwantum mechanica in actie
Niet om het een of ander, maar het hele halfgeleiderprincipe is QM in actie ;)
zeg ik dat dat niet zo is dan? Maar dit is wel een mooi voorbeeld van een applicatie waarin rechtstreeks gebruik wordt gemaakt van Quantum spin. Dat bedoelde ik alleen te zeggen.

[Reactie gewijzigd door kajdijkstra op 13 augustus 2012 19:40]

Mooi dat dit soort basisonderzoek ook door de industrie gedaan wordt en niet alleen op universiteiten.

Misschien is het nu niet te vermarkten, waarschijnlijk zelfs niet over 10 jaar, maar er wordt zoveel geleerd en er komen altijd bruikbare (zij-)resultaten uit. Het is alleen een kwestie van de lange adem.
IBM is nog een van de weinige bedrijven die dit soort fundamenteel onderzoek doen. De meeste bedrijven kunnen het niet uitleggen aan hun aandeelhouders.
IBM heeft altijd dit soort onderzoeken gedaan. De PC waar je mee werkt, de basis daarvan komt uit de R&D van IBM.
dus als ik het goed begrijp kon het geheugen al zo snel maar verloor het zijn data ?
en nu met deze methode kan hij zijn data vasthouden maar moet het extreem koel zijn ?

daarnaast denk ik niet dat het fijn is om data op het ram te houden als de stroom eraf is.
lijkt me nogal makkelijk om zo crypto sleutels uit te lezen....
Nee, de spin veranderde 30x sneller dan met IBM's techniek, waardoor je hem alleen met een processor van 30GHz zou kunnen uitlezen.
Ik begrijp niet waarom er tot tweemaal gezegd wordt dat het de voordelen van flash combineert met de snelheid van RAM. Er is immers continue een 1GHz clock nodig om de data te refreshen. Dat heeft dus niets van flash en moet vaker gerefresht worden dan DRAM.

Deze informatie lijkt ook door Tweakers.net 'verzonnen', in het originele artikel op computerworld.com wordt alleen gesproken over een verbeterde snelheid en datadichtheid. Daar zitten dan ook de voordelen van deze technologie. 'Spintronics' is dus een nieuwe manier om data op te slaan, in het lijstje van 'lading' en 'magnetisme'.

Even op een rijtje:

DRAM:
Data wordt opgeslagen in elektrische lading.
Refreshen is nodig in de orde van tientallen ms.

NAND Flash:
Data wordt opgeslagen in elektrische lading op niet-verbonden gates, die dus nagenoeg niet leeg lekken.
Refreshen is niet nodig in de orde van jaren..

Spintronics:
Data wordt opgeslagen in de quantum spin van elektronen.
Refreshen is nodig in de orde van 1ns.


EDIT: Mijn excuus, aangezien het waarschijnlijk gaat om een echte fout in het artikel, had ik dit misschien in een thread op het forum moeten plaatsen.
EDIT2: Done: Topic

[Reactie gewijzigd door Graafvaag op 13 augustus 2012 18:00]

Ik begrijp niet waarom er tot tweemaal gezegd wordt dat het de voordelen van flash combineert met de snelheid van RAM. Er is immers continue een 1GHz clock nodig om de data te refreshen. Dat heeft dus niets van flash en moet vaker gerefresht worden dan DRAM.
Niet helemaal. Hoewel het niet geheel duidelijk wordt uit het (originele) artikel, vermoed ik dat IBM bezig is met de spin van individuele electronen.
En die is inderdaad constant aan verandering onderhevig.

Men zegt echter ook dat het gaat om onderzoek ten behoeve van spintronics geheugen en dat is toch net iets anders.
Spintronics geheugen maakt gebruik van deze spin maar dan op grotere schaal, net zoals een 'ouderwetse' HDD ook gebruik maakt van de magnetische eigenschappen van een verzameling deeltjes.

Hoewel de spin van een indibvidueel elektron zeer snel kan veranderen, is de spin van een groep electronen vrij constant, zelfs als er geen spanning op staat.
En die eigenschap levert nu de prettige eigenschappen "als Flash".

Het is dus niet door Tweakers verzonnen en is zelfs normaal te koop, zoek maar eens naar MRAM!
Volgens mij heb je gelijk ja. Ik kende MRAM niet, maar het is dus inderdaad geheugen, gebaseerd op de spin van elektronen, en hoe die een tunnelbarriŽre beÔnvloedt.

Toch wordt er wel degelijk gesproken over het refreshen door een normale processor. Volgens mij worden er wel voordelen gezien voor het gebruik als volatile RAM.
Ik denk dat het hier gaat om een combinatie van dingen. Om te beginnen stort IBM onder de noemer research enorme bedragen op hun R&D rekening. Een deel hier van wordt gebruikt om onderzoek te doen op het gebied van spintronics en dit is dus een van de vele resultaten.

Op dit moment is er nog lang geen spraken van een product of zelfs maar een doel anders dan het veld, spintronics, beter te begrijpen en grenzen te verleggen. Het is dus niet zo zeer onderzoek naar een bepaald type geheugen maar eerder onderzoek om te zien wat mogelijk is en om hypothese te testen etc.

IBM is veel al niet de uitvinder van het eindproduct maar eerder het bedrijf dat dankzij haar onderzoek een ander instaat stelt een eindproduct te maken. IBM is daarom ook de grootste aanvrager van patenten in de hele VS met vele duizenden patenten per jaar weet IBM erg veel geld te verdienen aan licenties op hun technieken en technologieen. Ook in dit geval is het voor IBM niet zo zeer het doel een nieuw type geheugen te produceren maar alleen om uiteindelijk de technologieen nodig om dat te doen uit te vinden en deze vervolgens te patenteren.
Zo zijn erg veel van de harde schijven die we nu gebruiken simpel weg niet mogelijk zonder IBM patenten, ook is bijvoorbeeld een elektronenmicroscoop niet echt te bouwen zonder IBM licenties. Dat is naast de verkoop van mainframes integratie van applicaties en af en toe de verkoop van software met een afgrijselijke UI (lotus) het geen wat IBM doet.
wacht! snap het niet. Bij spintronics moet je dus vaker refreshen (1ns) dan bij DRAM (10tallen ms). Hoe is dat dan voordeliger? Hoe is dat dan een voordeel van flashgeheugen (dat toch duidelijk minder vaak moet worden gerefresht)?
Ik zie volgend jaar al de headlines: IBM bouwt supergekoelde supercomputer met spintronics-geheugen. :)
misschien de datacenters op de noordpool plaatsen :+
toch spijtig met global warming LOL

-233 is bijna even ver van 20 graden dan -20... -233 kom je niet in de natuur tegen op aarde.

Misschien beter in de ruimte voor satellieten ^^
Jammer dat het daar nog steeds ongeveer 200 graden te warm is :p.
En met een russische onderzeeer onder de noordpool is het ook niet zo nuttig meer om daar je datacenter te plaatsen - tenslotte verwerken en berekenen die de meest spionagegevoelige data... ...ik zie zo'n onderzeeer al met technologie van 1000 jaar geleden een gat in het ijs boren en dan eventjes de helft van alle geheimen meenemen :)

Laten we die dus maar in de bunkers houden...
Mag ik uit dit artikel opmaken dat het nog min. 5 jaar gaat duren voordat ik dit terug zal zien toegepast op servers e.d. ?
Als je dit over een jaar of 5 al toegepast ziet, dan eet ik m'n schoenen op. Veel langer dan dat, het klinkt misschien rooskleurig maar er zijn nog hele grote technische hobbels die genomen moeten worden. Dat temperatuurprobleem is bijvoorbeeld veel moeilijker dan het lijkt.
Zoals ook in de enerlaatste alinea van het artikel wordt aangegeven is bij kwantum mechanica temperatuur nog steeds een obstakel.
Ik denk dat er enorme vorderingen (voor alle kwantum mechanica) geboekt gaan worden als ze dit werkend krijgen onder kamer temperatuur. 8)7
Maar dat duurt waarschijnlijk nog wel langer dan 5 jaar, volgens mij had ik ooit gelezen dat kwantum computers al rond 2020 commercieel uitgerold konden worden....
De quantumcomputers waar bedrijven over spreken met name IBM zijn niet dezelfde quantumcomputers waar we het in de jaren 90 over hadden.

Volgens mij noemt IBM ondertussen alles quantumcomputer en met name ook computers die op licht werken.

De jaren 90 definitie van quantumcomputing is echter enige grootheden sneller en zou simpeltjes 10^40 of meer berekeningen moeten kunnen uitvoeren. Dus een 1 met meer dan 40 nullen.

Terwijl IBM's definitie duidelijk dichter bij de huidige computers ligt. Ter vergelijking een quadcore processor van 3Ghz kan 3 miljard clocks genereren per seconde. Dat is dus voor 4 cores 3 * 4 = 12 miljard clocks in totaal. De intel core2 en nieuwer kunnen rond de 4 instructies (zonder naar de vectorinstructies te kijken) uitvoeren = 48 miljard. Dat zit dus op een 5 met 10 nullen ongeveer. Dat is natuurlijk heftig trager dan de jaren 90 definitie van wat een quantumcomputer is.

Lichtcomputers gaan aanzienlijk sneller zijn en werden voorspeld door IBM voor het jaar 2015.

Als het gaat om dit stukje geheugen dan lijkt me als niet-natuurkundige het lastig om supergeleiding op kamertemperatuur te krijgen. Toekomstige cpu's die op -40C ofzo lopen is ook niet zo'n punt voor wetenschappers maar -233C gaat toch wel erg ver voor HPC toepassingen (high performance computing - dus zij die veel met massaal rekenen op supercomputers en clusters bezig zijn).

Maar ja als dat de prijs is om megasnel te rekenen, dan zullen sommige overheden dat zeker wel kopen.

Of we dit dus voor het jaar 2030 gaan meemaken op kamertemperatuur lijkt me dubieus.

Belangrijkste is dat ze iets voor elkaar krijgen; natuurlijk massaal patenten hebben ingediend en dat ze nu verder kunnen klooien tot ze een praktische toepassing ervan weten te bouwen.

Geheugen is enorm belangrijk. In principe zijn de meeste processors net zo sterk als hun caches, zeg ik altijd maar, en geheugen ligt daarachter.

DDR3 ram is bijvoorbeeld enorme vooruitgang op de oude types geheugen, maar de enorme rekenkracht die vooral manycores leveren, daar is het geheugen toch echt wel de bottleneck van alle toepassingen. Kijk ook naar gpu's enorme bandbreedte in geheugen met DDR5, al ver boven de 200GB/s, maar toch is het geheugen daar de bottleneck, zo krachtig zijn de GPU's.

Dus als van normaal ram de switch latencies in de vele milliseondes liggen en dit in de nanosecondes, dan is dit geheugen potentieel natuurlijk factor 1000 sneller. Dat is een MEGA vooruitgang natuurlijk.

Als we uitrekenen in de wet van moore wat factor 1000 is, dan is het simpeltjes om daar 1024 te nemen. Dat is namelijk 2^10. Dat keer 18 maanden = 1.5 jaar * 10 = 15 jaar.

Dan komen we uit op 2027, wat natuurlijk geen realistische datum hiervoor is, want geheugen volgt de wet van Moore (zeg ik uit mijn hoofd) niet zo geweldig zoals GPU's dat wel doen.

Dus 2030 lijkt me al erg vroeg als datum eerlijk gezegd om dit aan de praat te hebben en te verwachten.

We zullen zien!
Bij de snelheid van het geheugen klopt je berekening niet. DDR3 geheugen werk met vertragingen van nanoseconden. Zie:

http://en.wikipedia.org/w...cy#Memory_timing_examples

Het gelinkte artikel heeft het wel over het feit dat het oudere geheugen zijn waarde verliest in 100 picoseconden, maar zegt zo te zien niets over de snelheid waarmee het kan worden uitgelezen.
Wat ik deed is extrapoleren van de refresh latencies / verkleining naar performance van het geheugen.

Dat de snelheid (iets totaal anders) op rond de 60 ns (TLB trashing) latency zit voor ddr3, met name omdat die al na 32 bytes een read kan aborten - en DDR2 kan dat niet - dat zijn implementatiedetails wel relevant voor de snelheid, maar niet voor de extrapolatie.

Wellicht zal het met name gaan om toename in bandbreedte en is het niet onwaarschijnlijk dat we het rekenwerk juist met meer cores moeten doen.

Dus de absolute latency is mogelijk helemaal niet sneller. Misschien wel als het om lichtcomputers gaat - hoe die te converteren naar electrische opslag van data in RAM is weer een andere vraag, waar we hier eventjes snel overheen stappen.

Wat we wel snappen is dat als je meer rekenkracht in cpu's hebt of manycores, dat die dan meer BANDBREEDTE nodig hebben.

Kijk, we moeten toekomstige engineers vertrouwen en gewoon zeggen: ze vinden wel een oplossing. Hoe die eruit gaat zien dat is erg boeiend maar ook enorm koffiedik kijken.

Laten we het erop houden dat men de switch latency weet om te zetten naar performance.

Dat is dan, met koffiedik kijken, factor 1000.

En dat zie ik niet gebeuren voor 2030..

[Reactie gewijzigd door hardwareaddict op 14 augustus 2012 11:27]

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013