Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 22 reacties

Wetenschappers van de Technische Universiteit Delft hebben een methode ontwikkeld om informatie in quantumsystemen na te kijken op fouten en deze zonodig te verbeteren. Dat moet ervoor zorgen dat het bewaren en uitlezen van quantumtoestanden nauwkeuriger wordt.

De resultaten van het onderzoek zijn door de TU Delft zelf bekendgemaakt, waarbij een wetenschappelijk paper over het onderwerp is verschenen in het tijdschrift Nature Nanotechnology. Volgens de wetenschappers is het mogelijk om fouten op te sporen in quantumtoestanden, die in quantumcomputers als vervangers voor conventionele bits dienen, door gebruik te maken van verstrengeling; een quantummechanisch fenomeen waarbij twee of meer deeltjes aan elkaar "koppelen" waarbij zij niet langer los van elkaar beschreven kunnen worden.

De onderzoekers van de TU Delft ontwikkelden een methode in diamant om meerdere quantumtoestanden, die als qubits dienen, met elkaar te verstrengelen. Door de toestanden van de verstrengelde qubits met elkaar te vergelijken kunnen fouten worden opgespoord, waarna het systeem ook in staat is om deze te herstellen. Zo toonden de wetenschappers aan dat de spin van de verstrengelde qubits gemeten en hersteld kon worden, waarbij de opgeslagen informatie in stand werd gehouden: een van de problemen bij foutdetectie in quantummechanische systemen is dat de informatie niet intact blijft als deze wordt gemeten.

Tevens slaagden de wetenschappers erin om de experimenten bij kamertemperatuur uit te voeren. Veel onderzoek naar toepassingen voor quantumcomputers vindt plaats bij lage temperaturen, iets wat de implementatie bemoeilijkt. Volgens de TU Delft moet het systeem dat fouten opspoort en herstelt nog worden uitgebreid zodat het breder inzetbaar is.

Quantumcomputer foutcorrectie

Moderatie-faq Wijzig weergave

Reacties (22)

Kan ik dit vergelijken met een pariteitsbit? Lijkt me wel. Ik zou de paper graag lezen. Interessant dit.
Als je de paper wilt lezen, moet je hier klikken. Ik weet niet of het je help, mij in ieder geval niet :)
Nee, ik denk niet dat je dat kan vergelijken. Een pariteitsbit is (meestal) een xor van bestaande data. Het punt hier dat dat je verstrengelde quantumbits hebt die je kan controleren zonder je data kapot te maken.

Stel dat je (zoals in het plaatje) 3 qbits hebt, er een of twee uiteest (en die daarna dus z'n waarde kwijt is) en dan ziet dat het niet klopt, kan je ze alledrie resetten. Het is een beetje hetzelfde als wat (volgens mij) met het PPP gedaan was, 3 bits voor elke bit, en als er iets mis is met 1 van de bits worden ze allemaal opnieuw gestuurd.

Ik denk dat je dit iets beter kan vergelijken met ECC, ook al is dat technisch iets compleet anders. Het gaat hier namelijk niet om 'verwerkte' data die als 'backup' dient, maar om bestaande data die zonder verlies van informatie gecontroleerd en hersteld kan worden.
al met al gaat Quantumcomputers toch te lang duren, en netzoals de foutcorrectie, zie ik steeds meer dingen voorbij komen waardoor ze uiteindelijk toch niet zo snel gaan als er was voorspeld.

ik denk dat tussen de conventionele en de quantum misschien toch optisch een betere tussenstap is, de overstap is nog te groot, maar het einde van sillicon en transistors is al wel in zicht omdat de schaalverkleining nu wel een beetje aan het minimale zit.
Zou je kunnen uitleggen waarom je denkt dat optisch een goede tussenstap is? De transistoren zijn fundamenteel gigantisch (oké relatief gigantisch, iig veel groter als wat we nu hebben), alles wat tot nu toe is gemaakt is extreem gevoelig voor de kleinste veranderingen in temperatuur, ik zal meteen maar de mythe onderuit halen dat optisch 'sneller' is dan elektrisch. Dus waarom zou optisch zo'n goede tussenstap zijn? Optisch is geweldig voor communicatie, niet voor rekenen.

En waarom zorgt dit ervoor dat ze trager zijn?
Binnen een computer wordt er nu juist heel veel gecommuniceerd: Een belangrijke reden dat het hoofdgeheugen op een tragere snelheid draait als het cachegeheugen in de processor is het feit dat het ondoenlijk is een geheugenbus te ontwerpen die op een dergelijke snelheid kan communiceren. Optische chips zullen sneller met de buitenwereld communiceren en daardoor snellere computers opleveren dan elektronische chips.

De motor achter de informatierevolutie is de chip geweest: De mogelijkheid om goedkoop enorme elektronische schakelingen te printen. Voor de fotonica is er momenteel nog geen motor: Fotonica kennen we momenteel enkel op componentniveau. De opkomst van deze componentenfotonica is wel de motor geweest achter de internetrevolutie in de jaren '90.

Om fotonica binnen de computer te laten doorbreken is printbare optica nodig: Het is economisch niet doenlijk om binnen een computer grootschalig componenten te gaan monteren die elektrische signalen in optische signalen omzetten. De verwachting is dat printbare optica op termijn mogelijk zal worden. Dat wil niet zeggen dat chips geheel optisch zullen worden, maar op het moment dat je binnen de chip optische signalen kunt genereren, dan kun je de bussen in de computer optisch maken. De nieuwe mogelijkheden die dat oplevert zullen zonder twijfel een nieuw hoofdstuk aan de informatierevolutie toevoegen
Binnen een computer wordt er nu juist heel veel gecommuniceerd: Een belangrijke reden dat het hoofdgeheugen op een tragere snelheid draait als het cachegeheugen in de processor is het feit dat het ondoenlijk is een geheugenbus te ontwerpen die op een dergelijke snelheid kan communiceren

Ooit van Rambus gehoord, ja dat bedrijf dat bekend stond als patenet troll. zij hebben direct attached XDR 2 wat direct aan de processor 80GB/s per memory chip haald, Dat komt neer op bijna 10x de snelheid van DDR3
Sorry, maar welk gedeelte van "Optisch is geweldig voor communicatie" was onduidelijk. Ja als je optisch kan integreren voor communicatie met bijvoorbeeld een geheugen, GPU, etc, dan is dat een flinke boost. Maar voor de ALU, het geheugen zelf, de GPU zelf, etc, schiet optisch helemaal niks op. Het is absoluut geen vervanging voor reguliere CMOS.
Het is vanuit de redenatie dat we nu echt op het randje van schaalverkleining aankijken op transistorgebied, Countess en BlackSP geven al aan dat dat nog langer kan duren, maar ik moet nog echt zien of je van 7 atomen een lekvrije transistor kan maken.

Ik trek echt hiermee een ASML of een Intel niet in twijfel, die mensen weten het beter dan mij, maar besef tegelijkertijd ook even waarover ze praten: een transistor van 7 atomen (!).

Dus ergens tegen de 4~7nm vermoed ik dat er dergelijke problemen gaan komen dat rendabiliteit ter discussie word gesteld en dat bij verdere verkleining langdurigere ontwikkelingen het gevolg zal zijn.

En dan quantumcomputers. Een geweldig concept en veel interessante ontwikkelingen, maar vanwege de vele obstakels, zie niet gebeuren dat er binnenkort een kant-en-klare quantumcomputer voor bruikbare doeleinden inzetbaar zal zijn.

Ik vermoed dus dat er een gat tussen de 2 zal gaan zitten. Nu is zoals je zegt een optische transistor niet sneller, maar het is wel (theorethisch) makkelijker om daarvan meerdere naastelkaar te zetten en het stroomverbruik drastisch te verlagen. Nu zien we al dat parallele computing de laatste jaren mainstream is geworden en ik vermoed dat met de fotonische transistor deze trend nog best lang doorgezet kan worden.

Zo zou Vlatan Viletic een optische transistor hebben ontwikkeld die voor zowel voor conventionele als quantumcomputers inzetbaar is. Met quantum zit je nog steeds op de reguliere problemen (superkoeling, het ontbreken van een goede quantum-thermodynamische theorie, de superposititie van fuzzyatomenblobwokjes vasthouden), terwijl conventionele computers deze obstakels niet hebben. Hetzelfde geldt voor optische communicatie (wat al ingezet word), licht is even snel als electriciteit natuurlijk, maar het bied wel enorm veel ruimte voor extreme bandbreedte.

Daarom denk ik dat tussen de conventionele en de quantumcomputer deze ontwikkeling nog ruimte zal innemen en "de rek" er een beetje inhoud.

Dat gezegd weet je natuurlijk nooit wat de toekomst gaat bieden, maar ik zie het zelf wel als een realistische projectie.
Ik ben het met het merendeel van je post eens, al blijft het natuurlijk een beetje koffiedik kijken. En je moet rekening ermee houden dat formaat van de transistor niet alles zegt: als hij niet kleiner wordt, maar wel sneller en zuiniger is dat ook prima.

Echter dat gat is gewoon niet op te vullen met optische transistoren zoals we die nu kennen. In theorie kunnen die misschien wel makkelijker over een enkele bus praten, maar wat schiet jouw ALU daarmee op? Oh als hij zijn uitgang op een enkele bus kan gooien is dat makkelijk, maar intern schiet het toch nauwlijks op. En wat je bespaard door mogelijke bussystemen lever je weer in doordat je transistoren en je verbindingen allemaal veel groter moeten zijn, er moeten immers volledige golflengtes inpassen.

Optische transistoren kunnen heel nuttig zijn voor bijvoorbeeld een bus naar je geheugen. Klokdistributie misschien ook nog wel als ze voldoende betrouwbaar gemaakt kunnen worden. Maar verder levert het vooral veel nadelen op. En deze zijn met het huidige type optische transistoren fundamenteel: Het is niet dat met wat meer onderzoek ze kleiner worden, ze zijn gekoppeld aan de gofllengte van licht.
Check de laatste rapportage over ASML even. Het einde is niet in zicht.
En zowel conventionele als quantum computing kunnen optische schakelingen gebruiken.
Kun je nog even toelichten wat je precies bedoeld?

Edit: het zou trouwens wel goed kunnen dat Moore's law vertraagd maar (volgens o.a. ASML) kunnen we nog wel even voort.

[Reactie gewijzigd door blackSP op 3 februari 2014 19:14]

het einde van de verkleining komt zeker wel in zicht. alleen nog niet binnen de tijd dat ASML kijkt.

en ASML kijkt zeker ver vooruit, maar nog steeds niet verder als zeg 7 jaar ongeveer met een praktische invulling.

om even een indicatie te geven, een transistors gemaakt van 7 atomen was 4nm groot.
en een 4nm productie proces dat staat in de planning voor 2022 (deze twee meten overigens niet het zelfde, maar zit in de beurt)

verder als dat gaat de roadmap nog niet. misschien rekken ze het nog tot 1nm rond 2030 maar er komt dus echt een einde aan, en wel in ons leven.
Bron: http://www.tudelft.nl/nl/...verbeteren-quantumfouten/
Bron: http://hansonlab.tudelft.nl/people/

Minder Nederlanders dan de titel van het artikel doet vermoeden.

[Reactie gewijzigd door NightH4wk op 3 februari 2014 19:30]

"TU Delft verbetert..........."

Zou een betere titel zijn. ;)
pariteitsbit is toch wat anders denk ik, dit is het verstrengelen van informatie, soort van drievoudig schriftelijk je belasting aangeven om zeker te weten dat ze het binnenkrijgen :P
Ahhh de wonderen van quantum entanglement... Was hier nog niet eerder aan gedacht, of hadden ze het niet eerder kunnen toepassen? Het ligt namelijk best voor de hand eigenlijk.
Ik bedoel uiteraard niet dat het dezelfde techniek is, maar de gedachte komt min of meer op hetzelfde neer.
Dat snap ik, maar je stelde een vraag, ik ben het niet met je eens, want: Een pariteitsbit is een onderdeel van de software van een databus (bijvoorbeeld) en is zover ik weet niet voor datacorrectie.
Hier heb je het over de elementaire werking van "hardware", foutcorrectie en het drievoudig aanbieden van de informatie.

Daarom vindt ik niet dat je vergelijking hier opgaat :)
Ik heb de paper even snel doorgebladerd, en met hier en daar wat correcties teruggestuurd. :9

[Reactie gewijzigd door Anonnymous! op 3 februari 2014 20:44]

Correctie: "doorgebladert" moet zijn "doorgebladerd", "at" moet zijn "wat", "." ontbreekt aan het einde van de zin.

[Reactie gewijzigd door ableeker op 3 februari 2014 20:40]

Je hebt helemaal gelijk, het is aangepast. :O

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True