Microsoft en Quantinuum hebben 'zeer betrouwbare' quantumcomputer gebouwd

Microsoft en quantumcomputingbedrijf Quantinuum hebben naar eigen zeggen een quantumcomputer met het grootste aantal betrouwbare qubits tot nu toe gemaakt. Het team kon meer dan 14.000 experimenten draaien, zonder een enkele fout.

De claim betekent een belangrijke doorbraak voor de ontwikkeling van quantumcomputers. Dergelijke computers hebben een enorme rekenkracht, waardoor berekeningen veel sneller uitgevoerd kunnen worden dan met traditionele computers. De rekenkracht komt van zogeheten quantum bits, of qubits, die in een superpositie gebracht kunnen worden. Een qubit kan daardoor tegelijk zowel een 1 als een 0 vertegenwoordigen. Hoe meer qubits een quantumcomputer heeft, hoe krachtiger deze wordt.

Qubits zijn echter instabiel en produceren errors als de quantumcomputer ook maar een klein beetje verstoord wordt. Wetenschappers lossen dat probleem vaak op door meer fysieke qubits te maken dan nodig zijn. Die voegen ze vervolgens samen in wat logische qubits worden genoemd: groepen van qubits die samen betrouwbaarder en bruikbaarder zijn.

Microsoft en Quantinuum hebben op dat gebied nu een doorbraak bereikt. Microsoft heeft een algoritme gemaakt dat fouten herstelt en specifiek is toegespitst op de qubits van Quantinuum. Daardoor wisten ze vier logische qubits te vormen uit dertig zogenoemde fysieke qubits. Dat is de beste ratio van betrouwbare qubits voor een quantumchip tot nu toe, stelt Microsoft tegenover Reuters. Bovendien kunnen errors nu gevonden en aangepakt worden zonder dat de logische qubits vernietigd worden, wat volgens de bedrijven ook een enorme stap vooruit is.

Het team wist vervolgens ruim 14.000 individuele experimenten uit te voeren op het systeem, zonder dat er een enkele error geproduceerd werd. "Dat is tot 800 keer beter dan alles tot nu toe", zegt Jason Zander, executive vice president voor strategische missies en technologieën bij Microsoft, tegenover Reuters. Toch is dit nog niet voldoende om een quantumcomputer te maken die echt veel beter is dan bijvoorbeeld een supercomputer. Naar schatting zijn daarvoor zo'n 100 logische qubits nodig. Microsoft zei vorig jaar dat het verwacht binnen tien jaar een dergelijke computer te bouwen.

Door Eveline Meijer

Nieuwsredacteur

04-04-2024 • 14:10

46

Submitter: OKNOTOK

Reacties (46)

46
46
23
3
0
21
Wijzig sortering
Dergelijke computers hebben een enorme rekenkracht, waardoor berekeningen veel sneller uitgevoerd kunnen worden dan met traditionele computers.
Ik vind dit soort beschrijvingen een beetje tekort doen. Dit laat het doen lijken of quantumcomputers gewone computers maar beter zijn. Maar dat is gewoon niet zo.
Een quantumcomputer kan quantumalgoritmes uitvoeren. En er zijn gevallen waarin zo'n quantumalgoritme een veel lagere tijdscomplexie heeft dan een reguliere computer. En dus kan een quantumcomputer sommige berekeningen vrij rap doen waar een klassieke computer misschien brute force als beste alternatief heeft.

En dat maakt het ook dat we niet gewoon encryptie meer bits breed kunnen maken om tegen "de brute kracht van quantum te kunnen". Want de quantumcomputer breekt encryptie niet op brute kracht.

[Reactie gewijzigd door Vinxian op 22 juli 2024 18:03]

Ik heb ooit in een boek over quantum computing mijns inziens de beste analogie om het begrijpbaar te maken gelezen:

Stel, je hebt een hotel met 100 000 kamers. In één kamer ligt een koffertje en de oplossing die jij zoekt is de kamernummer. Een klassieke computer gaat kamers 1 tot 100 000 sequentieel af tot hij de oplossing heeft gevonden. Is dat kamernummer 2 is het snel berekend maar is dat kamer nummer 99 999 dan duurt het zeer lang.

Een quantum computer gaat dit probleem aan door alle 100 000 deuren in dat hotel tegelijkertijd te openen en de kamernummer te ontdekken.

Over de supercomputer discussie: als we spreken over supercomputing voor general purpose science of AI supercomputing zitten we al op zeer verschillende niveaus (zie de recente Blackwell aankondiging van NVIDIA), quantum computing ermee vergelijken is zelfs niet in hetzelfde universum.

Quantum leent zich tot problemen die door conventionele logische circuits niet realistisch kunnen behandeld worden; praktische voorbeelden zijn datasets die bijna oneindig groot zijn zoals onderzoek naar medicijnen, DNA, productdesign, klimaat, ... Waar de mogelijkheden eindeloos zijn, zou een quantum computer met voldoende kracht alle mogelijkheden tegelijk kunnen testen en de beste oplossing presenteren. Althans in theorie! :)
En wat zou in deze analogie dan het nadeel zijn? Dat de quantum computer niet heel uitgebreid en specifiek zou kunnen zoeken in een kamer bijvoorbeeld?
Als je heel snel een deuren wilt openen gebruik je een CPU. Wil je de juiste deur openen gebruik je een QuantumPU. Wil je heel veel dezelfde dingen (deuren openen) tegelijkertijd openen gebruik je een GPU.
Uh ik durf het niet te zeggen in de analogie maar in het echt komt het erop neer dat je kwantum bits niet zo makkelijk gebruikt. Quantum bits in computer, heb je dan ook een koeler/vriezer of beter diep cryogene viezer? Dat past niet in een laptop misschien net in een desktop als je al het andere eruit haalt maar dan moet je nog alle andere componenten erbij rekenen. Ja in theorie kunnen dingen wat kleiner maar heel kleine en op hoge temperatuur is lastig, als je het mij vraagt erg lastig.
De beste analogie naar dit verhaal is, dat het alleen werkt op een hele winterse dag wanneer het sneeuwt en je kan schaatsen op ijs 🤣.
Daarnaast is het voor sommige vragen helemaal niet nuttig om alles tussen 0 en 1 te beantwoorden. Als je vraagt is 0 gelijk aan 0 dan is het antwoord bij een kwantum computer mogelijk, hele grote kans dus zeg 0.999 terwijl een klassieke computer zegt, ja volgens mijn regels is dit waar (1).
Als ik het goed heb, zou eenzelfde computer niet per se even krachtig zijn in een situatie waarin elke kamer van dat hotel schoongemaakt moet worden - waarbij per kamer de schoonmaak er net anders uitziet.

De kracht zit hem erin dat brute force heel simpel is.
Het nadeel is de omstandigheden die je moet voorzien om nog maar te beginnen aan quantumstaten te denken, laat staat superpositie. Dat moet een heel gecontroleerde omgeving zijn om dan specifieke gegevens op te vragen via een heleboel wiskundige hoepels;

Dus de analogie gaat voornamelijk over de werkwijze van dergelijke systemen, niet zozeer over de praktische kant van hoe je dergelijke systemen zou opbouwen. Dat is een stuk complexer, duurder en foutgevoeliger voor quantum.

Het probleem met quantum mechanics is zoals hier onder ook door Vinxian omschreven de Kopenhagen interpretatie van quantum mechanics die omschrijft dat het meten van een quantum superpositie diezelfde superpositie laat instorten. En dus moet je via een wiskundige omweg het resultaat ophalen, wat in mijn analogie gewoon "het juiste nummertje" was :)
Maar het vervelende van een quantum operatie is dat je inderdaad alle kamers tegelijkertijd kan checken, maar dat als je klaar bent en het antwoord wil bekijken de quantumtoestand instort tot een normale uitkomst. Schrödingers uitkomst, je hebt zowel het goede als verkeerde antwoord en pas als je kijkt weet je welke het is.
Dit maakt een quantumcomputer dus niet zomaar sneller.

Wat quantumalgoritmes doen is meerdere quantum operaties doen op een manier zodat elk mogelijk antwoord een verwijzing naar het goede antwoord bevat. Bijvoorbeeld dat het antwoord gegarandeerd de goede kamer als factor heeft in het gegeven voorbeeld. Dus als je dan de quantum toestand dwingt om in te storten door het antwoord te bekijken je gegarandeerd bent om het antwoord te krijgen waar je geïnteresseerd in bent. Maar dit is wiskundig complex en niet mogelijk voor elk mogelijk algoritme.
Goede reactie, zo technisch wordt de analogie helaas niet omdat het proces van de quantum superpositie omzeilen om alsnog een resultaat te meten op verschillende manieren kan. Eén daarvan wordt 'quantum annealing' genoemd, een andere is Grover's algorithm bijvoorbeeld.

In de basis in de analogie is het controleren van al de kamers eenzelfde actie zonder noemenswaardige verschillen, als je daarop echter algoritmes gaat loslaten kan je de quantum superpositie zonder ze te laten instorten onrechtstreeks gaan aftesten naar optimale resultaten. Via quantum annealing ga je "pieken" oftewel quantum parallellisme bekomen (werkt via het algoritme van Schrödinger :) ) waarmee je verschillen en de laagste energiestaat van de mogelijkheden die je aftest kan gaan bepalen.

Dat houdt dan natuurlijk ook weer in dat je de "juiste vraag" moet stellen anders ga je ook geen goed antwoord krijgen... Wiskundig complex is bijna een understatement daar 8)7

Verder zou een quantum superpositie enkel precies zijn bij absolute nul, nul Kelvin, wat simpelweg onhaalbaar is. Een quantumcomputer van IBM genaamd IBM Q System Two (tweede iteratie) is afgelopen december aangekondigd en werkt bij 2.7K, oftewel -270,45°C. Daarom moet je zoveel foutcontrole inbouwen dat schaalbaarheid in die omstandigheden (ook nog gevoeligheid voor eender welke straling of andere buitenliggende factoren) enorm moeilijk zal zijn als niet onmogelijk. Je foutmarge stijgt exponentieel, tegelijk met het probleem om zo'n dergelijk systeem te beschermen tegen de buitenwereld om precisie te bekomen...
Tot nu toe is er nog geen algoritme sneller uitgevoerd op een quantum computer dan op een reguliere computer. De verschillende quantum supremacy uitingen door bv IBM zijn elke keer later ontkracht. Vaak was het algoritme op de reguliere computer totaal niet geoptimaliseerd.

Op dit moment zijn er best wel een aantal mensen die aangeven dat quantum computing mogelijk niet de impact gaat hebben op de korte termijn zoals anderen beweren. En dat heeft eigenlijk veel te maken met hoe goed en snel de reguliere computers en algoritmes de laatste tijd zijn doorontwikkeld. Vooral als het gaat om bv wetenschappelijke berekeningen. En dat het aantal qubits nog achterblijft.

Mogelijk dat dit soort doorbraken het speelveld weer veranderen.
Op korte termijn geloof ik er ook niet zo in.
Maar quantumalgoritmes bestaan gewoon. Wiskundig bewijs daarvoor ligt er gewoon. Alleen momenteel is het gewoon zo dat een quantum computer minder instructies per seconde maakt dan een reguliere computer en dat ze niet genoeg qubits hebben om profijt te maken van de lagere tijdscomplexie.
Dus het is een beetje alsof je zegt dat quicksort langzamer is dan bubblesort omdat je 4 bytes aan data hebt gesorteerd.
Het probleem is echter dat het schalen van qubits niet een triviaal iets is. Dus je kunt zeggen, het zou sneller zijn als we een echte quantum computer hebben met 10.000 qubits. Dit is echter niet eenvoudig vanwege de stabiliteit van qubits als je gaat naar grotere hoeveelheden.

Er zijn dus nog zeker een aantal hobbels te nemen. Waarbij dit nieuws mogelijk kan helpen.

Beetje een geval zoals fusie reactoren. In theorie heel mooi, maar we zijn er nog zeker niet.
Natuurlijk kunnen we de huidige algoritmes voor asymmetrische cryptografie wel “meer bits breed” maken. Het probleem is dat, voor algoritmes die kwetsbaar zijn voor Shor’s algoritmes, het aantal bits dat erbij moet exponentieel groot is :Y)

https://eprint.iacr.org/2017/351.pdf

[Reactie gewijzigd door theguyofdoom op 22 juli 2024 18:03]

Het probleem is dat, voor algoritmes die kwetsbaar zijn voor Shor’s algoritmes, het aantal bits dat erbij moet exponentieel groot is
En het lijkt er voor mij wel op alsof elke extra qubit bij Quantum computers exponentieel veel moeite kost om bij de andere qubits toe te voegen. :)

Dus 4 betrouwbare qubits, ok. Maar 100 betrouwbare qubits in een systeem zou dan misschien wel 10^100 - 10^4 moeilijker zijn om voor elkaar te krijgen!

Ik speculeer op basis van onvolledige observaties, hé... :)

Edit:

Het lijkt wel alsof des te meer qubits je in een systeem met elkaar probeert samen te laten werken, de kans op fouten exponentieel stijgt.

[Reactie gewijzigd door RetepV op 22 juli 2024 18:03]

Ja precies. En bepaalde processen waarvan gedacht werd dat quantum computers er sneller in zouden zijn hebben ze op klassiek silicium inmiddels net zo snel gemaakt. Naarmate de jaren vorderen neemt de grote belofte van quantum computing steeds verder af. Dat neemt uiteraard niet weg dat het als fundamenteel onderzoek heel belangrijk blijft maar een directe praktische toepassing lijkt op dezelfde afstand te blijven.
En dat maakt het ook dat we niet gewoon encryptie meer bits breed kunnen maken om tegen "de brute kracht van quantum te kunnen". Want de quantumcomputer breekt encryptie niet op brute kracht.
Dit geldt alleen voor problemen gebaseerd op integer factorisatie of discrete logaritmes (ofwel de meeste asymetrische encryptie). Veel moderne symmetrische encryptie protcollen hebben hier geen probleem mee, en vaak een factor twee speedup met quantum computer tov een klassieke. AES256 is bijvoorbeeld op een quantumcomputer equivalent aan AES128, en hier kan je dus gewoon "meer bits" nemen.

En je hebt behoorlijk wat qbits nodig. Als ze aan komen met een 1000qbit size variant (zonder foutcorrectie!) dan hebben we het over iets, enkele bits zoals nu is nog niet interessant.
Want de quantumcomputer breekt encryptie niet op brute kracht.
Dat is wel wat ik overal tot heden gelezen heb. Als dit niet waar is stort mijn wereld in. _/-\o_
Ik had ook begrepen dat dit de voornaamste reden was waarom we overgingen op biometrische beveiliging.
Weet iemand zo het verschil tussen een quantumcomputer en een supercomputer en waarom de quantum versie nog lang niet in de buurt komt van een supercomputer?

Of is een supercomputer gewoon volgepropt met de beste hardware die er is voor berekeningen etc?
Je moet een quantumcomputer zien als een computer die ipv alles sequenieel één voor één te berekenen, alles tegelijk kan berekenen.
Voor bepaalde berekeningen zoals decryptie, het weer, proteïne-folding, ... waarbij normaal enorm lange rekentijden nodig zijn om alle scenario's te berekenen, kan dit nu in één keer. Het is alsof de oplossing zichzelf vindt.
Een supercomputer is “gewoon” een datacenter dat vol met computers en storage hangt (al zijn er vaak wat extra snelle verbindingen tussen die computers). Het wordt een “supercomputer” doordat er speciale rekenclustersoftware op die computers draait (zoals SLURM), zodat je workloads over die computers kunt verdelen.

Een quantumcomputer gebruikt quantum effecten en is wezenlijk iets anders. Let op, dat quantum computers niet algemeen sneller zijn: alleen voor specifieke algoritmes die van quantumeffecten gebruik kunnen maken zijn ze sneller. Dat gaat dan bijvoorbeeld om het simuleren van quantumfysische systemen, maar ook het ontbinden van grote getallen in priemfactoren (en discrete logaritmen, beide Shor’s algoritme).
Weet iemand zo het verschil tussen een quantumcomputer en een supercomputer en waarom de quantum versie nog lang niet in de buurt komt van een supercomputer?

Of is een supercomputer gewoon volgepropt met de beste hardware die er is voor berekeningen etc?
Dat is als het verschil tussen een hamer en een zaag. Ze doen andere dingen.

Als spijkers wil slaan heb je meer aan een eenvoudig hamer dan aan de beste zaag.
Als je een boomstam in gelijke stukken wil verdelen heb je niks aan een hamer maar moet je een zaag gebruiken.

De vraag is niet of een hamer beter of sneller is dan een zaag, de vraag is wat je er mee wil doen.

* Als je heel hard je best doet kun je met een hamer ook een boomstam in stukken slaan, maar een zaag kan het veel sneller en beter. Onze huidige computers zijn als de hamer en quantum computers zijn als die zaag. We weten dat we bepaalde problemen veel sneller kunnen oplossen met een zaag, maar we weten nog niet hoe we een zaag moeten maken.

[Reactie gewijzigd door CAPSLOCK2000 op 22 juli 2024 18:03]

Een quantomcomputer kan meerdere berekeningen maken op hetzelfde moment.
Bijv: 10 berekeningen per keer met 1 seconde wachttijd tussen berekeningen, in één minuut heb je dan 600 berekeningen

Een super computer kan 10000 berekeningen doen binnen 1 seconde. dat zijn er in een minuut dan een stuk meer.

Kortom, een quantumcomputer kan wel meerdere dingen tegelijk maar is enorm langzaam als je het vergelijkt met bijvoorbeeld een processor of een videokaart.
Belangrijke toevoeging: hij kan specifieke soorten berekeneningen tegelijk. Maar niet alle soorten. Het is dus niet alsof je Call of Duty ineens met 10000 frames per seconde kan draaien. Maar bijvoorbeeld het kraken van bepaalde veelgebruikte beveiligingssleutels dan weer wel.

De stelling dat een quantumcomputer sneller of langzamer is is daarmee veel te kort door de bocht. Hij is langzamer in klassieke berekeningen die normale computers nu doen. Maar de nieuwe manier van rekenenen is, dus in specifieke toepassingen, veel sneller dan een vergelijkbare berekening op een normale computer.

Een supercomputer daarentegen is niets meer dan tienduizend normale computers naast elkaar. Parallelliseerbare berekeningen gaan daarmee tienduizend keer zo snel omdat je er gewoon meer rekencapaciteit tegenaan gooit.

[Reactie gewijzigd door bwerg op 22 juli 2024 18:03]

Dit is niet waar; quantumcomputers kunnen kwantum effecten gebruiken bij berekeningen en dat is alleen voor kwantumalgoritmen geschikt. Stellen dat het “dingen tegelijkertijd doet” is ten eerste niet juist, en ten tweede doet het voorkomen alsof kwantumcomputers in het algemeen beter zouden zijn.

Kwantumalgoritmen zijn—voor die paar problemen waar we ze voor kennen—exponentieel sneller dan klassieke algoritmes.

Daarnaast doet klassieke hardware ook gewoon dingen tegelijkertijd: een CPU heeft bijvoorbeeld meerdere ALUs en decodeert instructies tegelijkertijd met het uitvoeren van berekeningen. Laat staan meerdere codes.
een quantum computer iets iets totaal anders dan een supercomputer

of eigenlijk is een supercomputer gewoon niks in die zin dat een supercomputer eigenlijk vaak helemaal niet één pc is met één cpu op één mobo met één setje ram

een supercomputer bestaat vaak gewoon uit een rekencluster met heeeeel veel aaneengeknoopte ewone pctjes

een quantum computer is heeel anders omdat het letterlijk op andere natuurkundige principes is berust

waar een pc bestaat uit stroompjes die AAN of UIT kunnen op een stukje geleidend materiaal,

bestaat een qbit uit een (een bit bij een quantum cpu) uit een nanodeeltje dat in verschillende posities kan zitten

aan, uit, aan en uit, geen van beide en dat maakt alles een stuk lastiger maar brengt tegelijkertijd ook enorm veel potentieel mee in bijvoorbeeld de cryptografie maar ook in andere berekeningen

een quantum computer kan bepaalde opdrachten waar een intel cou jaren over zou moeten rekenen in enkele seconden uitbraken terwijl er andere heel eenvoudige sommetjes niet of nauwelijks te berekenen zijn of in ieder geval niet met enige nauwkeurigheid

[Reactie gewijzigd door i-chat op 22 juli 2024 18:03]

Toch is dit nog niet voldoende om een quantumcomputer te maken die echt veel beter is dan bijvoorbeeld een supercomputer. Naar schatting zijn daarvoor zo'n 100 logische qubits nodig. Microsoft zei vorig jaar dat het verwacht binnen tien jaar een dergelijke computer te bouwen.
Ze hebben er nu 4, waarom gaat het 10 jaar duren om zoveel extra logische qubits te bouwen?
Dat vraag ik me ook af. Het lijkt nu gewoon een vorm van opschalen die nodig is.
Waarschijnlijk is het niet zo eenvoudig, zoals alles met quantum computers. Waarschijnlijk beïnvloeden de qubits elkaar en is een klein systeem exponentieel makkelijker te bouwen dan een groot.
Er zijn wel wat vindingen geweest. Ik weet niet hoe het met deze staat :

https://tweakers.net/nieu...ubits-te-manipuleren.html
Decoherentie vormt een probleem, helemaal voor grotere quantum computers (lees meer qubits). Aangezien de kans groter is dat 1 vd qubits verstrengeld raakt met de omgeving ipv met de andere qubits. Waardoor je de superpositie van je systeem verbreekt.

Dit is opzich wel een mooi kort en simpel artikel dat een beetje laat zien wat de problemen zijn:
https://atelier.net/insig...llenges-quantum-computing
Ze hebben er nu 4, waarom gaat het 10 jaar duren om zoveel extra logische qubits te bouwen?
Het probleem zit in de samenwerking. Hoe meer qubits hoe meer problemen.

Als je op kantoor 3 collega's hebt kun je alles samen overleggen zonder formele vergaderingen.
Als je met 100 directe collega's moet samenwerken zal je een hoop tijd moeten reserveren voor communicatie, overleg, verslaglegging etc...
100 logische qubits naast elkaar zetten is niet het probleem echter dan heb je defacto 25 van die computers gebouwd met 4 logische qubits die toevallig naast elkaar staan. Het probleem is daarbij dat je de logica telkens moet beperken zodat het past in 4 logische qubits, men wil logica kunnen schrijven dat past in 100 logische qubits.

Dat wil zeggen dat je ze op kwantum niveau moet koppelen met elkaar en hoe meer je koppelt hoe onstabieler het word. Voor 5000$ koop je een kwantum computer met 2 fysieke qubits (zoek op SpinQ), die van het artikel heeft er 60 zitten, moet je al eerder Euromillions voor winnen om het dan in 1 keer uit te geven.

Hoeveel qubits er in totaal inzitten is dus zeg maar datgene wat bepaald hoe snel een quantumcomputer is gelet die intern niet met een cyclus werkt (wat we uitdrukken in Hertz of megahertz) maar "instant" zijn inputs naar outputs omzet.
Hoe "instant" dat precies dan is ga ik mij niet over uitspreken maar gelet we geen enkele manier hebben om sneller dan het licht gegevens in te geven blijft de regel dat informatie niet sneller dan het licht kan nog gelden.
Nu ze 4 qbits hebben... Zou de wet van More hier ook gelden? Met een verdubbeling elke 18 maanden zitten ze over 10 ongeveer op zo'n 500 qbits.
Microsoft zn blog post met (ietsje) meer specifieke info:
With our qubit-virtualization system, we were able to create four highly reliable logical qubits from only 30 physical qubits of the available 32 on Quantinuum’s machine
Het zijn zeker toffe resultaten, maar met deze limitaties is er vooralsnog dus nog geen praktische Shor-aanval op moderne public-key encryptie.
With a hybrid supercomputer powered by 100 reliable logical qubits, organizations would start to see scientific advantage, while scaling closer to 1,000 reliable logical qubits would unlock commercial advantage.
Met vier logische qubits is er nog wel een flinke stap te gaan.
Terwijl ze tijd geleden al over veel hogere aantallen hadden bij concurrenten.
In 2023, a team of researchers at Harvard University and their colleagues, including some at the quantum computing start-up QuEra, broke the record for the largest number of logical qubits – 48 at once. This is far more than the four logical qubits in the new device.
Bron

Enige verschil is dus dat ze minder qubits nodig hebben om logical qubits te produceren, maar blijkbaar willen experts het geen "breakthrough" noemen.
Hoezo kan zo een computer dan "verstoord" worden? invloed van temperatuur, luchtdruk, noise in de voedingsspanning, observatie? Ik vind het nog steeds een vreemd begrip, waarbij gewone computers de nodige complexiteit hebben, al is dat puur engineering.
Bijna goed ja! Quantumcomputers zijn erg gevoelig voor ruis, zoals elektromagnetische signalen, temperatuurveranderingen en verstoringen in het magnetische veld van de aarde.

Omdat qubits op kwantummechanische principes werken, zijn ze uiterst gevoelig voor de kleinste veranderingen in hun omgeving. Dit maakt ze vatbaar voor fouten die kunnen ontstaan door onbedoelde interacties met hun omgeving. Wanneer dit gebeurt, kunnen de qubits verkeerde waarden aannemen, wat leidt tot fouten in de berekeningen.

Onder "verstoord" kun je dus verstaan:
- Elektromagnetische signalen
- Temperatuurveranderingen
- Verstoringen in het magnetische veld van de aarde
Ik bedacht me een leuke vergelijking.

Zie een qubit als een jonge hond. Zo lang je hem goed in de gaten houdt en zijn aandacht erbij laat houden, is hij aandachtig van de lijn en loopt hij netjes zonder te trekken mee. Maar zo gauw je aandacht verslapt en er iets gebeurt dat je hond zijn aandacht trekt, is het afgelopen. Je hond rent dan achter dat andere aan en probeer dan zijn aandacht nog maar eens terug te krijgen. :P

Zo is het met qubits. Je verstrengelt ze, en zo lang je alles wat ze zou kunnen verstoren weg houdt, blijven ze verstrengeld. Maar zo gauw er toch iets is, verdwijnt de verstrengeling en verstrengelen ze zich met datgene dat ze verstoorde. En dan is het over, terug naar af.

Maar het is nog moeilijker: je weet pas wanneer hun verstrengeling weg was, wanneer je een fout antwoord krijgt. Je hebt geen mogelijkheid om een verstoring te detecteren en op tijd in te grijpen, bijvoorbeeld door het systeem te halten, de verstoring oplossen en verder te gaan waar het gebleven was.
Op het niveau van de quantum wereld is het uberhaupt een lastig geval om dingen "uit te lezen". Het idee dat je informatie uit/af-leest is soms al genoeg om het gegeven te beînvloeden.

https://nl.wikipedia.org/wiki/Schr%C3%B6dingers_kat
Iets dat ik mij afvraag: in een transistor is de waarde van een bit afhankelijk van het voltage dat door die transistor gaat: geen voltage is 0, en 5 volt is 1. Hoe werkt dat bij een qubit? Of is een qubit totaal niet gerelateerd aan een bit?
Even een kleine opmerking: een transistor is een (bijna) lineair ding: het is niet aan of uit, het heeft een regelgebied waarin je de versterkingsfactor kan regelen (door een stroom op de basis te leveren). Een deel van dat regelgebied is lineair, en versterkers laten de transistor in dat gebied opereren.

Om van een transistor een schakelaar te maken, schakel je de stroom op de basis tussen 0 ampere en een stroom die er voor zorgt dat de transistor in volledige saturatie is (hij kan dan niet verder meer versterken, en technisch gezien worden de transistoren niet volledig in saturatie geschakeld vanwege allerlei redenen).

Dus een transistor is een stroomversterker, waarmee je de stroom tussen collector en emitter kan regelen met een stroompje op de basis.

Een FET werkt een klein beetje anders, die kun je met een spanning op de basis regelen, in plaats van met een stroom. Computers zijn dan ook uit mosfets gemaakt en niet uit 'gewone' transistors.

Tot zo ver de introductieles. :)

En een qubit is inderdaad totaal niet gerelateerd aan een bit, en al zeker niet aan een transistor.
Nog een opmerking, "voltage" (dat noemen we in het Nederlands spanning) "gaat" niet "ergens doorheen"
Ik vind dit allemaal reuze interessant, maar ik lees hier nu dus dat ze 4 logische qubits hebben gemaakt, bestaande uit elk 30 fysieke qubits. Verderop lees ik dat ze ongeveer 100 logische qubits nodig hebben om een moderne supercomputer te 'evenaren'. Dat evenaren gaat het mij niet om (volgens mij werken quantumcomputers wezenlijk anders dan reguliere (super)computers), maar meer om het feit dat het dan, in mijn simpele ogen, toch alleen een kwestie is van schaalvergroting? Dat hoeft dan toch niet 10 jaar te duren? Ik heb geen idee verder hoor. Quantummechanica vind ik een ontzettend interessant onderwerp (double slit experiment, etc.), maar ik heb niet de onderliggende kennis om het te begrijpen.
De andere comments geven misschien nog betere informatie maar. Volgens mij bedoelden ze met logische qubits de error corrected qubits denk aan RAM modules, soms hebben ze dan 5 modules waarvan er maar 4 gebruikt kunnen worden en de 5de bijvoorbeeld de som is zodat je weet of het wel goed ging.
Nou is dat met qubits nog een stuk lastiger en heb je volgens mij veel meer error correcting qubits nodig om een degelijk effect te krijgen. Hier is een ratio 5 dus relatief goed.
Dus je hebt er 30 nodig om zeker te weten dat de antwoorden van die 4 goed zijn.
Het probleem met kwantum is dat het zo gevoelig is en ook op hele lage cryogene temperaturen moet gedaan worden. Dit zorgt ervoor dat je niet kunt zeggen oh we hebben 2 qubits dan doen we hetzelfde nog eens hebben we er 4. Niet eens op dubbele ruimte. Je moet ze als ik het goed heb allemaal aan elkaar entangled houden en dat wordt steeds moeilijker bij elke qubit die erbij komt.
Ik vind het ook interessant en weet er verder ook niet teveel van.
Is er een use case voor de huis en tuin gebruiker?
btw: 'Het ploeg'? klinkt zo vreemd

Op dit item kan niet meer gereageerd worden.