Intel en QuTech zetten stap voor massaproductie silicium qubits

Intel en QuTech zijn er in geslaagd qubits in quantum dots te produceren door gebruik te maken van standaard halfgeleiderfabricage. De onderzoekers melden dat de opbrengst van bruikbare quantum dots hoog is en de eigenschappen goed.

De onderzoekers van Intel en QuTech melden met succes de halfgeleiderfabricage die voor de massaproductie van siliciumchips ingezet wordt, gebruikt te hebben voor de productie van qubits. De wetenschappers fabriceerden samples van quantum dots op een siliciumsubstraat met een productielijn van 300mm-wafers. De demonstratie van de Intel- en QuTech-onderzoekers opent mogelijk de weg naar de productie van qubits op grote schaal. Een quantumcomputer moet naar verwachtingen over grote hoeveelheden qubits beschikken om bruikbaar te zijn voor snel rekenwerk.

In totaal beschreven ze twintig wafers op basis van doorsnee 193nm-immersielithografie. Het team maakte zo reeksen van quantum dots met verschillende lengtes en transistors van verschillende groottes. Een enkele 300mm-wafer bevatte 82 dies met in totaal meer dan tienduizend qd-arrays.

De yield lag op 98 procent, waarmee de opbrengst van in principe bruikbare quantum dots hoog is. "Dat is in vergelijking met 50 procent op een goede dag in de cleanroom van onze universiteit", aldus Lieven Vandersypen van QuTech. Tot nu toe maakten onderzoekers gebruik van lithografie op basis van elektronenstralen, e-beams, voor de productie van silicium qubits. De yields zijn daarbij laag en de uniformiteit van de structuren is dat ook.

De qubits betroffen spins van elektronen die gevangen zitten in een silicium quantum dot. Zo'n qd-device is vergelijkbaar met een transistor, onder andere wat betreft lay-out en aansturing. Wetenschappers hebben daarom hoge verwachtingen van dit soort qubits als bouwsteen voor een toekomstige quantumcomputer.

"Het was alsof we eerst met kaligrafie schreven en we nu zijn overgestapt op een stencilmachine", zegt Anne-Marije Zwerver over het succes met de productie. De promovendus bij QuTech is een van de schrijvers van het artikel Qubits made by advanced semiconductor manufacturing dat Nature Electronics dinsdag publiceerde.

Het is niet de eerste keer dat QuTech, een samenwerkingsverband van de TU Delft en TNO, qubits met behulp van halfgeleidertechnologie maakt. Vorig jaar meldde het instituut een quantumprocessor met vier qubits met silicium als substraat en de qubits in germanium gemaakt te hebben.

Intel QuTech quantum dot

Door Olaf van Miltenburg

Nieuwscoördinator

29-03-2022 • 20:35

17

Reacties (17)

17
17
13
3
0
3
Wijzig sortering
Een quantumcomputer moet naar verwachtingen over grote hoeveelheden qubits beschikken om bruikbaar te zijn voor snel rekenwerk.
Wat is veel in dit geval? 1000? 1.000.000.000?

[Reactie gewijzigd door Swerfer op 23 juli 2024 10:09]

Zoals vaak met wetenschap: it depends.
We bevinden ons momenteel in het Noisy Intermediate-Scale Quantum tijdperk, wat betekent dat de qubits die we nu kunnen produceren noisy zijn en nog niet op grote schaal geproduceerd kunnen worden. Algoritmes die we op deze NISQ quantum computers willen draaien, moeten geschikt zijn voor de specifieke noise van de quantum computer. Een universele quantum computer die elk quantum algorithme betrouwbaar kan uitvoeren bestaat helaas nog niet.

Gelukkig is er een oplossing voor dit probleem: quantum error correction. Hierbij worden de qubits stabiel gehouden met behulp van 'ancilla' qubits en wordt de kans op een error erg klein. Een nadeel van quantum error correction is dat je er veel meer qubits voor nodig hebt. Een paper uit 2013 schatte het aantal benodigde qubits voor het breken van een RSA-sleutel van 2048 bits op 5 miljard (om 12.288 logische qubits te corrigeren). Hoewel deze inschatting (hopelijk) wat cynisch is door toekomstige doorbraken in quantum computer architectuur, geeft het aan dat we enorme aantallen qubits nodig gaan hebben om een universele quantum computer te maken.
@Swerfer ,

'Veel qubits' betekent in dit geval waarschijnlijk miljoenen tot enkele miljarden. Het klopt wat @Robbedem zegt en dat er in theorie, om een voordeel van quantum computers over 'klassieke' computers te bewerkstelligen, ongeveer 50 qubits nodig zijn. Maar inderdaad, zoals @user458 zegt, zijn deze qubits zeer noisy en ondergaan ze nogal eens fouten.

Dit is goed te zien in een doorbraak van Google twee jaar geleden. Hierbij voerden ze een algoritme uit op een chip met 53 qubits. Een algoritme dat jaren zou duren om het uit te voeren op een klassieke computer (IBM zei trouwens dat dat niet zo was, maar heeft dat, volgens mij, nooit bewezen). Een grote stap voorwaarts dus! Maar het is goed erbij te zeggen dat het algoritme praktisch gezien niet heel nuttig was en het slechts 1/500 keer het juiste antwoord gaf, omdat er fouten in de qubit operaties slopen. Om deze fouten te corrigeren, moeten we de qubits coderen in een veeltal andere qubits. Dit noemen we een logische qubit.

Daarnaast is natuurlijk niet elk quantum algoritme meteen met 50 (logische) qubits uit te voeren, maar is ook hiervoor een veeltal aan (logische) qubits nodig. De meeste papers waarin een schatting van het aantal bits voor praktische quantumberekeningen wordt gegeven, komen daarom uit op miljoenen, tot miljarden qubits.

Het werk dat we in dit paper hebben laten zien (ik ben een van de auteurs), spin qubits maken met behulp van bestaande semiconductor fabricagetechnieken en een hoge yield en betrouwbaarheid behalen, lijkt dus een stap in de goede richting op weg naar het fabriceren van chips met miljoenen qubits,.


We maken daarom onderscheid tussen 'quantum advantage' -- er kan een (eventueel nutteloos en eventueel foutgevoelig) algoritme worden uitgevoerd dat lastig is uit te voeren op een klassieke computer
en 'quantum practicality' -- het quantum algoritme dat wordt uitgevoerd is nuttig en bruikbaar.
Ik meen mij te herinneren dat vanaf 50 qubits een aantal berekeningen al interessanter is op een quantumcomputer tov een gewone computer.
Dus vanaf 100 qubits zouden ze al heel goed zitten.
(qubits schalen min of meer exponentieel, dus elke qubit erbij verdubbelt bijna de rekenkracht)

Let er wel op dat de ene qubit de andere niet is.
De Chinezen hadden bijvoorbeeld (volgens hen) een quantumcomputer met 66 qubits en deze kon een berekening die triljoenen jaren zou duren op een gewone PC in enkele milliseconden doen.
Echter zou IBM een quantumcomputer hebben met 127 qubits. (geen idee of dit volwaardige qubits zijn).

In Duitsland zou er een staan met 5000 qubits, maar dit zijn geen volwaardige qubits. Deze computer wordt gebruikt voor Quantum annealing: het oplossen van specifieke optimalisatieproblemen door minima/maxima te berekenen.
Is het ooit wetenschappelijk aangetoond dat een quantumcomputer bij bepaalde berekeningen superieur is door de technologie? Dwz, met publicatie van de beschrijving van het systeem en bevestiging door een onafhankelijke partij...
Soort van...? Je hebt bepaalde algorithms zoals Shor's en Grover's algoritme die niet uitvoerbaar zijn met een standaard computer, dus in dat soort dingen is een quantum computer 'beter' dan een standaard pc'tje.

Een groot probleem echter is dat het gewoon nog niet zeker is hoe de quantum-error door omgevingsruis met het aantal qubits gaat schalen. De ruis zorgt voor decoherentie wat je superpositie kapot maakt. Je hebt dus qubits nodig die error-correctie code runnen om je gewone qubits goed te laten werken.

Ook een leuk voorkomen is dat wanneer er een publicatie uitkomt die een nieuw 'supergoed' quantum algoritme voorstelt, er andere mensen aan het werk gaan om huidige klassieke algoritmes te verbeteren, wat vaak lukt.
Al ben ik een leek op dit gebied, naar mijn idee zou er, als er ergens quantum supremacy bereikt is automatisch een concrete vergelijking ,moeten ontstaan met een apparaat met dezelfde functionaliteit maar dan ouderwets met transistoren. Het "elementaire" verschil, zeg maar. Een component dat een bepaalde uitvoer geeft, afhankelijk van de invoer, met de minimale complexiteit die voor de werking vereist wordt.

[Reactie gewijzigd door blorf op 23 juli 2024 10:09]

Tja, dat automatisme wat jij veronderstelt bestaat simpelweg niet. Zelfs de "minimale complexiteit" die jij veronderstelt lijkt me al problematisch. Hoe bewijs je dat de complexiteit van een gegeven implementatie (klassiek of quantum) minimaal is?
Waar ik het over heb is een essentieel onderdeel van empirische wetenschap. Wie een claim doet maar die niet praktisch kan aantonen trekt zichzelf in twijfel.
Zoals een logische poort de kleinst mogelijke bouwsteen is voor computers tot nu toe, zo zou een qubit, of andere term voor het cruciale component in quantum computers dat ook moeten zijn. Althans,als je de technologie als baanbrekend wil beschouwen. en ook kunnen demonstreren dat dat echt het geval is.

Volgens mij kom je dit probleem al tegen als je alleen naar de achteriggende wiskunde kijkt. De maker van een werkende quantumcomputer die op een bepaald vlak superieur is aan bestaande niet-quantumcomputers zou als het goed is een functie moeten kunnen laten zien die zijn computer sneller uitvoert dan elke mogelijke constructie van transistoren.

[Reactie gewijzigd door blorf op 23 juli 2024 10:09]

Dat is waarschijnlijk bij 50 logische (error-corrected) qubits. Ik ben niet heel erg op de hoogte van de laatste quantum error correction technieken, maar dit moet je mogelijk x10 à 20 doen voor het benodigde aantal fysieke qubits.
Een fysieke qubit maakt nog geen logische qubit echter. Voor zover ik weet zou je voor 1 logische qubit, een veelvoud aan fysieke qubits (x3, x9, ook wel eens x50 gehoord) willen hebben ivm error correctie.
Naar mijn weten is duizend in dit geval veel aangezien je dan in theorie 2^1000 berekeningen kan uitvoeren. Ik dacht dat er een paar honderd nodig zouden zijn om elke huidige supercomputer te verslaan in rekenkracht. Uiteraard is dat laatste alleen bij bepaalde berekeningen het geval en niet universeel.
Wat is veel in dit geval? 1000? 1.000.000.000?
Je hebt minstens 50 qbits nodig voor de beslisvariabelen, maar daarmee ben je er niet.

Je hebt ook nog een aantal qbits nodig hebt om een quantum-circuit met quantum-gates te bouwen, dus ga maar uit van minstens 1000 qbits voor een probleem met 100 traditionele bits voor zijn beslisvariabelen. Voor het kraken van asymmetrische cryptografie, zoals bijvoorbeeld RSA, heb je een aantal keer de sleutellengte nodig, dus dat worden enkele tienduizenden tot honderdduizenden qbits.

In de praktijk lijkt een quantum computer dan ook meer op een FPGA dan op een computer en "programmeer" je er een statistische distributie in die het probleem representeert.
Wellicht zou een quantum chip als een losse accelerator kunnen worden gebruikt voor specifieke rekentaken. Zeg maar zoals een FPU / GPU of een AI-chip in een doorsnee computer.
Het is sowieso heel erg lastig om een algoritme te verzinnen dat op een quantum computer kan werken. Ik heb me eens in Shor's algoritme verdiept en dat was heel erg moeilijk te volgen.

Een quantum computer kan vele berekeningen parallel doen met qubits, maar als je vervolgens de resultaten 1 voor 1 af gaat, kun je het net zo goed met een klassieke computer doen. De truc is dat je de verschillende parallele resultaten met elkaar laat interfereren om zo direct tot 1 resultaat te komen. Maar dat is dus helemaal niet eenvoudig.
Dus binnen 20j in onze 'mobiele' telefoons? Straf om weer de start mee te maken van iets wat groots en fantastisch gaat worden.
Of het begin van het einde met deze rekenkracht en AI 8)7

Op dit item kan niet meer gereageerd worden.