Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Onderzoekers verleggen grens voor 'quantum supremacy'

Wetenschappers hebben algoritmes voor quantumcomputersimulaties ontwikkeld die efficiënt kunnen draaien op gedistribueerde systemen. Met klassieke computers kunnen ze zo meer qubits simuleren dan aanvankelijk gedacht.

De onderzoekers van Google draaiden hun simulatie op virtuele machines van Googles Cloud Compute-platform. "Ons gebruik van bescheiden computerhardware democratiseert quantumsimulaties", stellen ze in hun onderzoek.

Simulaties van quantumcomputers gebeurt meestal op supercomputers, vanwege het complexe rekenwerk. Dat is met name vanwege de snelle interconnects die de systemen in een rekencluster van supercomputers met elkaar verbinden. De algoritmes van de wetenschappers hebben dergelijke interprocess communication niet nodig, waardoor ze ingezet kunnen worden op gedistribueerde clusters, zoals die van cloudplatformen.

Een van de voordelen die dit oplevert, is dat de enorme geheugenhoeveelheden die nodig zijn voor quantumsimulaties op supercomputers, niet nodig zijn. In 2016 voorspelden onderzoekers, eveneens van Google, dat het simuleren van circuits van meer dan 48 qubits met hoge diepte, van zo'n 40 lagen, met de supercomputers van toen onmogelijk was. Voor het draaien van de algoritmes op een circuit van 6 × 8 qubits zou 2,252 petabyte werkgeheugen nodig zijn, betoogden ze. Vanwege die praktische grens sprak Google van 'quantum supremacy': het punt waarop klassieke computers niet meer toereikend zijn wat betreft simulaties en quantumcomputers hun klassieke evenknie voorbijstreven.

Bij het huidige onderzoek voerden de wetenschappers echter op het Cloud Compute-platform een simulatie van een raster van 7 × 8 qubits en diepte van 40 lagen uit. Dat vergde 'slechts' 16TB aan ram en de kosten schatten ze op 35.184 dollar. Hun techniek is schaalbaar naar complexere circuits: ze schatten dat quantumcircuit van 7 × 7 qubits met diepte van 48 lagen zo'n miljoen dollar kost.

De diepte betreft het aantal lagen waarin een circuit opgedeeld kan worden zonder dat de gates voor de qubits elkaar overlappen, oftewel, hoeveel logische operaties geïmplementeerd kunnen worden. Het rekenwerk dat quantumcircuits kunnen verrichten wordt bepaald door rasters van qubits in combinatie met die diepte. Het simuleren van grote aantallen qubits met geringe diepte op klassieke computerarchitectuur is al langer mogelijk.

De uitkomsten van de simulaties zoals de onderzoekers die voorstellen zijn wel bij benadering, maar dat geldt voor echte quantumcircuits ook. Qubits vertegenwoordigen anders dan gewone bits niet ofwel de waarde 0 ofwel een 1, maar kunnen tegelijkertijd een 0 en 1 aannemen. Het aantal verschillende waarden neemt exponentieel toe met het vergroten van het aantal qubits. Een quantumcomputer kan zo in een keer parallelle berekeningen uitvoeren en direct tot een definitieve uitkomst komen, bijvoorbeeld door alle uitkomsten in een keer na te gaan waarbij alleen de juiste overblijft. Wetenschappers wereldwijd experimenteren met dit gegeven om een quantumcomputer te ontwikkelen die in te zetten is voor daadwerkelijk rekenwerk.

Ruimte-tijd-volume van een quantumcircuit-berekening. Bron: Google

Door Olaf van Miltenburg

Nieuwscoördinator

15-08-2018 • 14:15

27 Linkedin Google+

Reacties (27)

Wijzig sortering
Oeps.... vaktermen genoeg in dit artikel. :?

Even een vertaling van het artikel in simpeler bewoordingen:
Onderzoekers van Google hebben een methode ontwikkeld om complexere quantumcomputers te simuleren op 'gewone', klassieke (virtuele) machines van Googles Cloud Compute-platform.

Dit was voorheen niet eens mogelijk op de supercomputers waarop dergelijke simulaties meestal gebeuren. Supercomputers worden gebruikt vanwege het complexe rekenwerk en de benodigde snelle communicatie van de processen onderling.

Het probleem met de supercomputers was voornamelijk de enorme hoeveelheid werkgeheugen die een dergelijke simulatie vergt.
Doordat de methode van de onderzoekers van Google op een klassieke cloud kan draaien is er veel minder werkgeheugen nodig en kunnen klassieke systemen complexere simulaties aan dan voorheen.

Dat verlegt de grens van 'quantum supremacy': het punt waarop klassieke computers niet meer toereikend zijn en quantumcomputers hun klassieke evenknie voorbijstreven.

En dan volgen in het artikel nog wat getalletjes die bovenstaande tekst ondersteunen.
Doordat de methode van de onderzoekers van Google op een klassieke cloud kan draaien is er veel minder werkgeheugen nodig en kunnen klassieke systemen complexere simulaties aan dan voorheen.
Dit is natuurlijk ‘verkeerd om’ en zou moeten zijn:
Doordat de methode van de onderzoekers van Google veel minder werkgeheugen nodig hebben kunnen ze op een klassieke cloud draaien en kunnen klassieke systemen complexere simulaties aan dan voorheen.
Alvast bedankt om het artikel te simplificeren maar mijn brein blokkeert op "complexere quantumcomputers te simuleren op 'gewone', klassieke (virtuele) machines".

Een simulatie in een simulatie dus? En dan nog wel een simulatie van quantum computers maar dan op een klassieke computer?

Wat mijn brein blijkbaar niet kan verwerken is dat een klassieke computer dus zou kunnen rekenen als een quantum computer.
Wat mijn brein blijkbaar niet kan verwerken is dat een klassieke computer dus zou kunnen rekenen als een quantum computer.
De simulatie zal wel een stuk trager zijn dan een echte quantum computer (zoals gebruikelijk bij wetenschappelijke simulaties).
Ja een klassieke computer kan een kwantum computer simuleren.
De hoeveelheid geheugen die daarvoor nodig is, is alleen exponentieel aan het aantal qubits dat ie moet simuleren.
Dus stel dat je voor de simulatie van 10 qubits 1kB nodig hebt, dan heb je voor 20 qubits 1MB nodig. Dus reken maar uit hoeveel je dan nodig hebt voor 50 qubits.
Het plan is dat er kwantum computers komen van duizenden qubits. Dan gaan ze ook echt nuttig worden.
Tja, zo zag ik weer een ander artikel die om meer technische details vroeg. Een gulden middenweg is lastig te vinden ben ik bang. Bedankt voor de vertaling voor wie er niet zo thuis in is!
Voor het een heb je tweakers.net en het andere nu.nl :-)
Helaas heb ik nog niemand ontmoet die van alle T.net onderwerpen verstand heeft.
Ik wou dat meer nieuws berichten vaktermen inzich hadden.

Ondanks dat ik niet thuis ben in de wereld van qbits, merk ik dat ik juist meer leer door termen op te zoeken / de comments te lezen van mensen hier op tweakers die gecombineerd mij doen leren.
Dat verlegt de grens van 'quantum supremacy': het punt waarop klassieke computers niet meer toereikend zijn en quantumcomputers hun klassieke evenknie voorbijstreven.
Even om het te nuanceren: "quantum supremacy" is het punt waarop quantumcomputers sneller worden dan simulaties van quantumcomputers.

Alle hype over quantumcomputers ten spijt is de snelste manier om een quantum-algoritme uit te voeren nu namelijk nog steeds om eerst een quantumcomputer te simuleren op een klassieke computer, en dan dat quantum algoritme uit te voeren op de simulatie. Maar vanwege alle overhead is dit vele, vele malen trager dan een klassiek algoritme op een klassieke computer.

Om een idee te geven: een bekende cryptografie-taak is het ontbinden van een getal in priemfactoren. Klassieke algoritme kunnen dat met getallen van tientallen cijfers; quantumalgoritmes zijn nog niet verder gekomen dan 5 cijfers (56153 =233×241). Laten we realistisch zijn: dat kon een ENIAC ook al.
Betreft dit dus een softwarematige oplossing voor een qbit?
Correct. Een qubit begint in state 0 of 1 (2 mogelijkheden), en combinaties van n qubits beginnen dus met 2^n mogelijkheden. Al deze mogelijkheden kan je simpelweg door het circuit halen; dat is een matrixvermenigvuldiging.

Je begrijpt dat het aantal mogelijke beginstates snel toeneemt en daarmee ook de benodigde rekentijd en geheugengebruikt. En daarom loop je tegen de ‘quantum supremacy’ limitatie aan.

[Reactie gewijzigd door Sendy op 15 augustus 2018 15:52]

Qubits vertegenwoordigen anders dan gewone bits niet ofwel de waarde 0 ofwel een 1, maar kunnen tegelijkertijd een 0 en 1 aannemen.
Deze zin ken ik al heel lang, maar mijn brein weigert gewoon de zin te accepteren in het geheugen ;).
Tegelijk 0 en 1 zijn en er toch afzonderlijk (neem ik aan) mee kunnen rekenen..ik kan het nog niet visualiseren..
Dit artikel uit 2014 legt het uit (ook afbeeldingen) reviews: Kwantumcomputers: razendsnel rekenen op de kleinste deeltjes

Maar dan nog is het lastig je er een beeld bij te vormen. :)
Ik ben benieuwd of met deze vervolgstap nu ook de meeste encryptie/hashing gebroken kan worden of dat dat nog een stap is die alleen voor de echte quantum computers is weggelegd.
Om een x-bit sleuter te kraken moet je op zijn minst x qubits gebruiken neem ik aan.
Eerder het dubbele ervan en een paar bitjes overhead. Hier op https://security.stackexchange.com is een mooi staatje van het aantal qbits wat nodig is. Iemand heeft op de StackExchange crypto site nog eens een vraag gesteld hierover. Ik heb geen idee of x of 2 maal x qubits een logische ondergrens is; het lijkt me wel.

Natuurlijk kan je met een gesimuleerde quantum computer geen algoritme kraken wat niet door een normale computer kan worden gekraakt.

[Reactie gewijzigd door uiltje op 15 augustus 2018 15:08]

Natuurlijk kan je door een quantum computer te simuleren niet plotseling RSA of ECC kraken. De simulatie voegt immers alleen maar overhead toe. De qbits worden gesimuleerd; ze kunnen niet daadwerkelijk met meerdere mogelijke waarden tegelijk rekenen.

Bij veel asymmetrische algoritmen (RSA, ECC) kan je op veel meer dan een halvering van de sleutel sterkte rekenen. Bij symmetrische algoritmen (AES, SHA-2 etc.) kan je maximaal een halvering van de bit grote rekenen. Dat betekend dat AES-256 nog steeds veilig is: voor quantum crypto heb je nog steeds een sleutel sterkte van 128 bits over.
Natuurlijk kan je door een quantum computer te simuleren niet plotseling RSA of ECC kraken. De simulatie voegt immers alleen maar overhead toe. De qbits worden gesimuleerd; ze kunnen niet daadwerkelijk met meerdere mogelijke waarden tegelijk rekenen.
Had gekund dat omdat het een andere techniek is er toch ineens een doorbraak is. Ondanks de overhead. Maar goed om te lezen dat dit nog niet het geval is :) Bedankt voor je 2 duidelijke reacties met leuk leesmateriaal.
Ja, dat denk ik wel, maar je ziet in het artikel ook wat voor kosten daar kennelijk mee gemoeid zijn. Alleen iets voor staten dus, en de grootste geheimen. Niet voor sleepnetten speculeer ik.
En hoeveel klassieke systemen zijn er dan nodig per qbit?
Dat hangt dus af van het aantal qubits, het schaalt mee. Elke extra laag is duurder dan de vorige.
Het aantal verschillende waarden neemt exponentieel toe met het vergroten van het aantal qubits.

Als ik dit zo lees, zou ik zeggen dat er niet een nummer per qubit te geven is. Met het aantal qubits stijgt ook exponentieel het aantal klassieke systemen.
Ik neem aan dat je 2 tot de macht van het aantal qbits nodig hebt aan geheugenbits.
Quantum computing is een beetje als kernfusie.
Al 50 jaar zijn we er bijna... :?
Een simulatie simuleren. Toe maar, knap hoor. }:O

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Sport

'14 '15 '16 '17 2018

Tweakers vormt samen met Tweakers Elect, Hardware Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True