Google toont Willow-quantumchip, claimt doorbraak in quantumfoutcorrectie

Google heeft een nieuwe quantumchip gedemonstreerd, genaamd Willow. Deze chip bereikt volgens de techgigant twee mijlpalen: een op het gebied van foutcorrectie en een op het gebied van rekenkracht.

Googles Quantum AI-divisie presenteerde zijn Willow-quantumchip op maandagavond. De chip bestaat uit 105 qubits, de 'bouwblokken' waarmee quantumcomputers hun berekeningen uitvoeren, zo schrijft het bedrijf in een bijbehorende aankondiging. Google legt daarin met name veel nadruk op zijn doorbraak in errorcorrectie.

Qubits zijn erg gevoelig voor verstoringen, waardoor ze fouten kunnen veroorzaken tijdens het rekenen. Normaal gesproken neemt het aantal fouten in een quantumchip toe naarmate het aantal qubits toeneemt, maar Google claimt dat de foutcorrectie in Willow juist 'exponentieel' beter wordt naarmate het aantal qubits wordt opgeschaald.

Google Quantum AI Willow

Rendabele foutcorrectie in Willow

Google quantum foutcorrectie
Bron: Google

Google schrijft dat quantumcomputers nauwkeuriger gemaakt kunnen worden door qubits te groeperen en gezamenlijk foutcorrectie toe te laten passen. Ze functioneren dan gezamenlijk als één 'logische qubit'. Tegelijk ontstaan er in grotere groepen ook meer mogelijkheden voor fouten. Op een bepaald punt wordt de foutcorrectie overweldigd door de hoeveelheid fouten die ontstaan. Dit keerpunt waar foutcorrectie niet langer behulpzaam is, wordt de threshold genoemd.

Googles experiment, dat gepubliceerd is in Nature, claimt echter dat de nauwkeurigheid juist kan toenemen wanneer het aantal qubits wordt opgeschaald, mits daarbij de juiste foutcorrectietechnieken worden toegepast. Google demonstreerde dat met Willow, dat volgens het bedrijf als eerste quantumchip onder de threshold kan functioneren. Het bedrijf testte drie groepen met respectievelijk 3x3, 5x5 en 7x7 qubits. Bij iedere stap liep het aantal errors terug met een factor van 2,14, claimt het bedrijf. Daarmee moet het aantal errors dus teruglopen naarmate het aantal fysieke qubits binnen een logische qubit wordt opgehoogd.

Tegelijk benadrukt het bedrijf wel dat er 'nog een lange weg te gaan is'. Onderzoekers verwachten dat een foutpercentage van één error per tien miljoen stappen nodig is om quantumcomputers commercieel bruikbaar te maken. Momenteel zouden daarvoor groepen van 1000 qubits nodig zijn. Toekomstige doorbraken kunnen dat aantal mogelijk wel verlagen, speculeert het bedrijf.

Google qubits errorcorrectie
Googles vorige quantumchip (Sycamore) en Willow-chip naast wat in theorie nodig is voor een laag genoeg foutenpercentage. Bron: Google

Benchmarkresultaten van Willow

Google claimt daarnaast dat Willow aanzienlijk beter presteert dan Sycamore, zijn vorige quantumchip met 53 qubits. Het bedrijf gebruikte daarvoor de RCS-benchmark, ook wel random circuit sampling. Daarmee kunnen de prestaties van quantumcomputers in kaart gebracht worden, hoewel die benchmark in de praktijk weinig nut heeft.

In 2019 deed Google al eens een RCS-benchmark op Sycamore. Het bedrijf claimde toen 'quantum supremacy' bereikt te hebben. Dat is het punt waarop een quantumcomputer een berekening kan uitvoeren die in de praktijk niet uitvoerbaar zou zijn op een 'klassieke' supercomputer. Google claimde toen een RCS-benchmark uitgevoerd te hebben in 200 seconden, terwijl een normaal hpc-systeem daar 10.000 jaar over zou doen. Anderen reageerden daar overigens sceptisch op, waaronder concurrent IBM, die stelde dat de berekening ook in 2,5 dag uitgevoerd zou kunnen worden op een gewone supercomputer.

Nu, in 2024, voerde Google een complexere versie van de RCS-benchmark uit op de Willow-chip. Dat duurde volgens het bedrijf minder dan vijf minuten. De Frontier-supercomputer, die op nummer 2 in de TOP500-lijst staat, zou er tien quadriljoen jaar over doen. Dat is 1025 oftewel 10.000.000.000.000.000.000.000.000 jaar. Google zegt dat die vergelijking met Frontier gebaseerd is op 'conservatieve schattingen', die in het voordeel van Frontier zouden uitvallen. De techgigant heeft bijvoorbeeld geen latency voor secundaire opslagmedia als hdd's meeberekend voor de supercomputer.

Google erkent dat RCS, hoewel het 'de moeilijkste benchmark is die momenteel op een quantumcomputer gedaan kan worden', voor zover bekend geen praktisch nut heeft en dus niet relevant is voor commerciële doeleinden. Het demonstreren van een quantumchip die relevant rekenwerk aanzienlijk sneller dan een klassieke supercomputer kan uitvoeren, is volgens de techgigant de volgende grote uitdaging. Het bedrijf spreekt geen verwachtingen uit voor wanneer dat bereikt moet zijn.

Google Quantum AI RCS en roadmapGoogle Quantum AI RCS en roadmap

Door Daan van Monsjou

Nieuwsredacteur

09-12-2024 • 19:20

84

Submitter: Electron

Lees meer

Reacties (84)

84
84
25
5
0
52
Wijzig sortering
Bij IBM kan je gratis een korte cursus volgen ivm Quantum Computing.
Ook geven zij toegang tot enkele van hun kleine Quantum Computers om testen te draaien en dit dan wel gratis (10min compute time/maand)! Zeker de moeite om eens te proberen.

enkele links:
https://quantum.ibm.com/
https://learning.quantum.ibm.com/
https://cloud.ibm.com/docs/quantum-computing
Ik snap werkelijk geen moer van er allemaal staat, maar de tijdsbesparingen zijn bizar te noemen.

Zeer benieuwd waar de toekomst naar toe gaat met dit soort toepassingen en wat het voor de mensheid kan betekenen.

[Reactie gewijzigd door aschja op 9 december 2024 19:29]

Zoals ik het begrijp gebruikt een quantumcomputer geen bits, maar qubits, die elke waarde tussen 0 en 1 kunnen hebben. De qubits zijn kleine fysieke elementen die alleen maar stabiel zijn in omgevingen waarin niets gebeurt, zoals bij extreem lage temperaturen of in een vacuüm.

In principe heb je maar x qubits nodig voor een bruikbare quantumcomputer. Maar omdat de qubits zo gevoelig zijn voor storingen in de omgeving, introduceren ze fouten. Om die fouten op te lossen gebruikt men meerdere qubits die hetzelfde doen en een foutcorrectie algoritme. Dus heb je in de praktijk veel meer qubits nodig dan op papier.

Maar als je meer qubits plaatst, kunnen er ook meer qubits fout gaan. Dus is het belangrijk om een slimme vorm van foutcorrectie te bedenken, die daarmee overweg kan. Dat is blijkbaar bij Google gelukt.
Qubits kunnen niet elke waarde tussen 0 en 1 aannemen, maar zijn een bepaalde superpositie van zowel 0 als 1 tegelijk. Berekeningen worden dus niet met een specifieke waarde uitgevoerd, maar met beide waarden tegelijk (in verschillende waarschijnlijkheden). Aan het eind van de berekening wordt de waarde van de betreffende qubits “vastgezet” (0 of 1), en wordt de uitkomst bepaald. Die uitkomst is daarmee dus een trekking uit een bepaalde distribution. Door heel vaak dezelfde berekening uit te voeren breng je de distribution in kaart en kun je op die manier de (bij benadering) beste uitkomst vinden, zoals de 2 priemgetallen die samen een bepaald product vormen.
Dankje voor je uitleg, maar bij "bepaalde superpositie" loop ik toch echt muurvast met mijn 40 jaar computer ervaring en basiskennis van elektronica en processoren tot op transistorniveau.
Iemand die zegt dat hij daar niet op vastloopt, is hoogstwaarschijnlijk aan het liegen ;)
Er is een aardige presentatie op youtube (zoek op Quantum Computing for Computer Scientists) waar in 1.5 uur wordt uitlegt hoe een kwantumcomputer werkt. De presentator neemt het simpelste voorbeeld (het Deutsch orakel) en laat zien hoe het quantum algoritme de klassieke computer verslaat (1 berekening in plaats van 2). Aan het einde laat hij zien hoe het algoritme er in Q# uitziet, en draait hij het algoritme op een kwantumcomputer. Die heeft maar enkele qubits, dus die berekening kan je nog makkelijk op je eigen PC simuleren. (Voor Willow machine heb je arrays van 2^105 getallen nodig). Wat niet wordt uitgelegd is hoe een kwantumcomputer daadwerkelijk wordt geïmplementeerd, alleen welke berekeningen hij uitvoert. Ook wordt het gebruik van complexe getallen vermeden, wat het wel minder abstract maakt maar wat af en toe wringt. Ook verstrengeling en kwantumteleportatie komen aan bod.
Sorry, het klinkt gewoon te extreem en echt veel te theoretisch.
Alsof je wil leren schaken en iemand vier boeken van Kasparov begint voor te lezen.
Ik heb andere dingen aan mijn hoofd, kinderen, werk, hypotheek, belastingen en ook nog sociale dingen ;) Wel leuk dat je er toch veel vanaf weet, puur hobby, werk of studie?
Op een goed moment stel je tot je eigen verrassing vast dat de kinderen het huis uit zijn, de hypotheek is afbetaald en dat de belasting een routineklusje is geworden. Dan ga je op zoek naar iets om de grijze massa te blijven stimuleren.
Quantum computing heeft ook weinig met klassieke electronica te maken. Het vergt een begrip van quantum mechanica en dat is maar voor een handvol mensen op aarde weggelegd. Ik heb ooit een cursus quantum mechanica met succes afgerond maar begrijp ik het dan? Nee absoluut niet. Dus bespaar je de moeite en frustratie om dit te leren begrijpen. Het is het gewoon niet waard. Daarnaast is het nog maar de vraag of quantum computing echt voor een doorbraak gaat zorgen. Ten eerste zijn we nog heel ver weg van een werkende quantum computer. Daarnaast zijn er steeds meer soorten berekeningen die bewezen net zo snel afgehandeld kunnen worden door klassieke computers. Het bestaansrecht van de quantum computer wordt dus steeds kleiner. Dit kun je voorlopig nog gewoon scharen in de hoek van de fundamentele natuurkunde. De tijd moet leren of er iets praktisch uitkomt.
Het is lastig om uit te leggen hoe het precies werkt, maar 'vaak proberen en uitmiddelen' is bepaald niet effectief. Daarvoor is elke berekening veel te lastig.

De superpositie klopt. Het idee van waarschijnlijkheid ook. Maar die waarschijnlijkheden komen voor in elke stap. Met een goed quantumalgoritme hebben de goede antwoorden aan het einde een kans groter dan nul, en foute antwoorden precies nul kans.

Zo heeft 21=7×3 precies 50% kans, want 3×7 is ook 50%. Maar 6×3 heeft 0% kans.
Kwantummechanica is bizar: Stuur licht door een tralie en je krijgt een golfpatroon, plaats een detector die kan bepalen door welke opening het licht gaat en je krijgt een lijnenpatroon. Dat golfpatroon kun je zie als een qubit, het lijnenpatroon als een 0 of 1 (het foton heeft de linker- of rechteropening gekozen). Daar is geen zinnige verklaring voor, de kosmos werkt nu eenmaal zo en het is de vraag of we het waarom ooit zullen achterhalen.

Een kwantumcomputer laat zo'n golvenpatroon op een slimme manier naar nullen/enen vervallen op een manier dat er iets mee uitgerekend wordt. En daarmee kan de kosmos zeer veel rekenwerk in een enkele plancktijd voor ons verzetten en kunnen we zeer krachtige computers maken.
Ik dacht dat het verklaard was dat je met een detector dus de fotonen beïnvloedt, waar op zo'n kleine schaal een grote invloed heeft op zo'n experiment.

Maar misschien is dit een theorie die dusver nog niet is bewezen.
Dat is toch het Heisenberg onzekerheidsprincipe?

Ik vind deze zinsnede wel interessant:
Google claimde toen een RCS-benchmark uitgevoerd te hebben in 200 seconden, terwijl een normaal hpc-systeem daar 10.000 jaar over zou doen. Anderen reageerden daar overigens sceptisch op, waaronder concurrent IBM, die stelde dat de berekening ook in 2,5 dag uitgevoerd zou kunnen worden op een gewone supercomputer.
OK, prima punt van IBM dat 10k jaar niet fair is als het in werkelijkheid zo'n 2,5e dag is. Toch is het gat tussen 200s en 2,5 dag wel gigantisch hoor. Dat is ruim 1000 keer zo snel (24*2.5*60*60 = 216k)! Om nog maar niet te beginnen over <5 minuten vs. 10^25 jaar. Dat verschil is niet eens uit te drukken in begrijpelijke cijfers voor de doorsnee mens ;) Dat is een factor 100.000 meer dan het aantal zandkorrels op aarde of 1000x meer dan het aantal sterren in het waarneembare heelal _/-\o_ 8)7

Dat geeft ook wel aan wat voor probleem voor encryptie deze chips eigenlijk gaan vormen, want veel encryptie is er nu op gebaseerd dat de komende x generaties computers onmogelijk in redelijke tijd de ingewikkelde berekening gaan uitvoeren die nodig is om de encryptie te kraken. Als dat nu een veilige 10.000 jaar zou zijn, is dat met zo'n quantumchip wellicht een fractie van een seconde, sneller dan zelf je sterke wachtwoord invoeren 8)7

Maar goed, de benchmark zal zo gekozen zijn dat de quantumcomputer er erg goed in is en de conventionele supercomputer niet, desalniettemin een teken dat ze in specifieke situaties bizar snel zijn.

[Reactie gewijzigd door Grrrrrene op 10 december 2024 08:25]

De detectie doet de golven tot deeltje vervallen, na de detector zijn het dan deeltjes. Dat is evenwel maar een mogelijke interpretatie van kwantummechanica. Er bestaan meerdere interpretaties en de juistheid/onjuistheid van de verschillende interpretaties is onbekend. Er zijn bijvoorbeeld ook experimenten gedaan die aanwijzingen geven voor retrocausaliteit: Het gedrag van het deeltje op een bepaald moment hangt van wat er in de toekomst met een deeltje gebeurt en dat is weer niet te verklaren met de hierboven genoemde eenvoudige "conversie" van golf naar deeltje.
Bedankt voor de info!
Er zijn inderdaad meerdere interpretaties. In de praktijk maakt het niet uit. Alle resterende interpretaties geven dezelfde voorspellingen; andere interpretaties zijn experimenteel uitgesloten.
Hoe weten ze eigenlijk dat je een golfpatroon krijgt als de detector een lijnenpatroon ziet?
edit:
Ik had het verkeerd begrepen. Ik ging er van uit dat @dmantione eenfoton in plaats van licht bedoelde:
Stuur licht een foton door een tralie en je krijgt een golfpatroon, plaats een detector die kan bepalen door welke opening het licht de foton gaat en je krijgt een lijnenpatroon.
Ik dacht: Hoe kan een foton nou een golvenpatroon geven als je dat niet kunt detecteren?

Inmiddels heb ik de uitleg op Youtube bekeken, en bedoelt @dmantione op de eerste plaats inderdaad licht: Meerdere fotonen geven een interferentiepatroon alsof het een golf betreft. Maar op de tweede plek bedoelt @dmantione "één foton" in plaats van "het licht".

Iedereen die het experiment al kent leest vermoedelijk over de fout waar ik op reageer heen, en beoordeelt mijn onbegrip met een 0.

[Reactie gewijzigd door Sando op 10 december 2024 20:19]

Dat was toch de strekking van het double-slitexperiment?

Je plaatst, even lomp gezegd en puur voor zover ik het begrepen heb, 2 kaarten achter elkaar met 'sleuven' erin. Daarachter plaats je een licthgevoelige plaat. Doe je niks, dan zie je een interferentiepatroon ontstaan waardoor je 'weet' dat licht als een golf moet bewegen, vanwege het interferentiepatroon.

Het mooie aan dat experiment is: als je dat herhaalt met individuele fotonen zie je dat interferentiepatroon óók ontstaan. Maar als je vervolgens een detector gaat plaatsen om te zien wat er dan interfereert, zie je ineens dat een foton gewoon de bovenste of de onderste sleuf kiest.

Met andere woorden, zodra je een detector plaatst gaat de fotonen *met zichzelf* interfereren, maar zónder detector is het nog steeds een golfpatroon. Kortom: de waarneming beïnvloed de meting.

[Reactie gewijzigd door DigitalExorcist op 10 december 2024 09:44]

Er zijn ook nog andere varianten van de double-slit: experiment.
Het werkt niet alleen met fotonen, waarbij er telkens maar 1 foton tegelijk wordt afgevuurd door een sterk afgeknepen lazer. Het werkt ook met electronen (b.v. gegenereerd door een CRT buis)

Een electron kan je simpel detecteren met een lichtbron. Je ziet dan een klein lichtflitsje aan de kant waar het electron door de dubbele spleet gaat. Door dit licht vervalt het electron uit superpositie en gevraagd.die zich niet langer als kans-golf maar puur als deeltje.

Er is ook een 'Delayed choice double slit experiment', variant waarbij ze 2 fotons verstrengelen. Als je de polarisatie van het tweede foton pas veel later meet,.dan weet het eerste foton al dat het tweede verstrengelde foton over een bepaalde tijd gemeten gaat worden. Het foton kan dus op deze manier al in de toekomst kijken. Het is alsof het universum al weet wat.je gaat meten, alleen moeten de fotonen nog met de snelheid van het licht eerst hun baan afleggen voordat je het resultaat kan zien.
Die laatste kende ik niet, maar dat is toch bizar eigenlijk...
Het begint er steeds meer op te lijken dat we ons in een simulatie bevinden.
Inmiddels heb ik het experiment op Youtube bekeken en nu snap ik het. Het probleem is dat ik niet reageer op het experiment zelf, maar op de verwarrende beschrijving:
Stuur licht door een tralie en je krijgt een golfpatroon, plaats een detector die kan bepalen door welke opening het licht gaat en je krijgt een lijnenpatroon.
Bij het eerste licht bedoelt OP een heleboel fotonen. Bij het tweede licht bedoelt OP één foton.

[Reactie gewijzigd door Sando op 10 december 2024 20:24]

Een benchmark, die geen praktisch nut heeft, zegt waarschijnlijk ook niet zover over de werkelijk te behalen (vooralsnog theoretische) winst. Dat is wat ik lees. Uit onderzoeksoogpunt ongetwijfeld super interessant en mogelijk ooit belangrijk voor een praktische toepassing. Het kan natuurlijk snel gaan, maar besef dat dit ook een stuk marketing is, wat handig is voor budget.

Ik weet niet wat de ratio veelbelovende ontwikkelingen en uiteindelijk praktische toepassingen is, maar ik gok dat het nog een gaat duren. Wellicht net zoiets als met solid state accu's, waar ook al jaren over gesproken wordt (ook hier op Tweakers). Meestal zullen ontwikkelingen stapsgewijs gaan ipv revolutionair. Al is in de afgelopen 50 jaar de pc, smartphone en snel internet gekomen. Dat is samen toch wellicht revolutie te noemen?
Alleen wacht iedereen op solid state accu's omdat we allemaal voor ons zien waar die goed bruikbaar zijn (hogere capaciteit, en dus minder gewicht, razendsnel laden, mogelijk geen giftige stoffen die kunnen lekken of ontbranden, steviger, geen behuizing nodig zoals nu om allemaal kleine cellen tot één grote accu samen te voegen, langere levensduur, misschien geen zeldzame metalen voor nodig, etc etc).

Op dit moment zijn er weinig praktische problemen waar we echt tegenaan lopen die direct opgelost moeten worden. Het handelsreizigersprobleem dat @BlaDeKke noemt is iets waarmee je reisbewegingen voor transporten kunt optimaliseren en als je in één minuut de best mogelijk planning tevoorschijn kunt toveren en die op elk gewenst moment opnieuw kunt draaien als er bijvoorbeeld een vrachtauto uit valt of een weg is afgesloten dan zal je daar zeker tijd en energie mee kunnen besparen, maar zelfs als het de transportkosten halveert is het nog niet persé baanbrekend.

Ik denk dat je kwantumcomputing meer moet zien als hulpmiddel om dingen te onderzoeken die nu nog niet mogelijk zijn (en waar dus "niemand" aan denkt behalve iemand die in dat vakgebied zit). Als één van de toepassingen over een x-aantal jaar is om voor jou de beste medicijnen met de minste bijwerkingen te bepalen dan kan het al heel veel menselijk leed voorkomen. De stap daarna is het medicijnen op maat maken, maar daarvoor moet je ook weer machines hebben die dit recept exact uit kunnen voeren (plus moeten alle benodigde grondstoffen beschikbaar zijn). Dat is natuurlijk wel de heilige graal, want dat zou betekenen dat mensen mogelijk nooit meer (lang) ziek hoeven te zijn.
Ik weet niet of je wel eens van Shor’s algoritme hebt gehoord, maar reken maar dat alle overheden op de wereld zeer geïnteresseerd zijn in de eerste krachtige quantumcomputer om allerlei bestaande en oude asymmetrische encryptie ongedaan te maken.
Wie sowieso alleen op encryptie heeft vertrouwd de afgelopen tien jaar moet nu al gaan zweten, want ook traditionele (super)computers worden elk jaar beter en (samen met het ontdekken van zwakheden in encryptie algoritmes) komen elk jaar dichter bij het ontcijferen van in het verleden verzonden berichten.
Dat is wel extreem afhankelijk van welke encryptie je dan gebruikt hebt, maar inderdaad ooit in het verre verleden versleutelde dingen zouden wel eens naar boven kunnen komen, met dan wel écht oude algoritmes van een stuk langer dan 10 jaar terug.
Er zijn voorbeelden genoeg van encryptiemethoden die ooit veilig werden geacht en in redelijk korte tijd zijn gebroken. In 1999 werd een 56-bit DES (1977) sleutel binnen 24 uur gekraakt. RC4 (rollende encryptie uit 1994) wordt sinds 2015 als onveilig beschouwd. Dan heb je nog hashfuncties zoals MD5 en SHA-1 die ook allang niet meer gebruikt kunnen worden voor het beoogde doel.

Kortom, misschien zat ik er met mijn 10 jaar zo'n 10 jaar naast, maar ga er dus gerust van uit dat wat je 10 jaar geleden gecodeerd op hebt geslagen, binnen de komende tien jaar weer leesbaar gemaakt kan worden als een overheid denkt dat daar belangrijke informatie uit te halen is.

Met kwantumcomputers zal het waarschijnlijk een stuk sneller kunnen en de kans is dus groot dat dat de eerste use-case wordt zoals @Tintel al aan geeft. Met menselijk leed richtte ik mij inderdaad trouwens op fysieke gezondheid. Als je letterlijk tegen elke ziekte een op maat gemaakt pilletje kunt nemen en de dag erna weer beter bent, dan zijn ziekenhuizen alleen nog nodig om acute verwondingen (botbreuken, snijwonden, bloedingen) te behandelen en te assisteren met geboorten en kan je de meeste afdelingen sluiten. Qua geestelijke gezondheid denk ik dat de leefomstandigheden en behandelmethoden verbeteren dan ook wel snel van de grond komt; er zijn dan immers heel veel zorgprofessionals die ander werk zoeken en waarvan een groot deel daar wellicht interesse in heeft (als AI niet voor die tijd al geschikt gaat zijn ter vervanging van geestelijke hulp).
Maar dat is mijn punt dus, de afgelopen 10 jaar waren we ons al een stuk meer bewust van het feit dat er ten eerste fouten gevonden zouden kunnen worden en ten tweede computers veel sneller zouden zijn. En überhaupt werd encryptie steeds belangrijker. Het is dus echt niet zo dat encryptiemethoden van de afgelopen 10 jaar zo onveilig zijn dat ze misschien wel binnen 100 jaar gekraakt zouden worden, mits er inderdaad geen zware zwakheden gevonden worden. Edit: en ook dat laatste wordt gewoon steeds onwaarschijnlijker gelet op hoe ontzettend belangrijk encryptie nu is voor de maatschappij en de hoeveelheid centen die hier tegenaan worden gegooid, ook tijdens ontwikkeling van moderne standaarden.

[Reactie gewijzigd door Argantonis op 10 december 2024 15:28]

Handelsreizigersprobleem heeft men deels “opgelost” dmv slime molds.

Gesimuleerd
In een labo


En inderdaad, zelfs na al die decennia onderzoek is er nog steeds geen commercieel toepassing gevonden. Het nut ligt inderdaad bij wetenschappelijk onderzoek. Wat helemaal oké is, als ze daarin willen investeren. Ik ben al blij dat ze hier rustig aan blijven sleutelen. Ooit gaat het wel eens van pas komen. ;)

[Reactie gewijzigd door BlaDeKke op 9 december 2024 20:19]

Het probleem zelf is NP-volledig, maar er zijn benaderingen die computers wel in redelijk tijd kunnen voltooien. Het verschil tussen zo'n benadering en perfecte uitkomst is in praktijk zeer klein, dus zal het kunnen genereren van een perfecte oplossing geen grote invloed hebben op de hoeveelheid kilometers die op onze wereld gereden worden.
Volgens mij zeg je hetzelfde. Hoe dan ook, het levert je een +1 op. Dat snap ik dan weer niet, maar goed, zo werkt het bij Tweakers.

De parallel met een solid state accu trok ik expres, want daar is ook al veel over geschreven. Of het publiek voor zo'n accu groter is dan voor quantum computers, kun je pas zeggen of de quantum computer door zal breken met iets waar iedereen gebruik van kan maken. Mijn inschatting is dat er nu nog weinig is te zeggen over de schaal van de praktische bruikbaarheid (bijv. encryptie). Dus of het meer of minder wordt dan bijv. een solid state accu is m.i. op dit moment niet te zeggen c.q. irrelevant.

Wetenschap, om de wetenschap, is prima, zolang niet alle wetenschappers dat willen. Linksom of rechtsom moet er wel (deels) een praktisch nut zijn van wetenschap. Iig: als heel Nederland wetenschapper wordt en daar zijn/haar ding doet, dan hebben we een 'probleempje'' _/-\o_. Of anders: deze vorm van wetenschap kan alleen bestaan als er inkomsten/budgetten zijn.
Niet om jouw voorbeeld minder goed te laten gelden. => cynisme aan :
Maar ik vermoed dat vooral commerciele interessante toepassingen de voorkeur hebben. Veel menselijk leed voorkomen zouden we nu al goed kunnen doen. Daar hebben we geen quantum computer voor nodig...
En verder: menselijk leed gaat (helaas) veel verder dan fysieke problemen en geestelijke welgesteldheid is tegenwoordig een groter probleem (zodra de andere levensbehoeften en fysieke gezondheid wel redelijk zijn).

Ik vermoed dat de meeste interessant toepassingen het decypten van berichten cq. fraude met crypto valuta zal zijn. Dus het doorbreken van encryptie.
De voorspelling is dat ook geestelijk leed enorm verminderd kan worden door behandeling op chemisch/biologisch/dna niveau. En aangezien waarschijnlijk dat hyper-individuele behandelingen gaat vereisen, zouden kwantum computers daar zomaar een belangrijk onderdeel van kunnen gaan vormen.
En als de maatschappij meer en meer richting AI gaat zullen kwantum computing en AI elkaar ook wel gaan versterken.
Start: complexiteitsgraad algoritmes
Voorbeeld van een bekend np compleet probleem:
Handelsreizigersprobleem

Men hoopt dat quantomcomputers onder andere bij deze problemen gaat helpen.

Edit: niet als antwoord gepost.
Die benchmark is een inherent quantum-probleem, dat heel moeilijk te simuleren is op een traditionele computer. Het bewijst dat je daadwerkelijk een quantum-computer hebt, maar verder heb je er niks aan.

Denk aan het volschenken van een kop koffie. Het is praktisch onmogelijk om dat met een traditionele computer te simuleren omdat er een extreem complexe interacties zijn tussen alle moleculen dus je hebt er een fysieke kop voor nodig, maar het kunnen volgschenken van een kop koffie is vrij zinloos als je een computerspel wil renderen.
Daar wil ik even op inhaken. Ik zag laatst deze 2 interessante Nvidia onderzoekspapers uitgelegd:
YouTube: NVIDIA’s AI: Virtual Worlds, Now 10,000x Faster!
En:
YouTube: NVIDIA’s Tech: Impossible Water Physics!

Beiden over simulatie, onmogelijke golven in het water en het losschroeven van een bout vanaf een schroefdraad.
Hah ik dacht exact hetzelfde :)
Ik snapte er ook de ballen van :+
Een normale bit is 1 of 0, een qubit is 1 *en* 0, totdat je gaat kijken wat het is, en dan is het 1 of 0.

Die staat van "superpositie" kan in theorie (en straks ook duidelijk in de praktijk) gebruikt worden om computerberekeningen te doen.

Het probleem is alleen: het is zeer foutgevoelig voor invloeden van buitenaf.

Er moet nu voor elke "nette" qubit meerdere qubits gebruikt worden om fouten te corrigeren. Dat maakt het op dit moment niet zo snel.

Daarin heeft Google nu een doorbraak gemaakt. Het heeft een manier gevonden om makkelijker foutcorrectie toe te passen.

[Reactie gewijzigd door MrFax op 10 december 2024 08:33]

For "humanity": more boredom, less "need", more "WANT", more time to think of how more/quicker we can destroy the environment we NEED for existence, more time to eradicate the Earth's biggest problem: HUMANITY!
Ik ben echt enorm benieuwd naar wat dit brengen gaat voor de toekomst. Het zal waarschijnlijk nog wel 10 a 30 jaar duren voordat we hier iets van terug gaan zien op de consumenten markt, maar ben benieuwd of we een dergelijke oplossing gaan zien zoals we de laatste jaren zien rondom de NPU's; een systeem met CPU, NPU en een "kleine" QPU, allemaal voor een eigen gespeciliseerd doel. Uiteraard zullen daar nog gigantische stappen voor gezet moeten worden om te zorgen dat deze systemen op kamertemperatuur kunnen draaien.

Wordt een gigantisch mooi hoofdstuk vol met uitdagingen rondom cyber security, cryptography, game physicis, wetenschappelijke berekeningen, etc.
Van een presentatie bij Accenture met NIST data is de algehele consensus dat vanaf 2035 quantum computing instaat kan zijn om de huidige encryptie te breken. Tegen 2042 schat NIST de kans op 85% dat quantum huidige encryptie kan breken en beveelt al aan om onderzoek te doen naar en over te stappen op FIPS 203. Wordt vast een leuk project om tegen die tijd alles om te zetten.

nist publishes timeline for quantum resistant cryptography but enterprises must move faster.
En ik lees net dat er een verwachting is dat state actors huidige encryptie kunnen breken met quantum vanaf 2028.
Als die voorspellingen al uitkomen dan is niet alle encryptie kwetsbaar, lees ik.
Public-private key constructies zijn kwetsbaar, maar shared key of gezouten hashes niet. Wel vervelend dat private-public key constructies heel erg veel gebruikt worden, maar nuance telt.

Alles in theorie natuurlijk, want de machines die dat kunnen staan nog niet eens op de tekentafel.

[Reactie gewijzigd door TheekAzzaBreek op 10 december 2024 01:15]

Het probleem met shared keys is natuurlijk dat je die keys allebei al moet kennen, met andere woorden compleet onbruikbaar voor veilige communicatie op internet zoals bijv. de https site van je bank. Daarom zijn ze al een hele tijd bezig om quantumresistente encryptiealgoritmes te maken.
Ligt eraan wat je verstaat onder 'huidige encryptie'. Als je zegt in 2028 kun je als state actor TLS 1.3 breken als volgt:
TLS_AES_256_GCM_SHA384
TLS_CHACHA20_POLY1305_SHA256
, dan laat ik me toch eerst even overtuigen door bewijs in plaats van bangmakerij. Men krijgt het nog niet voor elkaar om 256 qubits coherent te krijgen, laat staan berekeningen met enige nauwkeurigheid, laat staan het aantal berekeningen dat nodig is voor zo een aanval.

Praktisch mathematisch bezien is met zulke algoritmes het mogelijk om de encryptie te breken in de wortel van de huidige tijd. Ofwel AES-128 sterkte blijft over van AES-256 op een quantum computer. De vraag is dan toch even, waar komen deze claims vandaan. Is er nieuwe wiskunde uitgevonden, of worden hier theoretische verhoudingen van hoe slecht zo een Random Circuit Sampling (RCS) draait op een klassieke computer als verhoudingsfactor losgelaten op een encryptiealgoritme dat toch heel anders in elkaar steekt van binnen?

Zie voor meer uitleg bijvoorbeeld ook:
https://crypto.stackexcha...256-gcm-instead-of-sha256

128 bits is nog altijd gemiddeld 127 bits aan zoekruimte door voor je een oplossing vindt. Echter 2 ^127 cryptografische operaties dan zou je zelfs met een quantumcomputer op een gigahertz nog altijd 2^97 seconden moeten breken. En zelfs al zou je nog weer later zo een computer kunnen opbouwen met quantum accellerator kaarten van bijvoorbeeld 16.384 cores zoals sommige videokaarten nu, dan heb je nog altijd 2^83 seconden nodig. En stel dat je ook nog eens een heel datacenter vol stampt met die super quantum accelerator kaarten van in totaal een miljoen exemplaren, dan heb je nog altijd 2^63 seconden nodig om dit te kraken gemiddeld. Probleem is dat 2^63 seconden zich laat vertalen naar 292 miljard jaar. Dus zelfs als ik me ergens een factor duizend vergist heb, en betere wiskunde het probleem nog eens duizend keer sneller oplosbaar maakt, dan ben je nog altijd niet klaar voordat iedereen die nu leeft er al lang niet meer is.

[Reactie gewijzigd door OruBLMsFrl op 10 december 2024 19:14]

53 naar 102 qbits. Dat zijn geen bekende veelvouden. Hoe werkt dat in deze tak van sport?
Zijn de aantallen arbitrair, of zit er een logica anders dan het binaire stelsel?
Kijkens naar het plaatje zit er wel een raar soort patroon in hoe de qubits gerangschikt zijn.
Waarom? Dat is een betere vraag ja :P
Misschien zijn er wel 64 of 128 qbits aanwezig maar zijn er een aantal defect
Kan het 1 van deze wiskundige problemen oplossen?

1. Riemann-hypothese: Dit probleem gaat over de verdeling van priemgetallen.
2. P versus NP-probleem: Dit onderzoekt of problemen die snel gecontroleerd kunnen worden ook snel opgelost kunnen worden.
3. Navier-Stokes-existentie en gladheid: Dit probleem betreft de oplossingen van de Navier-Stokes-vergelijkingen die vloeistofstromen beschrijven.
4. Birch en Swinnerton-Dyer-vermoeden: Dit gaat over de rang van elliptische krommen.
5. Hodge-vermoeden: Dit probleem betreft de algebraïsche cyclus in de cohomologie van een niet-singuliere projectieve algebraïsche variëteit.
6. Yang-Mills-existentie en massa-kloof: Dit probleem komt uit de theoretische natuurkunde en gaat over kwantumveldentheorie.
7. ABC-vermoeden: Dit vermoeden verbindt de priemfactoren van drie gehele getallen die aan een bepaalde vergelijking voldoen.
8. Goldbach-vermoeden: Dit stelt dat elk even getal groter dan 2 kan worden geschreven als de som van twee priemgetallen.
9. Collatz-vermoeden: Dit eenvoudige probleem betreft een iteratieve reeks en de vraag of deze altijd eindigt in 1.
10. Priemtweeling-vermoeden: Dit vermoeden stelt dat er oneindig veel paren van priemgetallen zijn die slechts twee eenheden van elkaar verschillen.

[Reactie gewijzigd door Jaapvaak op 10 december 2024 11:06]

Wat heeft Renault hier echter mee te maken?
Dus Bitcoin berekeningen/mining zullen in een paar seconden opgelost zijn, dus niks meer waard of net enorm veel waard daar ze er geen meer kunnen minen... ;)
Niet elk type berekening heeft baat bij een quantumcomputer (sterker nog, volgens mij zijn er maar weinig dingen waar een quantumcomputer echt veel sneller in is). Kan zomaar eens zijn dat quantumcomputers helemaal niet zo'n voordeel opleveren bij Bitcoin mining.
Hoewel anderen al gereageerd hebben dat quantum computing niet overal geschikt voor is (wat op zichzelf absoluut waar is), geeft een snelle google search mij de indruk dat bitcoin voor een aantal aspecten leunt op asymmetrische encryptie en laat nou net dat type encryptie bij uitstek niet quantum safe zijn.
Als ik het goed begrijp is het minen van (bit)coins zelf wél quantum safe, maar zal een miner die een (bit)coin gevonden heeft dat moeten vastleggen op de blockchain en bij dat proces wordt gebruik gemaakt van asymmetrische encryptie, waar dus quantum kwetsbaarheid om de hoek komt kijken.

Overigens in de situatie die jij schetst (waarin bitcoin mining niet quantum safe is), zal het echte probleem niet eens zozeer zijn dat alle remaining bitcoin in een paar seconden gevonden zijn. Het echte probleem is dat de hele blockchain in één klap niet meer decentraal is (en dus zijn grote kracht kwijt is) omdat praktisch 100% van alle rekenkracht in handen is van die ene quantum miner. Die kan daarna naar hartenlust de blockchain aan gaan passen zodat álle bitcoins in zijn bezit zijn. Overigens zou deze aanpak niet zo zinvol voor de aanvaller zelf zijn, omdat dan bitcoin van het ene op het andere moment niks meer waard zal zijn. Zit je dan met je 21 miljoen bitcoins...

[Reactie gewijzigd door Snorro op 10 december 2024 14:01]

Klopt niet helemaal wat je zegt over Bitcoin mining: wanneer je het voordeel hebt de snelste te zijn met mining, kun je veel geld verdienen door steeds het volgende block te minen, dat levert namelijk stukjes nieuwe bitcoin op. Maar je kunt niet opeens alle bitcoin gaan stelen uit andere wallets. Als je een heel slim en snel systeem hebt kun je misschien transacties die op dat moment gedaan worden manipuleren in jouw voordeel. Ook wel heel ernstig maar een heel stuk minder ingrijpend dan het stelen van alle bitcoin..
Ik heb er even wat specifieker op doorgezocht en inderdaad, gevalletje klok-klepel. Ik had (foutief) begrepen dat bij een majority (of 51%) attack, de sterkste miner met terugwerkende kracht de blockchain (en dus transacties) kon herschrijven. Maar als ik het (hopelijk nu dan wel) goed begrijp kan de aanvaller in zo'n situatie 'slechts' nog niet gevalideerde / recente wijzigingen/toevoegingen op de blockchain herschrijven/overrulen?
Inderdaad beperkt manipuleren van transacties die op dat moment in de wachtrij staan. Je kunt dan bepalen welke transacties voorrang krijgen, bepaalde transacties weigeren, daarmee de volgorde bepalen van transacties en zelfs in theorie bitcoins dubbel uitgeven - double spending.
Feit is dat quantum-supremacy nog niet wetenschappelijk is aangetoond. Er is voor zover ik weet ook geen openbaar inzichtelijk elementair concept van een qubit.Bij simulatie in normale hardware worden er constanten ingevoerd om gewenst gedrag te veroorzaken.
is quantum-supremacy niet juist aangetoond hiermee?
Het wordt alleen maar beweerd. Maar, aangezien een qubit blijkbaar op een chip zit en aan I/O doet, hoeveel draden zitten eraan? En wat kom je tegen als je die volgt? O-)

[Reactie gewijzigd door blorf op 10 december 2024 10:43]

De berekening voor het vinden van het volgende block (mining) wordt zo bepaalt dat dit gemiddeld 10 minuten duurt. Het groeit mee met de rekenkracht van de computers. Wanneer er opeens een quantum computer mee gaat doen die deze berekening in enkele seconden kan doen dan kun je daar (tijdelijk) heel rijk mee worden. Je outperformed namelijk de rest van de concurrerende systemen die er veel langer over doen. Maar het bitcoin mining algoritme past zich aan. Elke 2 weken wordt de moeilijkheidsgraad bepaald a.d.v. het gemiddelde en zal deze moeilijkheid dus omhoog schieten. Vanaf dat moment zal het quantum systeem er ook weer 10 minuten over doen voor het vinden van het volgende block.
Elke 2 weken wordt de moeilijkheidsgraad bepaald a.d.v. het gemiddelde en zal deze moeilijkheid dus omhoog schieten
Hypothetisch gezien (want volgens mij is het mining algoritme zelf quantum safe) : Als een quantum computer echt zoveel ordes als in het artikel genoemd sneller zou kunnen minen dan klassieke computers, zouden alle resterende bitcoin niet al gemined zijn voordat de 2-wekelijkse bijstelling van de moeilijkheidsgraad plaatsvindt?
Even hypothetisch gezien (en ik heb het niet nagerekend) wanneer je een super snelle quantum machine hebt die in enkele milliseconden het volgende block kan minen, dan zou het kunnen dat je binnen die 2 weken alle nog resterende bitcoin kunt minen :9

Correctie: (in deed het even uit mijn hoofd) de moeilijkheidsgraad wordt niet elke 14 dagen aangepast maar elke 2016 blocken. Dat is ook slimmer en daarmee vliegt bovenstaande theorie dus direct de prullenbak in ;)
Je kunt dus maximaal 2016 blokken super snel minen en dan niet meer, dan duurt het gewoon weer 10 minuten..

[Reactie gewijzigd door nout77 op 10 december 2024 18:44]

Hey is niet 2 weken, het is 2016 blokken, wat bij een normale snelheid 2 weken is. Als je dus binnen een paar seconden 2016 blokken minet, dan wordt wordt de difficulty daarna zo aangepast dat je met diezelfde rekenkracht 2 weken gaat doen over de volgende 2016 blokken.
Maar even wachten tot Sabine Hossenfelder het uitlegt, dan snap ik het misschien een beetje. 8)7
Sabine zegt vaak dat ze geen antwoord op 'de' vraag heeft die ze behandelt. Dat wordt gewaardeerd in de reacties.
Dit had een reactie moeten zijn op aschja.

[Reactie gewijzigd door BlaDeKke op 9 december 2024 19:40]

Is 35 nog steeds het grootste getal dat ze kunnen ontbinden in priemgetallen ?
Ja, hoe presteert dit op Shor's algorithm?
Wikipedia: Shor's algorithm

Op dit item kan niet meer gereageerd worden.