Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 93 reacties

IBM heeft zijn 'Q'-programma aangekondigd. Daarin wil het binnen enkele jaren quantumcomputers met vijftig qubits bouwen, die commercieel beschikbaar zijn via zijn IBM Cloud. Daarnaast breidt het zijn huidige quantumcomputer uit met een nieuwe api.

IBM schrijft dat de computers problemen moeten oplossen die niet met klassieke systemen aan te pakken zijn, bijvoorbeeld op het gebied van quantum states in een molecuul. Het bedrijf wil daarom het aantal qubits naar vijftig verhogen. Deze 'universele quantumcomputer' ontwikkelt IBM onder andere samen met Samsung, Canon en Honda. Toegang tot het systeem moet in eerste instantie mogelijk zijn voor een aantal partners voor een onbekende prijs.

In een tweede aankondiging schrijft het bedrijf dat het een nieuwe api heeft ontwikkeld voor zijn zogenaamde Quantum Experience. Dit systeem werd in 2016 geïntroduceerd en stelt gebruikers in staat om via internet op hun pc of mobiele apparaat algoritmes te draaien op de quantumprocessor van vijf qubits. Deze dienst is inmiddels door 40.000 gebruikers ingezet om in totaal 275.000 experimenten uit te voeren, deelt IBM mee. De nieuwe api laat gebruikers operaties in batches uitvoeren en staat het gebruik van de Python-taal toe.

Het bedrijf stelt naast de api een sdk beschikbaar, die in de eerste helft van dit jaar moet uitkomen. Daarmee kunnen gebruikers verschillende applicaties bouwen. Hoewel het huidige systeem gebruikmaakt van vijf qubits, heeft IBM een simulator ontwikkeld waarmee tot twintig qubits gesimuleerd kunnen worden. Het doel daarvan is om alvast mogelijke toepassingen te bedenken.

IBM QLab      IBM's QLab in het T.J. Watson Research Center, New York

Moderatie-faq Wijzig weergave

Reacties (93)

Leuke ontwikkeling. Zou iemand kunnen verduidelijken wat voor soort quantumcomputer dit is? Ik heb namelijk altijd gehoord dat quantumcomputers nog niet bestaan. Zouden deze qubits ook ingezet kunnen worden om encryptie en/of hashes te breken?
Alvast bedankt :)
Dit is een quantum computer gebaseerd op supergeleidende qubits. Deze bestaan al enkele jaren, maar hebben minder dan 10 qubits en kunnen dus nog niet op tegen normale computers. Met 50 qubits kan je nog geen encryptie breken, maar al wel berekeningen doen die je anders op een grote supercomputer zou moeten doen. Het gaat hier dan voornamelijk over het simuleren van moleculen, maar er zijn ook toepassingen in machine learning.
Quantum computers zijn een uitbreiding op een normale computer en dus kan je de twee niet met elkaar vergelijken maar het klopt wel dat je met 50 Qubits geen potten gaat breken.

Een Quantumbit of Qubit kan zowel 1 en 0 zijn. Dat in tegenstelling tot een traditionele computer die in zijn geheugen ofwel 1 (2volt) ofwel 0. (0 volt) heeft staan. Een Qubit is specialer kan Zowel 1 als 0 zijn ophetzelfde moment. Mits extreme koeling tot het absolute nulpunt (zodat atomen niet meer bewegen en Qubits handelbaarder worden) kunnen we gebruiken maken van de uitzonderlijke eigenschappen van Qubits. (superpositie, entanglement)

edit: (Het klopt dat Tom-z dat ik in de volgende paragraaf bewust (anders te lange post) kort door de bocht ga door te zeggen dat 10qubits 1024 nummers bevat. Maar het toont wel aan dat Quantum bits exponentieel aan rekenkracht toenemen en het zet tegelijk een Qubit in perspectief. Ook al is een vergelijk met een gewone computer niet helemaal mogelijk. De theorie is echter zo complex dat je dat hier niet kan uitleggen)

10 Qubits bevatten: 1024 nummers
11 Qubits bevatten:2048 nummers
100 Qubits bevatten: 1 267 650 600 228 229 401 496 703 205 375
1000 Qubits = Meer dan er atomen zijn in heel het heelal.

De moeilijkheid zit hem in het stabiel houden van een Qubit. Zelfs de kleinste temeratuurschommeling, magnetische straling of foton kan de Qubit verstoren. Alle research gaat daar naartoe. Zelfs als is een Quantum computer sneller en efficiënter hij is nog niet betrouwbaar genoeg en ook de koeling kost je energie.

Een andere moeilijkheid is het laten samenwerken van Qubits units. 10 computers van 10 Qubits die amper samenwerken kunnen maar 10.240 nummers opslaan terwijl 10x10= 100 Qubits die wel samenwerken 1 267 650 600 228 229 401 496 703 205 375 nummers kunnen opslaan. Het is niet omdat ze samen op een chip staan dat ze effectief met elkaar gekoppeld zijn. (zie afbeelding van een 5-Qubit gekoppelde printplaat)

Als de betrouwbaarheid en koppelingen een feit zijn zullen Quantum computers niet direct onze gewone CPU's vervangen maar ze wel helpen door het weer te voorspellen of complexe berekeningen te maken in de cloud (stemherkenning, weermodellen, AI modellen, logistieke modellen...)

Raar maar waar beweert Google dat de D-wave 2000 Qubit computers nu al 100 miljoen x sneller zijn een gewone thuiscomputer.
http://www.techtimes.com/...regular-computer-chip.htm

[Reactie gewijzigd door Coolstart op 7 maart 2017 09:22]

Een qubit is niet "zowel 1 als 0". Het is erg misleidend om te zeggen dat x cubits 2x "nummers kunnen opslaan", want dat kunnen ze helemaal niet! Je kan de informatie die in qubits zit, namelijk niet uitlezen. Je kan wél een stukje ervan te zien krijgen, maar daarna zijn je qubits weg. Als je mij een flash-drive met daarop 10 qubits geeft, kan ik de informatie die er in staat nooit terughalen dus in die zin is het geen "opslaan".

.oisyn legt het veel correcter uit: een qubit zit in een superpositie tussen 0 en 1, wat wil zeggen dat hij met een bepaalde kans 0 is en met een andere kans 1. Als je een qubit "uitleest" dan vernietig je de informatie die hij opslaat, en zie je alleen maar 0 of 1. Het wordt pas leuk als je meerdere qubits hebt. Met bepaalde operaties kun je de kansen (van het 0 of 1 zijn) van verschillende qubits, van elkaar afhankelijk maken (bijvoorbeeld als je leest dat qubit A een 0 is, dan wordt de kans dat qubit B 1 is groter). Je krijgt dan een kansverdeling over alle 2x mogelijke observaties (als je alle qubits tegelijk uitleest) - in een zekere zin zijn dit de 2x "nummers" die jij bedoelt (een kansverdeling geeft voor iedere mogelijke observatie de kans daarop) maar je kan die nummers niet individueel uitlezen.

Voor het doen van een quantum-berekening, moet je een serie operaties bedenken die uit eenvoudige bouwstenen, een "interessante" kansverdeling berekenen. Door dan het experiment heel vaak te herhalen (een steeds opnieuw de berekening te doen, en de qubits uit te lezen) kun je iets te weten komen over de kansverdeling.

De rekenkracht van een qantumcomputer zit er dus in dat je berekeningen met kansverdelingen snel kan doen, maar wordt beperkt door het feit dat je zo'n kansverdeling maar heel moeilijk kan uitlezen (en door het feit dat je de kansverdeling moet kunnen opbouwen met bepaalde operaties).

Dit is voor problemen die je op deze manier (met kansverdelingen) kan formuleren heel nuttig, maar het is onzinnig om een qantumcomputer met een thuiscomputer te vergelijken: een qantumcomputer doet gewoon heel andere dingen dan een normale PC. Het is net zoiets als zeggen dat de grafische kaart 100x sneller is dan de CPU. In zekere zin is het waar, maar toch zit er in iedere computer nog steeds een CPU, omdat die dingen kan die de GPU niet (even snel) kan. Die vergelijking van "100 miljoen keer sneller" zou ik dus met een korreltje zout nemen.
Betrouwbaarheid is niet zo belangrijk meer als je de berekening gewoon meerdere keren uitvoert, als er dan telkens een ander antwoord uitkomt kun je daarmee waarschijnlijk nog steeds 't juiste antwoord bepalen door de data te combineren
Error correctie gebeurt op bitniveau. Gewone computers hebben ook last van bitflips in hun ramgeheugen. Dat kan zijn door een fout in het geheugen of door cosmische straling. (Zonnewind). Daarom is er ECC geheugen uitgevonden die fouten op bitniveau kan corigeren.

Voor gewone computers hebben we al allerlei methoden uitgevonden om op cpu/ram niveau datacorruptie tegen te gaan. Bij Quantum computers moeten we dat nog ontdekken.

Qubits kunnen elkaar storen. Het is zelfs zo dat Qubits gestoord kunnen worden als de geleider een 90graden bocht maakt.

[Reactie gewijzigd door Coolstart op 7 maart 2017 07:41]

Is zoiets niet in een cluster te plaatsen met meerdere machines dan, waardoor je rekenkracht toeneemt. Of zeg ik nu iets doms :?
Het spijt me maar er is niemand die weet hoeveel atomen er zijn in het heelal. We kunnen het ook niet bij benadering schatten , omdat we niet eens bij benadering kunnen schatten hoe groot het is.
De zogenaamde scan van de "achtergrondstraling" bewijst niets. Dat is maar theorie dat dat van de oerknal zou zijn. Veel waarschijnlijker is dat gewoon de grens van waarneming.
Tussen de 10^88 en 10^90. Het wordt bepaald door de invloed van de zwaartekracht op de kromming van de ruimte die we kunnen waarnemen.

Als je het beter weet graag even een paper schrijven.
Je begaat hier echter een veelgemaakte fout. Je hebt het over het observeerbare universum. We weten niet hoe groot het complete universum is, dat zelfs wel eens oneindig zou kunnen zijn.

[Reactie gewijzigd door .oisyn op 6 maart 2017 21:49]

Echter als we het hebben over 'het universum' hebben we het impliciet over het observeerbare universum. Zelfs veel natuurkundigen gebruiken die term losjes omdat het zo weinig zin heeft te praten over zaken die we nooit zullen kunnen waarnemen.
Echter als we het hebben over 'het universum' hebben we het impliciet over het observeerbare universum
Nee hoor, die distinctie is heel belangrijk. Het observeerbare universum is eindig en heeft een rand. Die twee eigenschappen zijn niet bekend voor het complete universum, maar het is weldegelijk iets dat we kunnen meten, zonder het te kunnen zien.
Gezien het feit dat we niet eens weten of het totale universum eindig is is de vraag hoeveel atomen het bevat een beetje onzinnig. Daarom is impliciet duidelijk dat het over het observeerbare universum gaat.
Geloof toch niet alles wat je leest !
Te beginnen met jouw posts? ;)

Kosmische achtergrondstraling vormt nou juist een behoorlijk bewijs voor de gemiddelde energiedichtheid van het universum. Er is ontzettend veel data die actuele theorieën ondersteunen. Het zijn niet gewoon maar wat verzinsels van mensen die zogenaamd slim claimen te zijn. Het staat je vrij de data danwel de conclusies in twijfel te trekken - graag zelfs. Maar doe dat op een wetenschappelijke manier, met eigen experimenten en fatsoenlijke onderbouwing. Met onderbuikgevoelens kom je er niet.

[Reactie gewijzigd door .oisyn op 7 maart 2017 09:56]

Dat is maar theorie dat dat van de oerknal zou zijn. Veel waarschijnlijker is dat gewoon de grens van waarneming.
Ik denk dat je je toch iets meer moet inlezen. De gemeten kosmische achtergrondstraling past namelijk precies bij een eerder gemaakte voorspeling. Als de dichtheid van het universum eerst veel hoger lag (wat je kunt extrapoleren aan de hand van de uitdijing, wat weer gebaseerd is op de snelheid waarmee andere sterrenstelsels van ons vandaan bewegen), dan was er een periode waarin de druk zo groot was dat alle aanwezige deeltjes een plasma vormden - protonen bonden niet aan electronen. En dat is een toestand waardoor fotonen niet vrij kunnen bewegen. Bij het afkoelen vormden er waterstofatomen, en vanaf dat moment hadden fotonen ineens vrij spel.

Als dat gebeurd is in het verleden, dan moeten die fotonen vandaag nog steeds te meten zijn, met een bepaalde temperatuur. En waarempel, die fotonen werden ook gemeten, met een temperatuur die voldoet aan de voorspelling.

En nu mag jij uitleggen waarom er fotonen afkomen van "de grens van de waarneming".
Je kunt wel degelijk een goede afschatting maken:
Je berekent de massa van de zon te door de baan van de aarde, je bepaalt de samenstelling van de zon uit het spectrum (voornamelijk waterstof en helium), dus kun je berekenen uit hoeveel atomen de zon bestaat.
Je weet door de beweging van de melkweg uit hoeveel sterren de melkweg bestaat, je weet uit waarnemingen hoeveel melkwegen er zijn in het zichtbare heelal, dus kun je afschatten hoeveel atomen er in het zichtbare heelal zitten.Dan moet je ook nog de atomen in gas en stofnevels meenemen, die kun je afschatten door de interstellaire absorptie te bepalen.etc.

De aanwijzing dat er een oerknal is geweest, staan als een paal boven water::
1) alle melkwegstelsels bewegen van elkaar af, als je gaat terugrekenen, is er een punt geweest ongeveer 13,7 miljard jaar geleden dat alle materie op één punt heeft gezeten.
2) de straling afkomstig van de oerknal is door de uitdijing afgekoeld en wordt nu ontvangen als de 3 graden achtergrondstraling.Deze afkoeling komt precies overeen met het big bang model dat men uit waarneming 1 had opgesteld.men had deze straling al gemeten voor dit bekend was, dus onafhankelijk.

Dat is geen "zogenaamde" scan, maar gemaakt door meerdere onafhankelijke satelieten, waarvan de Planck http://www.esa.int/Our_Activities/Space_Science/Planck een Europese sateliet was wiens missie voornamelijk bestond uit het in kaart brengen van de fluctuaties in de kosmische achtergrondstraling.Dat kun je afdoen als nep, maar ik verzeker je dat men niet bijna 1 miljard euro uitgeeft om jou van een stel leugens en een verzonnen plaatje te voorzien.Veel wetenschappers zijn hier hun hele carriere mee bezig, ik vind het heel treurig dat hun werk op deze manier wordt weggezet.

[Reactie gewijzigd door blobber op 7 maart 2017 00:02]

Je vergeet alleen even dat onze melkweg waar ook onze zon in bevind ook onder invloed is van de zwaartekracht van andere melkwegen en onder invloed van eventuele supernova's. Wie zegt dat deze er niet waren in het verleden?
Een melkweg bestaat uit meer dan 100 miljard sterren een supernova is een ontplofte ster.De melkweg wordt niet merkbaar gewijzigd door al deze supernovae.Onze melkweg bevindt zich inderdaad in een groep van melkwegen die elkaar aantrekken en zelfs naar elkaar toebewegen, maar op kosmische schaal is er een duidelijke expansie van al die miljarden melkwegen.Zie het als krioelende mieren die op een ballon lopen die opgeblazen wordt.De gemiddelde ruimte tussen die mieren wordt groter terwijl er best mieren zijn die naar elkaar toelopen.
Volgens die "map" van achtergrondstraling , die ik ook heb gezien ,was het een bol , met ons in het centrum. Dat dat achtergrondstraling van de rand van het heelal zou zijn is dus hoogstwaarschijnlijk lulkoek. Anders zou NASA nu trots aan iedereen vertellen dat de Aarde het centrum van het heelal is. Bewezen.
Maar dat komt een hoop lui , die liever willen dat jij gelooft dat je een onbeduidens stipje bent in een miljarden lichtjaren universum , met nog een miljard keer zo veel sterren en planeetjes , niet zo goed uit.
Het grootste deel van de "astronomische kennis" is puur speculatief. Een bouwsel van theorieen. NASA bedriegt en beliegt.
Ik verzeker jou dat "men" aan de lopende band miljarden uitgeeft aan leugens , laster en propaganda. Ieder jaar.
Veel wetenschappers zijn zich niet eens bewust van dat bedrog. Ik vind het ook treurig dat hun werk vaak word misbruikt , en dat het vaak op andere leugens gebaseerd is. Maar dat is wel de praktijk.
Het ging eigenlijk over Quantum processors.
Als je een troll bent, ok. Weinig humor in je post, maar ok. Als je geen troll bent, moet je toch echt bij jezelf nagaan hoe het zou kunnen dat mensen op dit idee komen bij het lezen van je posts.
De wetenschap doorgrondt nog vrijwel niets
En dat vertel je serieus typend op een apparaat dat geheel uit wetenschap bestaat, waar heb je het over?
De wetenschap is wel degelijk aan grote uitvindingen gekomen de laatste tijd.
Denk aan smartphone smart tv , 4k led tv,s en auto,s die op zonne-energie rijden.Vroeger had je een gsm en ook daarvan was het internet nog niet aanwezig,tegenwoordig hebben ze met die nieuwere smartphone mooi doorontwikkeld en worden elk jaar overnieuw ontdekkingen gedaan voor het menselijk leven zo aangenaam mogelijk te maken.
Bijna alle tv uitzendingen zijn digitaal jouw favoriete tv serie staat nu gewoon op een server klaar om uitgezonde te worden.
Je denkt er misschien niet bij na en sta je er dagelijks er niet bij stil.
Maar er zijn wel degelijke technische vooruit sprongen gemaak.
En heel erg veel geautomatiseerd op computer gebied.
Volgens mij begrijp je niet wat ik bedoel, ik zeg eigenlijk precies hetzelfde :)
Nou en? Von Braun mag dan een Nazi geweest zijn, maar z'n raketten vlogen wel. Techniek trekt zich niks aan van de politieke opvattingen van de bouwers: het werkt ofhet werkt niet.
Eindelijk een waardevolle reactie.
Von Braun werkte eerst voor de Nazi's. Daarna voor NASA.
Net als veel andere top Nazi's. Zijn raketten vlogen wel ja , in eerste instantie voor Hitler. Maar goed. Het is precies zoals je zegt , techniek trekt zich niets aan van politieke "opvattingen" en leent zich evenzeer voor bedrog als voor het laten zien van de waarheid....
Nee, encryptie is wel veilig voor deze computers, zeker de moderne lineaire encryptie varianten.
Alle encryptie varianten die gebruik maken van factoring (om precies te zijn hidden subgroups) kunnen enorm snel worden gekraakt met quantum processoren, omdat deze processoren bijzonder snel zijn in factoring.

RSA en alle bekende public key systemen zijn dan ook kwetsbaar.

Het is dan ook niet verwonderlijk dat onder andere de NSA een gigantische hoeveelheid geld heeft geinvesteerd in onderzoek naar quantum technologie, zowel aan de encryptie als decryptie kant..

Er wordt inmiddels dan ook flink wat tijd en effort gestoken in "post quantum cryptografie". Enerzijds wordt hierbij gekeken naar het bestrijden van quantum decryptie met quantum encryptie (immers kun je door snellere quantum processoren ook complexere wiskundige problemen laten uitrekenen) -- feitelijk een soort van "rat race", de snelste wint. Aan de andere kant is men aan het kijken naar complexe wiskundige problemen die geen gebruik maken van factoring, maar wel door gangbare computers kunnen worden uitgevoerd, bijvoorbeeld het oplossen van polynomials met meerdere variabelen.
Practical quantum computation doesn't mean the end of cryptography. There are lesser-known public-key algorithms such as McEliece and lattice-based algorithms that, while less efficient than the ones we use, are currently secure against a quantum computer. And quantum computation only speeds up a brute-force keysearch by a factor of a square root, so any symmetric algorithm can be made secure against a quantum computer by doubling the key length.

- Bruce Schneier
Een lattice-based algoritme is inderdaad een ander goed voorbeeld, omdat ook deze niet gebruikt maakt van factoring. Ik schreef hierboven dan ook expliciet bekende public key systemen, juist vanwege factoring.
Maar ook bij de bekende public key systemen verdubbel je dus gewoon de bit length van de key, dat is echt totaal geen probleem. Als 2048 bit keys nu onkraakbaar zijn, dan werk je vanaf nu met 4096 bit keys wat nagenoeg geen verschil maakt en is het voor quantum computers in de toekomst ook onkraakbaar.
Nee, het hele probleem is dat dat dus niet kan voor de public key crypto die nu wordt gebruikt, want Shor's algorithm breekt RSA en DL. Je wil cryptosystemen die efficient zijn om te gebruiken en moeilijk om te breken, maar Shor's algorithm is asymptotisch zo goed dat crypto gebaseerd op RSA of DL niet meer efficient en veilig kan zijn.

Deze quantumcomputer is vast nog niet sterk genoeg om de crypto van nu te breken, maar het punt is dat het er erg op lijkt dat er wel groot genoege quantumcomputers gaan komen en er op den duur dus vervangende public key crypto moet komen.

[Reactie gewijzigd door Manu_ op 6 maart 2017 16:04]

Gebruik je toch gewoon een ander crypto algoritme die wel hiertegen bestand is. Die bestaan tenslotte ook. Zijn misschien niet even snel/efficiënt.
Hoeveel qubits zijn er eigenlijk nodig om de huidige hackbare encrytie te kraken?

[Reactie gewijzigd door Mr.Nonflex op 6 maart 2017 22:01]

Quantumcomputers bestaan al even hoor, je hoort er alleen niet veel over omdat het enkel geschikt is om zeer specifieke taken uit te voeren. Het is nog niet mogelijk om encryptie terug te draaien of andere gevaarlijke zaken (en volgens mij was berekend dat dit ook niet mogelijk is bij moderne encryptietechnieken, misschien vergis ik hierin). Google gebruikt bijvoorbeeld al een Quantumcomputer voor een specifieke zaak (iets met een watermolecuul dacht ik).

EDIT: Om dan nog even antwoord te geven op je vraag, deze computer kan worden ingezet voor geavanceerde patroonherkenning en voorspellingen.

[Reactie gewijzigd door ultimate-tester op 6 maart 2017 13:55]

Hier kun je er meer over lezen. En je kunt algoritmes draaien op de quantumcomputer die IBM beschikbaar heeft via de cloud.
https://www.research.ibm.com/ibm-q/qx/
Waarom vind je het leuk?
Loopt IBM dan echt zo ver achter op D-wave met hun 2000qbit "computer"?
https://www.dwavesys.com/d-wave-two-system

Elke qbit is een verdubbeling in het aantal berekeningen dus dat is een bizar groot verschil.
Nee, de D-Wave is eigenlijk geen volwaardige kwantumcomputer en kan maar ingezet worden voor 1 specifiek algoritme: quantum annealing. Het maakt wel gebruik van bepaalde kwantummechanische processen zoals entanglement, maar het is absoluut niet in staat om de volledige klasse van alle kwantumalgoritmes uit te voeren. Een kwantumcomputer die dat wel kan is enorm veel moeilijker om te maken.
Weet je dat zeker? Ik had juist gelezen dat de D-wave geen entanglement kon toepassen. Dat is namelijk het grote struikelblok (en wat iedereen probeert stabiel te krijgen). De D-wave zou wel geschikt zijn voor Grover's algoritme, maar totaal niet geschikt zijn om encryptie te kraken.
Dat lijkt me stug. Als hij geen entanglement kan toepassen dan heb je dus niets aan meerdere qubits, want dan kun je die superstaat alleen per individuele qubit toepassen. Daarmee valt het hele nut van een kwantumcomputer in welke vorm dan ook in het water, en het is in directe tegenspraak met je stelling dat het wel Grover's search kan toepassen :).

Overigens kunnen hun machines vziw helemaal geen Grover's search doen. Het is echt beperkt tot quantum annealing, een kwantumvariant van het conventionele simulated annealing.
Ok, ik had in een boek van Jonathan Dowling gelezen dat voor Grovers search entanglement niet nodig is voor quadratische versnelling. Entanglement zorgt voor exponentiele versnelling en dat dit juist ontbreekt in de D-wave. Maar goed, je weet er vast meer van af dan ik :-).
Je hebt idd gelijk, er zijn wat papers die suggereren dat bepaalde problemen om te zetten zijn naar kwantumalgoritmes die geen entanglement vereisen (waarbij iedere qubit dus los behandeld wordt) en zo toch voor een speedup kunnen zorgen vergeleken met conventionele algoritmes.
To summarize: any quantum algorithm in the usual poly-local model for quantum computing can be rewritten to have no entanglement at any timestep, simply by disregarding the tensor product structure of the Hilbert space. Doing so physically incurs some exponential cost: in energy, in measurement precision, or in specification of the required unitary transformations. But one should not conclude that entanglement is required for quantum-over-classical complexity reduction. Without entanglement at any timestep, Bernstein & Vazirani’s quantum algorithm for ‘sophisticated’ database search does not
just reduce the number of queries required classically by a square root factor, but all the way from n to 1. Furthermore, we have shown for the first time that quantum interference alone suffices to reduce the query complexity of a problem within the standard model for quantum computation.
Deze paper bespreekt dat een versimpeling van Grover's search zonder entanglement mogelijk is, als je alleen wilt weten of een element gevonden is voor alle inputs, geen van de inputs, of precies de helft van de inputs. Ze merken daar ook op dat entanglement weldegelijk nodig is voor een meer generieke search.

[Reactie gewijzigd door .oisyn op 7 maart 2017 12:16]

computers problemen moeten oplossen die niet met klassieke systemen aan te pakken zijn
Dan kun je er vast ook problemen mee creëren die met klassieke systemen niet mogelijk waren :P
"Probleem" in die zin moet je opvatten in de context van wiskunde, niet zozeer praktische problemen die je tegenkomt in software (zoals security holes) ;).

Integerfactorisatie is een typisch voorbeeld van zo'n probleem. Er is geen efficient algoritme bekend om een getal te kunnen ontbinden in factoren, en veel public key encryption algoritmes zijn gestoeld op dat feit. Door de sleutel groot genoeg te maken, duurt het jaren om de factoren te vinden op een conventionele computer. Het schaalt nagenoeg exponentieel in aantal bits. Dat wil zeggen dat voor elke bit die je toevoegt, dubbel zo lang moet rekenen.

Met een kwantumcomputer is er een algoritme bekend (Shor's algorithm) waarin dit in nagenoeg kwadratische tijd in het aantal bits kan. Oftewel, bij een verdubbeling van het aantal bits zal de rekentijd ongeveer 4x zo lang zijn.
Bij hoeveel qbits is het realistisch om te zeggen dat dit de AES-128 encryptie binnen redelijke termijn kan kraken? Dan doel ik daamee vooral op het Bitcoin protocol en dergelijke.
Voor symmetrische encryptie zijn er geen specifieke kwantumalgoritmen bekend, maar je hebt altijd Grover's search die in O(√n) kan zoeken in een ongesorteerde verzameling van n elementen, waar een conventionele computer dat in O(n) moet doen. Aangezien AES-128 een 128-bits sleutel gebruikt, en er dus 2128 mogelijkheden zijn, zijn er dus ruwweg gezien slechts √(2128) = 264 operaties voor nodig. Dit is natuurlijk een schijntje in vergelijking met de 2128 operaties voor een conventionele computer.

Het spreekt voor zich dat hier dan ook wel minstens 128 qubits voor nodig zijn ;). Of het ook snél kan hangt natuurlijk af van hoe snel een kwantumcomputer in het algemeen is, maar het toevoegen van qubits zal het algoritme niet sneller maken.

[Reactie gewijzigd door .oisyn op 6 maart 2017 14:57]

Is het wel nuttig een Quantum computer met maar 50-qubits?

Inlichtingendiensten hopen al jaren op een quantum computer van een paar duizend qubits te wachten om RSA, DH en AES mee te kraken.

[Reactie gewijzigd door ArtGod op 6 maart 2017 15:04]

Je zult klein moeten beginnen, maar onderschat 50 qubits niet.
Om de vergelijking met de normale bits aan te gaan:
Een bit heeft 2 standen, een qubit 3 (1, 0 en 0/1 de 'superstate'.
Met 2 bits kun je 4 combinaties maken (00,01,10,11), met 2 qubits 9 dankzij de 'superstate'
Laten we eens een stukje verdergaan, neem 10 bits vs 10 qubits:
1024 vs 59049 combinaties.
Voor 50 is het verschil gigantisch te noemen daar het aantal combinaties dat te maken is een factor 637621500 (ruim 637 mijloen) groter is.

Als iemand dus een algoritme kan schrijven die efficient gebruik kan maken van de 50 qubits dan is die vele malen sneller dan welke hedendaagse computer die iets lineair probeert uit te rekenen. Je hebt immers je antwoord bijna direct met een quantum computer.
Een bit heeft 2 standen, een qubit 3 (1, 0 en 0/1 de 'superstate'.
Met 2 bits kun je 4 combinaties maken (00,01,10,11), met 2 qubits 9 dankzij de 'superstate'
Laten we eens een stukje verdergaan, neem 10 bits vs 10 qubits:
1024 vs 59049 combinaties.
Dit is een grove misvatting van de werkelijkheid. Je beschrijft nu eigenlijk gewoon een ternary number system, maar daar is niets bijzonders aan, dat zijn we al jaren in staat om te maken. Het punt is alleen dat het niet zo zinnig is, want het biedt geen noemenswaardige voordelen ten opzichte van een binair systeem (behalve in het gebied van opslag, waar andere n-ary systemen dan binair al gebruikt worden)

Superpositie is niet gewoon een derde staat, het is een notie van het feit dat een deeltje meerdere staten tegelijk kan hebben. De volledige kwantumstaat wordt beschreven met de golffunctie, en die beperkt zich niet tot (in het geval van qubits) 0, 1 of beide. Wat je nodig hebt is een state vector, die voor elke waarde de kans beschrijft dat het die waarde is. Voor een enkele qubit kan het bijvoorbeeld zijn: 25% 0 en 75% 1. Maar de kracht van een kwantumcomputer komt uit entanglement, en daarmee kun je dus de staat van meerdere qubits met elkaar combineren. Zo kun je met 2 bits 4 verschillende combinaties maken. Maar met 2 qubits kun je 4 verschillende waardes tegelijk representeren, met voor iedere afzonderlijke klassieke combinatie een bepaalde kans.

Om je voorbeeld aan te houden, 10 bits kun je 1024 combinaties maken, maar die 10 bits beschrijven altijd maar 1 specifieke combinatie. 10 qubits beschrijven alle 1024 combinaties tegelijk, met voor iedere combinatie een bepaalde kans.

[Reactie gewijzigd door .oisyn op 6 maart 2017 14:44]

Betekent dit dan dat je 1024 berekeningen tegelijk kunt doen? En die allemaal afzonderlijk uit kunt lezen?
Betekent dit dan dat je 1024 berekeningen tegelijk kunt doen?
Min of meer wel ja.
En die allemaal afzonderlijk uit kunt lezen?
En dat kan dan helaas weer niet ;). De kwantumstaat is volgens alle geaccepteerde theorieën over kwantummechanica niet uit te lezen. Want voor een uitlezing zal de superpositie vervallen in een van de mogelijke uitkomsten, met een bijbehorende kans voor dat specifieke resultaat. Je kunt de kwantumstaat natuurlijk wel achterhalen door de berekening heel veel keer te herhalen en bij te houden hoe vaak een bepaalde uitkomst eruit komt rollen, maar dan ben je eigenlijk weer terug bij een conventionele computer ;).

De truc zit 'm in het doen van bepaalde kwantumoperaties die de gehele staat transformeren naar een andere staat, zodat je er bepaalde conclusies uit kunt trekken. Een mooi voorbeeld die de boel enigszins intuitief beschrijft (voor zover dat mogelijk is binnen de kwantummechanica ;)) is het antwoord op de vraag "zit het goede antwoord hiertussen?". Dit is ongeveer de toepassing die Grover's search algorithm gebruikt. Het is een kwantum zoekmethode die, gegeven een willekeurig "orakel" dat een bepaalde output geeft bij een bepaalde input, de input kan vinden als je de output al weet. Hiermee kun je dus bijvoorbeeld een wiskundige functie omdraaien.

Grof gezegd zet je de qubits eerst in een staat die de helft van de inputs representeert. Dat wordt vervolgens getransformeerd in een output dat aangeeft of de goede input ertussen zat. Is het antwoord daarop "ja", dan weet je dus dat het antwoord in die helft zit, anders zit het in de andere helft. Vervolgens deel je de juiste helft weer op in twee helften, kijk je weer of het goede antwoord ertussen staat, etc. Dat doe je tot er nog maar 1 input over is. Op deze manier heb je dus maar 2log N vragen nodig om de juiste input te vinden.

In werkelijkheid werkt Grover's search niet helemaal zo, en heeft hij niet 2log N maar √N operaties nodig. Het is tevens bewezen dat dit de theoretische ondergrens is. Maar √N is nog altijd veel efficienter dan de N/2 operaties die een conventionele computer moet doen voor hij het juiste antwoord vindt (door simpelweg brute force alle inputs af te lopen).

[Reactie gewijzigd door .oisyn op 6 maart 2017 15:29]

Grof gezegd zet je de qubits eerst in een staat die de helft van de inputs representeert.
Betekent dit dan dat je voor de eerste stap genoeg qubits moet hebben om de helft van de inputs kwijt te kunnen? Dus met 10 qubits kun je 1024 inputs kwijt?
Nee. Het aantal qubits zegt eigenlijk, net als bij gewone bits, hoe groot de maximale waarde is die je ermee kunt representeren. Met 10 qubits is die maximale waarde 1023 (of 511 in het geval van signed integers). Het maakt niet uit of je daar een superpositie van 0 t/m 1023 in stopt (met bijv. elk een kans van 1/1024), of slechts 2 (bijvoorbeeld 64% kans op 343 en 36% kans op 23).
Dus met 10 qubits kun je ook grote problemen oplossen? Wat is dan het voordeel van 50 qubits ten opzichte van maar 10 qubits? Is het sneller?

Of kun je dan complexere problemen aan? Dat het net zoiets is als met een neuraal net, dat je genoeg vrijheidsgraden moet hebben voor een bepaald probleem?
Klopt het dat de methode van het bepalen van antwoorden met behulp van een quantum computer veel weg heeft van de Monte Carlo methode? Met andere woorden, je moet een berekening zeer vaak herhalen op een quantum computer omdat je met elke meting aan het einde van de berekening slechts één staat leest van alle mogelijke staten die in de quantum staat zaten.

Door al deze resultaten statistisch te analyseren kan de werkelijke quantum staat benaderd worden, waarmee je de werkelijke uitkomst kan benaderen. De truuc zit hem dan in het verzamelen van genoeg metingen om met genoeg zekerheid te kunnen zeggen dat je benaderde uitkomst ook echt de werkelijke uitkomst is.

Of praat ik nu totale onzin?

Ik heb ooit een vak over quantum computing gevolgd en de strekking was dat je voor een krachtige quantum computer een evenredelijke krachtige normale supercomputer nodig hebt om al statistiek te verwerken. Het bouwen van een quantum computer is dus slechts één van de uitdagingen in het bouwen van een bruikbare quantum computer.

[Reactie gewijzigd door actionhenk op 6 maart 2017 22:41]

Ik begreep je verhaal zowaar.. en dat is meer een compliment naar jou dan naar mij. Dankjewel.
qubits ;-). En voor de huidige (moderne) encryptietechnieken is het inderdaad nog niet geschikt. but time will tell.
draait hier nou ook een soort van OS op of voeren deze machines alleen maar een beperkt aantal codes uit?
Ik denk dat kopers zelf hun programmatuur hiervoor schrijven.
Ik bedoelde meer in de zin van:
Is het de bedoeling dat hier in de (verre) toekomst bijvoorbeeld Windows op gedraait wordt en mensen hier op kunnen gamen of is het alleen een wetenschappelijke machine met als doel specifieke berekeningen te maken die een conventionele pc niet kan doen.
Nee, er kunnen speciale algoritme's gedraaid worden die gebruik maken van de de kwantum eigenschappen. Gewone software draait niet op kwantumcomputers. De tot nu toe voorgestelde algoritmes kunnen slechts zeer specifieke taken (bijv. een getal ontbinden in priemfactoren) of quantumsimulaties. Wat quantumcomputers ons uiteindelijk gaan brengen is volstrekt onduidelijk. Toen men in de jaren 50 een aantal transistoren aan elkaar had geknoopt, kon ook niemand voorzien hoe die dingen ons leven ingrijpend zouden veranderen.
Uiteindelijk komen er kwantumpc's in elk huis en broekzak/pols/implant.
Maar dat duurt nog wel een aantal decennia vermoedelijk.

Deze eerste generatie quantum-pc's zijn voor onderzoek. De volgende generatie ook en de 10 die daarna komen waarschijnlijk ook.

Tegen de tijd dat quantum-pc's bij de consument komen zijn we zoveel verder dat ik niet eens durf te zeggen of er dan nog een MS met windows bestaat of een Apple met OSX.

Ik vermoed een vergelijkbaar scenario als met CPU's. Van ponskaart systemen tot een IBM voor thuis zat ook een flink aantal jaar en kubieke meters.
(volgens mij gaan de optimistische schattingen uit van 2050)

[Reactie gewijzigd door eL_Jay op 6 maart 2017 13:57]

Uiteindelijk komen er kwantumpc's in elk huis en broekzak/pols/implant.
Maar dat duurt nog wel een aantal decennia vermoedelijk.
Ligt eraan of kwantum 'het' gaat worden. Voor hetzelfde geld lopen we tegen die tijd rond met computers op basis van organismes.
Voorzover ik kwantumverstrengeling heb begrepen, is het zo dat een kwantumpaar met elkaar verbonden blijft ongeacht hun onderlinge afstand.

Een toepassing zou dan communicatie kunnen zijn met nagenoeg geen ping. Eerst bijv. Tussen de backbonevoorzieningen, later tussen de telecomproviders zelf, en nog later misschien wel per apparaat een kwantum-communicatiechip.

Computers op basis van organismes kunnen zoiets misschien wel gebruiken, maar niet vervangen. (tenzij telepatisch, wat eventueel weer d.m.v. kwantumverstrengeling verklaard zou kunnen worden)
Helaas, met die kwantumverstrengeling kun je geen informatie overdragen.

Dacht ik aanvankelijk ook, totdat ik me er meer in verdiepte.
Het kan wel, maar heel beperkt (naar ik begrepen heb). 1 Verstrengeld paar kan 1 bit (wat in kwantumcomputing dus alles tegelijk kan zijn) doorgeven.
Heb jij een machine met 50k qbits kun je daar aardig wat mee doorgeven, maar dat duurt nog wel heel wat jaren.
Daarbij heb je het wel over verstrengelde paren, dus peer to peer communicatie om het in de termen van vandaag te houden.
Ze werken pas net boven het absolute nulpunt dus vergeet maat ven een klein en goedkoop apparaatje.
Kwantum computers zijn meer gespecialiseerd dan dat denk eerder aan een co-processor of een soort van floating point unit die onderdeel zal worden van een "echte" computer maar zelf nooit als zodanig ingezet zal worden.

De huidige kwantum computers zijn alleen bedoeld voor heel specifieke berekeningen die een standaard computer niet of nauwelijks kan uitvoeren omdat deze alleen 1 of 0, begrijpt en geen tussen waardes kent waar het hele idee achter een kwantum computer is dat het zo wel 1 als nul maar ongeveer 1 en misschien wel 0 etc kent.
Een computer zo als wij die kennen zul je daar niet mee gaan bouwen maar in de toekomst is het niet niet ondenkbaar dat er een onderdeel van jouw computer een aantal of misschien ooit een flink aantal qbits zal hebben. Maar een volledige computer opgebouwd uit alleen qbits is niet waarschijnlijk zeker niet in de nabije toekomst.
Ik kan me nog de Nvidia PhysX PCI kaart herinneren.

Hoe toepasbaar zijn kwantum processoren bij AI? Komt de werking hiervan niet redelijk in de buurt van hoe neuronen in ons brein werken?

Dan zou je in Fallout6-VR écht een NPC moeten overtuigen om met je in bed te kruipen in plaats van toevallig de juiste preset aan antwoorden te selecteren. Ideaal oefenmateriaal voor ons Tweakers ;-)
Men weet niet hoe neuronen in ons brein werken. Men weet slechts wat voor electrische en chemische processen ermee te maken hebben.
Dat is iets totaal anders dan begrijpen hoe iets werkt.
Wat de toekomst brengt is altijd moeilijk te voorspellen, maar "indien" een chip met qubits uit zou komen, vermoed ik eerder dat dit een eenheid op de CPU wordt zoals dat tegenwoordig ook zo is voor de onboard GPU, de rekeneenheden, etc... of een bijsteekkaart.
Momenteel zijn er specifieke condities nodig om met dergelijke qubits te werken (subzero temperaturen etc). Mogelijk overwinnen ze deze zaken wel, maar toch lijkt me een CPU die vrij variabel is van temperatuur geen ideale plek :-)
Een consument heeft er ook minder aan. qubits zijn enkel interessant in specifieke situaties. Een online dienst lijkt me ook een correcte "instap" zoals de mainframe dat vroeger was.
Maar wat de toekomst brengt? Time will tell... :-)
50 qubits, daar kan geen OS op. Je kan het vergelijken met de pons-kaart machines uit de jaren 60. Ze worden nu nog instructie-voor-instructie gevoed.

Waar het op eindigt niemand :)

[Reactie gewijzigd door JackBol op 6 maart 2017 14:10]

Er wordt al geclaimd dat er een quantumcomputer mogelijk is met 2 miljard qubits.
Claim: een quantumcomputer kan nu al
Wat zouden momenteel realistische gebruiksscenario's zijn voor quantumcomputers bij de doorsnee consument? Het enige wat ik zo snel kan bedenken is betere encryptie van verbindingen en data, wellicht ook betere en snellere compressie van bestanden.
alles waar complexe berekeningen bij komen kijken
speciaal ook voor games physics zou kunnen
Physics lijkt mij juist iets dat beter door traditionele processors berekend kan worden. Als we het over gaming hebben lijkt NPC gedrag juist iets dat beter door een kwantumcomputer bepaald kan worden.
Voor consument zijn er niet zo veel toepassingen op de korte termijn. Quantum computers zullen de komende jaren concurreren met grote supercomputers.
Moest even googlen wat een qubit is maar dit is echt moeilijke materie. Iig te moeilijk voor mij.
Het is een super interessante materie, maar ik heb er ook moeite mee. Ook al snap ik de basisprincipes na een paasar weken moet ik het weer opzoeken omdat mijn grijze massa het een en ander weigert op te slaan.

Er zijn heel veel artikelen die de basis werking uitleggen voor de tweakers die het allemaal niet vanzelfsprekend vinden (en er zijn een paar die in eerdere artikelen verassend veel wisten en snapten).

Voor de lezer die de basis wil snappen is dit een (van de artikelen) die mogelijk de basis uitlegt waardoor je vervolgens elders wat meer\dieper kan lezen over de quantum computers.

LINK
Ik heb precies hetzelfde probleem en ik denk dat dat voor iedereen wel geldt.
Het is -zo- tegennatuurlijk, of tenminste, het gaat in tegen hoe wij als aangeklede apen de natuur ervaren.
Ik heb 2 jaar geleden een boek van Hawking gelezen waarin hij beschreef dat Buckyballs zich net als electronen door een raster heen laten verstrooien. Ik lees het, snap z'n verhaal, leg het boek weg en begin me direct al af te vragen of ik het wel goed gelezen heb. Na een uur kan ik het boek opnieuw lezen en zie alles voor de 1e keer.
Als je praat over kwantum fysica dan schurk je dicht aan tegen de grens van wat wetenschappelijk nog in taal omgezet kan worden.

Maar Taoïsme hanteert in zekere zin deze principes al duizenden jaren.

In de grond is alles een. Yin en Yang symboliseert de fundamentele dualiteit in het bestaan waar in de grond ze beide één zijn. Je kunt zeggen dat het onderscheid tussen dingen, zwart, wit en hoog, laag, elkaar definiëren. Daarom heeft men in het symbool een witte stip in het zwarte deel en een zwarte stip in het witte deel.

Je zou kunnen zeggen dat dualisme een superpositie is van de grond-staat, waarin alles één is.

Wetenschap is een beschrijving van de werkelijkheid, een visie, referentiekader of een model. Maar het is als een cirkel en als je ver genoeg gaat kom je in Elfenland uit, waar natuurwetten zich anders gedragen of geen rol spelen. Er is dan sprake van een organisatie van een hogere orde.

Dus eigenlijk is het natuurlijk maar voor ons moeilijk omdat wij de realiteit als zodanig niet objectief waarnemen maar die filteren m.b.v. onze hersens en een lager dimensionaal bereik waarnemen, zien we niet met ons volle bewustzijn wat er gebeurt in de kwantum wereld.

Zo denken de meeste mensen over tijd alsof het een lijn is. En dat lijkt zo omdat we ons dingen herinneren die al gebeurden. Maar het feit is dat die herinneringen op DIT moment bestaan en aanwezig zijn in het eeuwige nu. Je haalt de herinneringen niet op uit het verleden, ze zijn present in het nu.

De keurig uitgespreide lineaire causaliteit is een misvatting. Alles gebeurt in het nu. Er bestaat alleen maar het onmiddellijke nu in hoe de realiteit waar wij onderdeel van zijn zich aan zichzelf presenteert via de systematiek die we leven noemen m.v.b. een organisme.
Qbits vs Pc

In plaats van gewoone bits, heeft een qauntum computer qbits een fascineerde manier van werkING. Waar een bit dus 0 of 1, is de qbit 01,10. Dit houdt in dat normale computers die een berekening maken door meerdere sequenties gaan om tot een antwoord te komen. Omdat een Qbit meer alle states heeft kan de Qbit met een berekening tot een antwoord komen in plaats van een traditionele 0 of 1 die er misschien meerdere malen over doet om tot een antwoord te komen, hierdoor zijn qauntum computers ongeveer miljoenen keer sneller dan een alledaagse Pc.

Waar is de Quantum computer nou goed in?
A.I;
Machine learning;
Weer voorspellingen;
(Analysis met A.I);
Grote berekening ( worden veel sneller gedaan dan bij normale computers );
Zorg (IBM Watson)

[Reactie gewijzigd door Sjoerdteunisse op 6 maart 2017 14:45]

:D.

Bedankt Sjoerd, heel verhelderend.
Allereerst bedankt.

@.oisyn schreef hierboven een duidelijk mooi stukje ter aanvulling _/-\o_ _/-\o_

'Om je voorbeeld aan te houden, 10 bits kun je 1024 combinaties maken, maar die 10 bits beschrijven altijd maar 1 specifieke combinatie. 10 qubits beschrijven alle 1024 combinaties tegelijk, met voor iedere combinatie een bepaalde kans.'
Ik denk (hoop) dat met name op het gebied van kanker onderzoek deze quantum computer iets zou kunnen gaan betekenen.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Samsung Galaxy S8+ LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One (Scorpio) Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*