Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

IBM werkt aan quantumprocessor van 17 qubits

Door , 50 reacties

IBM werkt aan twee nieuwe quantumprocessors. De krachtigste daarvan is een processor van 17 qubits, die de basis moet vormen voor komende commerciŽle IBM Q-systemen. Daarnaast is er een 16-qubitmodel dat beschikbaar komt voor onderzoekers.

De processor met 17 qubits is een prototype dat wat materiaal en architectuur betreft flink gewijzigd is ten opzichte van zijn overige quantumprocessors. Details over de processor geeft het bedrijf verder niet, maar het spreekt van een verdubbeling van de rekenkracht ten opzichte van het huidige aanbod via de IBM Cloud.

Het bedrijf benadrukt dat de rekenkracht afhangt van meer dan alleen het aantal qubits en dat ook de errorcorrectie een grote rol speelt. De verhouding tussen de twee hanteert het bedrijf als maatstaf voor de rekenkracht. IBM noemt dit Quantum Volume. De 17-qubitchip moet geïntegreerd worden in de komende IBM Q-systemen die het concern op de markt wil brengen. Op termijn hoopt IBM een processor van vijftig qubits te ontwikkelen.

IBM heeft ook een processor met 16 qubits ontwikkeld. De rekenkracht hiervan komt via een sdk beschikbaar voor ontwikkelaars, programmeurs en wetenschappers, die er quantumalgoritmen mee kunnen draaien. Een jaar geleden ontsloot IBM zijn processor met 5 qubits voor geïnteresseerden.

Bij een kwantumprocessor wordt de kwantumstaat van deeltjes in superpositie gebracht waardoor ze zowel deels een 1 als een 0 kunnen vertegenwoordigen. Bij een beperkt aantal algoritmes kunnen hiermee gigantische snelheidswinsten behaald worden, zoals bij het zoeken in enorme databases en bij cryptografie.

Reacties (50)

Wijzig sortering
Het doorzoeken van databases (of eigenlijk het doorzoeken van collecties) komt veel voor en zijn vaak relatief zware operaties. Ik kan mij moeilijk voorstellen hoe zo'n quantum computer dit veel sneller zou kunnen maar verkeerd zou dat zeker niet zijn.
Het staat er een beetje krom, en je moet het woord database vrij abstract nemen. Als je data ongesorteerd is, heb je gemiddeld n/2 operaties nodig om het juiste element te vinden in een dataset van n elementen. Op een kwantumcomputer kan dat in √n operaties, met behulp van Grover's search.

Uiteraard kan een kwantumcomputer niet van disk lezen, en dus moet de data eerst worden gepareerd, en dus ingelezen. En laat dat inlezen van disk nou doorgaans de grootste bottleneck zijn van menig database :)
[...]En laat dat inlezen van disk nou doorgaans de grootste bottleneck zijn van menig database :)
Het ironische is dat databases juist zijn uigevonden om disk access sneller te maken. Want als je het heel open minded bekijkt dan is een relationele database doorgaans niet het datamodel dat past bij hetgeen je op wilt slaan. Nu zijn ze dusdanig ingesleten dat het bijna niet mogelijk is om niet meteen in relationele databases te denken.
In werkelijkheid heb je vaak eerder een "wolk" van objecten, waar een wirwar van kruisverbanden tussen aanwezig is. Maar deze allemaal uit RAM serialiseren, in een file opslaan en later weer het omgekeerde doen is vaak onrealistisch belasted. Bovendien is er vaak niet genoeg RAM aanwezig om je hele object model in vast te houden.
Huidige bestandsystemen zijn vaak ook stukken efficienter dan vroeger, waardoor het soms wel degelijk interessanter is om dingen in lossa files te doen i.p.v. een database. Parallel daaraan is er de #NoSQL beweging, die een compromis aangaat tussen consistentie en schaalbaarheid, maar wel deels of volledig het rigide tabel model van SQL laat vieren.
Nu misschien nog wel maar straks met zaken zoals 3dxpoint verplaatst die bottleneck lijkt mij.

Verder zeggen die quantum algoritmes mij niks. Het is bijna magie. Ik zal er wel op een verkeerde manier over denken.
Je moet niet meer proberen te begrijpen wat de fysische aspecten zijn maar je gewoon puur op de wiskunde focussen. Dan is het prima te doen.
Wiskunde was nou niet echt mijn vak vroeger. Maar dit maakt het wel beter begrijpbaar.

https://www.youtube.com/watch?v=WAvqTOOyWGg
''If you think you understand quantum mechanics, you don't understand quantum mechanics."

Quantum mechanica en computing is het mooiste wat er op deze aarde is in mijn ogen. Zo machtig interessant!
Helemaal mee eens!
Ok dan. :)
Ff visueel maken.

Dus een record van 500.000.000 elementen kan via normale wegen in gemiddeld 250.000.000 operaties doorzocht worden. Een kwantumcomputer doet dit dan in gemiddeld 22.360 operaties. Dat is een verhouding van 8,9*10-5 in tijd.

Eg indrukwekkend.
Ja, maar dan hebben we het over ongesorteerde data, he :)
Als de db admin een beetje een fatsoenlijke index heeft gemaakt aan de hand van veelgebruikte zoekcriteria, dan is het nog maar log2 500.000.000 = 29 operaties. En dat is op een conventionele computer.

[Reactie gewijzigd door .oisyn op 17 mei 2017 18:45]

Hoe zit het met zoeken met een wildcard? Dat kan voor zover ik weet niet geindexeerd worden, of zit ik daarnaast? En weet iemand wellicht hoe quantumcomputers zich lenen voor zaken als Folding@Home?
In NoSQL is het prima mogelijk om te zoeken met wildcards, zolang de property waar binnen gezocht wordt maar geÔndexeerd wordt.
Indexes die als BTREE zijn opgeslagen of varianten daarvan zijn niet log2 maar logn waarbij n het gemiddeld aantal records is dat op een BTREE pagina zich bevind. Binnen de pagina's moet de data ook nog gezocht worden. Voordeel is dat dit meestal maar een paar disk accesses teweeg brengt voor een lookup.
Probeer het anders op deze manier te begrijpen:
https://arxiv.org/pdf/quant-ph/9706005.pdf

Zoals daar beschreven:
An oracle knows which item is marked; however, the oracle only gives one bit (YES/NO) answers to any questions that are posed to it. The challenge is to find out which item is marked with the minimum number of questions to the oracle. It is well known that the optimal way is to ask questions which eliminate half the items under consideration with each question - this process is known to computer scientists as a binary search and yields the answer after approximately queries [Binary].

Denk een beetje aan het "Wie ben ik" spelletje, waarbij je dus zo slim mogelijk om moet gaan bij het vinden van de juiste persoon door slimme vragen te stellen ("Ben je een man?" heb je dus gemiddeld een 50% ja en nee kans). Door het steeds te halveren kom je uiteindelijk wel bij de juiste persoon. Dit is dus het principe van conventionele algoritmes.

Als je dan gaat denken in superpositie, verandert het hele principe; je hoeft dan niet meer zulke conventionele vragen te stellen, en als je dan goede algoritmes ontwikkelt, hoef je niet meer te hopen dat je het halveert.

Als je een stapje verder gaat, kom je uit bij, bijvoorbeeld, het https://en.wikipedia.org/wiki/Grover%27s_algorithm . Maar aangezien dit dan wel heel erg off-topic wordt, laat ik het daar maar bij. Je kunt uiteraard zelf heel veel vinden over quantum mechanica.
het is juist niet off topic, dit is juist zeer informatief over de quantum computers. Als je nu over zelfrijdende auto's was begonnen was het wel weer enigzins off-topic, dus kom maar op met de rest van de info!
En bij de volgende query. Moet je dan de DB opnieuw opbouwen?
Een populair metafoor is het volgende:

Stel je hebt een kamer met 10 deuren en achter ťťn van deze deuren zit wat je zoekt. Een standaard pc begint bij deur ťťn als hij daar niet het juiste vind doet hij deur twee open.
Een quantum computer doet het anders. Die gooit gewoon alle deuren open en ziet achter welke deur hetgene ligt wat hij zoekt.

Zoals alle metaforen slaat ook deze redelijk de plank mis. Maar het geeft wel een redelijk abstract idee van het verschil tussen een traditionele computer en een quantum computer.

edit: wat .oisyn zegt dus :p

[Reactie gewijzigd door Standeman op 17 mei 2017 18:29]

Van alle metaforen is dit de meest slechte metafoor die dit fenomeen kan beschrijven.

Als een database 6x10^100 bestanden bevat, dan gooit ie dus niet 6x10^100 in een keer aan deurtjes (bestanden) open om te kijken of het resultaat zich bevind achter die deuren. Als dat mogelijk was, zouden quantum computers niet eens ontwikkeld hoeven te worden.
Die slaat de plank inderdaad mis. Ik zag laatst een filmpje op YouTube die het principe wel erg goed uitlegt. https://youtu.be/IrbJYsep45E
dat is gewoon paralel werken ipv serieel, ipv topdown gewoon met meer threads tegelijk door een tabel razen (vanaf lijn 1-100, 100-200, 200-300 en zo verder) of in 10voud hiervan.
dat is het punt, kwantum deeltjes interesseren de normale wetten niet :P
dat is het punt, kwantum deeltjes interesseren de normale Newtoniaanse wetten niet :P
FTFY.
Voor een leek, hoeveel 0 en 1 waardes bevat 1 qubit?
Oneindig veel, maar zo moet je er niet naar kijken. De golffunctie van een qubit beschrijft de kans dat hij 0 danwel 1 is. Maar die golffunctie kun je niet uitlezen: als je de qubit uitleest komt er gewoon een 0 of 1 uit, met bijbehorende kans. De kracht van een kwantumcomputer zit in verstrengeling (die ene qubit kan verstrengeld zijn met andere qubits die samen een "kwantumgetal" van n bits vormen) en het manipuleren van de golffunctie zodat het bepaalde vragen kan beantwoorden.
1 laat de btc block maar rollen
0 laat maar liggen

:D :D
Wat ik niet goed begrijp van de laatste nieuwsberichten, is het aantal qubits, processorkernen, etc. dat wordt gebruikt. Ik dacht dat we met computers altijd met machten van 2 bezig waren vanwege het binaire stelsel. Dus 2, 4, 8, 16, enz. Nu heeft ťťn van de laatste Ryzens 14 kernen en deze computer van IBM werkt met 17 qubits. Dat is beide geen macht van 2. Hoe moet ik dit zien?
Die 14 kernen van Ryzen zijn net zo min aan machten van 2 gebonden als het aantal printers in je netwerk.

Dat is 'gewoon' een discrete keuze, hoeveel cores je inbouwt.

Qubits, geen flauw benul, waar dat van af hangt.
Zoiets dacht ik al, maar we heb natuurlijk heel lang 1 core, dual core, quadcore enz gehad. Maar evengoed ook 3GB ram natuurlijk.
Die 3GiB is ook een macht van 2, maar dan afgerond. Je moet de waarde in Bytes bekijken.

En je hebt ook nooit 3GiB in 1 RAM latje zitten, Dat zal een combinatie zijn van eentje van 2GiB en 1GiB.

[Reactie gewijzigd door Hipska op 18 mei 2017 09:53]

als een systeem dat totaal niet te vergelijken is met binaire systemen.
en het is de moeite waard om je een beetje verder in te lezen
pricewatch: AMD Fusion A6-3500 Boxed :P

Het binary is in machten van 2, de rest van de techniek zit hier niet echt aan vast, meer toeval, zoals Keypunchie ook al aangeeft.
Dat dacht ik al. We hadden bijv. ook 3GB ram. Wat dan wel (vaak? altijd?) weer bestond uit 2 reepjes: 2048 MB + 1024 MB. Toeval en soms ook verwarrend. :)
En Apples A8X was ook een triple-core
Dat valt wel mee, in hoeverre computers "met machten van 2 bezig waren". Dit is wel het geval met het adresseren van geheugen. Dit is onder andere omdat adresbussen een X aantal lijntjes hebben, en omdat er dus 2^X bytes (of andere eenheden) kunnen worden geadresseerd.

Het interne RAM geheugen van computers wordt daarom altijd nog met 1024 tallen getoond: 8 GB is dan dus 8 x 1024 x 1024 x 1024 oftewel 8,589,934,592 bytes. Natuurlijk is dit redelijk onzinnig. Je kan beter 8,6 GB noteren: wij zijn immers geen computers en rekenen met het 10-tallig (decimale) stelsel. Dan hebben we het over het netwerk (wat nog wel in bits werkt), de harde schijf / SSD gelijk getrokken en neemt 8 GB aan RAM weer 8 GB op je harde schijf in.

Hoewel het natuurlijk makkelijker is om een symmetrische processor te ontwerpen (of om maar 1 lijn van cores te ontwerpen) zal je weinig processors zien die een oneven aantal cores hebben. Er is echter geen reden om de processors in een vierkant te zetten. Dan kan je de lijnen tussen de cores niet meer makkelijk verbinden. Als je dus al een processor met 3 of 7 cores tegenkomt dan is het waarschijnlijk omdat 1 core het niet goed doet en is uitgezet.

Dus al met al zal je vanwege de centrale databus meestal een even aantal cores zien. Dus dat is geen twee-macht maar een even getal.
Dank voor dit uitgebreide verhaal. Het is dus zeg eigenlijk enkel met de bits en bytes dat het binair is en voor de rest is het toeval, of gewoon handig, maar verre van noodzakelijk.
Je bedoelt dan 8,6GiB ipv 8,6GB.
Nee, het is 8,6 GB of 8 GiB. Ik bedoelde natuurlijk niet 8,6 GiB.
Een Qubit was toch in de macht van 3 ipv in de macht van 2 als bij een normale bit?
Zo had ik het in ieder geval begrepen?

[Reactie gewijzigd door BlackCurry op 17 mei 2017 19:47]

je bent het aan het verwarren met een TLC (triple-level-cell) van een SSD denk ik.
(zie hier bijvoorbeeld: reviews: De nieuwste ssd's: Samsungs 850 Evo en de concurrentie)
dat is een cell die ipv 2 niveaus (0 en 1), drie niveaus kan opslaan (0, 0,5 en 1)
Ik vraag mij af of je Łberhaupt iets nuttigs kan doen met maar 17 qubits.
Er kunnen al simpele modelletjes op berekend worden. En het eerste onderzoek is hier al eens tijdje mee bezig. De verwachting is dat bij ~50 qbits er echt spannende dingen berekent kunnen gaan worden. En dan is dit al een goed stuk op weg.
Maar kan je dingen met 17 qubits die je met een conventionele computer niet kan? Dat bedoel ik met nuttig.
Ja, dat kan zeker al. Hierbij moet je nu denken aan quantum simulation. (https://en.wikipedia.org/wiki/Quantum_simulator)

Hierin worden quantum systemen (denk bijvoorbeeld aan een molecuul) vertaalt naar de qubits. (de verschillende energie levels van de elektronen worden bijvoorbeeld vertaalt naar bepaalde combinaties van enen en nullen van de qubits). Dit zijn problemen die voor supercomputers al gigantisch intensief zijn om te berekenen, aangezien een systeem van 17 qubits al 131071 variabelen hebben. Andere problemen waarvan ik weet waar nu aan gewerkt wordt is het simuleren van een mott insulator, die gigantisch moeilijk zijn om uit te rekenen(natuurkundigen zijn er al 70 jaar mee bezig), maar waarvan verwacht wordt dat als we die snappen we hopelijk nog hogere temperatuur superconductors kunnen maken.

Beetje wazig verhaal dit, maar ik hoop dat je het een beetje kan volgen. ;)
Prachtige foto bij het artikel.

Nu vinden we het fantastisch, 17 qubits. Toch weer 1 meer.
Ik kan me helemaal voorstellen hoe we in -pak 'm beet- 2050 meewarig terugkijken naar deze foto en dan zeggen: "moet je kijken hoe 30 jaar geleden een doodgewone quantumcomputer er uit zag. En dan had ie nog maar 17 qubits ook. "
Als we de performance naar de huildige krachtige CPU's trekken, hoeveel Ryzen's 1800x'en zijn dit dan?
17 qubits is nog prima te emuleren op een klassieke computer. (De ibm exprerience simulator gaat tot 20)

Maar een qubit is efficienter in bepaalde algorithmes maar zeker niet alle. Een game wordt in de toekomst waarschijnlijk nog geschreven met reguliere computers. Input en output is namelijk niet mogelijk behalve de registerwaarde die je uitleest als de quantum computer klaar is.

Dit betekent niet dat quantum computers niet gebruikt kan worden binnen games. Theoretisch kun je algorithmes maken dat bijvoorbeeld boter kaas en ei kan uitvogelen en nog veel meer als je genoeg qubits kan verstrengelen.

Tegenwoordig kan je bij D-wave al een quantum computer kopen. (Met een hoop qubits verdeeld over meerdere registers dus minder interresant als de ibm quantum computer maar toch) handig is het niet want dit zijn mega machines die pas draaien op minder dan 0,001 kelvin
is niet vergelijkbaar. het is voor een ander type load.
Okť bedankt,

Maar dit komt ooit naar de consumenten markt denk ik? Het houd een keer op met het verkleinen van de CPU's, ik las laatst dat het niet lager kan als 5nm? En dan.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*