Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

IBM publiceert 'Wet van Moore' voor quantumcomputing

Het Quantum Volume van qubit-systemen moet jaarlijks op zijn minst verdubbelen om in de komende tien jaar klassieke computing te verslaan met een werkende quantumcomputer, stelt IBM.

IBM gebruikt Quantum Volume als indicatie van de prestaties van een quantumcomputer, als alternatief voor simpelweg het aantal qubits van een systeem. Het gaat om een meting aan het grootste quantumcircuit met dezelfde breedte en diepte van quantumsystemen, waarbij de uitkomst iets zegt over de foutmarge. Hoe meer ongecontroleerde interacties binnen het systeem plaatsvinden, hoe lager het Quantum Volume en omgekeerd.

De meetmethode is door IBM toegepast op zijn verschillende quantumprocessors. Zo heeft het systeem met codenaam Tenerife uit 2017 met vijf qubits een Quantum Volume van vier, de Tokyo uit 2018 met twintig qubits een volume van acht en de IBM Q Systemen One van dit jaar, met eveneens twintig qubits, een Quantum Volume van zestien.

De methode is bedoeld voor zogenoemde nisq-systemen, wat staat voor noisy intermediate-scale quantum. Dit zijn quantumsystemen van nu en de nabije toekomst, die nog niet voor een revolutie wat betreft rekenwerk gaan zorgen, maar wel het tijdperk in gaan luiden waarin quantumcomputers krachtiger worden dan de snelste klassieke computers.

Om dit moment van quantum advantage, ook wel quantum supremacy genoemd, in de komende tien jaar te bereiken, moet de jaarlijkse verdubbeling van het quantum volume zich doorzetten, betoogt IBM, die daarbij de vergelijking maakt met de beroemde Wet van Moore. Volgens IBM is sprake van een significante prestatieverbetering ten opzichte van klassieke computing als een berekening honderden of duizenden keer sneller verloopt, een fractie van de hoeveelheid werkgeheugen vereist of een resultaat oplevert dat nooit via een klassieke computer behaald had kunnen worden.

IBM heeft ook benchmarks op qubit-niveau gedraaid, onder andere om de foutmarge van een enkele qubit en die van een controlled not-gate van twee qubits vast te stellen. Ook hieruit bleek dat de eigenschappen van de IBM Q System One flink verbeterd zijn ten opzichte van de eerste generatie systemen. IBM maakt in de tweede helft van 2019 nieuwe quantumsystemen met hogere prestaties beschikbaar, bij de opening van zijn nieuwe quantumcomputingcentrum in de staat New York.

Door Olaf van Miltenburg

Nieuwscoördinator

05-03-2019 • 17:04

37 Linkedin Google+

Reacties (37)

Wijzig sortering
Bij welk quantumvolume zou onze meest gangbare encryptie (zoals RSA) niet meer veilig zijn om te gebruiken?
Dit is niet in te schatten. Eigenlijk ook hierbij gelijk mijn mening dat ik dit statement over het aantal qubits compleet nutteloos vind.

Want ja. Als je dan deze wet moet volgen dan zou je aan 10 a 20 jaar denken (4000 qubits) maar zo werkt het niet.

Er zijn nog fundamentele problemen met quantum computing en hier kunnen slagen in gemaakt worden waardoor in 1x alle encrypties nutteloos worden. Ik zie quantum computing echt nog als pre-alpha. Compleet irrelevant om dan de wet van Moore toe te passen.

Anyhow. Men verwacht dat ze rsa e.d. kunnen "tweaken" waardoor het ook met quantum computing niet lukt om het te kraken. Althans minder snel ;) (shor).

Logischerwijs hebben we over 10 jaar ook weer nieuwe encrypties e.d.
Anyhow. Men verwacht dat ze rsa e.d. kunnen "tweaken" waardoor het ook met quantum computing niet lukt om het te kraken. Althans minder snel ;) (shor).
Gegeven dat RSA fundamenteel op integer arithmetic is gebouwd (specifiek machtsverheffen en modular arithmetic) zou dat een fundamenteel ander algoritme opleveren.
Ik vind het altijd als een soort P&R klinken. Er wordt gesuggereerd dat quantumcomputers in meer superieur zijn dan alleen rekenkracht, wat voor zover ik weet niemand ooit inhoudelijk heeft weten aan te tonen. (Maar wat volgens mij al doorslaggevend haalbaar zou moeten zijn met een simulatie van de benodigde componenten op een transistor-computer) Ook de manier waarop de definitie van quantumcomputer bewust wordt vervaagd duidt op een zeker hype-gehalte. Hebben we nou een systeem in een enorme wetenschappelijke opstelling met een aantal qubits experimenteel werkend, of staan er werelwijd al een paarhonderde quantumcomputers nuttig te zijn en is de produktie van quantumprocessors al voorbij prototyping?

Wat de Wet van Moore betreft: het aantal transistoren in een computer is totaal nietszeggend als de gebruiker toch niet de eindcontrole heeft over een systeem. Oftewel: MS, Google en Apple bepalen hoeveel transistoren per vierkante milimeter we willen voor welke prijs en wat we daarmee kunnen. Dat heeft weinig met een natuurlijke vraag naar meer rekenkracht te maken. Zonder die drie waren we nu waarschijnlijk aanzienlijk verder dan "ecosystemen met apps".

[Reactie gewijzigd door blorf op 6 maart 2019 09:27]

Op dit moment hebben we een aantal quantum computers die beschikbaar zijn bijvoorbeeld via het IBM programma waar je zelf je eigen quantum algoritme kunt testen en kunt leren hoe je met een quantum computer werkt.
Dan zijn er de computers die bijvoorbeeld bij Google staan van D-Wave dit is een ander principe dan de systemen van IBM (wat al aan geeft hoe vroeg we nog zijn in het quantum computer gebied) deze zijn voor zo ver ik weet niet beschikbaar voor het publiek om mee te werken.
Er zijn natuurlijk ook overheids instanties die over dit soort systemen beschikken naar verluid heeft de NSA bijvoorbeeld minimaal 1 D-Wave systeem draaien.

Houd dat in dat er iemand (NSA?) nu al instaat is om bijvoorbeeld RSA te kraken. Waarschijnlijk niet of in ieder geval niet op een praktische manier. Maar ze zijn zeker weten aan het testen en het werken om betere algoritme te vinden zowel voor hun eigen encryptie benodigdheden in de toekomst, als decryptie zonder bezit van de sleutel.

Het idee dat Google, Microsoft en Apple bepalen hoeveel transistors we hebben snap ik niet helemaal. Ook bepalen zij zeker weten niet wat we er mee kunnen. Als iemand een OS bouwt dat 10x meer met een zelfde CPU kan dan bijvoorbeeld Windows of Linux kan dan is Microsoft snel vergeten. We zouden zeker niet verder zijn dan "ecosystemen met apps" Sterker nog tot we daar waren waren we nog heel ver weg van de potentie van de computer.
Tot dat moment waren computers dingen waar mensen met raar haar en beperkte sociale vaardigheden in donkere kamers mee aan de slag gingen. Nu is het zo dat je oma even met de telefoon opzoekt of de dokter niet toevallig op vakantie is terwijl ze de foto's van de klein kinderen aan de andere kant van de wereld liked en dat grappige katten filmpje deelt met Bep van om de hoek. Met andere worden de computer is van een machine met een beperkt gebruik en doel verworden tot een allerdaags gebruiks ding, waar niemand nog bij stil staat. Dankzij die revolutie zijn de omzetten groter dan ooit is er meer geld voor onderzoek naar de volgende grote doorbraak en is het nu veel minder eng voor mensen om eens wat meer te doen met zo'n ding.
Kijk naar het idee van de slimme speaker, het is iets dat we al jaren voorspelden maar waar tot voor kort de computer simpel weg te "eng" voor was te weinig mensen konden met zo'n ding om gaan laat staan dat ze het aan durfden om er iedere dag mee te werken. Inmiddels zijn die dingen geschikt voor gebruik door iedereen zonder dat ze er ooit over nadenken dat wat het ding eigenlijk is en hoe veel werk het ding verzet om hun dat volgende katten filmpje te tonen.
De verschillenden ecosystemen voor apps is juist een goed iets omdat het veel meer mogelijk maakt wat betreft innovatie de verschillenden eigenaren van deze ecosystemen dwingt om steeds meer mogelijk te maken binnen hun ecosysteem en de consument de mogelijkheid geeft om te kiezen voor de beste ervaring voor hun behoefte.
Probleem bij app-platformen en de wet van Moore: hoeveel machine-instructies zijn er nodig om een pixel zichtbaar te maken in Android, of hoeveel transistoren zijn er nodig om het hele framewerk dat dat mogelijk maakt draaiend te houden? Dat is te ver weg van de computer om die wet enigszins realistisch te laten. De relatief kleine hoeveelheid fabrikanten blokkeren de marktwerking en werken niet mee met Moore omdat computers dan te goedkoop worden in verhouding tot wat ze kunnen. Android en andere interfaces voor smartphones, de laatste generatie computers, zijn feitelijk slechts verplichte programma's die computerperformance zorgvuldig doseren en mogelijkheden van het systeem open of dicht laten om de bestaande markt zo lucratief mogelijk te houden.
Het zou mij niet verbazen als Moore zich van het scenario bewust is geweest maar er niets over heeft durven te voorspellen.
Als het te lang duurt met 1 quantum computer zou het toch mogelijk moeten zijn het sneller te doen met een quantum super computer?
Dit zou alleen mogelijk zijn als de QCs zelf op een heus quantum netwerk zitten aangesloten, iets dat hooguit in vroeg prototype stadium bestaat.
Het aansluiten op een normaal netwerk zou betekenen dat de informatie die kan worden uitgewisseld wordt tussen de QCs alleen maar reguliere bits kunnen zijn, geen qubits.

[Reactie gewijzigd door Jeanpaul145 op 6 maart 2019 00:18]

Er is geen enkele reden waarom twee quantum computers alleen via een quantum netwerk met elkaar zouden communiceren.
Een quantum computer met 5.000 qubits zal voor heel veel zaken gewoon reguliere bits gebruiken.
Input, output, opslag, allemaal gewoon reguliere bits.

Ja, als je quantum computers met elkaar verbindt met een quantum netwerk, dan is het mogelijk om meerdere waardes via een qubit te delen, maar er zijn voldoende taken te bedenken waarbij het parallel laten werken van meerdere quantum systemen grote voordelen oplevert, ook als er een regulier bit-netwerk als verbinding wordt gebruikt.
Dit vind ik ook een hele belangrijke vraag. Deze vraag werd ook heel veel genoemd in het begin van quantum computing maar tegenwoordig lees ik er niets meer over. Hebben ze in het geheim al een quantum computer die gangbare encryptie kan ontsleutelen?
Ja en nee. Ik weet niet van een quantumcomputer die real-time dingen kan ontsleutelen. Laatst las ik wel (in een tweaker comment?) over hoe bepaalde instanties nu nog on-ontsleutelde berichten aan het verzamelen zijn met het idee dat ze die over een paar jaar kunnen kraken.

Als je nu niet speciaal onder de aandacht staat zal je communicatie nu nog veilig zijn, maar met terugwerkende kracht lezen ze alsnog alles
Laatst las ik wel (in een tweaker comment?) over hoe bepaalde instanties nu nog on-ontsleutelde berichten aan het verzamelen zijn met het idee dat ze die over een paar jaar kunnen kraken.
https://en.wikipedia.org/wiki/Utah_Data_Center
Voorlopig zijn quantum computers nog verre van een serieuze bedreiging voor huidge encryptie standaarden.
Een veel grotere dreiging zijn nu al bestaande en toegepaste technieken als side channel attacks en fault injection
Ik volg quantum computing nu al een tijdje met ook een aantal artikelen en documentaires achter de kiezen, maar mij ontbeerd me nog steeds begrip over wat de toegevoegde en vooral toegepaste meerwaarde hem inzit voor quantum computing.

Ja er zijn meer posities mogelijk dan in traditionele bits, niet traditionele manier van berekenen, enorme potentie op gebied van schaal grote en prestaties etc etc, ik ken de buzzwords ondertussen.

Maar geef eens wat praktische voorbeelden waar het nu actief voor wordt gebruikt, wat die verbetering (wat deze quantum More's law meet) oplevert in verbeteringen in die processen en wat het uiteindelijk oplevert in praktijk in resultaat, beter producten of diensten (begrip op de realiteit of andere onderzoekswaarden).

Dit is niet zonder meer een klacht op dit artikel en ben ook niet negatief rond deze trend, maar over tijd heen verwacht ik dat tech buzzwords worden omgezet in kwantificeerbare begrijpbare / tastbare zaken.
Dat is voor mij bij zaken als LHC, Higsbozon, metingen over lichtsnelheid, Hawking Radiation, verschillen in tijd / ruimte op hoge snelheden en bij grote dichtheden er wel heel duidelijk... maar nog niet voor dit onderwerp.
Deze al gelezen: https://www.nature.com/articles/s41534-019-0130-6 ? Ben er zelf niet zo in thuis, maar ik denk dat de verwachte winsten het "Quantum Advantage" pas duidelijk worden als het echt bruikbaar is. Gevonden via: https://newsroom.ibm.com/...eaching-Quantum-Advantage.
Ik ben er ook niet zo heel erg in thuis maar in jou eerste link gebruiken ze een quant computer om een zogenaamde quant model (financiële econometrisch investering model) te draaien. Zonder echt te begrijpen waarom dit sneller is lijkt het me de match made in heaven :p

Zelfde als voor bijv het kraken van encryptie. Maar buiten dit denk ik dat je gelijk hebt en praten we over een kip ei probleem. Ben wel heel erg benieuwd waar mensen mee gaan komen maar betwijfel of we als IT'ers ooit op massale schaal in aanraking gaan komen met quant computers
Zo zeiden ze ook ooit eens dat we nooit meer dan 4mb ram nodig zouden hebben. En nu tel je al niet meer mee onder de 8gb...
De toekomst is onvoorspelbaar(misschien niet als quantumcomputers echt heel snel worden😛), dus wie weet denken ze over 10, 20 jaar wel hoe wij ooit met 4 normale cores konden leven.
"640 kb should be enough for everyone."

Toegeschreven aan Bill Gates, maar onbewezen en betwist.
Ik ben er nog niet zo in thuis, maar vraag me net als jij af wat voor mogelijkheden er concreet zijn, die nu nog rekenkracht missen. Anders gezegd, hoeveel quantum volume heeft een supercomputer nodig om bijvoorbeeld het weer beter te kunnen voorspellen tegen significant lagere energierekening, of hoe lang zou het duren voor we een quantumprocessor in onze smartphone hebben?
Voor het renderen van animatiefilms worden hele serverparken ingezet, omdat het zelfs een tijd duurt voor honderden servers om zoiets te renderen. Je gaat dus duizenden keren een gangbare PC nodig hebben om zoiets in een redelijke tijd voor elkaar te boksen. Alle berekeningen die nu (te) lang duren kunnen sneller, en hebben dus profijt van een betere processor. Uiteindelijk kunnen we misschien met veel minder datacenters de wereld voorzien van apps/sites/streams, als deze technologie redelijk betaalbaar wordt.
Dat is niet zozeer een feit. Tot nu toe praat men vooral encryptie maar heb al heel vaak gelezen dat het zich niet voor alle use cases nuttig zal zijn. Vind het dus een heel goede vraag... Wat doen we er dan over 10 jaar mee
Dat is dus de vraag, want zover ik begrijp kun je traditionele software niet eens draaien op quantum computers. En zover ik heb begrepen zal dat soort zaken niet meteen sneller zijn.
Er zijn totaal nieuwe type modellen / berekeningen die het wel goed doen, specifiek op dit soort circuits
Seti @ home, zelfde voor kanker onderzoek: quantum data op big data. Ipv dagen / jaren rekenen instant resultaat
Ik acht de kans klein dat we ooit een quantumcomputer in onze telefoon krijgen. Een van de grootste vijanden van een qubit is decoherentie en dat gaat nou eenmaal harder bij hogere temperatuur (even kort door de bocht gesproken). Daarom gebeurt onderzoek meestal met behulp van 'dilution fridges', grote 'koelkasten' die tot vlak boven het absolute nulpunt koelen.
Ik zie eerder een soort 'quantum computing as a service' (QCaaS?) ontstaan waarbij je online 'quantum rekenkracht' kan afnemen naar behoefte.
Dit is misschien een goed praktisch voorbeeld:
https://www.youtube.com/watch?v=OQ-NkCiyj_c

Als je dit toepast op de wat meer chaotische berekeningen, kun je dus bepaalde problemen sneller oplossen dan met een klassieke computer.
Verder is een Quantum Computer natuurlijk heel goed in het simuleren van zichzelf (een quantum systeem) :+
Een belangrijke toepassing van quantum computing kan bijvoorbeeld machine learning zijn; de manier van machine learning die wij op het moment doen, kan in zogenaamd logaritmische tijd gedaan worden op quantum computers. Praktisch gezien betekent dat, dat een model wat miljarden jaren trainen kost op een traditionele computer, in slechts enkele weken getraind kan worden op een quantumcomputer.
Een traditionele computer werkt met bepaalde logische poorten, met name de NOT, AND en OR poorten.
Met quantum computing breiden we deze poorten uit met een nieuwe set. Bijvoorbeeld de Square root of NOT gate.

Deze zorgt ervoor dat als je twee van deze poorten achter elkaar (in serie) kunt schakelen, je dezelfde functie krijgt als één traditionele NOT poort.
Dus het gebruik van 1 enkele Square root of NOT gate kan gebruikt worden om nieuwe logische schakelingen te maken.

Als je dan bedenkt wat we allemaal momenteel kunnen bereiken met onze traditionele NOT, AND en OR schakelingen, dan gaat er een wereld open van nieuwe mogelijkheden.

Hopelijk is mijn uitleg een beetje coherent, ik ben het niet gewoon om zulke dingen uit te leggen.
Een traditionele computer werkt met bepaalde logische poorten, met name de NOT, AND en OR poorten.
Met quantum computing breiden we deze poorten uit met een nieuwe set. Bijvoorbeeld de Square root of NOT gate.

NOT gate /= NOT poort?
NOT gate = NOT poort.
Dat dacht ik dus ook maar dan is het toch geen uitbreiding? :|
De square root of NOT poort is de uitbreiding, twee van deze poorten in serie geven hetzelfde resultaat als 1 NOT poort. Dus als je er maar 1 van gebruikt krijg je een nieuwe schakeling.
om een heel complex voorbeeld te geven: ziektebeeld (probleem), DNA (parameter) en gesyntheseerde medicatie (oplossingen) om zo persoonsspecifieke medicatie te kunnen produceren
Het is een grote misvatting dat de quantumcomputer simpelweg alles veel sneller gaat doen dan klassieke computers. Het gaat om specifieke berekeningen en de wetenschap is nog steeds aan het zoeken welke berekeningen dat zijn. Een overzicht van de nu bekende quantumalgoritmes vind je hier.

Nu is het natuurlijk lastig die algoritmes te vertalen naar concrete toepassingen. De bekendste is wel Shors algoritme voor ontbinden in priemgetallen met een quantumcomputer. Daarmee kraak je de RSA-, Diffie-Hellman- en elliptische kromme-encryptie.

Andere potentiële problemen die opgelost kunnen worden, noemde de Microsoft-ceo in 2017 tijdens Ignite, waarbij hij onder andere het modelleren van enzymen voor innovatie op gebied van voedselproductie als voorbeeld gaf.
Hoop dat dit onderwerp ook naar voren zal komen op de meet up 4 april, Quantum- en nanotechnologie.
Leuk bericht, maar waarom denkt IBM dat met een verdubbeling quantum over 10 jaar conventionele computers kan verslaan? Wat voor aannames zijn gemaakt over de conventionele vooruitgang. Gelooft IBM nog in de ca. 18 maanden voor conventionele hardware (afhankelijk van de component), of zien zij hier een kentering in? Hierover hebben zij bij uitstek veel meer kennis en data dan over quantum computing, jammer maar begrijpelijk dat ze dit niet vrijgeven.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True