Ophef in de gemeenschap van cryptologen en andere geïnteresseerden in cryptografie eerder deze maand: op Cryptology ePrint van de International Association for Cryptologic Research verscheen een paper van de hand van Claus Peter Schnorr over het snel kunnen ontbinden in priemfactoren. Vooral vanwege een zin uit de samenvatting kwam de publicatie vol in de schijnwerpers: "Dit vernietigt het RSA-cryptosysteem." De implicaties van deze claim zijn enorm, als hij waar zou zijn. RSA staat aan de basis van de beveiliging van communicatie tussen banken onderling en met klanten, e-commerce, telecommunicatie enzovoort. De ophef over de paper van Schnorr lijkt onnodig, maar dat betekent niet dat beveiliging die RSA biedt niet bedreigd wordt.
Wat is RSA ook alweer?
De kans is groot dat je de term RSA voorbij hebt zien komen, maar wat is het ook alweer? Encryptie of versleuteling bestaat al eeuwen en daarbij ging het lange tijd vrijwel uitsluitend om symmetrische encryptie. Je zet met behulp van een sleutel een tekst om in iets wat daarmee standaard onleesbaar wordt, en degene die ook de sleutel heeft, draait dat proces om en verkrijgt weer de leesbare tekst. Dat was zo met het Ceasarschrift bij de Romeinen, de Enigma in de Tweede Wereldoorlog en de DES-vercijfering daarna.
Whitfield Diffie. Bron: Royal Society/Duncan.Hull, CC BY-SA 4.0
In de jaren zeventig kwam de Amerikaan Whitfield Diffie met het idee van een asymmetrische sleutel. Wat nu, stelde hij zich voor, als de encryptie- en decryptiesleutel niet dezelfde zijn. Dan zou Bob wel een tekst kunnen vercijferen met een publieke encryptiesleutel, maar hij noch iemand anders, zou die daarmee kunnen ontcijferen. Alleen de ontvanger, Alice, zou dat kunnen met haar privésleutel voor decryptie. Daarmee zou een groot probleem overwonnen zijn: dat van de distributie van de sleutels. Samen met Martin Hellman probeerde Diffie dit idee in de praktijk uit te werken, maar dat viel nog niet mee.
Drie andere Amerikanen raakten enthousiast van het concept en besloten eind jaren zeventig de uitdaging aan te gaan. Dit waren Ron Rivest, Adi Shamir en Leonard Adleman. Zij kwamen uit op het gebruik van priemgetallen; het is makkelijk om twee priemgetallen te vermenigvuldigen, maar het omgekeerde is bij enorm grote priemgetallen in de praktijk niet te doen. Met andere woorden: je kunt het product van twee priemgetallen als publieke sleutel gebruiken. Om te weten waar dat product N uit is opgebouwd, moet je kennis hebben van de priemgetallen p of q.
Stel dat Bob Alice een versleuteld bericht wil sturen. Alice kiest bijvoorbeeld p = 3 en q = 5 en houdt deze geheim. Dit is als de privésleutel te zien. Het product N, 15, kan ze wel publiceren, evenals een extra getal, e, dat ze kiest, bijvoorbeeld 7. Dit vormt samen de publieke sleutel. Bob kent N en e en wil Alice het bericht '3' sturen. Het omzetten in geheime tekst verloopt via de formule C=Me(mod N). Bij het omzetten van het getal 3, wordt dat dan C=37(mod 15), oftewel 12. Dit is de versleutelde boodschap C die Bob naar Alice zendt. Alice kan het oorspronkelijke bericht M herstellen via de formule M=Cd(mod N). Daarbij is d afhankelijk van e volgens de formule e x d=1(mod(p-1)x(q-1)) en dus in dit geval ook 7. Dat wordt dan M=127(mod 15) met als uitkomst 3. Zo krijgt Alice de boodschap 3 door van Bob. In de praktijk werkt dit systeem natuurlijk met veel grotere priemgetallen, zodat het ontbinden in priemgetallen zoveel tijd kost dat dit in de praktijk onmogelijk is. Publieke sleutels op basis van dit systeem kunnen zo vrijelijk gepubliceerd worden zonder dat dit de beveiliging aantast. Pas bij een doorbraak wat betreft factoriseren komt het systeem in gevaar, bijvoorbeeld bij slimme wiskundige trucs om de priemgetallen te achterhalen of een gigantische sprong in rekenkracht.
Ron Rivest, Adi Shamir en Leonard Adleman in 1977
Waar wordt RSA gebruikt en wie is Schnorr?
RSA stamt dus uit het einde van de jaren zeventig. Begin jaren tachtig richtten Rivest, Shamir en Adleman RSA Security op en verkregen ze het patent op het encryptiealgoritme. Sinds die tijd wist RSA zijn weg te vinden naar onder andere SSL, SSH en PGP, en wordt het verwerkt in vpn-clients, webbrowsers en andere communicatietoepassingen. De belangrijkste boost voor het algoritme was wel dat Netscape in 1994 koos voor RSA bij de ontwikkeling van het Secure Sockets Layer-protocol om veilige http-verbindingen op te zetten. In september 2000 gaf RSA Security de technologie vrij om te implementeren; het patent liep toen ook af. Nog altijd is RSA te gebruiken als onderdeel van tal van cryptografische libraries, meestal in hybride encryptiesystemen. Het is belangrijk om te beseffen dat RSA niet gebruikt wordt om hele bestanden te versleutelen of voor de realtime encryptie van dataverkeer. Symmetrische encryptie doet dat snel en efficiënt. RSA vergt de nodige rekenkracht en is relatief traag; alleen de sleutels worden via RSA aangemaakt.
RSA wordt uitgefaseerd voor sleuteluitwissling bij TLS 1.3. Bron NCSC
Het gaat tegenwoordig nog vooral om gebruik voor authenticatie. Bij TLS wordt RSA ook nog gebruikt voor de sleuteluitwisseling voor het opzetten van https-verbindingen, maar dat verandert nu TLS 1.3 er is. Bij die standaard worden algoritmes voor statische sleuteluitwisseling, zoals statisch RSA, uitgefaseerd omdat deze geen sleuteluitwisseling met forward secrecy bieden. Forward secrecy maakt dat communicatie afgeschermd blijft, ook als de geheime sleutel in de toekomst wordt gecompromitteerd. TLS 1.3 maakt voor de sleuteluitwisseling daarom gebruik van cryptografie op basis van elliptische krommen, in de praktijk Elliptic Curve Diffie-Hellman Ephemeral. Voor de certificaatauthenticatie ondersteunt TLS 1.3 nog wel RSA en hoe dan ook zal het nog wel even duren voordat iedereen is afgestapt van eerdere TLS-versies. Kortom: hoewel RSA een oud systeem is en langzaam uitgefaseerd wordt, is het nog volop in gebruik.
Schnorr- handtekening voor Bitcoin
Als de basis onder de beveiliging van RSA zou wegvallen, heeft dat dus flinke gevolgen. Diegene die de claim maakt, is niet zomaar iemand. Claus-Peter Schnorr is een Duitse wiskundige en cryptograaf die zijn sporen heeft verdiend. Hij beschreef in 1991 een algoritme voor digitale handtekeningen waarvan de beveiliging is gebaseerd op de complexiteit van bepaalde discrete logaritmen. Dat algoritme en die handtekeningen dragen zijn naam, waren door hem gepatenteerd en staan bekend om hun efficiëntie en geringe grootte. Vanwege de snelheidsvoordelen staan Schnorr-handtekeningen op de agenda om geïmplementeerd te worden bij Bitcoin, om precies te zijn met Bitcoin Improvement Proposal 340.
Claus-Peter Schnorr bij de ontvangst van de RSA Award for Excellence in Mathematics
RSA Security verkreeg een exclusieve licentie op het gebruik van het inmiddels verlopen patent voor de Schnorr-handtekening en de Duitse cryptograaf werd een Distinguished Associate bij RSA Laboratories. Voor zijn werk voor de wiskunde en cryptografie ontving Schnorr in 1993 de prestigieuze Gottfried-Wilhelm-Leibniz-wetenschapsprijs en in 2013 de RSA Award for Excellence in Mathematics. Hij werd een bekende gastdocent aan universiteiten wereldwijd en was veertig jaar lang hoogleraar aan de Johann Wolfgang Goethe Universiteit van Frankfurt, tot hij in 2011 met pensioen ging.
Vragen bij Schnorrs claims
Als een van de bekendste Duitse cryptografen claimt dat het over en uit is met RSA, dan wordt daar uiteraard serieus naar gekeken. Bij de publicatie op 1 maart op Cryptology ePrint van de International Association for Cryptologic Research viel direct één ding op bij de samenvatting in de zin: “This destroyes the RSA cryptosystem”, of eigenlijk twee dingen. Naast de voor wetenschappers nogal ongebruikelijke stelligheid en bewoording, werkt een taalfout natuurlijk niet mee om eventuele scepsis bij dit soort grote beweringen weg te nemen. En scepsis ontstond er dan ook al snel. Even was het de vraag of Schnorr wel de persoon was die de paper op Cryptology ePrint had gezet, ook omdat de 'destroyes'-claim op de samenvatting na niet in de tekst voorkwam. Verschillende personen kregen bevestiging van Schnorr dat hij toch echt verantwoordelijk was voor de publicatie en hij meldde dat het logisch was dat zijn paper het RSA-cryptosysteem ‘vernietigde’. Bovendien werd de paper opnieuw op ePrint gezet, nu zonder de taalfout in de samenvatting.
Die 'vernietiging' zou het resultaat zijn van het veel sneller kunnen ontbinden in priemfactoren, wat uit Schnorrs paper zou voortvloeien. Het gaat te ver om hier de wiskundige shortcuts die Schnorr claimt gevonden te hebben uit te leggen. Wereldwijd is er slechts zo'n dozijn cryptologen dat genoeg in de materie thuis is om hier een goede diepgaande analyse van te maken. In de tekst staat hoe dan ook meer dan eens dat berekeningen in polynomiale tijd uitgevoerd kunnen worden, oftewel, veel sneller dan nu kan. Schnorr poneert enkele stellingen en beschrijft daar abstracte bewijzen bij, maar volgens sceptici had de wiskundige het zich veel makkelijker kunnen maken om twijfel weg te nemen.
Hij had gewoon een van de RSA-getallen kunnen ontbinden in factoren en daarbij de details kunnen vermelden. Die RSA-getallen zijn in 1991 door RSA Laboratories gepubliceerd als onderdeel van een wedstrijd. Het zijn getallen van 100 tot 617 cijfers die het product zijn van twee priemgetallen en de uitdaging was om deze te factoriseren. Een enkel RSA-getal ontbinden is nog wel te doen met de nodige rekenkracht en het gebruik van algoritmes waarmee het vinden van factoren kan worden versneld, mits het aantal cijfers laag blijft. Zo is RSA-100, bestaande uit honderd cijfers of 330bit, in 1991 gefactoriseerd door de Nederlandse cryptograaf Arjen Lenstra met behulp van een kleine supercomputer en een kwadratisch zeefalgoritme. RSA-100 bleek te zijn gevormd door 37975227936943673922808872755445627854565536638199 × 40094690950920881030683735292761468389214899724061. Verschillende RSA-getallen vielen ten prooi aan de wiskundigen. Lenstra en collega's van het Centrum Wiskunde & Informatica herhaalden het huzarenstukje bijvoorbeeld in 1999 met RSA-155, een getal van 512bit.
Bij grote aantallen cijfers werken ook moderne supercomputers en de shortcuts van de huidige bekende algoritmes niet meer om de priemgetallen te vinden. De wedstrijd was in 2007 afgelopen, maar wiskundigen ondernemen nog steeds pogingen om de getallen te ontbinden in hun priemfactoren. Inmiddels zijn 23 van de 54 getallen ontbonden en de laatste was RSA-250, of 829bit, die in februari 2020 werd gefactoriseerd. De onderzoekers maakten gebruik van gridcomputing en concludeerden dat er 2700 corejaren nodig waren voor het berekenen, waarbij een 2,1GHz-core van een Intel Xeon Gold 6130 als referentie werd gebruikt. Als Schnorrs methode werkt, zouden aanzienlijk minder corejaren nodig zijn, maar hij zou ook voor het gemak een kleiner RSA-getal kunnen nemen om de speed-up te bewijzen. Om werkelijk impact te maken en zijn claim kracht bij te zetten, had hij natuurlijk RSA-1024 of een nog groter getal kunnen ontbinden.
RSA-sleutels op basis van 1024bit worden al sinds 2007 als onveilig beschouwd. RSA-1024 is echter nog niet gekraakt en het Nederlandse Nationaal Security Cybersecurity Centrum beschouwt RSA-sleutels van 2048 tot 3071bit als voldoende veilig. Sleutels van meer dan 3071bit krijgen het predicaat ‘goed’. Die omvang lijkt de deskundigen dus veilig genoeg om nog jaren mee te kunnen, ondanks de toename van rekenkracht. Legt Schnorr hier een bom onder, ondanks de kanttekeningen die er vooraf te maken zijn?
De kraak van RSA lijkt onafwendbaar
We vroegen Léo Ducas wat we moeten vinden van Schnorrs paper. Ducas is senior onderzoeker bij de Cryptology Groep van het Centrum Wiskunde & Informatica. Schnorrs claims gaan over het snel vinden van priemfactoren door short vector problem-algoritmes te gebruiken. Hierbij is de uitdaging om zo kort mogelijke vectoren in een rooster te vinden. Ducas is gespecialiseerd in lattice based cryptosystemen, oftewel systemen die gebruikmaken van een rooster.
Oude wijn in nieuwe zakken?
Léo Ducas
Volgens Ducas is er ondanks de ophef op sociale media maar weinig nieuws onder de zon: "Professor Schnorr maakte deze claim tien jaar geleden al. Het is nog steeds niet verschenen in een peer-reviewed publicatie en er is nog steeds geen bewijs voor. Normaal gesproken los je de uitdagingen (de RSA-getallen, red.) op om je claim te staven en dat heeft hij niet gedaan. De aanpak die hij beschrijft, is zelfs al ouder en gaat terug tot 1991. Deze aanpak verrast de deskundigen niet; er is al naar gekeken. Het is wiskundig gezien interessant, maar de consensus is dat er geen echte dreiging voor het RSA-cryptosysteem is. Er zijn verschillende delen in de paper waar hij extreem positief is en er staan expliciete fouten in."
Is er een kans dat Schnorr een genie is en zijn paper gewoon nog niet begrepen wordt? Ducas: "Het idee is niet alleen oud, maar meer mensen zijn ermee bezig geweest en niemand heeft het ooit werkend gekregen voor dit doel: factoriseren. Er zijn wel andere interessante dingen mee gedaan, buiten cryptografie om." Volgens Ducas is er fundamenteel gezien niets nieuws aan de publicatie van maart versus die van 2009 en falen de claims nog steeds, ondanks enkele wijzigingen.
Voor een snelle test van Schnorrs beweringen heeft Ducas een programmaatje geschreven in Sage, een programmeertaal die specifiek op getaltheorie gericht is. Hij heeft de bevindingen op GitHub gezet. "Het was heel makkelijk om de claims te implementeren in Sage, het gaat om zo’n tachtig regels code. In Sage zitten al veel belangrijke algoritmes, met name lattice-based algoritmes, waar ik vooral mee werk."
Ducas draaide telkens duizend tests met verschillende parameters. "Die parameters, b en n worden in de paper van Schnorr als suggestie aangedragen. Als ik een getal van 400bit wil factoriseren, kan ik een rooster van 47 dimensies construeren. Als ik korte vectoren in dat rooster vind, geven mij die factorisatierelaties. Als je genoeg van die relaties vindt, kun je ontbinden in factoren. Ik heb dat getest en kon niet eens een enkele relatie vinden."
In 1991 deed Schnorr dus al de suggestie dat zijn aanpak zou kunnen werken en in 2009 claimde hij een polynomial time factoring-algoritme te hebben. Waarom zijn Schnorrs beweringen inmiddels niet beargumenteerd van tafel geveegd? "Cryptoanalisten houden ervan om over snelle algoritmes te schrijven. Als iemand iets schrijft over iets interessants, maar wat niet leidt tot snelheid, eindigt het slecht gedocumenteerd. Dit is volgens mij genoeg onderzocht om er zeker van te zijn dat er geen dreiging is, maar de weerlegging is helaas niet genoeg gedocumenteerd." Volgens Ducas is het duidelijk dat deze aanpak niet werkt, maar hebben wiskundigen en cryptografen niet de moeite genomen om uit te werken waarom het niet werkt. "We kunnen geen absolute zekerheid hebben bij cryptografie, maar ik kan met voldoende zekerheid zeggen dat dit ver verwijderd is van de state of the art op dit gebied."
Bij de voorzichtigheid van cryptografen verwijst Ducas naar het ‘P vs. NP’-probleem, dat volgens hem als een zwaard van Damocles over de cryptografie hangt. Factoriseren wordt als een probleem van de NP-klasse beschouwd. Ontbinden in priemfactoren is heel complex, maar een oplossing is simpel te verifiëren. Wie kan echter bewijzen dat NP niet P is, een probleem dat zowel snel op te lossen als te verifiëren is? Wellicht zijn alle NP-problemen wel P-problemen, maar zijn de trucs simpelweg nog niet gevonden. Het P vs. NP-probleem is een van de zeven Millennium Problems die het Clay Mathematics Institute in 2000 opstelde en waarop een miljoen dollar prijzengeld staat voor het oplossen ervan.
Zijn er andere veelbelovende methodes aan de horizon die tot de kraak van RSA kunnen leiden? Ducas: "De state of the art is extreem volwassen. Er zijn geen grote verbeteringen geweest sinds de number field sieve, het getallenlichamenzeefalgoritme, waarvan de basis eind jaren tachtig van de vorige eeuw gelegd werd. Er zijn alleen wat implementatieverbeteringen geweest. Als iemand een snelheidsverbetering van tien procent van de number field sieve voor elkaar krijgt, is dat een publicatie waard. Dat betekent dat je publiceert als je een verbetering van een tiende van een bit tegenover de laatste stand van zaken kunt bewijzen. Dit zegt je dat er feitelijk geen beweging meer in de zaak zit. Je kunt natuurlijk niets uitsluiten; er kan een genie met een totaal nieuwe aanpak komen, maar niemand verwacht dat op dit moment."
Grote dreiging van kleine qubits
Er is, zo vervolgt Ducas, wel een levensgrote bedreiging voor RSA, en die komt uit een andere hoek: quantumcomputing. "Er is een heel grote reden om van RSA af te stappen. Het lijkt erop dat quantumcomputers binnen misschien tien tot vijftien jaar in staat zijn om dit soort factorisatieproblemen te berekenen." De enorme rekenkracht van quantumcomputers is hiervoor bij uitstek geschikt. Een van de eerste quantumalgoritmes is die van Peter Shor uit 1994, niet te verwarren met Schnorr, en die beschrijft hoe met quantumcomputers exponentieel sneller te factoriseren is dan via de general number field sieve. Wie de eerste functionerende quantumcomputer van enige omvang heeft, heeft daarmee de sleutel tot belangrijke digitale beveiligingssystemen in handen.
Gelukkig worden er al stappen ondernomen om ons hierop voor te bereiden, met zogenoemde post-quantumcryptografie. Onder andere de standaardisatieorganisaties ETSI en NIST zijn druk bezig met voorbereidingen. Het NIST kondigde vorig jaar zeven finalisten aan die in de race zijn om een 'quantumbestendige' cryptografiestandaard te worden. Ducas is bij verschillende daarvan betrokken. Hij is medeontwerper van Crystals-Kyber voor publieke-sleutelencryptie en bij Crystals-Dilithium voor digitale handtekeningen. "Er wordt voor de transitie gewerkt aan hybride of gecombineerde encryptie, waarbij de huidige systemen gecombineerd worden met nieuwe postquantumsystemen, zodat als een van de twee wegvalt, de veiligheid gegarandeerd blijft als de andere nog veilig is."
Schnorrs paper is dus niet serieus te nemen als dreiging voor RSA, maar de werkelijke vernietiging van het cryptosysteem van Ron Rivest, Adi Shamir en Leonard Adleman is onafwendbaar met de komst van quantumcomputers en vervanging is noodzakelijk. De enige vraag is hoe lang het nog duurt voordat quantumcomputers met voldoende qubits stabiel genoeg draaien om de geheime sleutels van RSA te kunnen vinden. Die race naar een quantumcomputer is, niet verwonderlijk, in volle gang bij bedrijven en overheden.
"Er is een heel grote reden om van RSA af te stappen. Het lijkt erop dat quantumcomputers binnen misschien tien tot vijftien jaar in staat zijn om dit soort factorisatieproblemen te berekenen."
Tien tot vijftien jaar ? Nee, eerder. Veel eerder. Tien tot vijftien maanden met de ambitieuze roadmap van IBM. https://www.ibm.com/blogs...ntum-development-roadmap/ < bekijk dit please, pretty please voor je mij ravend zit te minnen of te plussen.
Ellipische encryptie is tijdelijk veilig(er) dan de meer klassieke varianten. Maar Hilbert Space is grooooot. Daar past met voldoende quantum volume uiteindelijk ook wel elliptische encryptie ruim in.
Dit quantum gebeuren is een enorme overgang en het is geen 10 jaar verwijderd. Volgend jaar gaat al enorm zijn met de nieuwe hardware release. Echt vergelijkbaar met de introductie van de microchip, qua impact IMHO minimaal vergelijkbaar.
[Reactie gewijzigd door ataryan op 23 juli 2024 03:25]
Dit ziet er meer uit als een advertorial voor IBM cloud. IBM heeft altijd grote praatjes en veel advertenties maar komt meestal als laatste nog eens aanzakken met nieuw spul.
Ik lees vooral een artikel dat geschreven is door IBM-medewerkers met belang in sales, promotie van een onderwerp en promotie van het bedrijf, terwijl er geen duidelijk verschil is tussen marketing en wetenschap. Dat is niet perse zo heel erg om het bedrijf aantrekkelijk te laten lijken, maar dat maakt het nog niet zomaar relevanter dan de bewering uit het tweakers artikel over de verwachtingen rond RSA.
Ik stel daarmee niet dat ze geen gelijk kunnen hebben, maar daarvoor is toch wel betere onderbouwing nodig. Het zou helaas niet de eerste keer zijn dat een bedrijf beweringen doet over hoe geweldig ze met quantum computing bezig zouden zijn die wat betreft voorspellingen niet heel realistisch blijken.
Het gevaar in stellen dat iets pas over heel veel jaar kan gebeuren is dat het probleem te laat aangepakt zal worden en we dus meer risico nemen. Dus wat dat betreft lijkt het me verstandig om alvast (veel) eerder voorbereid te zijn. Maar ik denk dat er wel meer voor nodig is dan vergelijken van wetenschap met verwachtingen uit marketing.
Die qubits van IBM zijn betekenisloos. Het zijn een paar duizend *logische* qubits die je nodig hebt op Shor's algoritme te draaien, dat zijn qubits die stabiel blijven voor veel langere tijd en veel meer rekenstappen dan de qubits van IBM momenteel aankunnen.
Wat mij er al jaren aan opvalt is dat vrijwel alles wat beweerd wordt ermee te kunnen altijd met een super-ingewikkeld verhaal wordt verklaard maar er nooit uit een simulatie naar voren komt wat nou de quantum-eigenschappen zijn die het mogelijk zouden maken dat de tijdsduur die de simulatie in de vorm van ouderwetse transistor-logic vereist tot bijna niets wordt gereduceerd. En lijkt dat wel te gebeuren, dan kan het alsnog niet praktisch worden bewezen.
Is het niet zo dat in een dergelijke simulatie een 'entiteit' moet zitten die op een bepaalde manier data verstrekt en een quantum-mechanisme moet voorstellen?
Het lijkt een heilige graal. Maar bestaat die wel echt?
[Reactie gewijzigd door blorf op 23 juli 2024 03:25]
Alles wat ik kan zeggen is dat ik nu bijna 3 jaar bezig ben met quantum computing en de afgelopen 2 jaar erg betrokken ben met de ontwikkeling van qrack een quantum simulator die op klassieke en quantum hardware draait.
'Wij' zijn als IT gemeenschap, binnen ons vak en daarbuiten, gewend geraakt aan de bijbehorende variablen, namen en mogelijkheden van silicium. In QC zit (ook) een eigen 'taal' met eigen symbolen en vanzelfsprekendheden. Standaarden. Daar is quantum computing niet anders in. Echter, gebruikt QC natuurkundige fenomenen van divers pluimage en hebben we met een klassieke computer, met alle respect, zand leren rekenen.
De 'entiteit' die je noemt is mbt quantum computing de QFT
Praktische toepassingen voor het gebruik van (bestaande) quantum computers zijn er al, volop. Nadeel, bijvoorbeeld in het geval van qrack en andere quantum frameworks, moet dit hardcore in C of QASM geprogrammeerd worden. Dat is IBM aan het veranderen met het qiskit framework, waarbij connectors de communicatie en plaatsing/timing van qubit algoritmes met quantum computers danwel hardware simulatoren op zich neemt.
[Reactie gewijzigd door ataryan op 23 juli 2024 03:25]
Wat ik bedoel is dat in een fysiek bestaande simluatie van een quantumcomputer, in de vorm van een gangbaar halfgeleider-systeem een vervangende "afdeling" of component moet zitten dat cijfers verstrekt die in een echte quantumcomputer volgens natuurwetten al bestaan en met een bepaalde techniek uitgelezen kunnen worden. QFT is enkel de benaming van de achterliggende theorie.
Ja, als ik je goed begrijp heb ik dat net in een ander antwoord beantwoord. Het gaat om zichtbaarheid van data gegenereerd door de staat waar de QC in zit. Bij de Sycamore chip is hier over bericht, met als kanttekening dat de sycamore chip een soort van tesbeeld/ruis generator is. Je kunt die chip en vele andere algoritmes thuis ook met je eigen hardware simuleren, maar dan ga je niet veel verder dan ~30 qubits breed kunnen gaan. De sycamore chip is/was 52 qubits breed.
Voor elke qubit erbij is een verdubbeling van RAM en CPU/GPU kracht nodig om de vector op een klassieke manier te beschrijven en nog een beetje output te hebben; die output gaat op 30 qubits met huidige GPUs ongeveer 4x per seconde ipv de op dit moment in veel quantum computers gebruikte 20k x per seconde zijn.
Die 4x per seconde op 30 qubits is belachelijk snel voor een klassieke quantum simulator. Daar zat heel wat werk in.
[Reactie gewijzigd door ataryan op 23 juli 2024 03:25]
We komen in de buurt van mijn probleem. De Sycamore is dus geen quantumcomputer maar een apparaat dat het gedrag simuleert, zodat je niet een grote onbetaalbare wetenschappelijke opstelling nodig hebt? Hoe kan zoiets quantum supremacy (volgens Google) bereiken zonder dat er een quantum aan te pas komt?
En ge-integreerd in een binaire computer: hoe is een component dat de prestaties van een computer op een of andere manier verbetert zonder gebruik te maken van transistoren niet op zichzelf een uitvinding. los van quantumtechniek? Dit vind ik bedenkelijk...
Wikipedia geeft al min of meer een signaal:
In 2019, Sycamore completed a task in 200 seconds that Google claimed, in a Nature paper, would take a state-of-the-art supercomputer 10,000 years to finish. Thus, Google claimed to have achieved quantum supremacy. To estimate the time that would be taken by a classical supercomputer, Google ran portions of the quantum circuit simulation on the Summit, the most powerful classical computer in the world. Later, IBM made a counter-argument, claiming that the task would only take 2.5 days on a classical system like Summit. If Google's claims are upheld, then it would represent an exponential leap in computing power.[
Nu is IBM vaak nogal populistisch, in termen van empirische wetenschap kan zoiets niet. Dat eist een verklaring. Een beetje flauw als de simulatie op een normale computer doelgericht ingewikkeld is gemaakt om het langer te laten duren. Al is 200 seconden ipv 2,5 dagen nog steeds een factor, dit trekt die supremacy behoorlijk in twijfel.
[Reactie gewijzigd door blorf op 23 juli 2024 03:25]
Voor alle duidelijkheid: de Sycamore chip is een Quantum circuit van Google.
Qrack is een klassieke hardware QC simulator met connectoren naar echte QC machines en QC sofware APIs.
Het moment dat er in 2019 geruchten waren mbt de release van de Google Sycamore resultaten zijn we bij Qrack heel erg druk geworden om dit circuit, juist in het licht van die supremacy claim, virtueel na te gaan bouwen voor gebruik op gewone klassieke machines.
Korte versie: de Sycamore is een testbeeld generator die ruis genereerd op een manier die, als je die 1op1 na zou willen bouwen met een klassieke computer, een redelijk fors datacenter zou vullen. Vandaar de Summit DC die IBM aanhaalt.
Zijn de gemeten resultaten van de Sycamore chip op een (iets) andere manier te ook verkrijgen waardoor er minder compute resources nodig zouden zijn ? Ja, dat is zo. En daarom kan je met relatief gewone hardware ook via Qrack een vergelijkbare dataset geneneren; zelfs met een hoger aantal qbits.
Qrack::QUnit seems very well suited for the circuit. On my personal Alienware 17 development machine, the benchmarks stay tractable up to 63 qubits, which is Qrack's general limit for such optimizable cases for QUnit, by default.
Ik heb die grens na latere check, test en commits tot voorbij de 128 qubit grens kunnen drukken. In dat geval word het aantal gemeten resultaten op een gewone machine uiteraard exponentieel verkleint tot op een punt dat het niet meer handig word om daar op te gaan wachten met de huidige hardware.
Maar om dat allemaal als eerste te roepen zou oneerlijk en niet constructief zijn...
Waar Quantum Computing wint is wanneer je het aantal states waarin een set qbits in entanglement zo groot is dat je, om dit in klassieke termen te dimensioneren, een te grote hoeveelheid RAM nodig hebt om die tabellen te genereren om die zoekpartij te emuleren. Dat punt treedt al op bij een qubitje of 60. Maar 60 qubits is nog niet groot genoeg om een hele RSA key erin te gooien. Daar zit de groei ruimte.
Het huidige omslag punt begint voor mijn gevoel op een qbitje of 256/512. Dat wil echter niet zeggen dat 64 bits encryptie niet bestaat of niet bestond: in de 90s was dat de default van webbrowsers zoals netscape, en moest je de upgrade in de US downloaden om naar 128bit te upgraden. Ik verwacht dat dat soort keys kraken als benchmark/selftest voor QC functionaliteits checks heel gewoon gaan worden.
[Reactie gewijzigd door ataryan op 23 juli 2024 03:25]
Kun je hier iets dieper op in gaan? Ik heb zelf nooit tijd gehad (genomen) om quantum algoritmes te bestuderen. Hoeveel qubits zouden er nodig zijn om RSA te kraken? Kun je volstaan met één processor met een aantal (een paar duizend? een miljoen?) qubits en daarnaast een normale processor?
De hardware roadmap van IBM geeft nog geen inzicht in wanneer we een processor met een miljoen qubits kunnen verwachten. Er staat slechts "2023 and beyond".
De breedte van het aantal qubits geeft een data horizon van de factorial van het aantal qubits. Op die data horizon draait een quantum algotitme zoals Shors' algoritme; de machine gooit er dan resultaten uit. Die resultaten komen net zo snel als dat die op te vangen zijn vanaf het moment dat de quantum computer de gewenste staat heeft bereikt.
Die data horizon is een deel van de (mathematische) realiteit genaamd Hilbert Space. De data horizon van een 300 qubit brede quantum machine heeft zicht op een Hilbert Space die vele malen groter is dan het zichtbare universum.
Ergo: een quantum machine met meer dan 300 qubits heeft RAM geheugen van meer dan het aantal atomen in het zichtbare universum wanneer elke atoom omgebouwd zou worden tot een bit.
Het uitzicht op zo'n enorme data horizon geeft uiteraard een versnelling in het opsporen van collisions en private keys.
Om antwoord te geven op jouw vraag: bij 256 qubits of meer beginnen zaken al aardig te kraken, bij 512 qubits zie ik geen toekomst meer voor RSA. De gebruiksvriendelijkheid van de IBM quantum API word op dit moment misschien onderschat. Maar het gaat helpen om resultaten te boeken die nu nog niet gelooft word door het leeuwendeel van de IT gemeenschap. En dat is niet erg. Maar maakt de noodzaak tot innovatie op encryptie niet minder. Verwacht keys van Megabytes ipv de Kilobytes van nu.
[Reactie gewijzigd door ataryan op 23 juli 2024 03:25]
Ik ga niet kunnen reageren op de Hilbertruimte vs. Platte tijdruimte, laat staan entangement, echt. Ik ben maar een simpele engineer. Daar zijn andere mensen veel beter in: https://youtu.be/9crggox5rbc
Platgeslagen komt het qua gebruik IMHO erop neer dat een algoritme met private key wat voorheen bijvoorbeeld gecertificeerd is om veilig te zijn omdat een PC met 12 cores en 12 Gb RAM er 300k jaar aan moet rekenen om je key te kraken je een quantum computer kan gebruiken om die tijd serieus te verkorten omdat de mapping die je met bruteforce doet in 1 klap gedimensioneerd is.
Zeker wanneer de key(s) overdwars de QC in geschoven kunnen worden.
[Reactie gewijzigd door ataryan op 23 juli 2024 03:25]
Je hebt ongeveer twee qubits nodig per bit van RSA: dus 4000 *stabiele* qubits voor RSA-2048. De grootste quantumcomputers van dit moment hebben nul stabiele "logische" qubits voor zover ik weet.
Waarschijnlijk heb je meer dan één (mogelijk grote aantallen) fysieke qubits nodig om één logische qubit te hebben. RSA is nog wel even veilig — ironisch genoeg zal elliptic curve cryptografie, die in de klassieke wiskunde absoluut superieur is aan RSA, eerder ten onder gaan aan een quantumcomputer.
De DWAVE bakkken zijn quantum annealing machines; een soortvan quantum telraam wat erg goed in staat is om minimums in een systeem te bepalen. Wat ik meekreeg is dat een bedrijf in Duitsland gebruik heeft gemaakt van die technologie om hun route planning te verbeteren.
De qubits van DWAVE kunnen, voor zover ik heb begrepen, niet in entanglement wat de toepassingen voor deze machine beperken tot specifieke toepassingen die die functionaliteit niet nodig hebben. De diepvriezers van IBM kunnen dat wel, en ik heb de bak in Tokio tot 20 qbits in entanglement zien antwoorden. Op dit moment lijkt 'ie in onderhoud en is melbourne met 16 qubits de max in de IBM Cloud.
Noot: stackexchange zou ik niet gebruiken als bronverwijzing in deze materie. arxiv.org is your friend.
Noot2: Optimalisaties van QASM code / API calls en de daadwerkelijke qubit allocatie op de fysieke machine is 1 van de gebieden waar de afgelpen tijd veel winst behaald is en in de toekomst nog behaald gaat worden. Van de 1 op 2 mapping tbv QC functionaliteit is derhalve al geen sprake meer. Het QC veld beweegt sneller naarmate de silicium innovatie vertraagt, IMHO. https://youtu.be/Z9R9a3hku9Y
[Reactie gewijzigd door ataryan op 23 juli 2024 03:25]
Ik heb een stukje van de video gekeken die je aanhaalt, maar het enige wat daar wordt gezegd is dat als je een quantum state van 300 qubits wilt voorstellen met gewone bits, je er meer dan het aantal atomen in het universum voor nodig hebt. Dat betekent nog lang niet dat dat ook andersom geldt. Dus wat je beweert over "RAM geheugen van meer dan het aantal atomen in het zichtbare universum" heeft geen onderbouwing voor zover ik kan zien.
" what this table shows is the number of bits you need to describe the vector state in classical bits "
ik probeer het eenvoudig weer te geven. Zonder met allerhande moeilijke shit te gaan gooien. Ik probeer ook niemand te overtuigen. Dat wil ik niet eens.
[Reactie gewijzigd door ataryan op 23 juli 2024 03:25]
Het voordeel met ECDHE is dat er forward secrecy is, waardoor de opgevangen communicatie niet later alsnog te ontsleutelen is als de sleutels gekraakt zijn. Als we dus op tijd over gaan op de opvolger, dan zou daar geen risico aan moeten zitten.
Klopt maar vaak wordt dat niet toegepast omdat het performance kost. Meestal wordt de Key een x tijd gebruikt voor het gesprek en daarna opnieuw afgesproken. Edit: Dit is ECDH* niet ECDHE.
[Reactie gewijzigd door dylan111111 op 23 juli 2024 03:25]
tl;dr: De claim is al oud en niet bewezen, hoogst waarschijnlijk dus niet waar, maar RSA lijkt niet voor eeuwig houdbaar door dreiging uit een andere hoek: Quantum computing. Echter wordt er al gewerkt aan encryptie die veilig is voor quantum computers.
Echter wordt er al gewerkt aan encryptie die veilig is voor quantum computers.
Het woordje "echter" is hier niet zo van toepassing. Het probleem met veel encryptie is niet alleen of het nú te kraken is, maar of het ooit te kraken is. Denk aan iedere hack waarbij privacygevoelige gegevens worden buitgemaakt. Meestal zijn die versleuteld, maar als je de gegevens bewaard en wacht tot die versleuteling verbroken kan worden, heb je alsnog toegang. M.a.w., als je gegevens opslaat die niet naar verloop van tijd waardeloos worden, moet de encryptie daarvan toekomstbestendig zijn.
Wat betekent "toekomstbestendig" nou echt? Dingen die 10 jaar geleden best practice waren en als veilig werden aanzien of zelfs "toekomstbestendig" zijn vandaag de dag dan weer volledig waardeloos en allesbehalve veilig tegen de gemiddelde huis-tuin-en-keukencomputer. Ik denk dat de meeste veel gebruikte encryptiemethodes wel zijn opgezet met het idee dat dat het beste was dat er op dat moment voor handen was. Het is zelfs niet zo absurd lang geleden dat iedereen MD5 hashes van passwords bijhield in hun db "want dat was veel veiliger dan het paswoord in plain text of zelfs encrypted bij te houden". Ondertussen weten we wel beter maar het is niet ondenkelijk dat er iets gelijkaardigs gebeurt voor iets dat vandaag de dag veel gebruikt wordt.
Long story short, sommige systemen draaien gewoon erg lang. Dat moet natuurlijk up to date gebracht worden maar overtuig management van sommige bedrijven daar maar eens van. Dat is dan nog een best case scenario, sommige producten zijn outsourced en vervolgens opgezet bij een bedrijf dat nauwelijks een IT afdeling heeft. Die zijn zich nauwelijks bewust dat die verouderde soft die in hun ogen goed werkt gewoon niet meer veilig is. Sommige bedrijven hebben gewoon het geld, de tijd of het personeel niet, als ze er zich al bewust van zijn. Ik wil dit zeker niet goedpraten, dit is gewoon niet OK. Maar wel vaak de realiteit.
Hoe veilig het ook is, het is nooit de vraag of het onbreekbaar is of niet. Ooit wordt het gekraakt. De enige vraag die echt van belang is, is wanneer, en daar dan pro-actief op inspelen.
Ik heb geen idee wat op het moment toekomstbestendig betekent en dat pretendeer ik ook niet. Ik hou ook geen databases bij met privacygevoelige gegevens, dus ik voel me niet geroepen om me daar heel erg in te verdiepen. Ik zeg niet eens dat het mogelijk is om toekomstbestendige encryptie te hebben, maar in dat geval moet je je (men zich) wel gaan afvragen wat je doet met gegevens die niet in waarde verminderen naarmate ze ouder worden.
Zo versleuteld dat niet voorstelbaar is dat er ooit een computer komt die het kraken kan. Quantumcomputers zijn vermoedelijk mogelijk, en iets wat daarmee gekraakt kan worden is dus in elk geval niet goed genoeg.
Het is veilig om aan te nemen van wel. We kunnen nu nog niet weten welke computers we hebben over 50 jaar, maar het is verstandig om aan te nemen dat geen encryptie langer dan 30 jaar mee gaat.
Hier wordt ook rekening mee gehouden. Steeds meer beveiligingssystemen werken meer-laags en door middel van een double-ratchet, zodat het exponentieel veel werk is om een hele conversatie te kraken. Zal nog steeds lukken in de toekomst, maar het kan wel moeilijker gemaakt worden.
Als je niet bekend bent met de fundamenten van quantummechanica is dat misschien een veilige aanname, ja. Maar als je dat wel bent zul je begrijpen dat het fundamenteel onmogelijk is om het te "kraken". Meer rekenkracht zal daar niets aan veranderen, wat nodig is is bewijs dat de huidige theorie ronduit onjuist is, maar dat heeft verstrekkende gevolgen.
Wellicht een heel gekke opmerking, maar misschien hebben we in de toekomst helemaal geen encryptie meer nodig - tenminste, voor communicatie. Zou ik niet entangled-deeltjes naar iemand kunnen sturen, en dan de boodschap 'plaatsen' aan mijn kant pas als de ontvanger de entangeld-deeltjes heeft, dan zou de ontvanger direct mijn boodschap eruit kunnen halen zonder dat iemand er tussen kan komen?
Dat is min of meer het idee van quantum "encryptie". Eigenlijk is het geen encryptie, maar een key exchange. Het idee is dat je op die manier een willekeurige sleutel door kunt geven, waarmee je het daadwerkelijke bericht verstuurt. En omdat je afluisteraars kunt detecteren, kun je de communicatie afbreken voordat je het daadwerkelijke versleutelde bericht verstuurd hebt.
Exact wat jij suggereert kan overigens niet. Je kunt verstrengeling niet gebruiken om mee te communiceren. Je moet het meer zien als dat beide partijen kunnen afstemmen op hetzelfde radiostation dat random ruis produceert.
Wel grappig dat jij "kan overigens niet" schrijft, want QM begrijpt niemand op dit moment, dus wat wel of niet kan weet niemand.
Persoonlijk denk ik dat we de werkelijkheid helemaal verkeerd/omgekeerd zien, en dat moderne natuurkunde 'gewoon' een model is voor onze werkelijkheid dat op dit moment werkt. Wij bestuderen een schaakspel en hebben inmiddels de spelregels van schaken goed door, maar van de spelregels van schaken kan je nooit snappen waar het schaakbord van gemaakt is.
Met "spooky action at a distance" is het duidelijk dat informatie onmiddellijk over grote afstanden 'gecommuniceerd' kan worden, of dat de onderliggende/werkelijke afstand toch 0 is. Kennis over een afstand van 0 overdragen betekent dat encryptie niet nodig is.
[Reactie gewijzigd door Verwijderd op 23 juli 2024 03:25]
Wel grappig dat jij "kan overigens niet" schrijft, want QM begrijpt niemand op dit moment, dus wat wel of niet kan weet niemand.
Dat het niet kan is een van de fundamenten van de theorie.
Met "spooky action at a distance" is het duidelijk dat informatie onmiddellijk 'gecommuniceerd' kan worden
Nee hoor. Het kan bijvoorbeeld betekenen dat het "many worlds" principe juist is, dat elke mogelijkheid gewoon daadwerkelijk gebeurt en elke meting eigenlijk gewoon een verstrengeling is van de waarnemer met een bepaalde staat.
[Reactie gewijzigd door .oisyn op 23 juli 2024 03:25]
Wat ook kan, is dat de fysieke werkelijkheid 'emergent' is van bewustzijn, en niet andersom. Bewustzijn is overigens bewezen, de rest (een werkelijkheid die los van bewustzijn bestaat) niet. Bohr en Berkeley begrepen dit. QM is bewijs dat het huidige model niet volledig is - en dat niet volledig kan zijn. Als een fysieke afstand uitsluitend in bewustzijn bestaat, dan is communicatie over 'afstanden' een illusie, en encryptie dus uiteindelijk ook. Als ik iets verkeerds zeg, hoor ik het graag.
Met "spooky action at a distance" is het duidelijk dat informatie onmiddellijk over grote afstanden 'gecommuniceerd' kan worden,
Pertinent onjuist; er is nog steeds een conventionele communicatielijn noodzakelijk om de "spooky action" te kunnen onderscheiden van de situatie zonder.
Niet alleen "onjuist", maar "pertinent" zelfs. Zo zo. Ga jij dit het universum vertellen, of moet ik het doen?
Als "spooky action at distance" waar is - en er lijkt veel bewijs hiervoor te zijn - dan wordt informatie onmiddellijk over grote afstanden gecommuniceerd. Het gaat hier om informatie over de deeltjes zelf. Dit is waarom Einstein het ook onmogelijk achtte, want volgens hem kon informatie niet sneller dan de snelheid van licht overgedragen worden.
Dat wij "nog steeds" conventionele communicatielijnen nodig hebben om onderscheid te maken, gaat hier om andere informatie, namelijk onze kennis van de stand van de deeltjes. En wellicht zal het ooit voor ons mogelijk blijken te zijn om de stand/positie/spin van de deeltjes aan de ene 'kant' te bepalen/sturen, waardoor die aan de andere kant af te lezen is.
[Reactie gewijzigd door Verwijderd op 23 juli 2024 03:25]
Je haalt hier twee dingen door elkaar. De filosofische interpretatie van QM (Copenhagen, many worlds, etc.) is niet relevant, want hoe de kwantummechanica in de praktijk werkt is goed beschreven.
Al deze interpretaties geven hooguit verklaringen waarom een verstrengeld deeltje een bepaalde stand aanneemt (en het andere deeltje dus automatisch de tegenovergestelde stand,) geen manieren om het te beïnvloeden. Als je al van tevoren weet wat een deeltje gaat doen, dan is dat informatie die erin gestopt wordt als de deeltjes gemaakt worden. Daarna gaan die deeltjes met een snelheid van max. die van het licht naar de beide ontvangers, die wel beiden de stand van het deeltje weten op dezelfde tijd maar niet kunnen communiceren omdat ze de stand niet kunnen beïnvloeden.
Communiceren met een snelheid groter dan die van het licht levert sowieso filosofische vraagstukken op die veel verder gaan dan de interpretatie van QM. Dat zou namelijk ook causaliteit verbreken (= oorzaak komt voor het gevolg, voor waarnemers uit alle gezichtspunten.) Een snel bewegende waarnemer zou de gebeurtenis dan andersom kunnen zien.
dan is dat informatie die erin gestopt wordt als de deeltjes gemaakt worden
Dat is is juist niet, want "spooky action at a distance" is het feit dat de stand van tevoren niet bepaald is, totdat je die observeert/meet. De verstrengelde deeltjes kunnen op dat moment 1 miljard lichtjaren van elkaar verwijderd zijn, dan meet je het ene en de stand van het andere is pas dan - maar dan ook gelijk/onmiddelijk (en geen miljard jaar later pas) - bepaald.
Ik heb het niet over het van tevoren weten, want volgens QM kan dat niet. Ze zijn verstrengeld, maar WAT hun stand zal zijn weet je niet, totdat je die observeert.
Wat jij beschrijft ("informatie die erin gestopt wordt") "local hidden-variable" informatie, en het is door Bell's theorem bewezen dat deze met QM incompatiebel is.
Ik denk dat jullie langs elkaar heenpraten, maar bij gebrek aan wiskunde is dat lastig vast te stellen.
"Informatie die in een deeltjespaar gestopt" wordt is niet noodzakelijk "hidden", en "weten wat een deeltje gaat doen" is ook geen falsifieerbare bewering.
Vergeet niet dat de twee metingen op een miljard lichtjaar afstand alleen dit gedrag vertonen als Alice en Bob besluiten om parallelle (of anti-parallelle) richtingen te meten. En hoe kunnen ze dat over een lichtjaar afstand afspreken?
wat nodig is is bewijs dat de huidige theorie ronduit onjuist is, maar dat heeft verstrekkende gevolgen.
Daar moet je dus ook rekening mee houden. in 100 jaar tijd is de natuurkunde behoorlijk opgeschoten, en misschien ontdekken we in de toekomst bepaalde eigenschappen van quantummechanica die het ongeschikt maken voor quantummechanica.
Dit zie je nu ook met AES. Leuk om mee te werken maar ik gebruik tegenwoordig ook ChaCha20 omdat je niet alles wilt laten afhangen van 1 symmetrische encryptie methode. Dit zie je ook terug in de TLS standaard. ChaCha20 zit daarin omdat je niet alle eieren in 1 mand moet stoppen.
Het lijkt mij dus ook niet meer dan logisch dat bij de uitrol van de eerste quantumencryptie algoritmen, we meteen op zoek gaan naar betere versies.
Daarom zie je ook dat encryptie als concept ook ontwikkeld. Vroegah tekende je een hele conversatie met 1 sleutel. Nu zorg je er voor dat sleutels continue verversen. Forward Secrecy is dus tegenwoordig belangrijk, je wilt continue keys updaten zodat een effectieve aanval aanzienlijk moeilijker wordt.
Ze gaan er dus eigenlijk al van uit dat sommige berichten op Signal over 20 jaar te kraken zijn, maar op deze manier is de impact beperkt en is het doen van een effectieve aanval veel lastiger.
[Reactie gewijzigd door Eonfge op 23 juli 2024 03:25]
En hoe lang het duurt tot de kraak bekend is bij het grote publiek.
Want reken maar dat een overheid dit voor het eerste voor elkaar krijgt, en dat stil houdt.
Had onlangs de aflevering van computerphile gezien die hierover ging. Daar leggen ze de RSA encryptie ook mooi uit, voor de personen die het nog niet helemaal kunnen volgen (waarvan ik er een was) . https://www.youtube.com/watch?v=JD72Ry60eP4
Betteridge's law of headlines
Betteridge's law of headlines is an adage that states: "Any headline that ends in a question mark can be answered by the word no." It is named after Ian Betteridge, a British technology journalist who wrote about it in 2009, although the principle is much older. Like similar "laws" (e.g., Murphy's law), it is intended to be humorous rather than the literal truth. The adage fails to make sense with questions that are more open-ended than strict yes–no questions.
Je kunt clickbait titels op twee manieren herkennen:
- Contoversie zonder onderbouwing wordt geciteerd uit bron
- Het artikel heeft een controversiële vraag als titel
Die eerste zie je hier op Tweakers ook wel eens. Het geeft je de mogelijkheid om titels zoals "We moeten België binnen vallen" te gebruiken, zonder dat de auteur dit vervolgens hoeft te verdedigen. De auteur kan zich distantiëren zonder een drogere titel te bedenken zoals "handelsoverleg grensregio's leidt tot verhit debat".
De tweede is inderdaad waar ik aan link: je kunt een controversiële titel gebruiken zonder bewijs. "Hebben de Belgen broodbeleg gemaakt van Nederlandse peuters?"... is natuurlijk niet waar, maar echt wel dat het beter klinkt als "Broodbeleg in België ziet hogere omzet dankzij Corona". Andersom, als de Belgen daadwerkelijk broodbeleg zouden maken van Nederlandse peuters... dan zet je dat in de titel want iedereen gaat er op klikken om te walgen van onze Zuiderburen.
Check die titel... 'Groei aantal datacenters brengt levering drinkwater Noord-Holland in gevaar'... maar nergens gaat Olaf die claim verdedigen in her artikel.
[Reactie gewijzigd door Eonfge op 23 juli 2024 03:25]
Eigenlijk best voor de hand liggend, maar ik heb nog nooit op deze manier naar titels gekeken.
Ik ga eens beter opletten en kijken of ik dit patroon ook kan herkennen.
Off topic: Mag ik dit tweakers artikel een heel, heel goed geschreven stuk vinden? Duidelijk, met een helder voorbeeld, historische duiding, mening van een expert en een heldere conclusie. Eén van de eerste premium artikelen die echt dieper gaat.
[Reactie gewijzigd door wardr op 23 juli 2024 03:25]
Wel echt heel jammer van de clickbait-titel. Toen ben ik gestopt met lezen, echt vreselijk. Gelukkig wordt de titel meteen al onderuitgehaald in de eerste alinea, maar toch: ik vind die titel echt Tweakers-onwaardig.
Sjonge dit is wel een clickbait artikel zeg.... In grote letters de vraag stellen of RSA ten einde is, en dan aan het eind toegeven dat er niets nieuws is gepubliceert en er dus niks aan de hand is.
Ik zag meer opmerkingen hierover. Het is niet de bedoeling dat een artikel als clickbait overkomt, wel wil ik met een titel en lead de interesse wekken natuurlijk. Blijkbaar is het bij dit artikel over het randje gegaan, dus ik heb de titel en lead wat aangepast. Ik hoop dat het zo minder is.
Ivm quantumcomputing: eerst zien dan geloven. De laatste keer dat ik dat checkte had ik toch mijn vragen daarbij. Bv, diegene die zegt dat hij begrijpt hoe quantum computing exact werkt / zou moeten werken, die liegt zo goed als zeker.
Dat is beter, dank! Echt fijn dat Tweakers naar zijn lezers luistert. Bij grote kranten zijn de titels vaak een stuk slechter en clickbaiteriger dan hier, en die luisteren helemaal niet.
Ik bedacht mij dat er sowieso een ramp op ons afkomt. Alle belangrijke informatie is nu met de nu bestaande conventionele methodes versleuteld. Die informatie kan straks met kwantumcomputers worden ontsleuteld.
De nu bestaande informatie die met de nu bestaande conventionele methodes zijn versleuteld hoeven dus alleen maar in de huidige staat te worden gekopieerd en straks kan dit allemaal worden ontsleuteld als kwantumcomputers voor iedereen beschikbaar en betaalbaar komt 🙈