Black Friday = Pricewatch Bekijk onze selectie van de beste Black Friday-deals en voorkom een miskoop.

Google maakt quantumalgoritme dat '13.000 keer sneller' is dan supercomputer

Google claimt voor het eerst een verifieerbaar algoritme te hebben uitgevonden dat 'quantum advantage' aantoont: de mogelijkheid om véél sneller berekeningen op een quantumcomputer uit te voeren dan op een 'gewone' supercomputer. Sommige onderzoekers zijn sceptisch.

Volgens Google baant zijn nieuwe algoritme de weg naar praktijktoepassingen voor quantumcomputers. Tot op heden zijn quantumcomputers vooral in theorie sneller dan klassieke computers voor bepaalde berekeningen, maar dat is nog nooit aangetoond met praktijkresultaten. "De doorbraak van vandaag brengt ons veel dichter bij quantumcomputers die belangrijke ontdekkingen kunnen stimuleren op gebieden als geneeskunde en materiaalkunde", aldus de techgigant.

Google noemt zijn nieuwe algoritme Quantum Echoes. Het algoritme kan de structuur van moleculen berekenen. De techgigant heeft aangetoond dat Quantum Echoes die berekeningen tot 13.000 keer sneller kan uitvoeren op een quantumcomputer dan 'klassieke' algoritmen op de Frontier-supercomputer, de nummer twee op de recentste TOP500-supercomputerlijst. Google publiceerde zijn bevindingen in onderzoeksblad Nature.

Google Quantum Willow
Bron: Google

Het techbedrijf draaide Quantum Echoes op zijn eigen quantumchip: Willow. Die bestond uit 105 qubits: de 'bouwblokken' waar quantumcomputers uit worden opgebouwd. Google kondigde de Willow-chip vorig jaar aan en claimde toen enkele andere doorbraken, vooral op het gebied van foutcorrectie: nog altijd een van de grote uitdagingen op het gebied van quantumcomputers. Het bedrijf toonde toen ook uitstekende prestaties in de RCS-benchmark voor dergelijke quantumsystemen, hoewel die test geen enkel praktisch nut heeft.

Tegelijkertijd zijn sommige onderzoekers nog sceptisch, schrijft ook Nature in een begeleidend nieuwsbericht. Het blad baseert zich onder andere op Dries Sels, quantumwetenschapper bij New York University, die hamert op een hoge bewijslast bij het claimen van dit soort doorbraken.

Het onderzoek van Google doet volgens hem 'serieus werk' door verschillende klassieke algoritmen te testen, maar er is volgens hem geen bewijs dat er geen algoritme bestaat dat dezelfde berekeningen op een klassieke computer efficiënt kan uitvoeren. Hij vindt de resultaten van Google daarom onvoldoende om 'zulke grote claims' te doen. Andere onderzoekers zeggen volgens Nature dat, hoewel de technische vooruitgang 'indrukwekkend' is, het nog voorbarig is om nabije praktijktoepassingen te beloven.

In een briefing met journalisten zei Google echter 'optimistisch' te zijn dat er over vijf jaar praktijktoepassingen voor quantumcomputers zullen zijn. Het bedrijf blijft de komende tijd doorwerken aan zijn eerder gepubliceerde roadmap. De volgende stap daarop moet een long-lived logical qubit, oftewel een qubit die een miljoen rekenstappen kan uitvoeren met minder dan één fout. Wanneer die af moet zijn, is niet bekend.

Google-ceo Sundar Pichai met een quantumcomputer. Bron: Google
Google-ceo Sundar Pichai met een quantumcomputer. Bron: Google

Door Daan van Monsjou

Nieuwsredacteur

23-10-2025 • 16:18

38

Lees meer

Reacties (38)

Sorteer op:

Weergave:

1 fout per miljoen rekenstappen, hoeveel fouten per seconde is dat in vergelijking tot een moderne CPU, GPU of NPU? En hoeveel fouten maken die? Voorlopig wil ik me aansluiten bij de onderzoekers die het "grote claims" noemen. Maar goed, om voortgezette commercieele financiering te krijgen heb je wel resultaten nodig.
Een moderne processor of GPU maakt vrijwel geen rekenfouten. Maar in DRAM / SRAM komen wel degelijke fouten voor. Net als bij overdracht binnen netwerken, helemaal draadloos.

Ze zullen het nog wel kunnen verbeteren en daarnaast zijn er ook genoeg 'trucjes' om ermee te 'leren leven'.
De kans op fouten in DRAM is als je naar het mediaan kijkt 0 over de levensduur van de DRAM (op moderne consumenten-DRAM).

De kans is nihil, maar bij een een solar event (of een andere natuurlijke of menselijke gebeurtenis) wordt de kans opeens wel groot. Daar is ECC DRAM dan ook voor.

[Reactie gewijzigd door MrFax op 23 oktober 2025 18:38]

Waarom is ECC RAM nog altijd zo duur en niet de standaard?

Ik zou het dolgraag willen gebruiken, maar de meeste consumenten borden ondersteunen het simpelweg niet of je zit al duurder in prijs.
Aan de AMD zijde iig genoeg keuze voor moederborden die ECC RAM ondersteunen.

Vergeet niet dat met ECC RAM je wel bandbreedte verliest, wat niet zo handig is voor gaming.
De memory bus is gewoon 72-bit en de berekening gebeurt parallel d.m.v. een aantal xor-gates, het enige verlies in bandbreedte wat je zal hebben is doordat ECC geheugen altijd JEDEC specs heeft.
Ah dat wist ik niet. Dankjewel voor je uitleg. Ik ga ervanuit dat je wel iets meer latency hebt? (lees: op dezelfde frequentie en timings)

[Reactie gewijzigd door MrFax op 24 oktober 2025 18:31]

Geen idee eerlijk gezegd, maar aangezien het syndroom (de controlesom) wordt meegestuurd over de databus kunnen we concluderen dat het verifiëren ervan plaatsvindt in de memory controller van de CPU. Vanuit het geheugen zelf zal er dus geen extra latency zijn in de vorm van wait states o.i.d.
Eeh. Het is niet standaard omdat het een relatief zeldzaam probleem is. Het is duur omdat het duurder is om te produceren en omdat de markt kleiner is. Als je hele gebouwen vol met servers die bedrijfskritische processen draaien problemloos wilt laten werken dan kan het handig zijn en is het wel standaard.
Precies. Een quantum computer met 105 qbits. Daar kan je niet zoveel mee. De stap naar een quantumcomputer met vele miljoenen qbits is nogal groot.

Maar vergezichten schetsen van wat er over vijf jaar wel niet mogelijk zal zijn, dat helpt wel bij het project gefinancierd te krijgen. Anders belandt je zomaar op de Google graveyard.
Alleen moeten die vergezichten wel realistisch zijn, anders wordt men net zo sceptisch als bij de onveranderde "dertig jaar" van commercieel inzetbare kernfusie.
Alleen kernfusie is al operationeel en wordt vanaf 2027 ook daadwerkelijk commercieel toegepast.
Wedden om 10'000 euro dat dat niet gebeurt? Tenzij "commercieel" betekent dat je geld van instituten of investoren binnenharkt natuurlijk.
Ligt er aan wat jij bedoelt.

Microsoft heeft gewoon een contract met ze getekend voor het leveren van de stroom aan hun data centers. En staat er letterlijk bij dat het eerste commerciële fusie power dienst is.

Je kunt het geld overmaken. Zal een tikkie sturen.

https://www.helionenergy.com/articles/announcing-helion-fusion-ppa-with-microsoft-constellation/

[Reactie gewijzigd door Scriptkid op 24 oktober 2025 08:34]

Plan in 2027

Uit je eigen bron is het (ietwat vage) plan uit 2023 om te beginnen in 2028, niet 2027:

"The plant is expected to be online by 2028 and will target power generation of 50 MW or greater after a 1-year ramp up period."

Na een beetje zoeken vond ik wel een mededeling van MS zelf, dat was wel bealngrijk. De mededeling waar Microsoft zelf naar linkt is deze uit 2023, en daar staat ook dat "Polaris, Helion's seventh-generation machine, should come online next year [i.e. 2024] and demonstrate electricity generation, using pulsed high-power magnet technologies to achieve fusion, Kirtley said."

Het is nu 2025 en ik zie geen mededeling van hen zelf dat een mijlpaal bereikt is. Ze liggen dus al een jaar achter op schema, en hun plan ligt een jaar achter jouw voorspelling. Je tikkie is ook iets voorbarig als er nog niets is wat werkt.

Commeriëele fusie

Mocht die centrale inderdaad energie produceren, betekent dat niet dat hij ook commercieel energie produceert. Je kunt nog steeds bergen geld verliezen aan Tritium en input-stroom, maar wel output genereren. Dat je die verkoopt klinkt leuk voor de persmededeling, maar betekent niet dat je er geld mee verdient. Je moet bij deze dingen altijd precies lezen en dat heb je niet gedaan.

Je zegt: "En staat er letterlijk bij dat het eerste commerciële fusie power dienst is.".
Nope, dat staat er juist niet letterlijk. Het wordt gessugereerd, want mensen willen het horen.
"With this partnership, not only are we advancing the timeline to have commercial fusion energy on the grid, but we are also supporting Microsoft’s goal to be carbon negative by 2030.". Volgens hun eigen marketing zorgt dit voor het "advancing" van de "timeline". Dat deze centrale winstgevend is staat er niet in.

Het zou ook vreemd zijn, de productie is er even van uit gaande dat het ding meteen 100% loopt en er geen seconde onderhoud nodig is, 50 MW, oftewel 24*50 = 1200 MWh/dag. De stroomprijs voor industrie is $40/MWh in de VS. Daarmee zijn de inkomsten 48'000 USD/dag, of 17.5 miljoen per jaar. Aangezien ze net 425 miljoen binnengeharkt hebben zullen ze nog wel wat meer geld nodig hebben om hun bedrijf aan het lopen te houden.


Dit soort startups heeft altijd een stroom aan mooi nieuws nodig. Daarvoor produceren ze graag artikelen die klinken naar wat investoren willen horen, maar zonder te liegen. De persmededeling hier boven is daar een mooi voorbeeld van.
Daarvan afgezien: Ik hoop werkelijk dat het lukt. Een betere energiebron zou geweldig zijn.
Daarom zeg ik als start "Ligt er aan wat jij bedoelt.""

Commercieel is commercieel zelfs als de eerste KW 1 miljoen kost. En eerste stroom zal geleverd worden ahead of die timeline want je moet ook testen etc en aansluiten.
Heb het eens opgezocht. De Van Dale noem commercieel "de commercie betreffend; [...] gericht op het maken van winst".

Ja dit is inderdaad een moeilijke zaak. De bedoeling is winst maken, maar dat kan ook met verlies op de eerste drie reactoren.

Mijn bedoeling met commercieel zou zijn: met positieve operationele winst, investeringen niet meegeteld. Desondanks kan ik niet geloven dat er 2027 één Joule geleverd zal zijn.
Het zou fantastisch zijn als Helions radicaal andere aanpak van fusie werkt, maar ik ben skeptisch. Ze projecteerden in 2014 dat ze binnen 6 jaar energie konden produceren met hun fusie technologie. Ondertussen is die projectie opgeschoven naar 2028. Ze dekken zich alvast in op hun website: onder de beschrijving van hun nieuwste prototype (Polaris) staat letterlijk "If succesfull, ...". We gaan het zien.
Kernfusie komt er toch al 30 jaar lang over 5 jaar aan of zo?
Net als zelfrijdende auto's, die zijn ook al 20 jaar lang over 2 jaar beschikbaar
Klopt alleen Hellion heeft kernfusie al een paar jaar draaien dat is een groot verschil,

Alleen het is niet in een tokamak of wendel reactor. maar het is zeker wel kern fusie. Door hun setup zijn de kosten enorm lager en lossen ze ook het tritrium probleem op.

Bouw elk jaar 1 nieuwe reactor die tritrium maakt en zichzelf opeet door de hogere temperaturen, en voorzie daarmee 7 langduringe reactors.

Bij een tokama wil je dit niet omdat dat niet rendable te krijgen is.
Helion is ook niet rendabel. Geen enkele werkende (test)reactor is, en ligt ook niet in de kortetermijnverwachting.
Rendable komt op de lange termijn,

Eerst eens werkend krijgen ,

Eerste electrische autos en computers waren ook niet rendable.

Commercieel leverbaar heeft te maken met verkopen aan klanten met het ook op winst maken, dat betekend niet dat je op dag 1 winst moet maken.
"rendabel", niet "rendable".
Bij Tesla zijn zelfrijdende auto's al 6 of 8 jaar lang binnen een jaar beschikbaar, zelfs :).
Die 105qubits verslaan nu, voor één welbepaalde probleemstelling, wel alle huidige supercomputer, met een seriouse ordegroottefactor, volgens Google.
Alleen is de het erg vaag.
But some researchers are cautious of the claim of quantum advantage, published in Nature on 22 October1. “The burden of proof should be high,” says Dries Sels, a quantum physicist at New York University in New York City. And although the paper does a “serious job” of testing various classical algorithms, there is no proof that an efficient one doesn’t exist. “Personally I don’t think that’s enough to make such a big claim,” he says.

[Reactie gewijzigd door wiseger op 23 oktober 2025 23:20]

Zolang dat je niet kan bewijzen dat een traditionele computer sneller kan dan hij nu doet is dat ook gewoon fantasie en met de zelfde rede te ontkrachten. Dus “Personally I don’t think that’s enough to make such a big claim,”
Daar zit het probleem dan ook als je een specifiek algoritme ontwikkeld voor een quantum computer. Om dat algoritme dan te kunnen vergelijken met een traditionele computer, verzint men dan iets vergelijkbaars voor een traditionele computer in plaats dat men een reeds bestaand, vrij goed uitontwikkeld algoritme gebruikt.

Maar als je dan claims wil gaan doen over performance, dan moet je wel aantonen dat het algoritme voor de traditionele computer optimaal is.
Ehm qbits schalen nogal anders dan je gewone bits, gaat theoretisch exponentieel hard met het aantal qubits. Dus je kan er wel degelijk wat mee. In de praktijk verlies je daar een (flink deel van) voor fout-correctie en het een paar keer moeten draaien van het algorithme, omdat het antwoord toch meer iet is van zoveel % kans dat het dit antwoord is... alles werkt toch net wat anders.
105 qbits is best veel. Daar kun je 2105 mogelijkheden tegelijk mee onderzoeken.
Die vergelijking werkt niet echt. Een klassieke CPU werkt nadrukkelijk met twee niveaus (0 en 1) die ver uit elkaar liggen (zeg 0-0.5V en 3.0-3.5V). Zelfs als er bitjes zouden flippen kun je dat vrij eenvoudig detecteren en corrigeren (bijv ECC RAM).

Bij een quantum bit is inherent fout gevoelig. In plaats van twee discrete waardes heb je een continuum tussen 0 en 1. Daardoor kan een kleine afwijking (zeg 0.001) uiteindelijk in een compleet verkeerd resultaat eindigen.
Binnen het bedrijf waar ik werk gaat data de gele wereld over, via meerdere routes/systemen. Aan het einde wordt alles vergelen. Ik ben nog geen bitflip tegengekomen
Ja als je het de gele wereld overstuurt dan zal het wel vergelen ja :+

Sorry, flauw, maar de twee typos passen zo mooi bij elkaar dat ik het niet kon laten.
Transportalgoritmes gebruiken een controlesom en sturen het pakket opnieuw indien deze niet klopt. Dus of je merkt het niet, of het wordt weggemoffeld (controlesom klopt maar data is toch corrupt). De soft error rate is ongeveer 1 bitflip per gigabyte per maand, om je een indicatie te geven.
Als dit werkt dan is de hoeveelheid practische quantumalgoritmen toegenomen tot 2!! Woohooo! :|
He dat is wel even 100% increase.
Het mooie en rare en moeilijke is, is dat er binnen quantumcomputing het kopieren van informatie onmogelijk is: Wikipedia: No-cloning theorem

Er zijn een heleboel hele slimme mensen nodig om hier omheen te kunnen werken.
Misschien wel een agi die vervolgens weer kan draaien op een quantum computer. :)


Om te kunnen reageren moet je ingelogd zijn