Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Olaf van Miltenburg

Nieuwscoördinator

De race naar een quantumcomputer

Wint Google, IBM of Microsoft?

Microsoft: wachten op de topologische qubit uit Delft

Microsoft investeert misschien nog meer in quantumtech dan IBM. Het bedrijf heeft in de afgelopen jaren zogenoemde Station Q-laboratoria opgericht in onder andere Santa Barbara, Sydney, Kopenhagen en Delft. Het bedrijf heeft teams met vooraanstaande wetenschappers op het gebied van quantumhardware en -software, natuurkunde en wiskunde uit de hele wereld om zich heen verzameld. Ondanks de miljoenen dollars die Microsoft in de projecten pompt, is er een probleem; in tegenstelling tot IBM en Google heeft Microsoft nog geen quantumprocessor.

Dat komt doordat Microsoft wedt op een bijzonder paard: qubits op basis van majorana-quasideeltjes. Een majorana-quasideeltje is een fermion dat zijn eigen antideeltje is. Het bestaan ervan is al voorspeld in 1937 door de Italiaanse natuurkundige Ettore Majorana, maar pas theoretisch aangetoond in 2012, door een onderzoeksteam onder leiding van de Nederlander Leo Kouwenhoven. Die natuurkundige was hoogleraar aan de TU Delft en oprichter van onderzoeksinstituut QuTech, maar hij is sinds eind 2016 werkzaam bij Microsoft om zich volledig op de bouw van de quantumcomputer te kunnen storten.

De samenwerking met QuTech is hecht. Dit Delftse instituut heeft zich ontpopt als dé plek wereldwijd, waar baanbrekend onderzoek over quantumnetwerken, errorcorrectie, quantumsoftware en verschillende soorten qubits samenkomt. QuTech werkt bijvoorbeeld ook samen met Intel, dat er in een periode van tien jaar vijftig miljoen dollar in investeert. Eind vorig jaar ontving het als eerste Intels testchip met 17 qubits, maar inmiddels heeft Intel al een opvolger met 49 qubits gereed. Intel heeft zijn focus op silicon quantum computing en hoopt zijn beproefde chipproductietechnieken in te kunnen zetten voor quantumprocessors met qubits op basis van elektronenspins. Waar QuTech echter voornamelijk om vermaard is, is zijn onderzoek naar topologische qubits op basis van majorana's.

Microsoft richt zich volledig op deze topologische qubits. De aanpak verschilt wezenlijk van die van Google en IBM, die kiezen voor qubits op basis van supergeleiding, met Josephson-juncties en condensatoren van niobium. Volgens Microsoft loopt die techniek op niets uit, omdat zo'n systeem vanaf een bepaald aantal qubits hoe dan ook instabiel wordt. De superpositie van de qubits is te fragiel en de levensduur te kort om de methode in te zetten voor rekenwerk van enige omvang, ook vanwege de overhead. Er is bij de techniek van IBM en Google namelijk een grote hoeveelheid qubits extra nodig voor errorcorrectie.

Qubits op basis van majorana's zouden daarentegen erg stabiel zijn en goed bestand tegen verstoringen, waardoor ze bij uitstek geschikt zouden zijn voor een schaalbare quantumcomputer. Dat komt doordat de informatie niet in het quasideeltje zelf gecodeerd wordt, maar non-lokaal in de volgorde waarin paren van majorana's gepositioneerd zijn. Wissel je de positie van een koppel majorana's bijvoorbeeld twee keer, dan blijft informatie over die wisseling aanwezig in de quasideeltjes, vergelijkbaar met hoe draden gevlochten kunnen worden. Dit quantumvlechtwerk, of quantum braiding, levert topologische bescherming op; het kan vervormd worden door invloeden van buitenaf, maar blijft behouden.

Het probleem is alleen dat qubits met majorana's bijzonder moeilijk te maken zijn. Wetenschappers van Microsoft, de TU Delft en de Technische Universiteit Eindhoven proberen het nu met netwerken van nanodraden met een supergeleidende laag en twee majorana's in superpositie aan de uiteinden. Kouwenhoven vertelde tijdens QIS-2018 dat het steeds beter lukt dit soort nanodraden in complexe structuren te laten groeien tot een raster met een soort hashtags, met majorana's op de kruisingen. Wanneer er echter een quantumprocessor met topologische qubits te verwachten is, is niet bekend.

Dat belet Microsoft niet om alvast een Quantum Development Kit en programmeertaal voor quantumcomputing te introduceren: Q#. De reden om met een nieuwe taal te komen, is volgens John Azaria van de Quantum Architectures and Computation Group bij Microsoft dat zo specifieke functionaliteit geboden kan worden, er voordelen zijn wat footprint betreft en er ruimte is voor verdere optimalisatie in de toekomst. De taal is geïntegreerd in Visual Studio en gekoppeld aan simulatoren die lokaal en, als er meer dan 40 virtuele qubits nodig zijn, op de Azure-clouddienst draaien.

"Bij Microsoft hanteren we een model waarbij we de quantumcomputer zien als een soort coprocessor", vertelt Azaria. "Ontwikkelaars moeten zich op de code kunnen richten en zich zo min mogelijk bezig hoeven te houden met de vraag: waar draait het? Zo kun je je voorstellen dat een ontwikkelaar straks alles lokaal laat draaien, behalve het stukje quantumcode. Het is goed als er nu al een generatie ontwikkelaars ontstaat die helpt om te experimenteren met algoritmes en software voor quantumcomputing."

Ook Azaria geeft toe dat niemand een duidelijk idee heeft wat de quantumcomputer gaat opleveren. "Maar potentieel gaat het om het oplossen van levensveranderende problemen. Het kan tot doorbraken bij scheikunde leiden, bij het modelleren van enzymen. Dat kan grote gevolgen hebben voor het aanpakken van de voedselschaarste. Of wellicht helpen de berekeningen bij het vinden van een nieuw supergeleidend materiaal, dat energietransport zonder verlies mogelijk maakt."

Reacties (85)

Wijzig sortering
In het stukje (Google simulatie) over geheugen staat dit:

""Bij een raster van 6 × 4 qubits is nog 268MB nodig om de getallen te huisvesten, maar bij 6 × 7 neemt dat al toe tot 70TB. De sprong naar 6 × 8, een quantumcomputer van 48 qubits, is nog extremer; daar is 2,252 petabyte voor nodig, meer dan welke supercomputer van dit moment dan ook heeft.""

Kan iemand mij in Jip-en-Janneke taal uitleggen of dit alleen geldt voor de simulatie of dat dit ook gaat gelden voor de uiteindelijke echte Quantum Computers ?

Wanneer dat ook gaat gelden voor echte QC's dan zit volgens mij al je (BIG) data al in het geheugen ?
Al je data is opgeslagen in je qubits. Je rekent als het ware in je geheugen.

Bovendien zijn dit geheugens om te kunnen simuleren, waarbij je dus alle mogelijke waardes die de qubits kunnen hebben wil opslaan. Dit lijkt me niet iets wat je wil doen als je een quantumcomputer hebt.
Dus met een echte quantomcomputer zijn deze hoeveelheden geheugen niet nodig?
Nee, niet nodig inderdaad. Een quantumprocessor hoeft de enorme hoeveelheid getallen waarmee gerekend wordt niet weg te schrijven naar en op te halen uit werkgeheugen. De kracht is dat de massale verwerking in de processor plaatsvindt. Dat komt doordat de qubit in superpositie zowel een 1 als een 0 kan representeren. De groei van de rekenkracht verloopt dus exponentieel. Twee qubits kunnen vier staten van 1 en 0 vertegenwoordigen, 3 -> 8, 4 -> 16, 5 -> 32, enzovoorts. Bij 20 is het al gegroeid naar 1.048.576 configuraties van 1 en 0 en bij een quantumcomputer van enkele honderden qubits gaat het om meer getallen dan er atomen in het universum zijn.
Het niet noemen van D-wave snap ik, maar waarom krijgt Intel niet hun eigen kopje? Die maken ook grootte sprongen in het maken van een quantum computer en waarom staat er een plaatje van de intel chip bij het microsoft verhaal? :+
Ik wilde Intel niet onvermeld laten maar kon te weinig informatie vinden om een eigen pagina te rechtvaardigen. Intel hield ook geen talk op de dag van QIP-2018 toen ik er was. Een verzoek een tijdje geleden aan QuTech om langs te komen om meer te weten te komen over de Intel-testchip werd nog even op de lange baan geschoven. Ik denk zeker dat Intels plannen interessant zijn en zal blijven proberen meer duidelijkheid te krijgen voor een eventueel volgend artikel.
als je langs komt let niet op de rommel :)
Ik vergelijk quantum computer als iets dat alle antwoorden al kent. Zoals dit stukje geschreven tekst was al geschreven.

https://libraryofbabel.info

Maar vraag mijn tot welke macht Qubit over zijn nek gaat...
Zo, dat is leuke materie voor de zondag. Heb nu een paar video's bekeken, o.a. van Microsoft met Krysta Svore (leuke vrouw overigens). Begrijp dat je de quantum computer eigenlijk moet zien als een co-processor, dat wat je vroeger had. Een co-processor van vroeger was ontworpen voor een specifiek doel: rekenen.

Had je bijvoorbeeld een 386SX, dan kon je er een co-processor bijplaatsen voor de 'speciale' wiskundige berekeningen en maakte je computer sneller. Had je echter een 386DX, dan was de co-processor geïntegreerd. Een 386DX was uiteraard duurder dan de 386SX. Ik had natuurlijk de SX als arme student :P Nu zit het allemaal in één chip dus zou het zomaar kunnen zijn dat er straks eerst een co-processor verschijnt en later als één core geïntegreerd is, ofzoiets dergelijks. Dus een co-processor voor zoekacties (zie o.a. video vanaf 5:28 laatste link hieronder), uitermate bruikbaar op een server bijvoorbeeld. Nu begrijp ik ook waarom het interessant kan zijn voor een partij als Google bijvoorbeeld.

Was eerst 'bang' dat het programmeertalen landschap dan van de kaart zou worden geveegd met een nieuwe manier van programmeren. Dat is dus niet waar, er komt alleen een programmeertaal bij. Het is eigenlijk wat je vroeger ook had, specifieke instructies voor de co-processor en een compiler directive of je het hardwarematig (sneller) of softwarematig (langzamer, beperkt maar kan overal draaien) wilt doen. Later ging deze detectie automatisch en nog later hoefde deze check niet meer omdat de co-processor overal was geïntegreerd, dus altijd aanwezig. Zou zo kunnen voorstellen dat in de toekomst er programma's zijn die gebruik kunnen maken van deze co-processor en is deze er niet, dan wordt het software matig (langzamer en beperkt) geëmuleerd (dat wat ze nu in de voorbeelden van Q# ook doen).

Vond de uitleg van Q# wel wat verwarrend met de here en there uitleg (zie eerste video hieronder), met name omdat er nogal veel here en there's in de code voorkomt. Vreemde syntax ook wel, vooral body {}, deed my denken aan HTML. En soms bekruipt mij het gevoel dat ze zelf ook nog niet precies weten waar het uiteindelijk naartoe gaat, een experimentele taal en Microsoft kennende zou het zo kunnen zijn dat ze het schrappen of totaal herzien. Waag mij er nog even niet aan.

Tot slot nog een paar video's die wel het bekijken waard zijn (mits je geïnteresseerd bent natuurlijk :*) ) :
https://www.microsoft.com/en-us/quantum/development-kit (klik op "watch the demo")
https://www.youtube.com/watch?v=5p2_moQZJWo
https://www.youtube.com/watch?v=g_IaVepNDT4
https://www.youtube.com/watch?v=JhHMJCUmq28
Begrijp dat je de quantum computer eigenlijk moet zien als een co-processor, dat wat je vroeger had. Een co-processor van vroeger was ontworpen voor een specifiek doel: rekenen.
Ik denk dat de vergelijking met de oude (wiskundige) coprocessor enigszins ongelukkig is. Je kunt het beter vergelijken met hoe we op dit moment een "grafische coprocessor" (GPU) hebben: eigen processor, los van de CPU, slechts losjes gekoppeld (eigen geheugen en klok) en met een compleet eigen architectuur.

Eén detail van die vergelijking gaat trouwens nog steeds mank: een "quantum APU" (waarbij de quantum processor geïntegreerd wordt in de CPU zelf) zie ik nog niet voor me. De eis dat je "QPU" gekoeld moet worden tot slechts een paar Kelvin zal niet snel opgelost kunnen worden en dat maakt het inbouwen in een gewone desktop of laptop zeer problematisch.
Maak de vergelijking met een co-processor omdat het optioneel was en niet essentieel voor het werken met de computer. Dat ligt bij een videokaart toch weer ietsje anders, er moet er één in zitten, wat voor smaakje dan ook. Maar ja, het is maar waar je jezelf druk over maakt, we weten immers niet precies hoe dat er in de toekomst uit zal gaan zien. Zover ik begrijp kan zo'n quantum computer bestaan uit verschillende 'materialen', wellicht kan de opzet nog veranderen. Mijn voorstelling is maar een gedachte en voor mij hielp het om het meer tastbaar te maken want het is best materie waarbij je regelmatig op je hoofd krabt, nietwaar?
Een andere Quantum Circuit Simulator is te vinden op http://algassert.com/2016/05/22/quirk.html Ook zijn andere posts in zijn blog even lezen, kan je bijv met gezellig met Shor's Quantum Factoring Algorithm spelen :)

Gevonden via dit goed leesbare verhaal over quantum computers https://hackaday.com/2018...your-browser/#more-290235
Hoe kan het nou dat D-Wave Alleen terloops in het Google-hoofdstuk genoemd wordt? Of overschat ik de positie van dat bedrijf?

[Reactie gewijzigd door RSpanjaard op 28 januari 2018 13:03]

Ik heb me geconcentreerd op de universele quantum computer in plaats van de quantum annealer van D-Wave omdat IBM, Google en Microsoft ook hun inspanningen hier op richten. De hele saga rond D-Wave is natuurlijk erg interessant, maar de verschillen tussen een universele quantumcomputer en een annealer zijn aanzienlijk en D-Wave blijft omgeven door een dosis scepsis. Om de in het artikel genoemde John Preskill te quoten:
But as of now we don’t have a convincing theoretical argument or persuasive experimental evidence indicating that quantum annealers can really speedup the time to solution compared to the best classical hardware running the best algorithms for the same problems.

[Reactie gewijzigd door Olaf op 28 januari 2018 21:36]

De ene qbit is de andere niet.

De qbits in de meeste machines die genoemd worden kunnen algemeen gebruikt worden, en kunnen dus een aantal algorithmes draaien. Niet zoveel, maar dat worden er hopelijk meer, als het werk van bijvoorbeeld Qusoft(http://www.qusoft.org/) iets oplevert.

Daarentegen kunnen de qbits in de D-Wave machine 1 specifiek ding, quantum annealing, heel goed. (Simulated) Annealing is een optimalisatiealgorithme, waarbij je de "temperatuur" laat dalen totdat je een minimumpunt in een verdeling bereikt. De "temperatuur" laten dalen is eigenlijk een Gaussverdeling die langzaamaan steeds smaller gemaakt wordt. Het minimumpunt zou dan optimaal moeten zijn. Het probleem met een klassiek algorithme is dat je in een lokaal minimum achter kan blijven. Het idee van quantum annealing is dat dat niet gebeurt.
Aangezien Quantum computers bij uitstek geschikt zijn voor cryptografie vraag ik me af of het dan niet voor kan zorgen voor de oplossing van het probleem bij blockchain rekenkracht tekort is om transacties te verifieren.

Blockchain word nu ingezet voor van alles en nog wat en in dit artikel staat dat er naar toepassingen word gezocht maar dan zouden blockchain toepassingen toch goed aansluiten hierbij?
https://singularityhub.co...8tfks6e3mfs8r1a2jf6yb7cwn
In het kort: quantumcomputing is een bedreiging voor alle huidige crypto-beveiliging, waaronder die van een blockchain. Echter is het wel mogelijk om updates door te voeren, zodat de beveiliging wel bestand wordt tegen een quantumcomputer.
Het is niet mogelijk om een bestaande cryptocurrency geheel quantumproof te krijgen, er zullen altijd coins verloren zijn gegaan bij transacties die dus niet quantumproof zijn, of mensen die bijvoorbeeld hun wallet zijn kwijtgeraakt, ook die coins zijn dan theoretisch te verkrijgen met een quantum computer met genoeg qubits. Je kunt dus wel beveiliging aanbrengen met een hardfork maar die coins gaan daar niet in mee. Zelfs als dit slechts 10 a 20% van de totale valuta in omloop is dan zal dit nog een enorme crash van de koers inhouden en mensen zullen massaal overstappen op coins die in de basis als quantum resistant/ ''post-quantum era'' zijn ontworpen. Sterker nog; we weten niet wanneer dit gaat gebeuren dus het is verstandig om nu al een gedeelte van je portfolio aan crypto veilig te stellen in een dergelijke long-term post-quantum secure crypto.
Ik zie nog wel een wereldwijde crisis, omdat mensen hun wachtwoorden niet tijdig hebben aangepast. Bank apps gehackt, overheden gehackt, nucleare silo’s gehackt en zelfs Mediamarkt’s 1234 gehackt :) !
Dat kan nog leuk worden. Deze technologie mag echt niet misbruikt worden, dus ik vind het niet realistisch dat wij binnenkort een quantumchip in onze pc’s hebben zitten om blockchain te onderhouden.

[Reactie gewijzigd door StannemanNL op 28 januari 2018 08:49]

In 1 keer alle resterende bitcoin hashes berekenen, dat klinkt nog eens als een leuke grap.
Oeps, nu heeft iedereen die geïnvesteerd heeft in gpu’s een klein probleempje 8)7
En wie mag er dan wel een quantumchips hebben? Overheden? en zijn die dan betrouwbaar?
Er zijn wegen eromheen inderdaad.

Dat bedoel ik echter niet, ik heb het over dat de rekenkracht goed van pas komt voor blockchain toepassingen.
Het is juist de bedoeling dat het veel rekenkracht kost. Zodra je met een computer (te) gemakkelijk transacties kan verifiëren, dan is het (waarschijnlijk) ook heel gemakkelijk om de beveiliging te omzeilen.
Niet alle huidige crypto-beveilinging. Het is vooral een bedreiging voor PKI, maar goed, dat gebruiken we het meest :-).
Niet helemaal: quantum computing is heel geschikt om public-private key encryptie te kraken, maar dat geldt niet voor symmetrische block ciphers.

Nu wordt de eerste wel gebruikt om een veilige vebinding voor een block cipher op te zetten.
Er is geen rekenkracht tekort bij blockchains. Er is zat rekenkracht, maar omdat de tijd van een block vastligt en een block een maximale grootte heeft kan die rekenkracht niet efficient gebruikt worden. Mensen concurreren elkaar weg om 'als eerste' een block te vinden en een reward op de strijken. Je kan de huidige bitcoin chain gewoon op 1 pc draaien, no problem.
Als ik de reacties hier zo lees lijkt dit mij een enorme negatieve impact hebben op de veiligheid van het internet. Waarom wordt er hier nog aan doorontwikkeld als de gevolgen grotendeels negatief zijn?
Je hebt ook al zoiets als https://nl.wikipedia.org/wiki/Kwantumcryptografie . Met name de Chinezen schijnen hier al ver mee te zijn. Maar ik reken er op dat bijvoorbeeld DARPA er ook al druk mee in de weer is.
Dat gaat alleen over de verbinding en niet om de beveiliging van de data.
Als 'wij' het niet doen, doet de mogelijke vijand het wel.
Ik geloof niet dat quantum computing ooit gaat werken, omdat het net als het double-slit experiment de observer is die de uitslag bepaalt. Het is dus niet de computer die iets berekent, maar degene die de waarneming doet die de uitslag bepaalt. Hoe je het ook went of keert er is altijd een observer nodig.
En waarom zou de observer niet uit een traditioneel elektronisch circuit kunnen bestaan?
Die laat de wave functie niet collapsen. Dat gebeurt pas als er een bewuste waarnemer is.
Wat wel zou kunnen is, dat de observer naar een van de ontelbare parallele universums verschuift waarin bijv. de voorgestelde encryption key de juiste is.
Dit kan werken als hij
a) een duidelijke intentie/doel in gedachten heeft en dit ook voelt
b) De key uitprobeert en
c) Na het uitproberen input levert aan de quantumcomputer dat het de juiste key is of niet de juiste key is.
Doordat de informatie terug in de tijd kan gaan, zal de observer altijd in het universum uitkomen met de juiste key.
Is dit niet een beetje het soort redenering als "wanneer een boom in het bos valt en er niemand in de buurt is, maakt dit dan geluid?". Uiteindelijk is er altijd een menselijke observer ergens in de keten aanwezig die ofwel de resultaten direct observeert of dat doet via elektronische schakelingen. Dus je kan niet aantonen of het wel of niet werkt als er geen observer is. Maakt het dan überhaupt uit?
Men mag zich gaan afvragen of men bij daadwerkelijke schaalbare quantum computing iemand zelf nog een device zal bezitten die meer doet dan input/output verstrekken aan quantum cloud.

Zodat we eindigen als mainframe / domme console generatie.

Google/IBM/Microsoft zouden graag die marktaandeel.willen hebben. APPLE en zeker Amazon ook.

Maar vanuit onze perspectief liever niet.

Ontwikkelingen hogere snelheid/lage latency maken de overstap naar remote computing alleen maar makkelijker.

En waarom je straks duizend euro aan een laptop spenderen waarop je laatste games kunt spelen terwijl je die resources ook kunt huren en op een domme 4K scherm met keyboard/muis en 5G verbinding?
Het maakt eerlijk gezegd niks uit ten opzichte van de huidige situatie. Vrijwel alles wat we nu doen, gaat in bepaalde mate al via de cloud; vrijwel elke pc is constant verbonden met internet. Vooral google (maps, drive, docs) wordt veel gebruikt. En voor gaming is het met name Steam, wat uiteindelijk ook puur een grote cloud service is. En in al die gevallen wordt ook cloud hardware gebruikt.

Quantum-services in de cloud zijn qua hardware slechts een 'kleine' toevoeging. Alleen het heeft grote gevolgen voor de mogelijkheden van eindgebruikers. En ook voor wetenschappers.
Het is verder niet zo dat je als consument of wetenschapper de komende jaren zo even je eigen quantum-computer in je eigen huis kan laten draaien. In die zin juist aan te moedigen dat de grote bedrijven proberen on quantumtechnieken van de grond te krijgen. Wie anders zou het immers kunnen?
Je noemt verder games, terwijl juist een game niet iets is waar een quantumberekening nuttig is. Huidige traditionele cpu's en gpu's zijn trouwens sterk genoeg om offline voor onder een maandsalaris zelf thuis te draaien op 4k.

Waar een quantumcomputer bijvoorbeeld wel veel toevoegt, is de navigatie-service van Google. Een goed algoritme kan dan in één berekening de beste route berekenen. Dat bespaart enorm veel rekentijd en energie. Dus logisch dat Google zo snel mogelijk een werkend quantumsysteem wil toevoegen. En ook voor ons als gebruikers van maps en navigatiesoftware dus een duidelijke verbetering.
En voor gaming is het met name Steam, wat uiteindelijk ook puur een grote cloud service is.
Het heeft te maken met waar de executie van primaire taken wordt uitgevoerd. Steam is faciliterend in het spelen van computerspellen. De primaire taak is het uitvoeren van computerspellen, wat nog steeds lokaal wordt gedaan. Je kan veel computerspellen op Steam (mogelijk illegaal, maar dat is geen onderdeel van de discussie) lostrekken van Steam en gewoon los lokaal spelen.

Vergelijk het met (niet self-hosted) game streaming services. Daar zitten veel bedrijven pas naar uit te kijken, want piraterij is dan geen probleem meer en je kan spelers laten betalen per tijdseenheid. Ook wordt ontwikkeling dan simpeler, want je spel hoeft enkel in een server farm te draaien op een vooraf gedefinieerd platform. En een spel terugtrekken is helemaal makkelijk.

[Reactie gewijzigd door The Zep Man op 28 januari 2018 08:04]

Puur om de latency zie ik dat niet snel gebeuren. Hoeveel hardware ze er ook tegenaan gooien dat zullen ze niet op lossen zonder een revolutionaire ontwikkeling.

Probeer maar eens VR te doen met die latency. Binnen de kortste keren ligt je maaginhoud in de wc.

Alleen langzame casual games zijn er geschikt voor.

[Reactie gewijzigd door Barsonax op 28 januari 2018 08:17]

Met geforce Now gaat de latency flink omlaag. Heb het op MacOS geprobeerd en grotere spellen zoals Bioshock Infinite hebben vrijwel geen voelbare delay. (Bron: eigen ervaring) https://www.nvidia.com/en...ducts/geforce-now/mac-pc/ Delay en consistente bandbreedte zijn de belangrijkste zaken. 2 dingen die glasvezel oplossen. Zelf heb ik 7ms ping naar Nvidea en daar zou je zelfs nog VR mee kunnen doen. (Playstation VR hanteerd 20ms als basislatency.) Een revolutionaire ontwikkeling is echt niet nodig, maar de juiste infrastructuur is wel belangrijk. Ook als we quantum data willen gebruiken is de bandbreedte belangrijk.

[Reactie gewijzigd door StannemanNL op 28 januari 2018 08:42]

Met geforce Now gaat de latency flink omlaag.
Je kan het bij de end-points blijven optimaliseren, maar uiteindelijk ga je tegen natuurwetten aanlopen. Directe een eigen ISP datacentrum pingen heeft vaak een delay van ~5 ms. Verdubbel dat (immers moet input ook geregistreerd worden) en je gaat nooit onder de 10 ms zitten.
Beste,
Ping is de tijd van data die een round trip maakt (heen en weer).
Dus volgens mij is de delay: ~2,5ms (heen) + serverberekeningen (game renderen en audio etc.) + ~2,5ms (weer). Dan ligt het dus aan de servertaken. Als die kort zijn heb je met glasvezel end to end onmerkbare delay.
Echter kunnen ze de netcode van de game puur op de server laten draaien, zodat er geen berekeningen meer bij de client gebeurd (berekeningen als wie schiet wie en wie was er eerst).
De clients sturen alleen nog input naar de server en alleen de server bepaald wie er eerst schoot.

Volgens mij word dit momenteel nog op alle clients berekend en is de server de eind verantwoordelijke.
7ms ping en dat dan 2x (want het moet heen en weer). Dan zit je al op 14ms. Dan blijft er maar 6ms over voor overige zaken zoals decoden/tracking/renderen etc. Niet echt realistisch dus. Goed zal het iig nooit worden met zon achterstand.

Die inputlag is nou juist killing met VR of snelle games.

[Reactie gewijzigd door Barsonax op 28 januari 2018 09:18]

ping is rtt (round trip time), dus die 2x kun je weglaten
Hmm dat hoeft niet altijd zo te zijn lijkt het. In overwatch hebben ze een aparte ping en een round trip time waar die laatste ong 2x zo groot lijkt te zijn.

De officiele 'ping' (https://en.wikipedia.org/wiki/Ping_(networking_utility)) laat echter wel gewoon de round trip time zien.

Maar zelfs 7ms extra latency waar zaken zoals decoden nog bovenop komen vind ik al erg veel. Vraag mij dan ook af hoe groot de factoren buiten de ping zijn aangezien ik toch latency merk als ik lokaal een game stream (waar de ping er dus niet meer toe doet).
ik ga er natuurlijk vanuit dat we het over DE ping hebben en niet over een willekeurige implementatie ergens anders.
Dit is dus precies wat ik niet bedoel. Bedankt Xerxes voor de opheldering ;)

[Reactie gewijzigd door StannemanNL op 28 januari 2018 13:18]

Probleem is dat alle vertragingen cummlatief zijn. Dus reactietijd van scherm,invoerapparaat,lan,wan en weer terug. Alle vertraging los van elkaar is geen probleem,maar de som daarvan kan maken dat streaming merkbaar kan vertragen
Puur om de latency zie ik dat niet snel gebeuren.
Ik gebruik zelf geen 'cloud'-based gaming, maar er zijn mensen die claimen dat latency geen probleem is. Wel stream ik wel eens een spel vanaf mijn gamebak naar mijn notebook over draadloos (5 GHz) en voor veel spellen werkt dit best wel goed.

[quote[Probeer maar eens VR te doen met die latency. Binnen de kortste keren ligt je maaginhoud in de wc.[/quote]Zelf heb ik ook VR. Daarvoor moeten zaken lokaal werken. Echter is VR een niche t.o.v. de rest van de gamemarkt, en dat zal voorlopig niet veranderen.
Alleen langzame casual games zijn er geschikt voor.
Ik heb laatst Doom (single player) gespeeld m.b.v. streaming. Veel verschil merkte ik niet. Dat is echter lokale streaming. ;)
Ook wel eens lokaal gestreamed met een bedraad gbit netwerk met steam. Het werkt goed en je kan er echt een hoop mee maar ondanks een ping van 0ms is er wel merkbare latency. Wat ook wel weer logisch is omdat er meer moet gebeuren dan het pingen van de server.
0ms ping? Lijkt me sterk. Pingen kost altijd tijd, dus je meet hooguit <1 ms.
Als je met een <1 ms ping nog steeds merkbare latency hebt ligt dat aan iets anders dan het netwerk. Bijvoorbeeld aan een trage server, of een sloom scherm.

Het netwerk is daarmee namelijk uit de vergelijking gehaald, dus alles wat traag kan zijn zal dat ook zijn wanneer je lokaal speelt.
Ping maar eens een lokale pc dan geeft die toch echt 0ms 8)7 . Oke toegegeven dat dat wel een afronding zal zijn maar toch :P.

Waar ik eerder op doelde waren dat er meer is dan alleen de ping wat meetelt. Je pc moet de beelden bijv. ook met zo min mogelijk latency verwerken. Het zal alleen daarom al nooit zo snel zijn als het lokaal te draaien.

[Reactie gewijzigd door Barsonax op 28 januari 2018 23:06]

Ik heb nog nergens een ping gezien van minder dan 0 ms. Zelfs als ik vanaf m'n Windows-machine naar localhost ping komt er <1 ms te staan.

doe ik hetzelfde vanaf een Linux-bak, dan krijg ik waarden die vermoedelijk wat dichter bij de waarheid liggen:
0.027 ms
0.037 ms
0.031 ms
0.045 ms
etc.

Dat is vergelijkbaar met de toegangstijd van m'n SSD. Die tijd toevoegen aan een VR-beeldje ga je met je blote ogen echt niet opmerken. Referentie: Een keer met je ogen knipperen duurt 2000x zo lang.
Das dan verandert? Kreeg toch echt eens 0ms te zien.

Maar dan nog zoals ik al zei ping is niet alles. Dat beeld wat die server berekent moet ook bewerkt worden voordat je dat op kan sturen en aan de client zal er ook het een en ander gebeuren. Zelfs met 0ms ping zal er meer latency zijn dan als je iets lokaal draait. Vermoed dan ook dat dit voor merkbare latency zorgt.

Als je het niet gelooft moet je maar eens een steam link gebruiken. Iets in het hele gebeuren zorgt voor significante latency.
We hebben, tenminste hier in Nederland veel snel en onbeperkt breedband. De bandbreedtegroei die er nodig is om 4K te streamen of iets dergelijks naar 1M pc's en tv's is enorm. Uiteindelijk moeten de netwerkpartners investeren en wordt het voor ons consumenten duurder. Of je gaat betalen per TB of iets dergelijks. Het netwerk is niet gratis, maar dat wordt in dit soort discussies wel eens vergeten.
Waarom ga je er vanuit dat mensen denken dat netwerken gratis zijn? We betalen toch ook voor internet toegang?
Was een reactie op the Zep man, die aangeeft dat het ideaal is voor content creators. Alles op een serverfarm draaien en over het internet versturen als interactieve videostream. Dit vereist heel veel bandbreedte en een lage ping. Dat kan nu al op beperkte schaal maar bij groei worden de netwerkkosten als gevolg van de noodzakelijke investeringen een grote factor in het besluit lokaal of in de cloud de videostream te renderen. Dat zag ik bij de voors en tegens nog niet terug. Vandaar.
tenzij er een gigantische lobby gaat plaatsvinden of het wegvallen van bijna ALLE conncurrentie zie ik onbeperkt data limiet niet verdwijnen voorlopig. We lopen vrijwel vooraan hier in nederland qua internet snelheden en hoop dat dat ook zal blijven. KPN moet beginnen op te schieten met hun Glasvezel netwerk anders zouden ze nog wel eens kunnen verliezen van Vodafone/UPC/Ziggo.
Ik zie alleen de prijzen wat omhoog gaan ivm met meer onderhoud en investeringen maar dat is ook alles.
Navigatie werkt nu al goed. Doel je op het 'traveling salesman' probleem? Daar zou een quantum computer goed kunnen helpen. Maar van A naar B komen is niet zo moeilijk, toch?
In ieder geval het handelreizigersprobleem inderdaad. Maar ook van A naar B reizen. Huidige computers rekenen voor een deel gewoon alle mogelijkheden na, waarna de snelste gekozen wordt. Met een Quantum berekening krijg je het antwoord meteen.
Het handelreizigersprobleem is alsnog voor alle vervoersbedrijven een belangrijk onderdeel natuurlijk, dus ook buiten het nut voor de gewone consument is er veel voordeel.
Dat klinkt allemaal als een situatie die we niet moeten willen hebben. Ik mag hopen dat ‘the cloud’ iets tijdelijks is. Het lijkt me verschrikkelijk als je straks een abonnement moet hebben om bij je eigen data te kunnen. Altijd afhankelijk van een derde commerciele partij. Weg vrijheid :(
Digitale krantenabonnementen werken nu al zo. Zolang je een abonnement hebt, kun je lezen en doen, maar abonnement klaar, lezen ook klaar. Hoe meer bedrijven daar een verdienmodel in zien (abonnementsgeld, advertentiemogelijkheden, vendor lock in) hoe vaker je het zult zien. Er zitten voor de consument ook voordelen aan: Backup, beveiliging, minder hoge initiële kosten. Uiteindelijk verwacht ik niet dat lokale opslag helemaal verdwijnt. Daarvoor is het te goedkoop.
We krijgen een overgangssituatie.

1500 euro voor game pc/laptop met afschrijving in 3 jaar.

1500 / 36 = 41,67 per maand.

Grote partijen die zich inkopen in content/game producenten die zorgen dat in 3 jaar game niet speelbaar meer is.

Dus een gamedienst van 25 euro per maand inclusief gebruiksrecht om game te spelen zou hele game pc in eigen bezit wegvagen.
kijk es naar wat Nvidia mee bezig is op het moment, ze zijn al bezig met dergelijk concept waar je over het internet kunt gamen zonder GPU. Zij huisvestigen de GPU kracht terwijl wij alleen de input nodig hebben, staat wel een leuk prijskaartje op natuurlijk. Op zich een leuk concept maar dat werkt natuurlijk alleen in landen waar internet geen datalimitiet heeft en voldoende snel is (meeste europese landen zullen hier dus niet veel problemen mee hebben)
Persoonlijk zie ik dit natuurlijk niet graag gebeuren, gezien ik toch graag iets fysieks in mijn handen hebben dan dat ik er per maand X bedrag aan moet bijdragen om uberhaupt te mogen gamen.
Denk ook niet dat dit gaat gebeuren en hoop dat CPU fabrikanten op den duur quantum computers gewoon beschikbaar gaan maken voor de consumenten (vervangt dan gewoon de huidige PC zoals de PC al vele andere apparaten overbodig heeft gemaakt). Mensen die zeggen dat deze gewoon weg te groot zijn moeten eens kijken naar de grote van een computer 40-60 jaar terug en dan nu naar de huidige generatie.
Input lag is niet te voorkomen zo gok ik.
Google probeert dit natuurlijk al met de Chromebooks. Het zou leuk zijn als er een soort open-source initiatief kwam die dit soort 'middle men' uitschakelt zoals de blockchain dit ook in zich heeft. I.p.v een datacentrum bij Amazon of Microsoft een enorm netwerk waarbij iedereen zijn reken- en geheugenkracht deelt. Helaas is een quantum-laptopje nog erg ver weg, als dat al komt.
quote: "De systemen die er zijn, bevinden zich veelal in laboratoria en zijn opgebouwd uit een complexe wirwar van leidingen en kabels"

Zoiets als de eerste computers op MIT en Berkely, dus. Alleen dat paar graden boven het absolute nulpunt is er bij gekomen...
Goed artikel! Ik werk zelf in deze industrie, en er is veel misinformatie, maar hier wordt het netjes neergezet. Een aanrader.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True