Ceo Sony: cloudgaming niet altijd kostenefficiënt

Kenichiro Yoshida, de ceo van Sony, stelt dat cloudgaming een interessant verdienmodel kan zijn maar dat de tech ook heel wat uitdagingen kent. Yoshida verwijst naar latency, maar ook naar de uren op een dag waarin er weinig gespeeld wordt waardoor servers minder kostenefficiënt zijn.

Yoshida deed deze uitspraken tijdens een interview met de Britse zakenkrant The Financial Times. De ceo stelt daarin dat cloudgaming heel wat technische uitdagingen kent, tenminste als het op games aankomt. De man verwijst onder andere naar latency. Dat zou momenteel een van de voornaamste euvels van de technologie zijn.

Yoshida merkt tijdens het interview ook op dat cloudgaming niet altijd kostenefficiënt is. De servers waarop de cloudgamingdiensten draaien, worden overdag niet actief gebruikt terwijl ze ‘s avonds heel wat verkeer moeten verwerken. Deze dynamiek zou volgens Yoshida ook bij Microsoft en Google spelen.

Sony probeert de minder drukke periodes volgens Yoshida efficiënt te benutten. Het Japanse bedrijf zou op die tijdstippen immers kunstmatige intelligentie inzetten om de prestaties van spelers in games te analyseren. Die AI kan dan leren van de prestaties van spelers om zelf beter te worden in bepaalde games. In het artikel wordt GT Sophy uit Gran Turismo als voorbeeld aangehaald. GT Sophy is een AI in Gran Turismo 7 die wordt getraind met een neuraal netwerk en waartegen geraced kan worden. In tegenstelling tot computergestuurde coureurs in racegames die gebonden zijn aan regels, heeft de GT Sophy-AI zelf leren rijden en kan die eigen beslissingen maken en zich aanpassen aan tegenstanders.

Ondanks de opmerkingen over de technische uitdagingen die Yoshida maakt, stelt de ceo dat Sony de uitdagingen die met cloudgaming gepaard gaan, wel wil aangaan. Sony biedt momenteel cloudgaming aan via gameabonnement PlayStation Plus Premium. Via deze abonnementsformule kunnen PSX-, PS2-, PSP- en PS3-games gestreamd worden naar een PlayStation 4, PlayStation 5 en pc.

Het bedrijf nam in 2012 het Amerikaanse cloudgamingbedrijf Gaikai over voor 380 miljoen dollar. Sony wilde met de overname een eigen cloudgamingservice beginnen en kreeg met de deal niet enkel de technologie van Gaikai in handen, maar ook de servers en datacenters. In 2015 nam Sony cloudgamingdienst OnLive over en verwierf het onder andere patenten van OnLive. Kort na de overname stopte OnLive met het aanbieden van zijn cloudgamindiensten.

Gran Turismo 7
Gran Turismo 7

Door Jay Stout

Redacteur

04-06-2023 • 12:35

113

Reacties (113)

113
112
54
0
0
44
Wijzig sortering
Bor Coördinator Frontpage Admins / FP Powermod 4 juni 2023 12:38
Kan je in de daluren geen compleet andere maar wel nuttige workload draaien zoals bijvoorbeeld berekeningen voor wetenschappelijk / medisch onderzoek?
Lijkt me ook niet echt kostenefficient. Goed idee natuurlijk, maar het zijn nou niet bepaald liefdadigheidsorganisaties.
Bor Coördinator Frontpage Admins / FP Powermod @armageddon_2k14 juni 2023 12:51
Je kan de capaciteit natuurlijk ook verhuren voor dergelijke toepassingen.
Die capaciteit enkel tijdens kantooruren aanbieden, en niet in de avond "want dan moeten mensen gamen" is dan weer totaal niet interessant: zakelijke klanten willen veelal 24/7 gebruik kunnen maken van de capaciteit.

[Reactie gewijzigd door kiang op 22 juli 2024 14:17]

Gezien dit GPU modellen betreft lijkt me er best een markt voor om die nodes voor bijv. deep learning in te zetten. Niet alles hoeft realtime.
Maar dat lijkt me een slecht idee: AI workloads hebben meer vram nodig, dus dan moet je de hardware daarop afstemmen.

Ok, kostentechnisch kan dat, maar dan is er het feit dat je voor een AI workload veel meer per rekenuur kan vragen dan voor een gaming workload. Dan slaat het dus weet helemaal nergens op om enkele uren te reserveren voor klanten die minder betalen als je op die momenten ook gewoon AI workloads kan draaien. Je laat gewoon geld op tafel liggen zo.
Maar dat lijkt me een slecht idee: AI workloads hebben meer vram nodig, dus dan moet je de hardware daarop afstemmen.
Weet je wat voor hardware ze gebruiken? vGPU's lijken me bij uitstek geschikt voor dit soort cloud gaming setups en dan zouden ze meer VRAM hebben dan je zou denken. AI applicaties kunnen vaak uitgesplitst worden over meerdere nodes, maar inderdaad heb je dan wel meer dan 2GB ofzo :-).
Ok, kostentechnisch kan dat, maar dan is er het feit dat je voor een AI workload veel meer per rekenuur kan vragen dan voor een gaming workload.
Cloud gaming is een strategische zet van Sony. Dit gaan ze sowieso doen om mee te kunnen gaan met Microsoft, ook al leggen ze er geld op toe. De vraag is dan of je in de loze uren nog wat kosten terug kunt winnen uit die nodes. Ik denk dat dat moet kunnen eerlijk gezegd. Aan de andere kant grote kans dat sony daar verder geen zin in heeft en liever gewoon de kosten slikt.

[Reactie gewijzigd door kftnl op 22 juli 2024 14:17]

De GPUs die voor AI handig zijn hebben massaal VRAM, maar als je dat opsplitst op een manier dat het zinnig is voor moderne games, dan hebben ze bij lange na niet genoeg rekenkracht op de chip. Datacenter equivalenten van de 4090 krijgen 48GB VRAM. Als je dat opdeelt in bijvoorbeeld 6 GPUs, blijven er (theoretisch) een stel 4060-class kaarten over (even aangenomen dat er 0 overhead is). Dan moet de cloud dienst wederom heel goedkoop zijn omdat het anders beslist niet loont voor consumenten.
Dat, plus dat er wel afnemers moeten zijn, je vergelijkbare flexibiliteit moet aanbieden als concurrerende cloud computing diensten, plus support, en ook nog eens voor een lagere prijs, anders heeft het geen enkele zin voor potentiële klanten om de ‘Sony cloud’ te gebruiken ipv gewoon Azure of AWS of wat dan ook.

Volgens mij totaal kansloze optie dus voor een bedrijf als Sony, totaal niet waar ze goed in zijn of interesse in hebben lijkt me.
Kan ook prima zijn dat die hardware daar niet eens zo geschikt voor is. Optimalisaties zal vooral op gaming toegespitst zijn. Natuurlijk kan je er heus wel iets anders opdraaien, maar weegt dat wel op tegen dan concurrerende diensten zoals Azure of AWS? Stroom verbruik / prestatie / winst verhouding. En dan moeten ze het waarschijnlijk inderdaad tegen een lagere prijs aanbieden vanwege de mindere flexibiliteit.

Dus dan mag je ook nog eens gaan investeren om andere diensten fatsoenlijk te ondersteunen. Je server ruimte, dat je zelf ook actief gebruikt, zo maar verhuren voor andere doeleinden is waarschijnlijk veel meer trouble than its worth.

Kunnen ze dan beter voor interne projecten gebruiken, zoals genoemd in het artikel, AI training voor die games.
Ik denk het ook niet. voor GPU HPC achtige toepassingen wil je vaak hoge double-precision floating point doorvoer, en een enorme sloot geheugen (als in honderden GB’s), GPU’s die het goed doen voor games hebben dat niet. Voor CPU HPC taken dingen als extreem hoge core counts, AVX512, sustained full load performance zonder throttlen, etc. Voor database en server taken bakken storage, I/O en elastisch schalen van nodes afhankelijk van load. Allemaal dingen die helemaal niks met typische gaming hardware te maken hebben.

Er zullen vast wel wat use cases te vinden zijn om idle gaming hardware nuttig te maken, maar als business model om iets van de kosten van je game streaming dienst terug te halen lijkt het me vrij kansloos dus.
Het idee voelt een beetje als van die screensavers of anti virus programma's die bitcoin gaan staan minen als je pc idle is. Het is een beetje een probleem zoeken bij een oplossing. Want hoe nuttig is dit nou om dat met consumenten hardware te doen (in de tijd dat dit soort functies aangeboden werden was het in ieder geval al lang niet meer rendabel om zelf te minen, laat staan op een gaming bak die er eigenlijk niet voor is gemaakt)? Zoiets kost je meer stroom (en slijtage van je hardware, wordt veel vaker en langer tegen de 100% gepushed) dan dat het ooit op kan leveren.

Als consument zijnde kan je je pc dan waarschijnlijk gewoon beter uit zetten. De stroombesparing levert je dan nog het meeste op.
Bor Coördinator Frontpage Admins / FP Powermod @kiang4 juni 2023 14:37
Dat hoeft voor zaken als onderzoek en berekeningen die je prima kan schedulen niet uit te maken.
heel veel zaken in "de cloud" draaien enkel tijdens kantooruren. Ik kan me voorstellen dat Sony geen plek heeft om die te verhuren, maar hyperscale clouds doen niets anders. Het wetenschappelijk berekenen, AI modellen trainen, renderen, nachtverwerkingen, het kan prima avonds in batches... 24/7 is echt niet de norm in cloud..

Check eens wat spot instances zijn bij AWS of Azure..
Dit heet spot instances en is een zeer gangbaar business model voor bv AWS.
Het hele idee van cloudcomputing is nu juist dat je de resources efficiënt verdeeld, o.a. door dalen in de workload van de ene applicatie te vullen met pieken van andere applicaties. Daarvoor is scale-out en scale-in bedacht.
Maar dat werkt alleen als de diverse loads soortgelijke hw verwachten en de cloudprovider al die markten bedient. Gemiddelde office365 server zal zich niet zo lenen voor een potje gamen.
Alles kan maar veel bedrijven / instellingen willen een gegarandeerde performance. Dat is lastig als gamers voorrang hebben.
Hoe denk je dat AWS, Azure, GCP etc dat doen? Dat is hun business model en dat werkt toch best aardig. Ook bedrijven hebben pieken en dalen. Maar als je een cloud bouwt voor 1 applicatie (gaming) en je hebt verder geen cloudstrategie, dan is het ook eigenlijk geen cloud gaming. Dan mag je eigenlijk het woord cloud niet gebruiken.
Ik weet hoe ze het doen. Ze werken met load balancing. Ze werken niet met dedicated clients die altijd voorrang hebben en anderen die alleen gebruik mogen maken van rest capaciteit indien beschikbaar.
Absoluut wel, dat heet spot instances en is een cruciaal deel van hun winstgevendheid
Je bedoelt dat er partijen zijn die accepteren dat ze rest capaciteit krijgen en daarmee accepteren soms niet aan de beurt komen en dus outage accepteren?
Tegen een flink gereduceerd tarief? Zeker.

Wij hosten 80% van onze websites op GCP spot instances. Daar krijgen we dan tot 80% korting op. De instance kan elk moment wegvallen of dagen blijven draaien. Door van alle sites meerdere replicas te laten draaien op meerdere instances via Kubernetes met autoscaling merken we er in de praktijk zelden iets van.
In dat geval heb je volkomen gelijk en zou dat een prima oplossing zijn voor Sony om de kosten van hun platform in de hand te houden.
Kan je in de daluren geen compleet andere maar wel nuttige workload draaien zoals bijvoorbeeld berekeningen voor wetenschappelijk / medisch onderzoek?
Die vragen beantwoorden ISP's en telecom-providers al decennia, o.a. met QoS. Je hebt overigens vele scheduling disciplines, zoals FCFS, Priority, RR, and WFQ.

In de praktijk plaatsen ze zendmasten bij in geval van overbezetting, en in geval van onderbezetting kwam je bij seti@home uit...

Dit is gewoon overerving, van dezelfde materie, maar dan down the pipe.
Alleen is ISP's en telecomproviders data transport, welke over het algemeen iets dat 'nu' moet gebeuren. Echter met servers, helemaal met servers welke bergen GPUs (Cuda) aan boord hebben, kan je gewoon processing power queuen. Er zijn zat zaken die bepaalde organisaties nodig hebben, niet meteen, maar morgen, volgende week, aan het einde van de maand. Ook bij Azure kan je rekencapaciteit inhuren tegen sterke korting zolang het niet gegarandeerd is op moment X. Ik denk dat MS met hun expertise in Azure daar veel makkelijker op in kan spelen dan een Sony. Ik verwacht ook dat Nvidia hier veel beter in is dan Sony...
Alleen is ISP's en telecomproviders data transport, welke over het algemeen iets dat 'nu' moet gebeuren. Echter met servers, helemaal met servers welke bergen GPUs (Cuda) aan boord hebben, kan je gewoon processing power queuen.

Ook bij Azure kan je rekencapaciteit inhuren tegen sterke korting zolang het niet gegarandeerd is op moment X. Ik denk dat MS met hun expertise in Azure daar veel makkelijker op in kan spelen dan een Sony. Ik verwacht ook dat Nvidia hier veel beter in is dan Sony...
De Cloud is het domein van vendor-slang. Daar is inderdaad voor velen een tijdlijn voor nodig om uberhaupt overzicht te hebben. Da's gewoon tech historie waarbij een legenda noodzakelijk is.

Ik heb in de volgende 2 topics wat meer in de comments gezet over deze over-geemuleerde materie.

nieuws: VMware door SEC beticht van fraude, treft schikking van acht miljoen ...

download: VirtualBox 7.0.0 bèta 2

wat inderdaad blijkt is dat de markt bepaald. De TPM markt in dit geval, die doorgestart is met DRM, kopierbeveiliging en Pluton.

Maar om nou de toekomst van de mensheid te laten afhangen van e.o.a. settlement. :?

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Ben jij een AI bot of zo? Je antwoord slaat kant noch wal.
ze draaien er al andere loads op in de daluren, dus ze worden wel efficiënt ingezet, alleen gaat het hier om cost-efficiency, met andere woorden: wat ervoor betaald wordt is niet voldoende om (genoeg) winst te maken. Welke partij er niet genoeg betaald laat ik in het midden, want daarover wordt niet gesproken in het artikel. Ik kan me wel voorstellen dat er voor andere loads ook aparte storage voorzien moet worden en dat je niet meer dan nodig wil hebben, waardoor die ook niet optimaal gebruikt wordt.

Het grootste probleem is en blijft latency, wat enkel voor cloudgaming een probleem is. Je kan andere workloads globaal over datacenters verspreiden, maar cloudgaming vereist dat je regionale datacenters moet gebruiken, terwijl een simulatie die geen realtime data gebruikt gerust een paar duizend km ver weg kan draaien en de operator die 100ms of meer niet hinderlijk zal vinden.
Ik denk dat Amazon, Microsoft en Tencent hier geen problemen mee hebben met hun eigen serverpark, Sony moet dit inhuren, voornamelijk momenteel via Microsoft.
In feite is Amazon en daarmee AWS, groot geworden door capaciteit op te schalen en hun gemiddelde kosten te verlagen:
:
- Start van hun webshop
- Gaf veel kosten aan hosting
- Overgeschakeld op eigen infra
- Kosten gedrukt door schaal te vergroten, waarbij Amazon begon met het leveren van "cloud" diensten aan derden partijen.

Inmiddels betalen de derden partijen alle DC's en infra van Amazon door het afnemen van AWS diensten :-) (Niet helemaal zo zwart wit maar wel de essentie)

[Reactie gewijzigd door flurb op 22 juli 2024 14:17]

Het belangrijkste component van het succes van AWS is dat Bezos al in 2002 zijn interne afdelingen verplichtte een API op te zetten en services aan te bieden alsof de klant extern was. Vanuit zo'n situatie is het een veel kleinere stap om services extern aan te bieden.
Je moet naar de AI toe gaan, van automatisch opschalen en downschalen, zodat je niet zinloos alles maar aan staat. Soort sleepmodus bijv.

Volgensmij moet dat wel haalbaar gaan worden in de toekomst, mits dat er niet al is natuurlijk.
Waarvoor heb je AI nodig om je servers op of af te schalen?

Als je instelt dat bij x% load moeten servers uit en bij y% load servers aan, ben je al klaar. Om hier AI aan toe te voegen is zonde van de ontwikkelingsgeld. Dan kan je die gewoon koppelen aan je monitoring.

Even een aanname, maar ik ga er vanuit de cloud game sessies op een virtuele machine draaien. Dan is het niet extreem moeilijk om een sessie van server 21904 over te zetten naar server 20348. Zeker als je bijvoorbeeld in je cloud game ontwikkeling een systeem inbouwt dat bij een laadscherm een "ping" gegeven zal worden dat je dan weet wij kunnen de sessie zonder impact verplaatsen. Denk een hit van een paar ms zal een gebruiker niet merken tijdens het laden.
Cloud gaming sessies lijken niet zo te werken. Op Xbox en PS streaming duurt een stream opstarten gewoon net zo lang als een console aanzetten. Je ziet ook echt gewoon de console eerst opstarten, je krijgt het intro scherm van de game, enz. Wat jij zegt zal ongetwijfeld kunnen in andere toepassingen, maar het lijkt me niet in streams. Iig niet in game streams. Er is natuurlijk ook niet een andere PS5 die net Diablo IV draait op precies hetzelfde punt in het spel met jouw character enz. Wat jij voorstelt zou eigenlijk inhouden dat een gamesessie zoals Diablo midden in een gevecht naar een andere PS5 getransferd zou kunnen worden, zo snel dat je het niet eens merkt. Zo ver is de technologie bij lange na nog niet.
Dat heeft dus echt niets met AI te maken, maar gewoon simpele triggers die we nu ook hebben die op- en afschalen wanneer nodig.
Ligt eraan wat voor "AI" je hier bedoelt. In zekere zin is dat automatische op- en downscalen natuurlijk al aan de orde van de dag zonder geavanceerde AI. Maar, de AI wat nu voorop in de volksmond ligt, is eveneens een enorme energieverspiller. Dus daarmee energie besparen, dan moet je wel uitkijken dat je het probleem niet gewoon verschuift.
De hardware kost ook geld.
Bor Coördinator Frontpage Admins / FP Powermod @smv4 juni 2023 12:54
Je moet naar de AI toe gaan, van automatisch opschalen en downschalen, zodat je niet zinloos alles maar aan staat. Soort sleepmodus bijv.
Waardoor je wel een efficiëntieslag behaalt maar ook minder waarde uit de investeringen in o.a. de dure apparatuur haalt. Nuttig gebruik is vrijwel altijd beter dan afschalen en idle laten staan.

Daarbij laat niet alles zich even makkelijk afschalen zoals de koeling in het datacentrum etc.
Dit is een beetje zoals zeggen: de tijden dat m'n wagen op de parking staat kan je het gerust gebruiken om een veld om te ploegen.

Het heeft immers ook 4 wielen, een motor en een stuur.
Dat is precies wat AWS in den beginne was; die hadden hetzelfde probleem dat ze "overprovisioned" waren voor de piekmomenten, maar dat hun systemen de rest van de tijd duimen zaten te draaien.

folding@home, SETI of bitcoin minen is dan leuk, maar wat AWS deed was de servers doorverhuren.

Binnen AWS heb je de "spot market", dat goedkoper is dan voor vast een server huren; de kosten van een spot instance is wat de hoogste bieder ervoor geeft. Daar komen dan bijv. bitcoin miners op af die voor een laag bedrag wel die servers willen gebruiken, met als voetnoot dat als Amazon zelf de server nodig heeft, ze eraf worden gekicked.
De servers waarop de cloudgamingdiensten draaien, worden overdag niet actief gebruikt terwijl ze ‘s avonds heel wat verkeer moeten verwerken.
Op zich een valide punt, maar verschillende werelddelen hebben toch verschillende tijden dat het lokaal avond is.

Spreid dat die werkload niet tot op zekere hoogte? Want ik kan me niet voorstellen dat men alleen in Europa, of alleen in Azië, of alleen in Afrika, of alleen in de VS in de avond zou spelen.
Dan loop je tegen het andere genoemde punt aan: latency. Als ik hier in de avond in Europa een spelletje wil spelen, dan werkt het niet om mij te verbinden met een server in Japan.
Dan loop je tegen het andere genoemde punt aan: latency. Als ik hier in de avond in Europa een spelletje wil spelen, dan werkt het niet om mij te verbinden met een server in Japan.
latency is vooral een prioriterings probleem. Of een optimalisatie-probleem, maar dan van de hardnekkigste bottlenecks ;-)

Musk had daar ook iets over te zeggen, en die voorziet een paar honderd supernodes.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Latency is een afstandsprobleem op de eerste plek. Daarna komt pas prioriteit. Als je bericht zonder enige belemmering er 100ms over doet voor een enkele weg. Kan je nooit lager komen dan 100ms. Al zou je een directe verbinding hebben van je computer thuis naar de server.

Voor normaal internetten maakt het niet extreem veel uit dat je berichten wat langer duren. Of dit nu streamen is of een gewone website bezoeken, je merkt het bijna niet.

Echter bij gamen zal je dit wel merken, aangezien het dubbel op is. 100ms bericht heen, 100ms bericht terug, dan heb je tussen op je knop drukken 200ms voordat je het ziet. Dat merk je wel. Sommige games zal het minder een probleem zijn. Bijvoorbeeld een turnbased RPG. Maar een spel waar je input wilt timen is het onspeelbaar.

De 100ms is maar een random getal, ik kon nergens vinden hoe snel de lijn is tussen Nederland en Japan. In een perfect rechte lijn zou volgens een mijn berekening een bericht van Amsterdam naar Tokyo 30.9ms zijn. Maar ik denk niet dat de lijn van Tokyo in een perfecte rechte lijn ligt. Zou niet gek staan te kijken als die ruim 3x zolang is als de perfecte lijn.

[Reactie gewijzigd door Tjidde op 22 juli 2024 14:17]

https://wondernetwork.com/pings/Tokyo

Geen idee hoe ze het exact doen, maar het lijken mij reële tijden, en FPS/Race etc.. is dan onspeelbaar.
Bij dat schema zit ook verwerkingstijd van alle hops/servers onderweg. Ik heb in mijn voorbeeld geen rekening gehouden met de tijd dat het kost om een bericht te verwerken en door te sturen. Iets wat bij elke hop latency toevoegt.

Ik heb gekeken naar wat is in theorie mogelijk. Hierbij heb ik de aanname gedaan dat van Amsterdam naar Tokyo de kortste/snelste huidige lijn 3x de perfect lijn ongeveer is. Als je dan nog verwerktijd er bovenop telt is het inderdaad nog erger, dus onspeelbaar.

Als je knop indrukken en reactie op je scherm 500ms vertraging heeft, stop je heen snel met spelen. Welk spel je ook speelt. Zelf spellen waarbij 0 tijdsgebonden elementen inzitten.
Als ik in een menu kies voor een bepaalde optie, wil ik niet een halve seconden moeten wachten tot ik wat zie gebeuren. Ik zie dan namelijk goed gebeuren dat ik in de tussentijd nog een keer op de knop druk omdat ik denk het werkt niet en daardoor altijd meteen iets doe voor ik het door heb.
Het was als aanvulling bedoelt en niet als kritiek op jouw post ;)
Latency is een afstandsprobleem op de eerste plek. Daarna komt pas prioriteit. Als je bericht zonder enige belemmering er 100ms over doet voor een weg.
Afstandenprobleem??

Neem je infrastructuur als gegeven dan? En hoezo wordt het dan uitgedrukt in 30.9ms?

verder zie ik teveel hops voor latency zorgen, hoewel je ook hele goeie hops hebt. naar Tokyo is nou eenmaal verder dan naar Berlin.

Eigenlijk is Nederland een grote hop. En afstand gebruik je dan als graadmeter.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Omdat als je met het snelheid van het licht, direct naar Tokyo gaat moet je 9282KM afleggen. Dit is ongeveer 30.9ms als je perfect recht zou gaan.

Ik geloof niet dat er vanuit Amsterdam een perfect rechte lijn naar Tokyo ligt.
Als je een beetje naar de zeekaarten kijkt van hoe de zeekabels lopen, zie je dat die best wel met een om weg vanuit West-Europa naar Oost-Azië gaan. Ik heb een gok gedaan dat dit ongeveer 3x de afstand is dan de perfecte lijn. Dan zou je op 92.7ms uitkomen die heb ik afgerond naar 100 omdat dit makkelijker rekenen is.

Ik heb in mijn voorbeeld geen rekening gehouden met verwerkingstijd. Of dit nu via een hop is of via van de computer/server zelf. Omdat die tijden afhankelijk zijn van tig parameters. Dus die tijden zijn enkel afstandstijden, licht is snel maar niet oneindig snel. Daarom is latency in eerste instantie een afstandsprobleem.
Daarnaast zijn fiber kabels een stuk langzamer dan de snelheid van het licht ;)
Zodra het licht in de kabel zit is het snel, maar bij iedere switch loopt je data een beetje vertraging op door buffering.
Natuurlijk is het nog steeds snel, maar licht in een fiber kabel zoals die overal liggen is rond de 200.000km/s, in een vacuum is het rond de 300.000km/s. Van Amsterdam naar Tokyo maakt dat best wel een verschil.
Vergeet ook niet dat je voor een ping minimaal op het dubbele moet rekenen omdat het signaal ook weer terug moet natuurlijk.
Cloud gaming met een server aan de andere kant van de wereld gaat hoe dan ook niet werken. Zelfs met de snelheid van het licht heb je te maken met meerdere seconden aan latency.
Zo ver ligt Japan nu ook weer niet van hier, met de lichtsnelheid ben je er in 0,03 seconden ;) Maar stel dat het lukt met een RTT van 0,1 seconden (en daar zal best wat moeite in gestoken moeten worden), dan duurt het meerdere frames in een game voordat je iets aan feedback van een actie gaat zien. Bij veel games zal dat de speelbaarheid niet ten goede komen.
Cloud gaming met een server aan de andere kant van de wereld gaat hoe dan ook niet werken. Zelfs met de snelheid van het licht heb je te maken met meerdere seconden aan latency.
meeste gaming zal gewoon werken, maar met o.a. FPS games en sport games zal je in het nadeel zijn.

Maar onderschat de buffer niet.

@dcm360 games zullen iets van een speelbaarheid-threshold hebben. Maar voor mahjong of Larry is de latency-bottleneck amper merkbaar.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Buffers zijn heel erg goed in het vergroten van de latency, dus ik ben op zich wel benieuwd naar wat jouw idee daarvan is hoe buffers meehelpen het probleem op te lossen?

Los daarvan denk ik dat Mahjong typisch een voorbeeld is voor een type spel waar het nut van cloud-gaming er al niet is. Of ik moet er naast zitten en heeft Mahjong er daadwerkelijk voordeel bij om op een zeer krachtige machine in een datacenter gerenderd te worden in plaats van lokaal?
Buffers zijn heel erg goed in het vergroten van de latency, dus ik ben op zich wel benieuwd naar wat jouw idee daarvan is hoe buffers meehelpen het probleem op te lossen?
Een haven heeft ook indeling, planning en sturing nodig maar het draait allemaal om laaien en lossen.

Je moet datastromen echt gaan uitsplitsen om een kwalitatief oordeel hierover te vellen.

Het vertragende buffer-verhaal zou ik eerder een data-silo noemen. M.a.w. de buffers hebben een brede toepassing.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Buffers kunnen nooit de latency van een actie verkleinen, als ik een handgranaat gooi naar een speler in Tokyo dan duurt het een een minimale tijd vooraleer die speler dat doorheeft, en als die hem teruggooit dan duurt het dezelfde tijd vooraleer ik dat weet. Buffers veranderen daar helemaal niets aan.
Buffers kunnen nooit de latency van een actie verkleinen, als ik een handgranaat gooi naar een speler in Tokyo dan duurt het een een minimale tijd vooraleer die speler dat doorheeft, en als die hem teruggooit dan duurt het dezelfde tijd vooraleer ik dat weet. Buffers veranderen daar helemaal niets aan.
Lol, latency in de actie stoppen en er dan een deterministisch process van maken.

Klinkt meer als een aangetekende brief verzenden en dan de tijd die je nodig hebt om bij het postkantoor te komen optelt bij de verzendtijd.

Zouden Cloudflare en Google DNS dan echt niks bufferen?
Volgens mij heb jij geen flauw idee wat bufferen is.
Volgens mij heb jij geen flauw idee wat bufferen is.
Of jij weet het verschil tussen een cliënt en een ISP niet.

Wellicht heb je je terminology niet op orde?
https://askleo.com/whats_...he_limits_my_isp_imposes/
a buffer or cache is typically a region of memory set aside to collect or hold data as it is being transferred between programs or devices that have differing speeds.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Maar dat heeft niets maar dan ook echt helemaal niets nodig met latency.
Maar dat heeft niets maar dan ook echt helemaal niets nodig met latency.
Ik denk dat het nog ff moet landen bij je. Of je parsed het gewoon niet.
Tijdsverspilling dit...

Fijne dag verder.
Tijdsverspilling dit...
Het schiet voor geen meter op. Het werkt gewoon niet.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Nouja, hoe veel prioriteit je hebt of niet, een verbinding die de halve wereld over moet blijft gewoon altijd een beetje merkbare latency hebben. Je loopt dan op een moment gewoon tegen natuurwetten en de limieten van de huidige beschikbare hardware aan
Nouja, hoe veel prioriteit je hebt of niet, een verbinding die de halve wereld over moet blijft gewoon altijd een beetje merkbare latency hebben. Je loopt dan op een moment gewoon tegen natuurwetten en de limieten van de huidige beschikbare hardware aan
Voordat jij de halve wereld over bent loop je vooral tegen wetten aan. En niet enkel vergunningen.

De relevante natuurwetten zitten allemaal aan de zijkanten van de normale verdeling. Diminishing returns, oftewel de wet van afnemende meeropbrengsten.

Note: De wet van Moore is dood, en de Game-theorie brengt weinig soelaas.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Mijn punt is misschien niet duidelijk genoeh zonder eerst mijn situatie uit te keggen.
Ik leef in Paraguay, aan de buitengrens van een voorstad van de hoofdstad.Maak ik gebruik van de Google DNS servers dan is mijn verbinding niet sneller of slomer dan via de DNS servers van mijn ISP.

Mijn ISP heeft bij lange na niet de capaciteit van Google's serverpark. Maar Google verrekt het om een serverpark in Paraguay neer te zetten. Google is niet het enige bedrijf die dit niet doet. Er staan wel server parken in Sao Paulo, Brazilie, hemelsbreed zo'n 1500 kilometer verwijderd, Ook in Buenos Aires, Argentinie, zo'n 1200 kilometer verwijderd, doen bedrijven niet moeilijk over het plaatsen van een serverpark.

De DNS servers van mijn ISP staan wel in Asuncion en deze mogen dan wel van minder capaciteit hebben, maar vanwege de locatie zijn deze niet langzamer dan het "geweld" wat Goggle los kan laten in hun server-parken. Het inige bedrijf wat wel DNS servers heeft geplaatst in het server-park van Asuncion is CloudFlare. Nu hebben zij ook niet zoveel capaciteit daar staan, maar DNS is hun brood, dus deze servers zijn van hoge kwaliteit en merkbaar sneller dan de DNS van mijn ISP en Google's DNS servers.

DNS verkeer is niet zo'n heel grote last over de internet lijnen. De backbone tussen landen/steden is ook al helemaal verglaasd hier in Zuid-Amerika, capaciteit en snelheid zijn dus ruimschoots voorhanden. Het afstandsverschil is en blijft echter een probleem. En dat is al merkbaar voor iets redelijk simpel als DNS. Dus hoe hoog de prio is ingesteld, is vaak niet zo van belang wanneer de fysieke afstand tussen datacenters groot genoeg is.

Als er nu ook game-data over dezelfde afstanden verplaatst dient te worden, dan is latency wel degelijk een probleem. En aangezien datacenters in het algemeen nogal niet verplaatsbaar zijn, is opschalen/downschalen van capaciteit de minste van je problemen.
Ik leef in Paraguay, aan de buitengrens van een voorstad van de hoofdstad. Maak ik gebruik van de Google DNS servers dan is mijn verbinding niet sneller of slomer dan via de DNS servers van mijn ISP.

Mijn ISP heeft bij lange na niet de capaciteit van Google's serverpark. Maar Google verrekt het om een serverpark in Paraguay neer te zetten. Google is niet het enige bedrijf die dit niet doet. Er staan wel server parken in Sao Paulo, Brazilie, hemelsbreed zo'n 1500 kilometer verwijderd, Ook in Buenos Aires, Argentinie, zo'n 1200 kilometer verwijderd, doen bedrijven niet moeilijk over het plaatsen van een serverpark.

Als er nu ook game-data over dezelfde afstanden verplaatst dient te worden, dan is latency wel degelijk een probleem. En aangezien datacenters in het algemeen nogal niet verplaatsbaar zijn, is opschalen/downschalen van capaciteit de minste van je problemen.
Afstand is zeker een factor, zodra er überhaupt infrastructuur is.

Zat Paraguay ook voor 80% op DirectTV satteliet ISP? Dan heb je sowieso een langzamere ping, maar als eenmaal de connectie opgezet is dan is er voldoende bandbreedte aanwezig. ook voor services als DNS. Hetzelfde geldt een beetje voor VOIP, wat nu gewoon de backbone van de hele telecom industrie is.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 14:17]

Games waarbij latency minder relevant is zou je nog wel kunnen offloaden naar een andere regio. Denk aan bijvoorbeeld turn based strategy games of sims achtige titels. Maar voor meerderheid van games wil je latency inderdaad minimaliseren.

@Wolfos @dcm360
Ik denk belangrijk om te realiseren dat latency naar veel non prime-time servers vaak ook weer niet een dusdanige vertraging heeft. Ik weet niet exact waar Sony hun servers heeft staan, maar indien we vergelijken met bijvoorbeeld Geforce Now dan hebben we het bijvoorbeeld over voor Nederland qua off-loading bijvoorbeeld over Bulgariije of Saoedie Arabië. Dit geeft mij respectievelijk momenteel een ping van 40 ms en 63 ms. Two-way traffic komt dit dus neer op circa 100 ms latency. Sure, qua processing power komt hier nog enige latency bij. Maar dit zal geen 900 ms zijn. Voor een game als The Sims, Civilization, etc. vraag ik mij dan ook af of je dit in de praktijk gemiddeld genomen als storend zal ervaren.

@Finraziel
Ja, games waar latency minder relevant in, zijn potentieel lokaal te draaien. Maar tegelijkertijd moeten we hierin niet vergeten dat een eigen desktop eigenlijk steeds minder de norm begint te worden. En zelfs veel casual titels waarin latency minder belangrijk is, lang niet altijd even goed op de beschikbare hardware thuis te draaien zijn. Voor consoles is dit met huidige generaties qua capaciteit niet relevant. Maar ook daar voorzie ik daar persoonlijk nog wel verandering in komen. Met de huidige hardware prijzen en stijgingen per generatie vraag ik mij af wanneer het punt bereikt wordt waarin het leveren van een console welk voldoet aan de verwachtingen voor de massa tegen een prijs welk geaccepteerd wordt door de massa, niet langer mogelijk is behoudens dan volledig in de cloud renderen van titels.

[Reactie gewijzigd door psychodude op 22 juli 2024 14:17]

Zelfs dan heb je een sterk verminderde ervaring omdat het te lang duurt om de input te verwerken. Je wilt niet over een knop heen gaan met je muis en dan een seconde later pas feedback krijgen.
Daar zijn natuurlijk trucs voor te bedenken: knop feedback lokaal renderen en je game visuals in een datacenter...
Ook dan ontkom je denk ik nog steeds niet aan het gebruiken van een server in de buurt voor rendering. Game logic kan inderdaad wel met een kleine vertraging, maar de UI gaat er waarschijnlijk vrij raar mee voelen.
Games waarbij latency minder belangrijk is zijn meestal ook games die niet zoveel performance nodig hebben en makkelijker zijn om lokaal te draaien, zelfs op zwakkere hardware. Dus daar is het ook weer meer de vraag waarom je naar cloud gaming zou gaan...
Kan mij voorstellen dat, i.v.m. latency, servers voor Europa ook in Europa moeten staan en onbruikbaar voor andere werelddelen zijn.
Bor Coördinator Frontpage Admins / FP Powermod @vanaalten4 juni 2023 12:56
Kan mij voorstellen dat, i.v.m. latency, servers voor Europa ook in Europa moeten staan en onbruikbaar voor andere werelddelen zijn.
Niet alleen in Europa maar het liefst ook binnen Europa zo dicht mogelijk bij de afnemer. Elke "hop" die het netwerkverkeer moet afleggen voegt ongewenste latency toe.
In praktijk moet je uitgaan van max 300-400km. Naar Frankfurt (ca. 500-600km) is vanuit NL zwaar geoptimaliseerde latency en toch is het met 20-25ms al goed merkbaar ipv 10-12 ms richting Amsterdam in dit vergelijk.
Dan ben je afhankelijk van een aantal zaken. Mag de data verwerkt worden in een andere jurisdictie? Zijn de verbindingen snel en breed genoeg? Geen extra latency problemen?
Op zich een valide punt, maar verschillende werelddelen hebben toch verschillende tijden dat het lokaal avond is.
...maar ze hebben ook waarschijnlijk lokale datacenters waar die cloud gaming infrastructuur op draait. Dit is niet bepaald een techniek die je zomaar even ver weg kunt hosten. M.a.w. ja overal is er een ander piek en dal uur. Maar overal is er ook een ander datacenter dat die piek en dal moet verwerken.
Hardware thuis draait ook niet de hele dag games. Zou wel leuk zijn als je je lokale pc of console zou kunnen verhuren in tijdsloten aan anderen, hoeft niet eens voor games te zijn.
Hardware thuis draait ook niet de hele dag games.
Dat klopt, maar die staat doorgaans ook geen 24/7 aan, wat met veel servers wel het geval is.
Zou wel leuk zijn als je je lokale pc of console zou kunnen verhuren in tijdsloten aan anderen, hoeft niet eens voor games te zijn.
Je hoeft hem niet per se te verhuren, je kan er ook andere dingen mee doen. Denk aan bijvoorbeeld distributed computing, waar je bijvoorbeeld World Community Grid hebt om onderzoek naar diverse ziektes (kanker, TBC etc) te doen.

Verhuren aan derde partijen lijkt me vrij lastig. Dan zit je met allerlei praktische zaken, maar ook met allerlei juridische zaken. Hoe zit het met aansprakelijkheden, capaciteitsgaranties, contractuele zaken etc.
Je hoeft hem niet per se te verhuren, je kan er ook andere dingen mee doen. Denk aan bijvoorbeeld distributed computing, waar je bijvoorbeeld World Community Grid hebt om onderzoek naar diverse ziektes (kanker, TBC etc) te doen.
Klinkt goed als zij de (stijgende) energiekosten vergoeden. Anders is het een dure (niet belastingaftrekbare) donatie, met veel onnodige overhead voor de donateur.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 14:17]

Bor Coördinator Frontpage Admins / FP Powermod @wildhagen4 juni 2023 14:35
Je hoeft hem niet per se te verhuren, je kan er ook andere dingen mee doen. Denk aan bijvoorbeeld distributed computing, waar je bijvoorbeeld hebt om onderzoek naar diverse ziektes (kanker, TBC etc) te doen.
Dat is een heel goed en nobel doel maar de capaciteit gratis weggeven zorgt niet voor een kostendekkende oplossing maar voor meer kosten.
Bitcoins minen wordt vaak wel gedaan, maar het is waarschijnlijk beter als je hem gewoon in slaapmodus laat gaan.

Dat zal ook bij de servers in het artikel gebeuren, maar de kosten tikken nog wel door omdat ze nu eenmaal ruimte innemen, afschrijving, etc.
Het is toch een mondiale markt? Als 't ene continent ligt te slapen is het andere continent wakker.
Bor Coördinator Frontpage Admins / FP Powermod @jpsch4 juni 2023 13:01
Doordat je o.a. te maken hebt met latency wanneer je servers aan de nadere kant van de wereld gebruikt werkt dat niet op deze manier.
Ik vind het jammer dat Sony Cloud Gaming niet support op mobiele apparaten, zoals Google Stadia dat in het verleden deed, maar ook GeForce Now en Xbox Cloud Gaming.

Ik heb nu sinds een paar dagen PlayStation Plus Premium waar Cloud Gamen in zit, maar dit is alleen op een pc of PlayStation console te gebruiken. Hoop dat ze snel ook naar mobiele apparaten komen.
Als je de balans wilt in efficiëntie dan zal je denk ik als bedrijf iets moeten bedenken wat gerund kan worden tijdens rustige momenten, zoals bijvoorbeeld cloudoplossingen die live gemigreerd kunnen worden.

Maar goed. Dit is toch niet enkel een probleem van cloudgaming, maar ook van platvormen als Azure, Google cloud of Amazon web services? Die hebben ook geen 100% load de hele dag door.

[Reactie gewijzigd door Luchtbakker op 22 juli 2024 14:17]

Ondanks dat ik de uitspraak begrijp over het niet hebben van een constante load. Vrees ik dat Google en Microsoft daar misschien minder last van hebben.
zij verhuren immers ook servers (gcp en azure) als businessmodel, dus ze zouden tegenspotprijzen de game servers kunnen verhuren zodat ze tenminste iets opbrengen.

Tenzij Sony ook in die cloud computin business gaat stappen vrees ik dat ze hier toch een nadeeltje hebben tov een Google of microsoft
'De man verwijst onder andere naar latency. Dat zou momenteel een van de voornaamste euvels van de technologie zijn.'

Geniaal dit. ik heb zo'n 2 jaar heerlijk gebruik gemaakt van Stadia, en genoeg erover te zeggen, maar latency problemen heb ik werkelijk nooit gehad.

dus of Google had het enorm goed voor elkaar. of deze man praat poep.
Google heeft dan ook wereldwijd 24 serverparken in eigen beheer, en zal ook wel een hoop andere dingen kunnen bedenken om met die servers te doen als ze niet nodig zijn. Desondanks trok ook Google de stekker eruit. Iets technisch optimaliseren kan al snel botsen met het rendabel krijgen van een dienst. Sony kan ook wel overal servers neerzetten en dan draait cloudgaming ook bij hen geweldig, helaas voor hen zullen ze er dan zeer waarschijnlijk fors verlies op draaien.
Stadia was qua techniek veruit de beste cloud gaming platform, maar helaas was Stadia niet beschikbaar in Japan. Waarschijnlijk had hij nooit Stadia geprobeerd.

In een kleine land als Nederland was Stadia gewoon perfect. Super lage latency en super gebruikersvriendelijk. Echt triest dat het weg is.
Inderdaad. GeForce Now heeft goede vooruitgang geboekt maar is nog steeds slechter dan Stadia was op prijs, beeldkwaliteit, gebruiksvriendelijkheid en bugs. Gedeeltelijk ook omdat Stadia op Debian draaide ipv Windows.
Dus wel aanhalen dat Microsoft dominantie heeft op de cloudgamingmarkt en daarom Activision Blizzard niet mag overnemen, maar tegelijkertijd zelf zeggen dat ze louter interesse hebben in cloudgaming?

Op dit item kan niet meer gereageerd worden.