Dedicated servers pc-versie Titanfall draaien op nieuwe Xbox Live-cloud

Een ontwikkelaar van de next-gen shooter Titanfall heeft bekendgemaakt hoe de dedicated servers van het spel geregeld zijn. Respawn gebruikt de nieuwe Xbox Live-cloudtechnologie voor de servers, en ziet nog veel meer mogelijkheden met Azure.

Engineer Jon Shiring van Respawn Entertainment heeft in een blogpost op de officiële website van de ontwikkelstudio bekendgemaakt op welke manier shooter Titanfall gebruik maakt van Microsofts cloudtechnologie Azure. Volgens Shiring was er veel onduidelijkheid over de functies van de internetdienst, die een belangrijke rol zal spelen als de Xbox One eenmaal in de winkels ligt. De cloudtechnologie wordt door Respawn bijvoorbeeld gebruikt om dedicated servers mogelijk te maken.

"Dedicated servers hebben maar één groot nadeel: ze zijn razend duur. Ze zijn zo duur dat menig ontwikkelteam tot de conclusie komt dat het onbetaalbaar is", schrijft Shiring. "Ik heb er met Sony en Microsoft over gesproken dat we een oplossing moesten vinden voor 100.000 tot 150.000 dedicated servers, voor een prijs die op dat moment niet te vinden was op de markt. De Xbox-groep kwam met een voorstel waarbij we al die dedicated servers konden hebben, en daar games op konden draaien met minder beperkingen op het gebied van cpu-kracht en bandbreedte", aldus Shiring.

Azure is echter meer dan alleen een platform dat dedicated servers kan verzorgen, stelt Shiring: "Forza Motorsport 5 gebruikt de servers bijvoorbeeld voor Drivatar, dat vanaf de servers je rijstijl bestudeert om op basis daarvan een ai-coureur te maken. Dat is iets heel anders dan wat wij er mee doen."

Respawn gebruikt de Xbox Live-clouddienst niet alleen voor Titanfall op de Xbox One. Ook de servers voor de Xbox 360- en de pc-versie draaien op Azure. Dit lijkt dan ook een belangrijke reden voor Respawn om de game alleen op de Xbox-consoles en de pc uit te brengen, en niet op bijvoorbeeld de PlayStation 4.

Shiring gelooft dan ook dat de cloud een belangrijke stap kan betekenen voor multiplayer games. "Ik geloof dat het online games beter kan maken. We kunnen in Titanfall dingen doen die in geen enkele player-hosted multiplayergame mogelijk zijn. Ik verwacht dat we na verloop van tijd steeds meer dingen met de servers gaan doen dan ze alleen gebruiken voor dedicated servers. Dit is iets dat ons de komende jaren in staat stelt allerlei nieuwe ideeën voor online games uit te proberen."

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Door Jurian Ubachs

Redacteur

25-06-2013 • 11:36

95

Lees meer

Titanfall
Titanfall Video van 25 augustus 2013
E3: Titanfall
E3: Titanfall Video van 14 juni 2013

Reacties (95)

95
94
54
8
2
33
Wijzig sortering
Microsoft is heel hard bezig om hun datacenters uit te breiden als voorbereiding op deze game alsook het nieuwe XboxLive wat voor de XBOX One zal worden ingezet om meer & vaker zaken "uit de cloud" te gebruiken.

De bedoeling is dat het aantal servers van 150K wordt verdubbeld naar 300K dedicated en dat voor bepaalde zaken regio's worden samengevoegd zodat het eenvoudiger is dat data van, bijvoorbeeld, een Belg makkelijker & sneller terecht komt bij iemand uit Thailand.

Ook zal het aantal servers moeten worden uitgebreid omdat Microsoft heeft aangekondigd dat voortaan "new releases" ook op de dag van release ter download worden aangeboden aan alle Xbox-gebruikers.
In Iowa wordt er 1 neergezet voor 700 miljoen dollar (bron). Daar komen dus aardig wat servers te staan lijkt mij. In EU zal er ook wel worden uitgebreid denk ik zo.
En downloaden op releasedag is natuurlijk ook hardstikke mooi.
Even voor de duidelijkheid: Dit is NIET 700 miljoen dollar dat exclusief wordt gegoten in Xbox Live, maar geldt voor alle cloud services van Microsoft. Dit omvat de Office 365 services en cloud ondersteuning voor tables, smartphones, pc en consoles, waaronder Xbox Live.

http://blogs.desmoinesreg...stment-in-west-des-moines

"Leaders say the Microsoft project will support products like XBox Live and Office 365. Microsoft’s Christian Belady said in a statement: “The expansion supports the growing demand for Microsoft’s cloud services.”"

[Reactie gewijzigd door M-co op 25 juli 2024 21:39]

Ja omdat het Azure is, wat erg goede load balancing heeft. En daar draait zo'n beetje alles van Microsoft nu op.
Waarom zijn de game dev's er zo op gebrand om zelf dedi servers te hosten?

Vroeger moesten we als clan's/communities zelf de servers hosten. Dit had als bijeffect dat je ook nog eens super goed clans en communities kon opbouwen, iets wat vandaag de dag een stuk slechter gaat.

Vroeger waren de meesten van ons verenigd in gamersgroepen op die manier. Iets wat ik erg mis in de gaming vandaag de dag. Veel te veel op je zelf.
Omdat we nu met veel meer gamers zitten, is het niet echt haalbaar om voor iedereen een server te gaan laten hosten door de community. Verder zijn de eisen aan de server ook een stuk hoger dan vroeger, waardoor je nu niet simpel een servertje op kunt zetten.

Met BF3 kun je overigens op de consoles wel servers huren en dat is dan ook erg prettig, maar zonder de juiste tools aldaar (geen RCON bv) en geen enkele mogelijkheid om laggers te identificeren (geen ping of lag-o-meter) is het vrij nutteloos.
Tuurlijk is het niet haalbaar voor iedereen, maar kijk eens naar het VALVe model van TF2, L4D etc. Hier doen ze zelf een deel, plus een deel van de community.

Overigens zijn de eisen wel hoger geworden, maar de hardware is ook velen malen beter geworden voor de zelfde prijs.

Waar we vroeger op 1 machine zo'n 64 spelers kwijt konden, kunnen we nu met gemak op 1 machine 256 en meer spelers kwijt in de zelfde 1U ruimte.

Overigens heeft het laten hosten door communities ook nog extra voordelen. Ze worden creatief in het verbeteren en uitbouwen van de games als je ze er de kans voor geeft (Tools als Sourcemod bv. voor de Source engine).
Dit dus.
Vanwege dit worden er nu nog quake based games gespeeld en zijn er vandaag de dag nog steeds actieve clans op UT:GOTY servers.

Ondanks dat de gamers hoeveelheid verhonderdvoudigd is. Zal over 10 jaar niemand meer de laatste CoD of BF3 online spelen.
Omdat er geromeld werdt met de servers en software..

1 iligale hosts
2 spel ervaaring per server was zowat anders.. Door verschullende hardware maar ook door verschillende software..
Dus? Lekker zo'n groot logo van OFFICIAL server en UNOFFICIAL server is onmogelijk?
Of zoals America's Army heb je hier nog een stap tussen, rented official.

Geef clans/mensen de keuze hun eigen servers met eigen instellingen te gebruiken (zoals een leuk potje knifewars in BF3... oh wacht!!?! lol) of zelfs met mods, de modernde consolegames kunnen gewoon gemod worden dankzij hun HDD's.

Moderne (console) games worden hierdoor over 10 jaar niet meer actief gespeeld. Omdat ze zelf alle spelers willen houden en niet spelers hun eigen initiatief te geven. Lijkt meer en meer standaard te worden een middelvinger op te steken naar hun eigen communities.

Terwijl de games van 10+ jaar terug die wel hun community wat vrijheid gaven betrekkende eigen servers, modden van game etc... nog wel actief bespeeld worden.
Dat vroeg ik me ook al af: Vroeger had je toch ook al dedicated servers, die werkte veel beter, dan matchmacking. En nu plots hebben ze de dedicated server opnieuw uitgevonden?

Ik denk dat de reden is om ze zelf te hosten is om het meer onder controle te houden met als voordelen:
1. Tegengaan van illegale private servers
2. Levert veel informatie op over het spel (bugs e.d. zijn makkelijk te vinden) maar ook over de gebruikers zelf

[Reactie gewijzigd door BlackHawkDesign op 25 juli 2024 21:39]

denk dat onze - dan wel niet beginnende - grijze haren ook een rol spelen bij het gemis aan cohesie.
Dedidcated servers zijn toch per definitie geen cloud? Als een server dedicated is aan één taak, is het dus één fysieke bak (of een cluster) met een IP-adres, die niets anders doen dan datgene waar voor ingezet worden.

Dat kan niet in een cloud toch, of hoe dan wel?

[Reactie gewijzigd door _Thanatos_ op 25 juli 2024 21:39]

Cloud is een mistig (sic) begrip wat niet meer is dan een enorme rij dedicated servers waarop meerdere virtual private servers of virtual machines draaien. De Cloud-provider heeft een eigen interface/menu waarmee je heel makkelijk een virtuele machine kan bestellen, afsluiten, opstarten, herstarten en installeren.

De virtuele machine die op de server / dedicated server / PC draait kan je makkelijk via software bedienen. Maar ook vergroten (cores wijzigen, geheugen toewijzen, diskruimte toewijzen). Dat kan allemaal van afstand, vaak via de beheerinterface die weer gekoppeld is aan een financieel systeem.

Zo kan jij als gebruiker een account aanmaken, vervolgens de dienst kiezen, aanpassen en je wordt per uur netjes gefactureerd. Soms gaat dat van een prepaid account af, soms krijg je een factuur per maand achteraf, soms wordt 't automatisch via een creditcard verrekend.

Als je thuis dus een stukje virtual machine op je PC zou installeren , een menu maakt wat mensen op afstand kunnen bedienen, dan zou je theoritisch je eigen Cloud kunnen aanbieden aan het publiek. Alleen is er in jouw geval maar 1 'unit' te huur terwijl er bij Azure en Amazon tien-duizenden te huur zijn.

Hang 10 PCs met elke een quad core CPU aan elkaar met 16 Gb geheugen, plaats de diskruimte op een centrale fileserver (NAS achtig), biedt virtual machines aan vanaf 128 Mb geheugen en 5 Gb diskruimte en je zou zo maar eens 1000 (!) kleine virtuele machines kunnen verhuren. Sommige gebruikers met een near-gigabit verbinding zouden zo wel eens een leuk klein bedrijfje kunnen starten van de zolderkamer (met beperkte SLA, netwerkcapaciteit etc).

Zelfs met 3 euro per VPS per maand zou je dan 3000 euro per maand kunnen omzetten. Leuk voor partijen die zelf een klein websitje willen hosten, wat willen prutsen met SSH, een VPN of Proxy willen draaien etc etc etc

Ik zeg niet dat je dat moet doen, maar het geeft aan hoe eenvoudig je een 'Cloud' kan opzetten als je zou willen.
Cloud is niet mistig.
Cloud is compleet onafhangkelijk van de hardware. Het draait nu op Server01, maar kan bij overloading van resources op Server01 direct overgezet worden naar Server32 en daar vandaan draaien zonder dat de gebruiker of klant hier wat van gemerkt heeft.
Het is een moderne twist aan VM's. Die vrijwel altijd nog steeds vast zat aan fysieke server en alleen handmatig over geplaatst werd.
Die definitie van "cloud" is toe te passen op alles wat je via DNS kan benaderen. Immers, ook dan boeit het niet waar de server staatm hoe groot ie is, en welk IP-adres ie heeft.

@m4-io

Wat jij omschrijft, heet een "control panel" en een "scalable architecture".
Kennelijk zijn die twee samen dus "cloud".

Dat houdt dus in dat alle shared hosting providers een cloud zijn... Mistige term dus.

[Reactie gewijzigd door _Thanatos_ op 25 juli 2024 21:39]

In game termen is het gewoon het onderscheid tussen een server die alleen server is (dedicated) en een persoon die z'n eigen game openstelt (en dus zowel client als server is). Da's altijd al zo geweest en ik snap niet dat mensen nu opeens moeite hebben met die term.
Omdat een dedicated database-server alléén database-taken uitvoert, en niet een server is die dedicated server-taken uitvoert waaronder database.

Bij gamen zou dat niet anders moeten zijn. Waarom wel?
Ik ben benieuwd wat ze er in de toekomst mee gaan doen, maar dedicated servers an sich zijn gewoon een hele mooie verandering.
Nu hopen dat ze ook de hit-detection op de server gaan doen, anders krijg je al snel BF3 praktijken (achter cover duiken en toch doodgaan e.d.)
Hit detection wil je niet op de server, tenzij je heel erg zeker bent van een lage ping. Zelfs met een ping van 11 (wat ik nu naar de tweakers.net server heb) heb je al een vertraging van 22ms tussen waar je schiet en waar je raakt. In snelle shooters kan dit snel oplopen, zeker als je ping eens wat hoger is (bijvoorbeeld door wifi). Daarnaast heb je natuurlijk nog de lag van alle verschillende onderdelen, van de daadwerkelijke serverprocessing tot clientprocessing tot display etc. Alles bij alles is server-side hitdetection voorlopig nog erg lastig in snelle shooters. Goede netcode is op zijn minst een vereiste.

In het kort: ik denk dat je liever clientside hitdetectie hebt dan dat je met hitscan wapens toch "voor" je doel moet gaan schieten om te compenseren voor lag.
Hoe kom je aan die 22 ms? Een ping is al een roundtrip he, naar de server en weer terug. Als de server de hit detection voor zijn rekening neemt dan zou in principe de vertraging juist lager kunnen zijn (als de rest van de processing niet te veel tijd kost) dan je ping omdat het 'ik schiet die kant op' pakketje alleen van jou naar de server hoeft te gaan, het hoeft niet eerst ook weer terug voordat je weet waar je hitscan wapen dan raakt*.
Verder denk ik dat je het nogal overschat. Ik speelde vroeger quake 2 met een ping tussen de 200 en 400 ms en daarmee moest ik inderdaad mijn target leaden. Met een ping van 20 ms kan ik me niet voorstellen dat je er heel erg veel van merkt. Clientside hit detection opent de deur weer wat verder naar allerlei cheats.

Overigens was het heerlijk om met die crappy ping destijds op de quake server van A2000 in te loggen en daar met je crappy ping ruim bovenaan te staan boven alle noobs met een ping van 20 ms ;-)

edit: * Uiteraard is het wel zo dat als je op een bewegend target richt dat jij dat target ook al iets vertraagd ziet ten opzichte van waar deze op de server is, daarmee heb je dus toch twee halve roundtrips. Daarmee zou de tijd veroorzaakt door het netwerk verkeer echter precies je ping moeten zijn, niet twee keer de ping.

[Reactie gewijzigd door Finraziel op 25 juli 2024 21:39]

je ben wel erg aan het overdrijven EvilWhiteDragon, tot een ping van ongeveer 60 merk je er echt helemaal niets van in een snelle shooter, en past boven de onderveer 120 gaat het echt en probleem worden voor de die hard gamer.

Daarnaast geeft clientside hit detection juist enorm veel problemen, net zoals elke spel logica die client side wordt gedaan wordt het gewoon enorm misbruikt. kijk naar battlefield of crysis waar veel clientside wordt gedaan en er worden veel cheats gebruikt die elk willekeurig persoon in de server kunnen fraggen zonder okk maar in de buurt te zijn. nee, alle logica op de server is de veiligste manier om een eerlijk potje te waarborgen en de eerste stap die elke ontwikkelaar zou moeten nemen om een degelijke game af te leveren.
Er zijn nogal wat misconcepties over de manier van hitdetection in games zoals BF3.

Het klopt niet dat in BF3 de hitdetectie clientside gedaan wordt. Er wordt een hybride aanpak gebruikt: de client doet hitdetectie en de server kijkt dan of je inderdaad die persoon had kunnen raken op dat moment (de server houdt een seconde ofzo 'historie' bij). Hacks om iemand aan de andere kant te raken met muren e.d. ertussen konden alleen in de beta toen dat nog niet aanstond.

Als je hitdetectie alleen clientside doet heb je in no time een hele zooi cheats. Dat zou een MP game compleet om zeep helpen. Dat weet iedere game dev.
Ik heb toch regelmatig cheaters gezien die je konden knifen zonder ook maar bij je in de buurt te zijn, zoals bijvoorbeeld wanneer de ronde nog niet eens begonnen was. Battlefield 3 had dan ook in no time een hele zooi cheats.
120ms is ongeveel 1/8 seconde.
Dat is al gauw toch weer 7 frames op 60fps of 12 frames op 100fps...
Nou wil ik niet veel zeggen maar ik hoor regelmatig mensen zeuren over delays van een frame enzo.
Welke snelle shooters bedoel je dan en op welk platform speel je dat ?
Ik heb mij dat dus altijd afgevraagd. Een ping geeft de round-trip delay time aan (RTD). Dus hoelang er zit tussen de server en jou. Misschien heb jij het wel speciaal over hit-detection, maar de vertraging tussen de server en jou gaat is ook gelijk je ping. Het is natuurlijk wel zo dat iemand anders schiet, die een ping van 40 heeft, het dan in jouw geval 41ms duurt voor de hit-detection wordt ingezet volgens mij!
Een pakketje is sneller naar een dedicated server gestuurd en weer terug dan die pixel op je scherm geupdate is1. En dan is er nog eens de enorme input delay van wireless controllers.

1 http://superuser.com/a/419167/10789
Hoezo niet, erg veel games zorgen voor hit-detection via servers. Waarom is dit ineens een probleem.
Met nolagged erbij en ping maakt geen hol uit. (hoge pings hebben zelfs meer voordeel).
En dat gebeurt ook bij shooters die sneller gaan dan BF3.
Hit detection op de server krijg je JUIST de BF3 praktijken:

Op je client zit je achter het muurtje, op de server loop je nog over straat waardoor je dus gekilled kan worden.
Dat is nolagged, niet hit-detection die dat veroorzaakt.
Dat is nolagged, niet hit-detection die dat veroorzaakt.
Fout! Zowel lag compensation als lag op zich kunnen het gedrag veroorzaken. Lag compensation veroorzaakt het soms expres in een poging om de situatie voor iedereen min of meer gelijk te maken. Als er geen sprake is van lag compensation hebben sommige mensen (de mensen met een lage ping) minder last van het effect, terwijl anderen er extra veel last van hebben (de mensen met een hoge ping).
100k servers. Dedicated. Hoeveel personen per server ? 20 ? 50 ? 100 ? Dan praat je over 2 miljoen tot 10 miljoen spelers simultaan online die Titanfall moeten spelen. At any given moment. Dus 24/7

Dat lijkt haast niet te kloppen.

Verder is een cloudoplossing vaak duurder dan dedicated bij die aantallen omdat de cloud-aanbieder juist voor al die flexibiliteit moet zorgen. Kortlopende contracten of zelfs per uur, een beheeromgeving waarin je binnen enkele minuten VMs kan starten, enorme pieken die opgevangen moeten worden wanneer gebruikers opeens 10,100 of 1000 extra servers in de lucht brengen. Iemand moet dat betalen.

Reken maar uit wat een 24/7 server bij Amazon kost en vergelijk dat met een mini-dedicated server. Denk dan ook na over de kosten van verkeer (bij Amazon ook niet mals) en dan blijkt dat een hybride systeem helemaal niet zo gek is. Voor kleine sites die flink fluctueren (tussen de 3 en 30 servers afhankelijk van tijdstip of dag) is puur cloud een prima oplossing. Als je echter altijd minimaal een dozijn servers 24/7 hebt draaien dan is het de vraag of een fikse dedicated server (die je prima per maand kan huren) niet gewoon veel meer bang voor de buck is.

Het valt en staat bij het snel extra kunnen inschakelen van extra capaciteit. Als je midden in de nacht als een bepaald continent niet wakker is opeens 30.000 servers kan 'uitzetten' ja dan gaan de kosten per uur hard omlaag. Maar zodra die weer nodig zijn betaal je per uur weer even hard.

Een standaard m1.large bij Amazon kost bij 24/7 gebruik gewoon rond de $186 p/m. Met hele beperkte cores/cpu-power, geheugen en disk(snelheid). Daarbovenop komen traffic kosten. Het is niet abnormaal om uiteindelijk op zeg $250 uit te komen p/m. Niet alleen kun je daar een veel snellere dedicated voor huren, ook hebben die bakken vaak een veel betere uptime dan bij Amazon en/of stabiliteit.

100k Cloudbased servers moeten ook beheerd worden, net als Dedicated machines. De interface is anders, maar het concept is hetzelf (van beveiliging tot opschonen van disks to updates van het OS).

Dit artikel lijkt haast meer een reklamespot voor Microsoft's Azure platform.
Verder is een cloudoplossing vaak duurder dan dedicated bij die aantallen omdat de cloud-aanbieder juist voor al die flexibiliteit moet zorgen.
Microsoft is eigenaar & beheerder van de omgeving; een lagere overhead in kosten heb je bijna niet.
Het valt en staat bij het snel extra kunnen inschakelen van extra capaciteit. Als je midden in de nacht als een bepaald continent niet wakker is opeens 30.000 servers kan 'uitzetten' ja dan gaan de kosten per uur hard omlaag.
"Loadbalancing van services"? Een machine die op een willekeurig tijdstip 0% CPU verbruikt voor service A en service B, kan toch gewoon zelfstandig in S3 worden gezet? En als het virtuele machines zijn, leggen ze dan al helemaal amper beslag op de host-hardware.
100k Cloudbased servers moeten ook beheerd worden, net als Dedicated machines. De interface is anders, maar het concept is hetzelf (van beveiliging tot opschonen van disks to updates van het OS)
Iets zegt me dat je deployment & management van dit soort aantallen machines echt niet inzichtelijk hebt. De manier waarop je het verwoord, doet op me overkomen alsof ze elke server "apart" gaan voorzien van updates en relatief handmatig moeten opschonen.

Bij dit soort aantallen machines heb je ergens een "golden image" wat op een bepaalde manier opgestart kan worden en waarbij de "differential disk" alleen de wijzigingen of specifieke settings bewaart.

Microsoft mag hiermee dan wel een soort reclamebord ophangen maar volgens mij hebben ze zich echt wel bewezen de laatste jaren met, onder andere, de dienst Hotmail.
Mee eens. Lage kosten ondanks dat Amazon al heel weinig 'winst' maken op hun AWS/EC2 platform omdat ze maximaal marktaandeel willen pakken. Azure heeft opstartkosten, veel kleinere schaal en minder ervaring. Het is de vraag of de operating costs van Azure wel zo laag zijn als die van Amazon voor simpele eindklanten. Als je 100k servers / instances bij Amazon afneemt kun je waarschijnlijk ook wel een prima prijs bedingen.

Ik begrijp niet wat je bedoelt met het inzetten van een machine voor S3 ; als der onderliggende hardware niet wordt gebruikt, zijn er nog steeds kosten, alleen worden die op dat moment betaalt door de ISP (Azure/Amazon) in plaats van door de klant. Dus uitzetten is voordelig voor de klant, maar Azure moet die hardware blijven draaien/houden/updaten. Ergens blijven er kosten doorlopen.

Management & deployment is natuurlijk grotendeels geautomatiseerd. Van images tot scripts die uit een repository code downloaden en installeren. Meer dan 10 servers handmatig beheren is al een ramp, laat staan 100k :)

De meeste machines zijn dan ook identieke bakken die zich aanmelden bij een centrale server (o.a. omdat IPs vaak niet vast zijn dus een centrale server kan niet aan discovery doen). En dan worden requests netjes doorgestuurd naar die nieuwe machine als onderdeel van 't cluster. Daar zijn we 't over eens. Dat is een systeem dat je prima kan ontwikkelen met een handvol normale servers, het maakt niet uit of je cloud gebruikt of niet. De management-laag voor de Cloud instances heeft niets te maken hoe je intern je requests verdeeld. Amazon heeft een loadbalancer, maar dat is voor simpele HTTP requests. De meeste multiplayer-games werken op basis van UDP en hebben dus een custom oplossing nodig. Die moet de developer zelf ontwikkelen, dat doet noch Azure noch Amazon noch een dedicated server ISP voor je.

Hotmail is een prima service (jammer dat het weggaat, of over is gegaan op outlook.com) maar heeft imho weinig te maken met een Cloud oplossing. Ongetwijfeld kunnen ze prima duizenden servers in de lucht houden, maar klanten bedienen is een 2e. Of klanten overtuigen dat je voor Azure moet kiezen als Amazon er al is (en een fiks marktaandeel heeft). Nu is Amazon niet heilig en dat is ook niet de discussie.

Dat is meer ; wat is 't probleem van 100k-150k virtuele instances als je makkelijk 10k dedicated servers als basis kan gebruiken, die bij elkaar veel sterker zijn, meer waar bieden voor 't geld en ook vrij flexibel ingezet kunnen worden. M'n voorbeeld van snachts 30k servers uitzetten is overdreven ; als dat zou moeten dan heeft Azure een enorm probleem. Een soort windmolen park dat overdag energie opwekt en snachts stilstaat ; het verschil ; een server die snachts niet voor een klant werkt maar wel aan staat vreet stroom, gebruikt ruimte en vergt beheer en blijft dus geld kosten.

Wat je hieronder ook schrijft ; een dedicated server met daarop VM software zorgt er voor dat je zelf Cloud-provider kan spelen.

Knal er maar wat dual socket octacores neer met 32 Gb geheugen en Gbit interfaces en je kan bergen mensen kwijt op 1 server, zelfs met intensieve 'servers' als Battlefield 64 player matches, bijvoorbeeld.

Maar nog steeds vraag ik me af waarom er 100k instances/servers nodig zijn voor Titanfall. Dat zijn namelijk World of Warcraft getallen en die had op top-dagen 10 miljoen subscribers en die waren echt nooit allemaal op hetzelfde moment online. Als er pieken van 2 miljoen online ooit zijn geweest dan was dat pas jaren na de launch...

Cloud-computing is prachtig, maar wordt te pas en te onpas misbruikt om te doen alsof standaard hosting bij de gemiddeld ISP 'onder de maat' of 'niet toereikend' of 'duur' is. Vaak is dat zeker niet 't geval.

Voor amper 20 euro per maand heb je vaak een VM bij een doorsnede ISP met een vergelijkbare performance en uptime en garantie als bij een toko als Amazon. Echter voor een fractie van de prijs.

De grote Cloud jongens willen maar al te graag al die hosting-klantjes inpikken. Vandaar ook deze berichten. Grote nummers, praten over stabiliteit en 'anders is het niet mogelijk' (hoe zat 't ook alweer met WoW en zeg EVE online en tja noem nog even 10 andere major multiplayer games?). Een soort FUD richting de ouderwetse hosting markt. En da's jammer.
Vergeet niet dat een deel van de operating kosten liggen in het ontwikkelen en beheer van het achterliggende OS. Wat de Azure afdeling lekker door de Windows Divisie laat doen.

Ik vermoed dat Azure goedkoper is dan EC2 gewoon omdat Azure hun deel van hun taken en kosten kan uitbesteden naar andere afdelingen en divisies.

Het is niet bepaald vergelijkbaar met een VM bij een normale hosting bedrijf.
Waar het meestal een handje vol echte servers zijn waar hun klanten op draaien. En vaak is dit een vast aantal mensen op dezelfde fysieke server. Mochten er een paar zijn die de hele troep aan resources gebruiken, blijft er voor jou niets over.

Mocht hetzelfde gebeuren op EC2 of Azure, word jou VM'tje overgeheveld naar een fysieke server die een stuk minder te doen heeft.
En terecht.

Zoals je misschien wel weet gaat het er om hoe goed je kunt schalen naar de vraag. Iets wat Windows Azure perfect doet (Amazon ook natuurlijk). Het verschil is dat MS Azure al heeft.
Wat mij opvalt is dat always online voor de xbox one dus echt wel toegevoegde waarde kan gaan hebben. Zoals in dit bericht al staat wordt het bij Forza 5 gebruikt voor betere AI, voor titanfall hebben ze ook ideeen / maken ze gebruik van always online, en ik kan me voorstellen dat andere spellen hier ook nuttige toepassingen voor hadden kunnen bedenken.
Als Microsoft hier tijdens de lancering veel meer de voordelen van benadrukt had, dan hadden ze een stuk minder negativiteit gekregen. Nu was het vooral gissen waarom always online nodig was en werd vooral de DRM kaart met 1x per 24 uur validatie gespeeld.
Maar je hoeft niet Always On te hebben voor die functies van Titanfall en Forza 5, dus het zijn geen argumenten waarom die functie zo geweldig zou zijn.
En alle andere cloud-oplossingen dan? Daar zal het betreffende device ook "always on" moeten hebben om ermee te verbinden.

Dropbox? Werkt alleen als je PC/laptop/tablet aan staat en verbonden is met internet.
Mailclient voor Gmail? Werkt alleen als je PC/laptop/tablet aan staat en verbonden is met internet.
World of Warcraft? Werkt alleen als je PC/laptop/tablet aan staat en verbonden is met internet.
EPG van je decoder? Werkt alleen als de decoder aan staat en verbonden is met de kabel.

Dat always-on moet soms even met een korrel zout worden genomen maar omdat het recentelijk juist negatief/negatiever in het nieuws is geweest omtrent de Xbox One, denken mensen steeds maar hetzelfde argument te kunnen hergebruiken.
Tuurlijk heb je daar geen always on voor nodig. Je hoeft alleen online zodra je het wilt gebruiken.

Iedereen snapt het dat als je iets met multiplayer of cloud opslag wilt doen ze online moeten. Maar om een single player game te spelen zou geen internet nodig moeten zijn. Daarom waren mensen negatief omdat dat dus wel moest (minimaal 1 keer per dag).

Gelukkig (voor toekomstige Xbone bezitters) hebben ze dat nu terug gedraaid. Terwijl alle andere opties met cloud based, forza AI etc etc nog steeds mogelijk zijn als je zelf kiest online te gaan! Yay keuze!
Daarbij kan ik mijn internet kabel in de brand steken, door midden knippen en vastbinden aan het ISS, en toch gewoon drop box gebruiken. De bestanden die erin staan bewerken, bekijken of afspelen. Hier nieuwe bestanden bij zetten of deze aanpassen. En zodra ik het wil en een nieuwe internet kabel koop en aansluit worden deze bestanden weer gesyncd.

Het is niet zo dat als ik mijn internet verbinding kwijt raak dat ik niet bij mijn dropbox bestanden kan komen. Wat vergelijkbaar is dat als ik mijn verbinding kwijt raak met XBO servers voor 24 uur, kan ik niet ff single player spelen of iets dergelijks offline.

Rot maar op met dat cloud gebeuren voor games. Was deze generatie ook nergens voor nodig dat berekeningen off-loaded werden naar een cloud. Waarom moet dat nu ineens wel?

Ik heb veel plezier gehad aan SimCity, maar ik heb een tering hekel aan die cloud rotzooi en die always online DRM, hekelt me gruwelijk. En de laatste keer dat ik persoonlijk iets aanschaf waarbij dit soort ongein word uitgehaald bij een OFFLINE BASED game.
Je noemt hier diensten die niet zouden kunnen werken als je niet online bent..

Maar wat nou als je je xbox mee neemt naar je vakantie huisje, een schijfje er in gooit en tegen je broertje een potje wilt spelen.. Dat werkt niet als het spelt vereist dat je online bent..
WoW werkt ook niet als je niet online bent en dat geldt voor een MP shooter als deze net zo goed.
Toe maar wat een argument. Een spel, niet een console, waarvan je van te voren weet dat het spel altijd online is, anders is het namelijk geen MMORPG...
vergelijken met een console, die honderduizenden spellen heeft. Forza 4 kan gewoon offline versus gespeeld worden hoor. Zelfde geld voor de CoD's, Tekken en vele andere games.

Met de XBO kon dit allemaal ineens niet meer. Offline splitscreen potje gamen HAHA NEE!

Maar blijf het verdedigen... *zucht*
Precies! Mij klonk het ook als een vooruitgang (ik ben namelijk altijd online, koop de meeste spellen tegenwoordig - want mutliplayer - en ik cheat niet)

Het viel me op dat MS erg 'slecht' heeft geadverteerd... X1 voelt voor mij als 'next gen' all-in-one console en ja, die hebben nieuwe features / eisen, maar veel mensen in mijn omgeving zien de mogelijkheden niet, maar alleen eigenschappen waarvan ze verwachten dat het nadelen zijn...
En dan zijn er graaf werkzaamheden in je straat en die trekken de stoep open en roppen je glas/coax/koper bekabeling aan gort.(let wel dit gebeurt regelmatiger dan je zou denken)
Leuk, weekje of zelfs 2 wachten voor je weer internet hebt, en dan?
Lekker tetheren?

Wil je spelen, ff tetheren... komt de XBO met "UPDATE REQUIRED", dag bandbreedte limiet.

Heb je niet een abbo met vele gigs aan dataverkeer dan heb je ineens een erg dure blu-ray speler.
Als Microsoft hier tijdens de lancering veel meer de voordelen van benadrukt had, dan hadden ze een stuk minder negativiteit gekregen.

Nee, want de mogelijkheden die de keuze om altijd met Microsoft te verbinden bieden rechtvaardigen niet de verplichting om altijd met Microsoft te moeten verbinden.
Dit, maak het optioneel.
De XBO:Lite ofzo zonder die always on rotzooi en de XBO:full, met alle DRM toeters en bellen.

En dan maar kijken welke XBO het beter zou doen :)
De vraag is of dit verhaal van deze ontwikkelaar klopt en niet gewoon PR praat is die ze moeten vertellen van MS.

Want Titanfall zou oorspronkelijk ook op de PS4 uitkomen en al een tijdje is bekend dat het een XboxOne exclusive zou worden en het gerucht was dat MS betaald heeft voor deze exclusiviteit.
Nu komt dus de ontwikkelaar aan en zegt dat ze XboxOne exclusive gegaan zijn omdat wat hun wilden alleen mogelijk was bij MS.

Misschien klopt het maar misschien is het verhaal van deze ontwikkelaar net als het Forza verhaal dat hij verteld pure marketing onzin welke van MS af komt.

EA deed hetzelfde bij SimCity (dat men altijd online moest zijn omdat de cloud nodig was voor berekeningen) maar nadat gamers erachter kwamen dat dit onzin was gaf Maxis het zelf toe dat dit niet klopte.
Ach Microsoft is er niet vies van met bergen geld te strooien om games naar de xbox te trekken.

GTA was ook sony exclusive. Heeft MS veel voor mogen neerleggen om rockstar naar hun te halen.
Zelfde voor veen Konami games, heeft MS veel geld voor neergelegd om die meuk naar de Xbox te halen.

Dit hebben ze ook geprobeert met Polyphony (makers van GT). En wellicht vele andere.
Wel mooi van Polyphony die zonder omgekocht te hoeven worden zelf besluiten Sony exclusive te zijn en blijven.
Anoniem: 370671 25 juni 2013 11:40
Deze game wordt ook uitgebracht zonder single player campaign. Na 5 seconden denken dacht ik, toch eigenlijk een slim idee. Niemand koopt een fps (cod of battlefield bv) speciaal voor de solo campaign.
Ik ken zat mensen die de singleplayers van FPS games (zoals CoD of Battlefield) kapot spelen.

Zo niet voor de achievements dan omdat ze geen zin hebben in andere mensen in hun game.
Wat bedoel je met 'kapot spelen'? De BF3 single player heb je in ongeveer 4 uur uitgespeeld (normal). Dan heb je nog de optie het een keer overnieuw te doen op 'hard', maar daar schiet je ook helemaal niks mee op.

BF3 is gewoon een MP title. Dat zie je ook aan de extra uitgebrachte content; allemaal MP gebaseerd. Single-player is niet meer dan een achtergrond voor de setting e.d. Voor alleen SP zou BF3 een miskoop zijn.
CoD heeft wel veel SP of COOP meuk.
Vind dat zelf het leukste van CoD. Heb niet altijd zin om online te spelen waar iedereen alleen maar wil winnen, eerste wil staan en zo cool mogelijk probeert te zijn.

BF heeft nooit boeiende SP gehad, die van BF3 was boeiender dan die van BF1.
Dat heb je dan flink mis gedacht. Ik heb de hele COD reeks op singleplayer uitgespeeld terwijl ik sinds CoD 2 geen niet meer online gespeeld heb. De intensheid van de scripted singleplayer is voor mij de reden om toch alle CoD's te kopen (al koop ik ze wel pas als ze een stuk afgeprijst zijn).

Edit: Neemt natuurlijk niet weg dat een spel ook prima zonder singleplayer kan (zie bijvoorbeeld WoW en Battlefield 1942).

[Reactie gewijzigd door denyos op 25 juli 2024 21:39]

Dat ben ik niet met je eens, en daarbij ben ik zelf een lopend voorbeeld.
Ja, ik geef je gelijk dat multiplayer van dat soort games erg belangrijk is, vooral als je er wat langer van wilt genieten (en de AI gewoon niet goed genoeg is). Maar daarnaast zijn er veel FPS met een hele goeie single player campaign. En zelfs een paar zonder echte multiplayer (METRO bijvoorbeeld).

Voor de "gemiddelde" militairy based FPS heb je gelijk (call of duty, counterstrike, battlefield, etc). Maar vergeet niet dat deze games juist groot zijn geworden met hun multyplayer mogelijkheden (kijk naar de eerste battlefield, single player was gewoon multiplayer met bots).

Maar zoals het nieuwsbericht al aangeeft, kan AZURE worden gebruikt voor veel meer dan dedicated servers hosten.

edit, eigenlijk een beetje wat denyos zegt, maar daan ook de andere kant op

[Reactie gewijzigd door kid1988 op 25 juli 2024 21:39]

Ik koop ze juist niet vanwege het multiplayer gedeelte.. De oude CoD's kocht ik voor "het verhaal", maar de laatste versies heb ik juist vanwege de verschuiving naar multiplayer mooi laten liggen..

Deze game dus ook...
Het zou mogelijk moeten zijn om het singleplayer en multiplayer luik apart te kopen.
Ik ben niemand dus...... :/
Jij ook al?

Overrigens zie ik het nog helemaal niet zo met die cloud servers. Een HEEL simpel servertje in de cloud is duurder dan eentje bij een goedkope hoster (vergelijk micro instantie bij amazon met kleinste server by transip) en een topend server +256gb geheugen is VELEN male goedkoper dedicated...

Zie hier vooral een marketing verhaal... de prijzen ontbreken ook volledig. Altijd een rode vlag.
Goed punt. Maar een andere populaire reden om ondanks schijnbaar hogere kosten toch voor cloud computing te kiezen is dat men op deze manier ook CAPEX (Capital Expenditures) kan verschuiven naar OPEX (Operational Expenditures). Met andere woorden, men koopt niet een stapel hardware vooraf, maar betaald op basis van dagelijks gebruik.

Het kopen en runnen van fysieke servers kost tijd en daardoor moet je investeren (CAPEX) op de piekcapaciteit. Bij een spel kan dat alleen de eerste paar weken nodig zijn, waarna je met aanzienlijke overcapaciteit zit. Dat kost veel geld. Door gebruik te maken van deze cloud kunnen ze de capaciteit meeschalen met de behoefte. Ook al betaald men meer per uur per server (OPEX), dan kunnen de totale kosten toch beduidend lager uitvallen wanneer het aantal servers en uren kleiner wordt.
Er zit wel een soort singleplayer feel rond de multiplayer. Zoals je in de presentatie op de E3 kon zien, heb je een aantal karakters die je ziet voordat je de game in gaat. Wat toch wel een SP-gevoel geeft in de MP.
Het is echter geen volledige campagne en voor sommige mensen is dat inderdaad jammer. Maar dan haal je hem toch niet?
Nee niemand koopt het speciaal voor de solo campagne, maar het heeft wel toegevoegde waarde vind ik. Ik vond de solo campagne van BF3 al vermakelijk, ook al was die volgens de kenners niet geweldig. BF4 wordt (nog) beter.

PS: Overigens heb je absoluut een punt: spellen gaan steeds meer naar de cloud en dus naar online/multiplayer etc.
Ik zou toch wel eens willen weten hoe het Xbox Cloud gebeuren werkt
is het gevoelig voor DDos attacks
wat gebeurd er als miljoenen spelers online zijn en verschillende games spelen die gebruik maken van de cloud.word het dan traag ?
en volgens mij is het een hele dure investering voor MS
Zo geven ze even 700 miljoen dollar uit aan een nieuw serverpark. Zie http://www.webpronews.com...oines-data-center-2013-06

Tijdens de onthulling van de Xbox One stelde Microsoft al dat het een een serverpark van 300.000 servers op wil gaan zetten voor Xbox Live, om de introductie van de Xbox One te ondersteunen. Da's een flink aantal...
300.00 fysieke of virtuele servers?
En alsof de Xbox One cloud ook maar ergens bijzonder is, want zo doen ze het wel overkomen.
Het lijkt me dat ze daarmee wel over fysieke servers praten?
Virtueel.. het is hellemaal niet meer interesant om diensten op fysieke bakken te draaien. VM's kan je makkelijk schalen. en verplaatsen indien nodig.. Fysieke bakken is een stuk lastiger...

Het draaid wel fysiek, maar moet er onderhoud gepleegd worden aan hardware.. Dan is de VM zo simple te verplaatsen dat gebruikers er niets van hoeven te merken.
Vertel mij dan is waar je 300k virtuele servers op draait toch niet op lucht zeker, dus lijkt mij ook dat dit om fysieke hardware gaat en niet om virtuele servers. Dat die daar op draaien is een ander verhaal.
Wat ze proberen uit te leggen in het artiekel is dat ze helemaal niks met fysieke servers te maken willen hebben vanwege de kosten. Ze willen gewoon een hoop server diensten afnemen en daarbij zien ze dus blijkbaar een uitkomst in de cloud dienst van microsoft.

Op welke hardware microsoft die servers draait zal ze een worst wezen.
Ik denk ook dat het virtuele servers zijn. MS gaat natuurlijk van zijn eigen diensten gebruik maken, zoals Azure en Hyper-V, al is het maar als reclame naar andere bedrijven toe om te laten zien hoe goed dat werkt. Fysieke servers zijn zo 2008!
Als er een datacenter gebouwd wordt voor 700 miljoen lijkt het me nogal overduidelijk dat het over fysieke servers gaat. 8)7
Ik adviseer je om eens rustig wat whitepapers te lezen van Amazon EC2, Microsoft Azure of andere grote partijen die cloud-based oplossingen bieden aan eenieder die hier geld voor over heeft; op basis van de korte post van je, vermoed ik een klein gebrek aan kennis/inzicht. ;)

[Reactie gewijzigd door MAX3400 op 25 juli 2024 21:39]

Hij zegt toch ook dat hij het wel eens zou willen weten. Dus hij geeft zelf al aan dat hij geen kennis/inzicht er in heeft.
Dit lijkt dan ook een belangrijke reden voor Respawn om de game alleen op de Xbox-consoles en de pc uit te brengen, en niet op bijvoorbeeld de PlayStation 4.
Dat vind ik een rare uitspraak veelal omdat Sony veel gematigder is en opener inzake het online gedeelte t.o.v. hun partners zie bvb cross play. Waar die servers staan boeit hen vermoed ik weinig en ik dacht dat Azure het toonbeeld was van "openheid". Ik vermoed dat er ooit wel games op de markt zullen komen met een online PS4 gedeelte die voor bepaalde zaken wel eens op Azure (of een van de andere aanbieders) zal belanden.

Persoonlijk denk ik dat "exclusiviteit" van titanfall vooral had te maken met heel de DRM historie. Wat suiker voor de bittere pil, heeft volgens mij ook een reden waarom EA opeens de passes liet vallen. Hier titanfall, hier BF4 in de hoop genoeg aandacht weg te kunnen trekken van dat DRM verhaal. Een oud EA medewerker wees mij er recent nog op hoe geniaal de uitspraken waren van Moore die stelde dat ze niet agressief bij Microsoft hadden zitten lobbyen , wat niet wil zeggen dat ze niet hadden zitten lobbyen of bepaalde afspraken hadden gemaakt.

Het eerste wat mij eigenlijk opviel nadat bekend raakte dat DRM een bocht van 180° had gemaakt, dat Titanfall op PS4 opeens niet meer onbespreekbaar was en dat was voorheen wel anders.

Dit gezegd zijnde het is wel raar hé terwijl we net uit een tumultueuze tijdperk komen waar we nog die discussies hadden over tweedehands en hoe het volgens sommigen oneerlijk is omdat (inzake online) het eigenlijk freeloaden op de infrastructuur die dan maar 1 keer gesponsord werd door zo'n game.

Dat is een argument die ik nooit heb begrepen want terwijl ik wel onderken dat er zaken zijn zoals matchmaking, leaderboards en dergelijke, worden toch enorm veel games gewoon bij de gebruikers zelf gehost ? Nu komen we zelf in een tijdperk terecht waar dedicated servers opeens een selling point is. Dus waar zit op dat vlak nu de oneerlijkheid die ons zo vaak werd verkocht ?

[Reactie gewijzigd door simplicidad op 25 juli 2024 21:39]

Dat vind ik een rare uitspraak veelal omdat Sony veel gematigder is en opener inzake het online gedeelte t.o.v. hun partners zie bvb cross play. Waar die servers staan boeit hen vermoed ik weinig en ik dacht dat Azure het toonbeeld was van "openheid". Ik vermoed dat er ooit wel games op de markt zullen komen met een online PS4 gedeelte die voor bepaalde zaken wel eens op Azure (of een van de andere aanbieders) zal belanden.
Klopt volledig wat je zegt! Echter, ik denk niet dat MS een developer gaat "sponsoren" met extreem lage prijzen voor de servers, om deze servers vervolgens te laten gebruiken voor een PS4 game. MS zal alleen deze lage prijzen aanbieden, als deze servers ook alleen worden gebruikt voor de Xbox (en mogelijk dan dus ook PC, al zullen daar ook beperkingen aan liggen).
Dat laatste vooral inderdaad. Ik denk dat Respawn bij MS en Sony heeft aangeklopt, en MS de beste oplossing bood. Volgens Respawn kost dit niet overdreven veel, maar een voorwaarde zal inderdaad wel zijn dat de MS-cloud niet voor een PS4-game gebruikt wordt, wat een PS4-versie uitsluit want de cloud-features zijn essentieel voor het spel.. de hele (multiplayer-)game draait niet zonder.

Sterker nog: een barter waarbij Respawn exclusief houdt voor MS-consoles in ruil voor lagere kosten op MS-servergebied vind ik ook niet heel onlogisch klinken.
Het zou mij niet verbazen dat MS heel graag Titanfall als exclusive wilde hebben en daarvoor wellicht GRATIS Azure ter beschikking stelt of tegen zeer sterk gereduceerde kosten.
"Klopt volledig wat je zegt! Echter, ik denk niet dat MS een developer gaat "sponsoren" met extreem lage prijzen voor de servers, om deze servers vervolgens te laten gebruiken voor een PS4 game."

Ik denk dat het dan weer goed mogelijk is dat microsoft dit doet.
Ten eerste is microsoft een multinational. Die bestaan meestal toch al uit verschillende eenheden met enige autonomie. De diverse onderdelen moeten grotendeels zelfstandig opereren (overleven in de markt) anders heeft
Ten tweede is microsoft niet vies van het verdienen op de markt van de concurent. Zo zou je kunnen zeggen dat MS Office voor Mac nooit had kunnen bestaan, maar toch is het voor microsoft al jaren een rendabele afzetmarkt.
Ten derde gaat het geloof ik niet zo vlot met dat azure netwerk van microsoft en zijn ze naarstig op zoek naar klanten. Xbone wordt er 1 van, maar het zou me niet verbazen als sony ook gewoon klant wordt.
Microsoft is ermee bekend hun diensten/producten tegen verlies aan te bieden voor ontwikkelaars. Niets nieuws, deden ze in de jaren 90 ook, waardoor deels Windows zo populair is geworden.
Azure is 1 van de grotere cloud oplossingen beschikbaar. 20 van de forbes top 50 bedrijven gebruikt het. Denk niet dat gebrek aan klanten/gebruikers het probleem is.
Misschien ligt het aan mij en begrijp ik het niet, maar ik denk bij een "dedicated" server nou niet aan een virtuele machine in de cloud, waarbij de hardware per definitie niet toegewijd is aan een bepaalde virtuele machine.
Door correcte sizing van VM's ten opzichte van de host, kan je hardware 1:1 benutten en zou je kunnen beargumenteren dat de VM's gewoon dedicated servers zijn.

Stel: je host is een quad-core Xeon met 16GB RAM dan kan je toch netjes 4 VM's erop kwijt die elk 1 core gebruiken en max 4GB RAM (even de overhead van de hypervisor niet meegerekend)?

Dat is niet anders dan wat veel VPS-providers ook doen en dat is toch al jaren een geaccepteerd beleid.
Klopt als een bus. En dan heb je ook nog eens 1 hele fysieke core en niet een gedeelde virtuele core die je met 2 tot 10 andere klanten deelt... Een Amazon EC2 core heeft de snelheid/performance van een Intel cpu op 1 Ghz .. En da's nou niet bepaald te vergelijken met een fysieke core van een moderne Xeon.

Zie ook http://blog.cloudharmony....enchmarking-in-cloud.html

Op dit item kan niet meer gereageerd worden.