De intentie klopt, maar het is praktisch een contradictie: om cheating te voorkomen draait anti-cheat juist in system space. Dat verhoogt weer het RCE-risico. Het spanningsveld zit in veiligheid versus integriteitscontrole.
Het spanningsveld klopt, maar de keuze voor verhoogde rechten voor anti-cheat voelt in mijn ogen nog steeds als deels kostenbesparing en deels symptoombestrijding, beide met maximale bijwerkingen en risico’s voor je klanten. In plaats van fundamenteel op serverniveau te valideren, of een combi toe te passen, wat goed te doen is, zie je helaas dat veel ontwikkelaars de gemakkelijke weg kiezen door de integriteitslast naar de eindgebruiker te verschuiven. Niet per se omdat het technisch effectiever is, maar omdat het volgens mij goedkoper is. Server-side analyse van telemetrie en replays, live of achteraf, gecombineerd met audits en hand in hand met je community is vele malen veiliger en schaalbaarder, maar vereist ook aanpassingen infrastructuur en moderatie (personeel).
Ik las toevallig laatst
een reactie van @
Blorgg die voor mij veel duidelijk maakte over de huidige technische methodes die cheaters momenteel gebruiken. Kortgezegd: een SBC leest een deel van je scherm, herkent tegenstanders via beeldherkenning, en stuurt via USB je muis bij (en toetsenbord aan?). Dat soort aanvallen/cheats werken volledig buiten het besturingssysteem om. Je kunt er honderd kernel hooks op loslaten, maar je gaat het niet zien. Wat overblijft is gedragsanalyse: bovenmenselijke precisie, niet-reproduceerbare reactietijden, onmenselijke inputpatronen, onmogelijke toetsencombinaties of achtereenvolgende handelingen, en afwijkend muisgedrag. En dat zijn gegevens die je gewoon ingame en (deels) server-side kunt verzamelen, zonder verhoogde privileges.
En, even googlen laat zien dat wetenschappelijk onderzoek mijn idee bevestigt.
Dit onderzoek toont dat je met alleen cursordata en timings tot circa tachtig procent detectie kunt halen in webcontexten, iets wat mij indicatief lijkt voor bredere inzetbaarheid.
En dezz studie laat zien dat gedragsanalyse op basis van schietpatronen aimbots kan ontmaskeren zonder client-side inspectie. En,
Valve’s VACNet-presentatie verduidelijkt dat het bedrijf resources inzet om replays automatisch te scannen. Het kan dus wel, als je maar wilt investeren in serverzijde controle in plaats van alles naar de speler te schuiven om zo wat duiten te besparen op personeel en techniek. Terwijl je bij sommige titels ziet dat de actieve spelersaantallen teruglopen als het cheatprobleem onbeheersbaar wordt. Al is de incentive voor ondersteuning niet altijd aanwezig wanneer een game geen verdere omzet meer draait.
Een treffende vergelijking, in mijn ogen, komt uit de sportwereld, waar ik enkele jaren geleden op stuitte. World Athletics beschouwt elke reactie korter dan 0,100 seconden na het startsignaal als een valse start. De startblokken meten daarbij de krachtafname onder de voeten; zodra die daling vóór 0,100 seconden optreedt, wordt de race teruggeschoten. Dat is natuurlijk niet één-op-één te vergelijken met games, waar je niet één moment meet maar (tien)duizenden per sessie. Maar juist daardoor kun je herhaling detecteren. Eén bovengemiddelde reactie is met deze aantallen niet per se verdacht, maar iemand die keer op keer handelt op een manier die fysiek niet tot nauwelijks haalbaar is, valt op in het patroon.
Die benadering, gericht op menselijke limieten en statistische afwijking, is in mijn ogen dan ook toepasbaar op gedragsdetectie in games. Vermijd simplistische oplossingen en maak bans niet meteen volledig automatisch. Wat ik als klant/speler wil is een gelaagde aanpak met verhoogde prioritering op verdachte gedrag/spelers, community-input, (deels) menselijke moderatie en vergaande transparantie door bijvoorbeeld replays van iedereen altijd beschikbaar te maken (vanuit elk perspectief of de volledige game) voor een redelijke periode (opslag). Automatische bans zijn nuttig bij overduidelijke overtredingen, maar mogen mijns inziens geen reflex worden om kosten te besparen. Een robuust systeem levert in de meeste gevallen direct de juiste uitkomst, maar houdt rekening met onvermijdelijke false positives. Daarom moet er altijd een laag voor herbeoordeling zijn, liefst uitgevoerd door een gespecialiseerd (moderatie? of hoe dat ook heet)team. Studio’s laveren nu te vaak tussen massaal bannen of juist niets/te weinig doen, en schuiven zo het probleem naar de speler. Een transparant en gelaagd systeem, met automatische flagging, menselijke review en herzieningsprocedures, voorkomt die zwart-witval, minimaliseert fouten en houdt het speelveld tegelijk effectief schoon.
Helaas verwacht ik niet dat dit op deze manier snel zijn intrede gaat doen. Gezien een effectieve gelaagde aanpak geld kost, en dat hebben studio’s er vaak niet voor over, vooral bij titels die na de initiële verkoop weinig of geen omzet meer genereren. Zodra de sale voorbij is, ontbreekt de incentive om in dit onderhoud te investeren.
Wat mis ik na het schrijven van dit soort teksten toch de blogfunctionaliteit op Tweakers...
[Reactie gewijzigd door jdh009 op 6 juli 2025 15:58]