Helldivers 2-ontwikkelaars verkleinen installatiegrootte op pc met 131GB

Helldivers 2 neemt straks nog maar 23GB opslagruimte in beslag in plaats van 154GB. Ontwikkelaar Arrowhead Games heeft hiertoe gedupliceerde data verwijderd. Die werd gebruikt om de laadtijden te verkorten, maar dit bleek onnodig.

Arrowhead Games zegt samen met de Nederlandse ontwikkelaar Nixxes te hebben gewerkt aan het verkleinen van de installatiegrootte van Helldivers 2. De 23GB die straks nodig is, komt 'meer in lijn' met hoeveel het spel op consoles vereist. De ontwikkelaar had veel textures en andere assets gedupliceerd in de gamecode, voornamelijk voor gamers met hdd's. Arrowheads idee was dat hdd's minder lang zouden hoeven zoeken naar die assets als ze vaker op de schijf staan, wat de laadtijden aanzienlijk zou verkorten.

De ontwikkelaar dacht dat dit de laadtijden tot tien keer korter zou maken. Hiervoor baseerde Arrowhead zich op 'data uit de branche', die zou wijzen op laadtijden die in het ergste geval vijf keer trager zijn op hdd's zonder gedupliceerde data. "Wij waren zeer conservatief en verdubbelden die projectie om rekening te houden met het onbekende."

Arrowhead heeft inmiddels het spel zelf getest en komt daarbij tot de conclusie dat 'in tegenstelling tot de meeste games' langere laadtijden bij Helldivers 2 door het opbouwen van een level komen, niet door het laden van assets. Met andere woorden: zelfs voor spelers met hdd's zorgt deze aanpassing niet voor significant langere laadtijden. De verkleinde installatiegrootte kan de laadtijd 'in het ergste geval met enkele seconden' verlengen.

De verkleinde installatiegrootte wordt als een bèta-update uitgebracht. Als hierbij geen nieuwe problemen komen kijken, wil Arrowhead de verkleinde installatiegrootte naar alle spelers brengen. Helldivers 2 is een co-opthirdpersonshooter die in februari 2024 verscheen op PlayStation 5 en pc. Deze zomer verscheen een Xbox-versie.

Door Hayte Hugo

Redacteur

03-12-2025 • 11:11

77

Submitter: nzall

Lees meer

Reacties (77)

Sorteer op:

Weergave:

"Arrowheads idee was dat hdd's minder lang zouden hoeven zoeken naar die assets als ze vaker op de schijf staan, wat de laadtijden aanzienlijk zou verkorten."

Wut... welk licht heeft dát bedacht..?

Gebaseerd op "data uit de branche...". Geen idee welke data, maar dit slaat echt helemaal nergens op, en dat zou elke weldenkende developer toch ook moeten begrijpen...

[Reactie gewijzigd door Travelan op 3 december 2025 11:27]

Haha, dit heb je met Titanfall ook, waar de Xbox One install 17GB is maar de PC install 48GB omdat er 35GB (!) aan uncompressed .wav audio in zit, want dat zou de CPU ontlasten :+. Terwijl juist de Xbox One (en PS4) een verschrikkelijk zwakke CPU hebben.
Consoles hebben (dankzij hun uniformiteit) weer eenvoudig te gebruiken dedicated audio hardware wat resources elders in het systeem vrij speelt, zoals de zwakke CPUs van de PS4/XB1.

PCs hebben vaak ook hardware acceleratie voor audio, vaak via de GPU, maar dat gaat ten koste van de GPU (en de data moet eerst verplaatst worden van disk naar system RAM en daarna naar VRAM).

[Reactie gewijzigd door Caayn op 3 december 2025 13:27]

Dat stukje over PC is niet helemaal waar.

Moderne audio is tegenwoordig zo goed als volledig software based. CPU doet mixing, resample, effect en spatial. De onboard audio-chip (Reatek vaak) heeft geen DSP functie maar meer simpele DAC/ADC + codec. Gpu compute word alleen in speciale cases gebruikt voor bijv 3D spatial of Steam Audio GPU pathing om een voorbeeld te noemen.

Flow is bij algemene alle audio: Disk → System RAM → CPU (audio mixing) → audio interface → speakers
GPU komt daar niet bij kijken. En als dit wel zo is (gevallen hierboven) is dat echt peanuts voor een GPU en gaat niet ten koste van iets. Die bandwidth is extreem licht (48 kHz × 24-bit × 8 kanalen ≈ 9 MB/s)

Audio GPU accel brengt me terug naar de Creative X-Fi-tijd :D
Ik heb echt nog nooit gezien dat een GPU de audio acceleratie voor zich neemt. Dit is iets wat heel licht gewoon op de CPU kan, daar hoeft de GPU helemaal niks mee te doen. Audio is ook zo lineair als het maar kan, dus daar is een GPU ook helemaal niet goed in (en een CPU juist wel).

Sterker nog, sinds Windows Vista is Microsoft zelfs helemaal afgestapt van het idee dat audio hardware geaccelereerd moet worden, want dat is gewoon niet rendabel meer op moderne (voor die tijd) hardware. Sindsdien is WASAPI software-only.
Windows kan wel hardware audio offloading/acceleration. Alleen de manier waarop is helemaal anders dan hoe het in Windows XP in elkaar zat:
Windows Audio Architecture - Windows drivers | Microsoft Learn
Implementing Hardware Offloaded APO Effects - Windows drivers | Microsoft Learn

Maar zover ik weet is er geen enkele hardware vendor die dit in zijn drivers heeft geïmplementeerd. Het kost hun geld om te ontwikkelen en geen kat die het verschil merkt dat een game een paar procent meer CPU gebruikt voor audio.

Wat momenteel wel kan is games met Dolby Atmos, de volledige bitstream naar een externe decoder laten doorsturen. I.p.v. discrete kanalen is Atmos object based en de decoder doet dan alle DSP werk:
Dolby Atmos: Understanding the Concept
Het enige wat je daarvoor moet doen is een AV receiver of TV in huis halen met Dolby Atmos en die met HDMI aan je PC hangen.
Geforce kaarten doen dit al jaren. Bij iedere gpu driver update die ik doe worden ook de audio drivers meegeleverd.
Dat heeft meer met het routen van de audio naar de HDMI poort te maken :-)
Hm, klinkt logisch :P
Ja, dit was wel een issue op dvd's en blue rays, daar kon je de afstand verkorten tussen de assets op de schijf door ze strategiesch te plaatsen en te duplicieren. En dat werd toen ook gedaan door games. Maar op een pc heb je daar geen controle op aangezien er ook andere data op de schijf staan buiten je spel om. Verder is er ook zoiets als fragmentatie waar je ook geen controle op hebt. Ook is iest zo simpel als het terugdraaien van als data-duplicatie iets waar je niet een expert als Nixxes voor nodig hebt.
(...) Ook is iets simpels als het terugdraaien van data-duplicatie iets waar je niet een expert als Nixxes voor nodig hebt.
Misschien heeft Nixxes eerst zelf onderzoek gedaan naar de grootte van Helldivers 2 en vervolgens bij Arrowhead aangeklopt met de bevindingen, weet jij veel.
Het is een veelgebruikte techniek om laadtijden significant te verminderen. Dat is wat ze bedoelen met data uit de branche. Door assets te dupliceren en op meerdere plaatsen fysiek dichtbij elkaar te hebben op een harde schijf, kan dit laadtijden verminderen. Een SSD maakt dit overbodig, maar zo'n 10% van de spelers heeft het spel nog op een HDD staan.

In het geval van Helldivers 2 was het overduidelijk premature optimization. Het spel heeft deze techniek überhaupt niet nodig, omdat andere dingen de maximum laadtijd bepalen. Maar dat weet je niet zonder het te testen. Ik snap wel waarom dit toen niet getest is. De installatiegrootte was ongeveer de helft rond de launch, dus toen was het nog niet zo'n probleem.
Nou ja, als je spel 154 GB groot is, zal het wel veel vaker op de HDD komen te staat in plaats van een SSD :).
Er wordt waarschijnlijk bedoeld dat alle assets met een sequentiële read ingeladen kunnen worden in plaats van dat er veel seeks nodig zijn om de assets van (niet-aaneengesloten) delen van de HDD te lezen, en dat is inderdaad sneller. Maar blijkbaar is dat niet de bottleneck hier.
Iemand die het vak geleerd heeft in de PS2 tijd. Het idee komt van optische discs (DVD etc). Die hebben seek times van 100 ms maar veel ruimte. Dan is duplicatie helemaal geen issue. Zet alle assets van een level achter elkaar en je hebt geen seek nodig.

HDD? Seek times zijn zo'n 10x minder.
Meschien iet te kort door de bocht.

Zou het linken naar parents er ook mee te maken kunnen hebben waardoor je hoop extra assets gaat laden.

Door duplicate te maken die niet alle dependencies Heeft hoef je maar de helft te laden
Dus al die jaren ervaring als computergebruikers van de ontwikkelaars of als gamer op pc en/of console (en de rest van de gemeenschap), gezond verstand en duizenden benchmarks of testen op verschillende hardware in het echte leven gaven deze indruk niet?

Geef een 15-jarige met wat basiskennis van statistiek en wat software zoals Excel wat ruwe data en die vertelt je dat ook binnen het uur.

Welke debiele projectmanagers keuren zo'n shit goed? 131 GB aan gedupliceerde data?
Zoektijden optimaliseren die het tot 10 keer sneller zouden moeten doen laden terwijl het omgekeerde een feit is?

Is dat onkunde, AI of wat steken die mensen die werken daar eigenlijk uit, behalve cocaïne snuiven, hun geld tellen en elkaars scheten snuffelen? |:(
iemand die nog floppys heeft meegemaakt denk ik..

'Please insert disk 10 of 20'
Zelf nooit met floppy's gewerkt,

maar wel nog met mini floppy's en pas nog mijn windows 3.11 installatie micro floppy's tegen gekomen :)

Vind het altijd tof om uit te leggen aan mijn kinderen wat die afbeelding bij programma's hun "opslaan" knop voor staat, dan krijg je zo van die blikken van "hoe ? iets installeren dat niet op magische wijze van het internet komt" :)
daar zeg je wat... een floppy als icoon voor 'saven' is voor steeds meer mensen een onbekend ding. Het wordt tijd voor een nieuw icoon!
Of het wordt tijd om een hoofdstuk toe te voegen aan de geschiedenislessen in de school :)
Pijltje naar een computer-chip?
Eerder een pijltje naar een wolk als ik de trends bekijk... met al die software die de hdd/ssd enkel nog beschouwt als een lokale cache-voor-de-cloud
de struggles die we vroeger hadden 🤪
Zelf werk ik in de game industrie (werk aan console hardware). Ik heb dit soort verhalen vaker gehoord van collegas. Dit soort concepten komen deels nog uit de PS3/Xbox360 dagen toen spellen nog veelal van Bluray geladen werden (sinds PS4 staat alles op HDD). Toen hadden de discs redelijjke doorvoersnelheid, maar was de latency brak door tracks switchen. Toen werden heel veel assets meerdere keren op de disc gezet om dit te voorkomen.


Tot op zekere hoogte werd dit ook in PS4/XboxOne generatie gedaan, maar ik weet niet hoeveel dit voorkwam. Zeker in de begin dagen toen er nog overlap tussen generaties was, kwam het mogelijk meer voor. Blijkbaar heeft Helldivers hieraan vastgehouden.
Dit werd vroeger veel vaker gedaan; ook op consoles toen ze nog een HDD hadden. Het laden was dan significant sneller omdat de disk minder hoefde te seeken.
Er zit wel enige logica achter.. namelijk het idee dat 4kB of 64kB van een HDD lezen ongeveer even snel klaar is. Bvb kijk eens naar de response tijden in Anvil: https://www.eteknix.com/w...o-nas-hard-disk-review/4/
Je ziet dan ook dat de IOPS voor 4K, 32K en 128K nagnoeg gelijk is.

Ook een benchmark als CrystalDiskMark laat daar al iets van zien. Even snelle greep met een WD Red 4TB uit CrystalDiskMark willekeurig van het WWW:
0.726MB/s op 4K blokken, en 58.24MB/s op 512K blokken.

0.726MB/s=743kB/s => 185.9IOPS bij 4K, 5.3ms latency
58.24MB/s=59637kB/s => 116IOPS bij 512K, 8.6ms latency

Pas bij 512K resultaten zie je dat de IOPS echt significant begint te dalen.

Het is dus ergens wel logisch dat ze data gedupliceerd opslaan als dat een extra I/O operatie bespaard. Bvb als je met 1 I/O call een geometrie model met alle textures tegelijk kan inladen, ook al dupliceer je dan data van tal van textures over verschillende modelbestanden.

Maar:
Dan moet de I/O wel bestaan uit pak-en-beet <256K reads, want blokken van meerdere MB's dubbel inlezen wordt gewoon trager.
En we verwaarlozen ook de disk cache in ongebruikt RAM die elk modern OS wel toepast.
En in dit geval, dat andere laadtijden dit geintje bij kunnen benen..

[Reactie gewijzigd door Hans1990 op 3 december 2025 16:14]

Het idee is, was, dat de assets gecomprimeerd op disk staan. Een bestand uit een al geopend packfile slingeren kost iets minder tijd dan een 2e packfile openen en daar in kijken.

Dat is de winst waarover ze het hebben.
Wat een heerlijke update.
Ik weet overigens niet of t placebo is of niet, maar de performance lijkt ook een stukje beter geworden voor mij op PC.
Met 23GB past het spel nu helemaal in het RAM van een goede PC (dus een met 32GB RAM of meer), dat zou aanzienlijk in snelheid kunnen schelen, zelfs met een SSD.
Games op ramdisks instaleren is natuurlijk een leuk idee :)
Niet met de huidige prijzen...
Wat hebben die er mee te maken meeste hebben allang 32-64gb
Natuurlijk hebben de meesten dat niet. Kijk ff bij de steam hardware analyse die iedere zoveel tijd vrijgeven wordt.

52,5% draait 16gig of minder
39% draait 17 tot 32 gig
7% meer dan 32

https://store.steampowere...e-Survey-Welcome-to-Steam

[Reactie gewijzigd door TMon op 3 december 2025 17:46]

Hoe voller de SSD, hoe trager dat die wordt.
https://www.howtogeek.com...down-as-you-fill-them-up/

Mocht je SSD dus echt flink vol staan met de vorige release van Helldivers 2, dan is het wel aannemelijk dat je systeem nu vlotter reageert. :)
Zou ook verklaard kunnen worden doordat je SSD nu meer vrije ruimte heeft om de data die de game streamt te verwerken. Een SSD heeft 10% tot 20% schijnt anders heb je kans up micro stuttering.
Nixxes doet een hoop goed werk om spellen te porten, en nu blijkbaar hun kennis in te zetten om de absurde data honger te stillen van game installaties. Ik hoop dat ze dit met de industrie kunnen delen om de grootte van installatie in toekomstige games te verkleinen.
Nixxes zijn echt de absolute GOATs in wat ze doen. Al hun ports werken gewoon zó goed op PC. Deze week nog Ratchet & Clank uitgespeeld. Uncapped framerate, widescreen support, alle mogelijke toeters en bellen zonder ook maar 1 issue. _/-\o_
Ik hoop het ook want hier valt nog een wereld te winnen. Naast het royaal dupliceren van assets - zonder dus te weten of het daadwerkelijk effect heeft - bieden games ook weinig opties om alleen gewenste onderdelen te installeren. Hoeveel GB aan content staat te verstoffen van games waar ik alleen de single- of multiplayer van speel?
Je zou toch verwachten dat ze dit vooraf uittesten :+
Nou, dit is eigenlijk altijd heel normaal geweest bij grote games om het zo te doen... Maar blijkbaar in dit geval is er een andere bottleneck waardoor het niet uitmaakt.

Aan de andere kant vraag ik me ook af of er nou echt nog zoveel mensen de game vanaf een HDD draaien en of het zelfs als het hun wel helpt nog te verantwoorden is dat alle spelers daarvoor zoveel extra opslag op moeten geven. Ik vermoed dat een zeer groot deel van mensen die om te beginnen die game al goed kunnen draaien ook wel een SSD zullen hebben... En als het al mensen zijn met een HDD om de games op te zetten naast een SSD, dat dat nou net nodig is door dit soort dupliceer onzin 8)7
Aan de andere kant vraag ik me ook af of er nou echt nog zoveel mensen de game vanaf een HDD draaien ...
Dat hoef je je niet af te vragen, want het staat in de post van Arrowhead:
We now know that the true number of players actively playing HD2 on a mechanical HDD was around 11% during the last week
Ah kijk. Dat is nog redelijk wat, maar staat natuurlijk niet in verhouding dat voor elke hdd speler er bijna 9 op een SSD 131 GB extra ruimte op moesten geven. En dan dus nog de vraag of die gamers misschien niet juist omdat de game zo'n absurde hoeveelheid ruimte nodig had hem op een HDD gezet hebben.

En voor de duidelijkheid, bovenstaande bedoel ik dan dus zelfs als het wel geholpen zou hebben met laadtijden.
Het kan natuurlijk ook dat relatief meer spelers deze game op een HDD hebben staan net omdat die zoveel plaats in neemt.
Sorry, woesh :), net dat stuk gemist.
Ook al zou het wel merkbaar nut hebben gehad voor hdd-gebruikers (artikel spreekt over enkele seconde op zijn ergst), maak er dan een optie van. "Helldivers2 (of steam ofzo) has detected it's installed on a hdd, would you like to download the hdd-optimized version? [yes/no]", en zo een minderheid dienen en de rest niet opzadelen met iets wat ze niet eens nodig hebben. Als het alleen data duplicatie is, dan moet het toch niet zo lastig zijn een extra versie er bij te maintainen. Kan een lokaal script wellicht nog wel doen, hoeft het niet eens gedownload te worden.
Hoe komen ze eigenlijk aan die cijfers,

want ik heb ook al wel eens aan een steam hardware survey mee gedaan, en in mijn PC zitten 6 SSD's maar ook nog 1 HDD en op die HDD is ook een steam library, dus vraag me af, zien ze hier gewoon WIE nog een HDD heeft, of zien ze effectief dat hun spel OP die HDD staat ?
Telemetrie van een game kan dat makkelijk vinden volgens mij. De game weet waar de geïnstalleerde bestanden staan en kan met een paar commando's een lijst van alle fysieke drives en van alle bestandssystemen opvragen. Als ik even snel Get-PhysicalDisk uitvoer in Powershell, zie ik mijn schijven en bij MediaType zie ik dat dat SSD's zijn, en daar heb ik geen administrator rechten voor nodig.
maar powershell heeft rechten daar op. Een spel niet noodzakelijk, Maar Daar heb je niet eens dat soort toegang voor nodig. Als je gewoon in game van een paar van die bestanden achter elkaar de eerste 256 bytes opvraagt. kun je aan de io reactietijd al zien of het een ssd of HD is.
Ik zou dan zeggen dat ze de game op twee manieren aanbieden: install package voor SSD en package voor HDD

Het gaat om dezelfde data dus het kost ze niks, en de HDD gebruikers vallen niet buiten de boot
Niet persé. Bitsquid is niet hun engine, en je evalueert niet persé iedere keuze die gemaakt is.

Dit is één van de redenen dat het problematisch is dat game engines zo stokoud zijn. Er zitten keuzes in die niet meer relevant zijn in 2025, en optimalisaties die geheugen kosten maar geen meetbaar voordeel meer opleveren.
Dat is echt behoorlijk veel kleiner. Gelukkig op console nooit last van gehad, maar goed voor de PC gamers.
Met die geheugenprijzen (ook NAND) is dat misschien wel een erg wenselijke ontwikkeling. Ik hoop dat meer game studio’s hetzelfde idee hebben en simpelweg efficiënter met de game data omgaan. :)
Dit soort praktijken worden ook bijv. bij Call of Duty toegepast. Daar wordt single-player en multi-player gedupliceerd en hebben zelfs een eigen executable. Vandaar dat de meeste Call of Duty's ook +150gb in beslag nemen.
Ik vind de factor 10 wel echt bizar. Ik ben benieuwd waar die x5 al vandaan komt, want wat ik bij benchmarks gezien heb is het worst case x3 (en dat is dan echt worst worst case, 5400rpm HDD vs PCIE-4.0 NVMe SSD).
Als je dan al zo iets bedenkt breng dan twee versies uit een voor ssd en een voor hdd. Een ssd versie die in lijn is met de consoles zodat je minder disk usage hebt. Fijn dat ze het nu aanpassen zodat het spel minder disk gebruikt. Games worden vandaag de dag erg groot. Opzich niet erg maar als het zoals hier niet nodig is dan liever niet.
Ik ben benieuwd hoeveel gamers nog een hdd gebruiken en hoe erg die het vinden dat het laden lang duurt. Want mensen die dat heel storend vinden. Hebben allang een 2e hands ssd voor een paar tientjes gekocht. Hoeft niet eens altijd super groot te zijn.

Al zijn er natuurlijk ook mensen die niet door hebben waarom hun pc zo traag is. En niet weten wat een hdd of ssd is.
ouch :)

waarschijnlijk zoiets als je hele levels als unieke geometry data opslaan terwijl je feitelijk meerdere levels kitbashed van ~2000 unieke assets. in mindere mate zelf ook wel eens aan gezondigd omdat het minder werk is dan fatsoenlijke geometry instancing implementeren :P
Nee, de engine maakt asset packages per level in plaats van referenties naar een centrale asset database.

Linksom of rechtsom is niet persé meer moeite, maar het laad wel sneller van HDD's waardoor veel engines nog zo zijn ontworpen.
"nee" en vervolgens zeg je precies hetzelfde. tja :)
Het is niet één mesh. Een 3D model word nog altijd één keer in geheugen geladen en herbruikt. Hij staat alleen per level op de schijf.

Op dit item kan niet meer gereageerd worden.