Firaxis maakt systeemeisen pc-versie Civilization VII bekend

Ontwikkelaar Firaxis Games heeft de systeemvereisten voor Civilization VII voor de pc gedeeld. Om het spel te draaien is minstens een Core i3-10100 of Ryzen 3 1200 nodig met 8GB ram. De gpu moet minstens een GeForce GTX 1050, Radeon RX 460 of Arc A380 zijn.

Firaxis schrijft in een post op X dat gebruikers 20GB aan ssd-opslag dienen te voorzien. Voor de aanbevolen instellingen, 1080p met medium instellingen bij 60fps, volstaat 16GB ram in combinatie met een relatief moderne processor met zes cores en een videokaart op het niveau van de RTX 2060.

Wie de grafische instellingen wil opschroeven naar hoog en 60fps wil bereiken op 4k-resolutie moet minstens over een Core i7-14700F of Ryzen 9 5950X beschikken. Wat de videokaart betreft moet een RTX 4070 of RX 7800 XT volstaan.

Sid Meier's Civilization VII komt uit op 11 februari 2025, ongeveer acht jaar na de release van Civilization VI. De strategiegame verschijnt die dag op de PlayStation 5, PlayStation 4, Xbox Series X/S, Xbox One, Nintendo Switch, pc en Mac. Tweakers kon de game alvast een halfuurtje spelen op de gamescom in augustus.

Civilization VII Systeemeisen

Door Idriz Velghe

Redacteur

04-10-2024 • 10:36

102

Reacties (102)

Sorteer op:

Weergave:

Oef, de GPU requirements zijn wel best hoog voor een spel dat eigenlijk alleen maar CPU heavy zou moeten zijn...
Laat wel zien dat (PC) optimalisatie echt de deur uit is gegooid op AAA niveau, kan me echt geen situatie voorstellen waarbij Civ 7 er op een of andere manier beter uit kan/zou moeten zien dan menig game uit 2018, terwijl games uit die tijd wel makkelijk 4k 60 konden bereiken op je 2080 (ti).
Oef, de GPU requirements zijn wel best hoog voor een spel dat eigenlijk alleen maar CPU heavy zou moeten zijn...
Valt wel mee. 1080p30 op een GTX 1050, dus hij schaalt gewoon. Vind het wel bijzonder dat de 5950x als ultra word aangewezen. Dat betekent dus dat ie over 16 cores schaalt? Goed bezig.
Of ze hebben gewoon niet geoptimaliseerd en iets gekozen om dat te verhullen ;-)
Je gaat van 1k 30fps low settings naar 4k 60fps op high settings. Dat is 8 keer zoveel pixels die je per seconde moet renderen en ook nog met meerdere effecten. Dan vind ik een kaart 3 generaties verder helemaal niet zo slecht.
Paar correcties:

De alternatieve benaming voor 1080p is 2K, niet 1K.
2K refereert naar de breedte van het canvas in pixels. Bij 1920x1080 is dat bijna 2000, vandaar de naam 2K.
Bij 3840x2160 is dat bijna 4000, vandaar de naam 4K.

Verder is de sprong van 1080p naar 4K niet 8x, maar 4x zoveel pixels qua oppervlakte.
1920 x 1080 = 2.073.600 pixels
3840 x 2160 = 8.294.400 pixels

Misschien dat je ook de sprong van 30fps naar 60fps meeneemt, maar dat weet ik niet zeker. Dan nog zou ik het niet snel 8x noemen. De ene variabele gaat over spatial resolution, de andere over temporal resolution (framerate).

[Reactie gewijzigd door IlIlIllII op 4 oktober 2024 12:57]

Je vergeet dat je van 30fps naar 60fps gaat, daarom zeg ik ook per seconde.

[Reactie gewijzigd door PjotrX op 4 oktober 2024 12:58]

De recommended en ultra zitten beiden op 60 fps terwijl ze daar van een 3600X naar een 5950X gaan. Meest logische scenario is dat deze verandering onzinnig is óf dat ze voor ultra een end-game scenario gerbuiken dat simpelweg veel zwaarder is.
Haha ja, zie edit. Ik blijf er wel bij dat het verwarrend is om die variabelen (resolutie en framerate) op één hoop te gooien. Een concept zoals pixels-per-second bestaat om veel redenen niet.

Enfin, je wilt dus zeggen dat de resolutie 4x hoger ligt en de framerate is verdubbeld. Dus er is (plusminus) 8x meer rekenkracht nodig.
Is dat wel zo? Wanneer iemand refereert naar een 2k monitor, denk ik eerder aan een 1440p (2560x1440) scherm. To be fair, dit is ook de eerste keer dat 1k als verwijzing naar 1080p zie.
Als 4K ongeveer 4000 pixels breed is, en dat lijkt me duidelijk het geval, lijkt 2K met dus eerder 1920x1080 of 1920x1200 en ook zeker niet 2560x1440. En daarom moeten mensen eens stoppen met dat stompzinnige 1k, 2k, 2,8k en 3,34K en weet ik wat er allemaal bedacht wordt. Het is volledig onduidelijk wat er nou bedoelt wordt.

Kies dat voor de gestandaardiseerde namen, dus QHD, FHD, WQHD, UHD of beter nog, noem de resolutie gewoon. Niet in de laatste plaats omdat 4K en 2K al een gedefinieerde resolutie hebben, 4096x2160 (DCI-4K) bijvoorbeeld

Niets duidelijk dan 1920x1080, 2560x1600, 2880x1620 en 2880x1800 toch? Dan hadden we deze hele draad ook niet nodig... Van tweakers verwacht ik wel iets meer dan een discussie over wat een 1K display nou eigenlijk is...

[Reactie gewijzigd door Thekilldevilhil op 4 oktober 2024 13:21]

Tot voor deze uiteenzetting was het anders heel eenvoudig. 2k = 1440p, 4k = 3840p en 1k wordt niet gebruikt.

Zolang mensen eet snappen is het goed zeker? Ik val nog steeds over bemensing maar ben ook gestopt met zagen.
Tot voor deze uiteenzetting was het anders heel eenvoudig. 2k = 1440p, 4k = 3840p en 1k wordt niet gebruikt.
Alleen is dat gewoon helemaal niet waar. 2K en 2,5K werden door elkaar gebruikt voor 2560x1440/1600. Waarbij 2,5K nog een soort van logisch was maar 2K echt werkelijk nergens op slaat. 2K zit precies tussen de verticale en horizontale resolutie van een WQHD scherm in.

Niet alleen dat, maar als de wereld in Full HD, WQHD en UHD verdeeld zou zijn, zou het geen probleem zijn. Maar dat is gewoon niet zo, er zijn tegenwoordig compleet uiteindelopende resoluties die je als 2,5K zou kunnen bestempelen. 2560x1080, 2560x1440, 2560x1600, 2880x1620, 2880x1720, 2880x1800, 2560x2048 zijn allemaal resoluties gebruik in laptops en desktop schermen. En als je telefoons erbij pakt wordt het helemaal chaos. Feit blijft dat er bijna een factor 2 tussen alle bovengenoemde resoluties zit. Als je dat allemaal als 2K bestempelt kan je net zo goed Full HD en WQHD ook als een resolutie nemen, het verschil in pixels is ook ongeveer een factor 2.

Leuk dat je het weg zet als zagen, maar wat mij betreft mag de tweaker bezoeker hier gewoon netjes mee omgaan.
Ik zal toegeven dat er veel tegenstrijdige info is, afhankelijk van de bron. Ligt vaak ook aan de context (film vs monitoren) en aspect ratio. Wikipedia bevestigd m'n woorden atleast. De 1920 in 1080p ligt veel dichter bij 2K dan de 2560 in 1440p.

https://en.wikipedia.org/wiki/2K_resolution
Daarom zie je her en der mensen 2560x1440 schermen ook wel 2.5K noemen.
De "originele" verhoudingen duiden weer op de "cinema" verhoudingen. In het geval van 2K is dat dus 2048x1080p wat zich verhoudt to 17:9. Aangezien we dat normaliter niet gebruiken kom je terug op de 16:9 verhouding die gangbaar is wat zich vertaald naar 1920x1080p. Hetzelfde heb je met 4K. De 17:9 cinema verhouding is daar 4096x2160p en de 16:9 is 3840x2160p.

2560x1440p heeft dan weer geen "K" naam maar is gewoon WQHD.
1440p wordt gewoon als 2k gezien niet 1080p.
En dan nog van 30 naar 60fps maakt de 4x 8x zoveel pixels per seconde ;)

[Reactie gewijzigd door Puc van S. op 4 oktober 2024 13:06]

Volgens mij bedoel je 2x. Maar ik had al 'n snelle ninja-edit gedaan (nou ja, poging tot).
Ja bedoelde de 8x (4x van resolutie * 2 van FPS)
En nog een correctie voor jou:

1080p @ 30 fps VS 4k @ 60 fps is gewoon een factor 8. Een factor 4 voor de pixels en een factor 2 voor de framerate. Hij had het goed dus.

En het is gewoon 1080p, 1440p en 4k. Niemand gebruikt de term "2k".

[Reactie gewijzigd door Roy81NL op 4 oktober 2024 15:03]

Misschien helpt het om ook de rest van de discussie te lezen, zoals deze reactie hier.
En het is gewoon 1080p, 1440p en 4k
Ik ben niet degene die het 1K noemde. Ik vertelde alleen tegen PjotrX dat 2K de juiste term is voor 1080p, als hij dan toch die benaming wilt aanhouden. Dat 1080p wel of niet beter is dan 2K qua terminologie is een hele andere discussie. 2K bestaat wel degelijk. Wederom, zie de andere reacties.

[Reactie gewijzigd door IlIlIllII op 4 oktober 2024 15:23]

GPU zal me worst wezen, reageerde meer op het "Vind het wel bijzonder dat de 5950x als ultra word aangewezen. Dat betekent dus dat ie over 16 cores schaalt? Goed bezig. "
Als een GTX 1050 al niet genoeg is (menig iGPU is krachtiger) wat voor aardappel moet het dan wel op draaien om "geoptimaliseerd" te zijn?
Het was bedoelt op de de "Vind het wel bijzonder dat de 5950x als ultra word aangewezen. Dat betekent dus dat ie over 16 cores schaalt? Goed bezig. "
Van wat ik me herinner van vorige CIV games is dat per hexagon de stappen berekend worden.
En dat was best goed schaalbaar als je meer cores had.
Dan zit je met een 5950x met 16 cores beter dan met een 5900x met 12 cores.
In civilzition duren je turns niet lang omdat er van alles berekent wordt maar doordaat de aninimaties van alle spelers omstebeurt real time worden uitgevoerd. Ook wanneer de speler dit helemaal niet kan zien door de fog of war. Dat is waar je op zit te wachten. Zet je quick movement en quick combat aan dan is je turn in enkele seconden gereed.
De vraag is hoe minimaal je de graphics wil maken. Een 1050 is een low-mid-end GPU van 8 jaar oud. Met minder details en texturen kun je hogere framerates halen ja, maar dan moet je dus ontwikkelen met sterkere beperkingen. Dat is uiteindelijk slechts een kosten-baten analyse, ik snap wel dat dit een redelijk minimum is.
Zodra de map “groot” word switch ik vrijwel altijd naar de strategic view. Daarvoor zou niet echt veel gpu power nodig moeten zijn.
Dus omdat jij dat doet hoeft de hele kaart grafisch niet gerenderd te worden? Volgens mij zijn er meer mensen die het spel spelen.
Het is een antwoord op de vraag in de bovenstaande post: Hoe minimaal wil je de graphics maken ..

Naar mijn mening is dat dus de strategic view wat waarschijnlijk bijzonder weinig nodig heeft.
Vind het een beetje kort door de bocht om nu al te stellen dat er niet geoptimaliseerd is terwijl je de game nog niet eens gezien hebt.
Modellen een beetje gedetailleerder levert al snel 2x zo grote meshes op. Textures ietsje groter en een paar extra render passes en je hebt een marginaal mooiere game waar een 2080 zich in verslikt (tenzij je het allemaal weer uit zet door details uit te schakelen).
De tijd dat een nieuwe GPU generatie een orde grootte mooiere games opleverde ligt helaas achter ons.
Civilization is al jaren niet cpu heavy, alleen bij het inladen van de game. Na enige patches van deel 5 werd de first load multithreaded. Ondertussen was hij wel zwaar voor je gpu (op de hoogste instellingen).

Overigens vind ik 4K 60 fps icm een 4070 er op wijzen dat het juist een relatief lichte game wordt. De 4070 is niet persé een 4K60 videokaart (Heb hem zelf).
De 4070 is niet persé een 4K60 videokaart
Hangt er van af welke game je speelt toch?
Ik speelde civ 6 destijds best veel uren achter elkaar. Waarbij de game de eerste paar beurten aanzienlijk sneller was dan drie uur later (pak en beet). Als je de game dan opnieuw opstartte, ging alles weer snel. Dat spel deed iets niet helemaal efficiënt, het leek net alsof hij maar memory bleef opstapelen en nooit iets leegde. Dan kwamen er soms ook ineens audio en video glitches doorheen. Ik hoop dat ze dat zullen verbeteren, ondanks ik nu veel minder tijd heb.
De game animeert turns van alle spelers onder de fog of war. Zet quick combat en quick momvement eens aan en kijk dan eens hoe het gaat. Als je denkt dat je een memory leak hebt, kijk dan eens bij taakbeheer.
Quick combat en quick movement stonden natuurlijk al aan (anders had ik het geduld echt niet om zolang door te spelen in een sessie). Memory leak was voor wel een voorkomend probleem bij deze game, er zijn in ieder geval andere spelers die dit destijds ook ervaren hebben. Zelf speel ik het momenteel niet dus nu maakt het ook niet uit. Vond het wel een mega goede game destijds, ben daarom ook wel benieuwd naar de nieuwe versie.
Niemand gamet op 4k dus op 1080 of 1440p zal het wel veel beter draaibaar zijn. Daarnaast kan je vaak gigantisch optimaliseren met graphics settings zonder enig merkbaar verschil tijdens het gamen. Ik kijk vaak een YT benchmark video die de settings 1 voor 1 laat zien qua visueel verschil en fps impact. Voor een CPU limited game zal waarschijnlijk draw distance en shadows veel verschil maken. En DLSS kan je zelfs wat agressiever afstellen. Ik denk dat het spel zeer goed speelbaar zal zijn op een breed scala hardware.
Niemand gamet op 4k dus...
Dat is een veel te kort door de bocht statement. Voor high paced racing and first person shooter games zal dat wel kloppen, hoe meer FPS des te beter ook nog eens, maar voor een turn based simuatie game is dat toch anders.

Ik speel al jaren Civ VI op 4k@30Hz, juist omdat Civilization doorgaans niet veeleisend is qua GPU, en de hoge resolutie je wel veel overzicht geeft. FPS maakt me bij Civ V of Civ VI echt helemaal niets uit.
En mijn GPU? Een oude Saphire RX 570.

[Reactie gewijzigd door trapper op 4 oktober 2024 13:37]

Ik kijk doorgaans bij dit soort dingen naar Ultra, zolang daar geen 4090 ofzo staat, dan zit het meestal wel goed. Ze verwachten dat je het op z'n hoogste kan draaien op een moderne midrange (dus lager dan een 2080 in zijn tijd, want dat was toen een highend), en op zijn laagst op een 8jaar oude midrange, dat klinkt best netjes, imo.
Maar, komt ie ook op Linux?
Op Twitter heb een ze Mac en Linux ondersteuning toegezegd. Maar gezien de track record hiermee bij de Civ serie ben ik wat huiverig. Zeker als ze alweer met Aspyr in zee gaan.
Ze gaan niet met Aspyr in zee. Ze doen alle platformen inhouse.

De platformen zijn: PS5, PS4, Xbox Series X|S, Xbox One, Nintendo Switch, en PC via Steam (met Mac en Linux) en de Epic Games Store.

Het is overigens ook een geplande same day release.

[Reactie gewijzigd door Caelorum op 4 oktober 2024 11:17]

De huidige Civ-spellen werken prima op Linux i.c.m. Steam Proton (en Proton-GE) in ieder geval, dus ik maak me niet zo veel zorgen.
De Aspyr Linux versie heeft het bij mij nooit goed gedaan op mijn laptop met Nvidia kaart. De Proton-versie daarentegen werkt prima, en hij draait ook vlekkeloos op de Steam Deck.
Tegenwoordig is de kans dat het met Proton goed werkt zeer groot, zeker met de Steam Deck. Ik maak me daar eigenlijk geen zorgen meer over. Maar check zeker ProtonDB even, tegen die tijd.
ProtonDB is zeker een goede informatiebron maar af en toe moet je het ook met een flinke korrel zout nemen.
Meer dan eens een slechte rating van een gebruiker gezien en als je dan verder kijkt zie je bij de specs een 5.15 kernel i.c.m. RX 7900XTX... 8)7
Ja dan is het niet zo vreemd dat je tegen issues aanloopt.
Eens! Tip: je kunt je Steam account en ProtonDB linken aan elkaar. Op ProtonDB kun je filteren op je eigen bibliotheek en zo kijken welke games er wel/niet/onbekend werken. Bij mijn bescheiden 53 Steam games werken er 51 zonder issues op mijn AMD desktop met Ubuntu.
Een of andere gratis racegame werkt niet en Call of Duty ook niet.

Ook al mijn niet-Steam games zijn werkend te krijgen via Steam
Dit soort requirements tabellen hebben voor mij altijd een beetje een dikke duim gehalte en zijn eigenlijk alleen maar nuttig om de absolute minimum specs vast te stellen waarmee je het spel kunt spelen. De recommended en ultra settings zijn gewoon direct opgeschaald voor bijna alle specificaties. Waarom zou je op minimum settings met een quad-core i3 kunnen wegkomen, maar als je de graphics settings opschroeft ineens een 16-core 5950X nodig hebben, dat lijkt me echt totale onzin. RAM idem dito, waarom zou je van 16GB naar 32GB gaan omdat je de resolutie opschroeft, al helemaal als je bedenkt dat de min spec 8GB is :X

[Reactie gewijzigd door johnbetonschaar op 4 oktober 2024 11:07]

Let op dat je hier van 30 naar 60 fps gaat. Je hebt dus 2 keer zo weinig tijd om een frame uit te rekenen. Ook wordt het spel voor het eerst tegelijk op console waaronder de switch gereleased. Het kan dus zijn dat de lage settings ook echt extreem laag zijn. Het zou best wel kunnen zijn dat ze op de switch alleen diffuse textures gebruiken maar op de pc een hele pbr-pipeline hebben met diffuse, normal, roughness en ao-maps. Als je dan ook nog eens de texture resolutie van 1k naar 4k opschaalt, dan heb je ineens het over 10-30 keer aan textures die je in moet laden.
De stap van min naar recommended (8GB naar 16GB) snap ik nog wel, 8GB is voor een spel als dit ook al aan de krappe kant (vooral omdat dit soort games sowieso al best memory hungry zijn, en niet vanwege de graphics). Dat daar nog een keer 16GB op zou komen als je naar 4K gaat lijkt me echt onzin. De texture assets zijn echt niet 4x zo groot omdat ze 4x zoveel pixels zijn, die zijn allemaal gecomprimeerd en gezien de art style van deze game waarschijnlijk met een hele flinke factor, en bovendien leven die maar heel kort in RAM. Tenzij de game zo ontzettend slecht is geimplementeerd dat alle assets in 1x in RAM worden ingelezen en dan pas naar VRAM geupload, in plaats van gelimiteerde staging buffers zoals volgens mij al 20 jaar normaal is in elke game en engine.

Dat je wat meer RAM nodig hebt geloof ik best maar '4k is 4x zoveel pixels als 1080p dus alles kost 4x zoveel geheugen' is natuurlijk een beetje onzin.
Het is niet alleen maar grafisch. De 8GB minimum settings zullen verwacht ik vergelijkbaar zijn met de Switch. Daarvan hebben ze al aangegeven dat er zeer waarschijnlijk minder spelers op de kaart mogelijk zullen zijn. Ik verwacht dat ze in de minimum tot ultra settings ook de grootte van het spel (de kaart, aantal spelers) hebben meegenomen.
De textures worden dus wel 4x zo groot als er 4x zoveel pixels zijn. Dat komt omdat op de gpu je alleen kan kiezen uit bepaalde compressieformaaten die de eigenschap moeten hebben dat je random access moet kunnen hebben. Voorbeeld: diffuse textures worden met bc1 opgeslagen, dat is 0.68mb voor 1k en 2.7mb voor 2k en 10.9mb voor 4k textures. Kijk dat is meteen een factor 16 als je van 1k naar 4k gaat. Normals maps worden doorgaans met bc5 opgeslagen, dat is 1.3mb voor 1k, 5.4mb voor 21.8mb voor 4k. Gat je van diffuse only op 1k naar diffuse op 4k en normals op 2k textures dan heb je dus over factor 24!! Dat tikt snel aan en dan mis je nog roughness of ao maps.
De ram gebruik is waarschijnlijk gewoon afgerond en waarschijnlijk is 16GB net niet genoeg en omdat 24GB ram bijna niemand heeft schrijven ze gewoon 32GB ram. Dat er 32 staat betekend niet dat je met 30GB ram in problemen komt.

[Reactie gewijzigd door PjotrX op 4 oktober 2024 12:41]

Ik verwacht dat je met 16GB ram ook niet in de problemen komt. Je systeem kan altijd nog gaan swappen en met de snelheden die NVME SSD's tegenwoordig halen is dat een stuk minder problematisch dan vroeger. Toen zakte je in tot enkele MB/s per seconde met enorme latencies tegenwoordig haalt zo'n SSD letterlijk duizneden MB's met miliseconde aan reactietijd.

[Reactie gewijzigd door sdk1985 op 4 oktober 2024 20:52]

Sorry hoor maar een SSD of NVME gaat je dit niet redden. Stel je bent 1GB over je ram heen, dat moet je nu swappen van disk. 1GB met een nvme heb je misschien binnen 300miliseconden binnen met de beste drive en moederboard combi. Maar je budget voor een frame is helaas 16 miliseconden als je op 60fps wil renderen. Je bent dus 18x te traag en dit is het beste geval, ofwel je frame rate dipt even naar 3fps. Dit ervaart men als gestotter in het beeld en is alles behalve wenselijk.
Welnee een 980 pro heeft 0,021 ms read en 0,118 ms write latency.

Verder gaat het niet over vram maar over systeem ram. In de eerste plaats gaan dus je achtergrond processen naar de swap file. Er is geen enkele indicatie dat de game zelf over de 16GB ram gaat verbruiken. Tevens is zelfs dat niet problematisch in mijn ervaring. Zie The Division 2.

Wat jij beschrijft gaat over vram tekort.
Ik heb het niet over latency maar over hoeveelheid data dat je moet lezen. Per frame heb je maar 16miliseconden om al je berekeningen te doen. Met de beste setup kan je in die tijd maar 150mb van je ssd halen, en dat ga je nooit halen want je access pattern is random. Als je dus 1% over je 16GB ram gaat en je moet dat ineens weer van disk inswappen ga je gestotter krijgen, 1% i s niet echt veel marge. Er zijn ook veel mensen online die gestotter in the division 2 melden, waar het aan ligt weet ik niet meer het is dus niet echt een goed voorbeeld.
Je OS gaat lang voordat dit gebeurd al zaken die minder dringend zijn naar je swap file schrijven. Daar is verder niets ergs aan.

Ik kwam met Division 2 als voorbeeld omdat dit één van de weinige games is waarvan ik weet dat de game zelf meer dan 16GB alloceren (17GB in mijn geval). Toen ik nog 16GB systeem ram had was dit overigens nog altijd een non-issue. De textures zitten immers in het VRAM en daar had ik geen tekort aan. Ik heb geen verschil ervaren in die game nadat ik naar 32GB ben geüpgraded. Wat niet vreemd is want het is natuurlijk niet zo dat die games on-demand ineens textures vanaf je ssd gaan streamen. Daar zijn de laadschermen en vram buffers voor bedacht. Toen we nog op 32bit zaten icm dx9 wilde Civilization nog weleens texture pop-in hebben, maar dat kwam doordat de game maximaal 400MB aan textures alloceerde en alsnog kreeg je daar geen frame drops van, maar lege tiles.

Maar goed, terug naar Civilization 7. Er is geen enkele indicatie dat de game zelf 16 GB gaat verbruiken. Het vorige deel verbruikt circa 3 GB systeem ram op maximale settings. De kans is voor groter dat deze aanbevelingen onzin zijn.
Ik vermoedt dat de map grootte ook meetelt, met de daarbij extra (ai)-civ's, immers die combo (dat rond ingae jaar 1700) bijna alles is verdeeld, en die extra units/steden/tile-improovements, kan zwaar zijn voor het geheugen.
Je zit hier op tweakers en je af te vragen waarom meer details renderen meer processing en geheugen kost?
Misschien vind jij de details het niet waard en dat is ok, maar als je 2x zo gedetailleerde textures wil gebruiken zal je 4x zoveel geheugen nodig hebben. Ook gerelateerde data als lightmaps, normal maps e.d. wordt dan groter dus je brandt als een gek door je geheugen heen.
Die textures zijn gecomprimeerd en gaan direct van disk naar VRAM, hooguit heb je een paar honderd MB aan extra staging buffers nodig terwijl je de boel naar de GPU stuurt . Dit is ook nog eens een spel met een cartoony look en een beperkte camera range, dus waarschijnlijk zit er weinig verschil tussen de 1080p assets en de 4K assets (als het er uberhaupt al is), want je zoomt nooit super ver in op de textures in en ze comprimeren waarschijnlijk enorm goed. Van minimum spec naar recommended spec is al een verdubbeling van RAM, dus leg jij maar uit waar die extra 16GB dan nog naartoe gaat, blijkbaar ben jij wel een expert?

[Reactie gewijzigd door johnbetonschaar op 4 oktober 2024 11:42]

Je hebt een punt, maar waarom denk jij dat ze dan zo hoge recommended specs opstellen?
Om te doen alsof het een supermooi spel zal zijn op hogere settings? Zou ik raar vinden.
Geeft mij meer het gevoel dat het dan slecht is geoptimaliseerd ofzo...
Geen idee waarom ze dat doen, dat is precies wat ik me afvraag... Misschien willen ze op die manier een bepaalde doelgroep aanspreken die dit soort specs hebben staan en op die manier het idee hebben dat het grafisch een veel mooier/zwaarder spel dan het in werkelijkheid is, dus echt iets om te kopen om gebruik te maken van je setup ofzo?
Dat kan prima zonder tussenkomst van de CPU, door bijvoorbeeld DirectStorage te gebruiken
Die textures zijn gecomprimeerd en gaan direct van disk naar VRAM, hooguit heb je een paar honderd MB aan extra staging buffers nodig terwijl je de boel naar de GPU stuurt .
Aanname 1: alle textures passen in het GPU geheugen
Dit is ook nog eens een spel met een cartoony look en een beperkte camera range, dus waarschijnlijk zit er weinig verschil tussen de 1080p assets en de 4K assets (als het er uberhaupt al is),
Aanname 2: een cartoony look heeft minder geheugen nodig en er zijn geen 4K assets gemaakt
dus leg jij maar uit waar die extra 16GB dan nog naartoe gaat, blijkbaar ben jij wel een expert?
Ik ben geen expert, maar heb wel eens een OpenGL applicatie geschreven ;). Natuurlijk kan ik niet zien aan de filmpjes waar het geheugen aan 'uitgegeven' wordt maar wat me opvalt aan deze game is de gigantische verscheidenheid van objecten. Verschillende beschavingen, units, land types. En ook vrijwel allemaal als individuele 3d objecten gemodelleerd (mesh data kost ook geheugen). En al die objecten moeten in theorie allemaal in 1 scene gecombineerd worden. Ik ben niet jaloers op de persoon die geheugenbeheer voor deze game moet implementeren.
Zelfs als je 4K/ultra assets maar 50% groter zijn zal je al meer geheugen nodig hebben. En dan kan het zijn dat ze nog een beetje voorsorteren op de onvermijdelijke DLC (een extra beschaving?) en het een beetje ruim houden.
Ja ach. 30 jaar geleden waren de specs die op de doos stonden wat je minimaal nodig had om het op te kunnen starten. Of het daadwerkelijk speelbaar was dat was niet relevant. Men probeert het tegenwoordig tenminste, maar ik vind het er niet duidelijker op geworden om eerlijk te zijn.
Op Twitter heeft het Civ VII team gezegd dat er ook Mac en Linux ondersteuning komt.

Persoonlijk ben ik wel wat huiverig ervoor, want de Civ serie heeft een vrij slechte track record hiermee. Zowel Civ 5 als Civ 6. Zeker wanneer Aspyr het doet. Maar Firaxis heeft sowieso ook de neiging om eerst een update te releasen en het dan pas aan Aspyr te geven, waardoor Aspyr ook constant achter de feiten aanloopt. Het kwam met regelmaat voor dat bij Linux en Windows gewoon niet met elkaar konden samen spelen. Vaak (maar niet altijd) omdat Windows een update hoger had of een bepaalde expansion pack had die nog niet bestond in de Linux versie. Daarnaast maakte Aspyr ook geen goede ports waardoor iedereen de Windows versie op Proton ging gebruiken toen dat eenmaal werkte.
Aspyr doet hier niet meer aan mee. Ze hadden een groot meningsverschil over de support vanuit Aspyr en daarmee is het voor Firaxis wel genoeg geweest. Ze doen nu alle platformondersteuning in-house. PC, xbox en de Switch.
20GB SSD opslag? Bedoelen ze niet eerder 200GB SSD opslag? :Y) Ik ken geen Tripple A game meer die onder 75GB zit tegenwoordig.
Inderdaad vreemd. Het ene lijkt heel weinig, het andere dan weer heel veel! :?
Vorige Civ vereist 17GB minimaal, dus zou nog kunnen. Wel 23GB recommended.
Waarom gaat bij 4K de CPU vereiste omhoog? Dat verbaast me enigszins. Maar goed, je moet straks ook verplicht een 2K account hebben, dus ik was al afgehaakt.

[Reactie gewijzigd door ocf81 op 4 oktober 2024 19:21]

Echt? Ik ben al die accounts ook wel een beetje zat inmiddels...
In ieder geval wel voor het spelen met anderen.
Ah ja, dat doe ik al heel lang niet meer. Vroeger (😋) speelde ik regelmatig Master of Orion 3 'strawberry' als een soort x-turn-based doorgeef variant. Die zette je dan op het forum na x turns, en dan ging de andere, en zo voort.

Misschien als de multiplayer variant enigszins goed werkt, in de zin van dat het kan opschieten of dat het fijn werkt op zo'n soort doorgeef manier, waarbij je af en toe je beurt neemt.

Zou er een hotseat variant in zitten? Dat was wat ik vroeger het meeste deed 😀
Maar goed, je moet straks ook verplicht een 2K account hebben, dus ik was al afgehaakt.
Ik ben helemaal klaar met die extra account onzin. Als ik naast het account voor de winkel waar ik een spel koop nog een extra, extern, account nodig heb dan koop ik het gewoon niet.

Sony was lekker bezig met hun games naar Steam brengen. Ik heb een paar van hun spellen gekocht. Maar nu ze verplicht PSN accounts door willen voeren ben ik ermee gestopt. Gelukkig had ik pas 17 minuten in Horizon Forbidden West zitten, dus die heb ik geretourneerd met als reden: ik heb spijt dat ik Sony financieel heb gesteund nu ze PSN accounts doorvoeren. En ook al was mijn aankoop daarvan veel langer dan 14 dagen geleden, ik heb van Steam gewoon mijn geld terug gekregen. Dat is nou consumentvriendelijk.

In Civ V heb ik zo'n 1200 uur zitten en in Civ VI zo'n 130. Ik keek best uit naar Civ VII. Maar een 2K account waarmee ze toegang tot mijn aankoop kunnen ontzeggen ga ik niet nemen. Dus krijgen ze mijn geld niet. Zo simpel is dat.
Voor degenen die niet alle specs en alle serienummers uit hun hoofd weten: kan je die ‘Minimum’ spelen met zegge een “2020 topper PC”? Of meer een 2022 of een 2018?

Dat zou de toegevoegde waarde van een Tweakers artikel kunnen zijn.
Nu is dit eigenlijk gewoon niet meer dan een screenshot van een Firaxis persbericht met halve Nederlandse vertaling.

Edit: typfouten

[Reactie gewijzigd door dinoballz op 4 oktober 2024 11:10]

De gemiddelde low end game laptop uit 2018 moet dit kunnen spelen
Zelfs een Steam Deck of ROG Ally trekken de low instellingen wel.

Weinig mis met de systeem eisen in mijn ogen.
Een "2020 topper pc" zegt vrij weinig, topper met welk budget dan? En is er dan juist gekozen voor een dikkere case met full RGB meuk erbij of juist op de CPU en wat minder op de GPU?

Of een game lekker loopt heeft ook te maken met de samenstelling van je PC en hoe lekker je componenten met elkaar samenwerken. Daarnaast lijkt het mij vrij handig dat je van je eigen systeem wel ongeveer weet wat je erin hebt zitten als je jezelf de vraag stelt of dit nog wel lekker loopt op jouw machine.

*Edit* typo

[Reactie gewijzigd door glaaj op 4 oktober 2024 10:50]

Wellicht handig bij de hardware zelf te vermelden van welk jaar het is
GTX 1050 (2016-Q4)
RTX 2060 (2019-Q1)
RTX 4070 (2023-Q2)
bijvoorbeeld, geeft gelijk wat perspectief over hoe oude hardware we hier praten
In alle bescheidenheid.

Het zou wel netjes zijn moest je de eigen geschreven tekst eerst eens goed nalezen voordat je kritiek geeft op het artikel, waar naar mijn mening niets mis mee is an sich.

Bovendien doet een simpele search op Tweakers ook wonderen: zo zou je al snel achterhalen dat er reeds een inhoudelijk sterker artikel bestaat en te zien is op review: Civilization VII - Nieuwe tijdperken voor oude favoriet. Bovendien heb je zelfs nog de keuze uit tekst of een videopresentatie!

Veel plezier.
Als er al een beter artikel is dan is er dus nog minder bestaansrecht voor deze.
In dat artikel stonden de systeemeisen nog niet, dus is er nu een nieuw artikel gepubliceerd waar ze dat nog even vermelden. Nuttige info als je een PC gamer bent en interesse hebt in deze game.
In principe is dit in de basis een site waar je enigszins mag verwachten dat de lezer zelf die link kan leggen.
In principe ja.
De minimum videokaart die gevraagd wordt is een low-end model uit 2016 (125 euro bij release). De CPU's zijn ook oudere low-end modellen. Dus een topper uit 2018 moet dit prima kunnen draaien :)
Top, en dat zou dus heel goed in het artikel hebben gestaan.
Voor defenen die niet alle specs wn alle serienummers uit hun hoofd weten: kan he die ‘Minimum’ spelen met zegge een “2020 topper PC”? Of meer een 2022 of een 2018?

Dat zou de toegevoegde waarde van een Tweakers artikel kunnen zijn.
Nu is dit eigenlijk gewoon niet meer dan een screenshot van een Firsxis persbericht met halve Nederlandse vertaling.
Weet niet echt waarom je dit bij Tweakers zou verwachten, ik verwacht eerder van de mensen die hier komen dat ze hun specs weten te vinden. Daarnaast doet Firaxis dit zelf ook niet of een Steam, of een Epic (fail) Store bijv. Daar komen mensen die echt geen kennis hebben van tech etc. En de tekst is volledig Nederlands? Je eigen tekst daarentegen... :+
Dat zou meer iets voor nu.nl zijn.
Dit is tweakers ;)
Kijk zelf even op www.passmark.com voor een idee hoe snel de genoemde componenten zijn en wat je zelf hebt.
Oh ik heb een PS5. Ik vond dit artikel gewoon lui en niets-toevoegend.
Ga dan ook niet zitten miepen dat je dat artikel niet boeiend vindt, want het gaat hier expliciet om de PC versie.
Je mag nog altijd wel kritisch zijn.

Steeds meer Tweakers artikelen zijn tegenwoordig niets meer dan voor extra ad views. Dus even aanwijzen dat ze iets meer doen dan alleen CTRL+C/CTRL+V, maar toch even iets inhoudelijks en nuttigs toevoegen is niet teveel gevraagd. Aan het aantal reacties betreffende online tools en specs had het ze nog geen 10 minuten gekost.
Neem de CPU en GPU en bekijk een benchmark score als cinebench en 3dmark. Vergelijk die met jouw hardware's scoren je hebt een redelijk goed idee wat je kan verwachten.

Overigens weet denk ik 95% van de lezers van dit artikel wel ongeveer of hun cpu en gpu beter of slechter is dan de genoemde hardware.

RTX 2060 release date is volgens Google 2019. Dus een 5 jaar oude mid-range pc zou het spel goed kunnen draaien.
Waarom mist toch weer QHD in zo'n overzicht?

Dat mijn 3440*1440 niet genoemd wordt snap ik helemaal, maar 'gewoon' 1440(*2560) gebruiken veel meer mensen dan 4K.

Anyway, het blijft sowieso maar een indicatie en met settings kan je alles tweaken. Als ik een 4K scherm had gehad zou ik met mijn 3700x-3060Ti gewoon op 4K spelen - AA, schaduwen en texture quality omlaag en gaan met die 8,3 miljoen pixels!
Hopelijk vanaf dag 1 op Geforce Now.
Toch niet meer wat het geweest was. Civ BE en 6 waren ook al ronduit saai te noemen.

Op dit item kan niet meer gereageerd worden.