Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 138 reacties

Tegen de gewoonte in laat uitgever Bethesda enkel los welk systeem wordt aangeraden voor het spelen van horrorgame The Evil Within. Minimale systeemeisen geeft de uitgever niet. De game stelt hoge eisen aan de pc waarop het gespeeld wordt.

Ondanks dat er eerder deze week al beelden opdoken van winkelversies van The Evil Within, had uitgever Bethesda nog niet bekendgemaakt wat de systeemeisen van de Windows-versie van de horrorgame zijn. Inmiddels heeft de uitgever die in een blog op de eigen website uit de doeken gedaan, al laat Bethesda de minimale systeemeisen - gebruikelijk bij dit soort aankondigingen - weg. De uitgever laat alleen los welk systeem het aanraadt 'omdat dit systeem de ervaring verzekert die de makers voor ogen hadden'.

De uitgever raadt een systeem aan met de 64-bits-variant van Windows 7 of 8, opgebouwd rond een Core i7 met vier of meer cores. Naast 4GB aan ram wordt een GeForce GTX 670 aangeraden, of een vergelijkbare kaart, mits die over minimaal 4GB aan vram beschikt. Bij de introductie van de GTX 670 beschikte de standaardversie van die kaart over 2GB videogeheugen, net als de GTX 680 overigens. Voor installatie van de game is 50GB aan ruimte op de harde schijf nodig. Na installatie blijft daar 41GB van over.

De uitgever maakte ook bekend hoeveel ruimte de consoleversies van de game inneemt op de harde schijf van de diverse consoles. Bij Xbox One en PlayStation 4 is dat 40GB, bij Xbox 360 en PlayStation 3 is dat 7GB, al tekent de uitgever daarbij aan dat installatie bij de Xbox 360-versie op de hdd of extern opslagmedium verplicht is.

The Evil Within wordt gemaakt door Tango Gameworks, een Japanse studio onder leiding van Shinji Mikami, die zijn roem vergaarde met de eerste Resident Evil-games. The Evil Within is vanaf 14 oktober te koop.

Update, 3 oktober, 09:23: Bethesda heeft inmiddels alsnog de minimale systeemeisen voor The EVil Within bekendgemaakt. De game heeft minstens een i7 of vergelijke quadcore processor nodig, aangevuld met een GTX 460 met minimaal 1GB aan vram. Of een vergelijkbare grafische kaart.

The Evil Within

Moderatie-faq Wijzig weergave

Reacties (138)

Na het zien van de trailer vraag ik mij sterk af waarom deze game 4GB Vram nodig zou hebben. Ik zou het graphics wise eerder vergelijken met de fallout games die nou niet echt heel zwaar zijn voor moderne GPU's

edit: ik lees hier dat het gebruik maakt van die id tech 5 engine, dezelfde engine als Rage ook gebruikt.

[Reactie gewijzigd door djfrankel op 26 september 2014 13:15]

Ik dacht precies hetzelfde, want in de video zie ik alleen maar textures van een niveau dat nauwelijks dat van last-gen console ontstijgt. Sterker nog, het algehele niveau van de graphics (character models, objects, effecten, belichting, schaduwen) in de video is vrij bedroevend voor een aankomende titel: als je me had verteld dat dit een titel ergens uit 2008-2010 was, had ik het ook geloofd... Maar, ik weet niet op welk platform de video is opgenomen.
Inderdaad.. als ik de textures op de muren zag dan was dat echt niet beter dan playstation 3 spellen.. En verder is het gewoon polygonen tellen (of triangles natuurlijk :P).
Idd, ik dacht na het lezen van het artikel daar komt de volgende stap in graphics. En toen zag ik de trailer.

Het is ronduit slecht voor deze tijd. vier jaar geleden was het al niet bijzonder geweest.
id tech 5 zou DOA moeten zijn, veel te zwaar voor wat je krijgt. Wat zonde. Zoals anderen al zeggen, wth 4gb vram gaat nergens over. Ik snap wel waarom, zodat je geen texture popins krijgt zoals met de IDT5 spellen Rage en Wolvenstein, maar dit is gewoon de verkeerde kant. ipv optimaliseren een groter motorblok moeten kopen. 4gb vram, hoeveel kaarten hebben dat Łberhaupt? Er worden nog steeds kaarten verkocht met 1gb en 1280mb.

Je zou eigenlijk vram sharing moeten kunnen doen met je gewone ram net zoals je met een onboard graka dat doet. Ja het is trager, maar kun je het niet laten werken zoals bij RAM dat vol loopt hij je hdd als extra geheugen gaat gebruiken?

-edit- Het filmpje deed mij btw denken aan een trailer voor Resident Evil 4, niet vanwege de horror en de setting maar voornamelijk om de kwaliteit van de graphics, het gebruik van belichting, het mooie gras en de ultra realistische blobschaduw die je steeds ziet morphen.

[Reactie gewijzigd door RadioKies op 26 september 2014 13:35]

Amen. Daarnaast moet 't dus ook draaien op de oude generatie consoles. Betekent dit dan dat de console versies niet de ervaring zullen geven die de makers voor ogen hadden? Beetje jammer...
Mij lijkt 4 GB ook een beetje gortig voor "slechts" 41GB aan install base. Kijk naar wat andere "giganten" als Max Payne 3 (35GB) verbruiken. Het is niet alsof die nu 3 GB eisen.

Of zouden ze door de hele game steeds gebruik maken van dezelfde high-res textures? Beetje saaie game wordt het dan...

[Reactie gewijzigd door sdk1985 op 26 september 2014 14:48]

Was het niet een paar Call of Duty's terug een primeur dat er minimaal 6gb RAM nodig was? Dat bleek ook gewoon een marketingstunt (http://www.cinemablend.co...rs-Offer-Patch-60336.html), er werd bij het opstarten een check gedaan, en als je die via een hex-editor uitzette kon je gewoon spelen.
dat dus, maar een marketingstunt lijkt me onlogisch gezien ze dan juist minder mensen aantrekken om het spel te kopen (niet iedereen wilt zijn gpu upgraden om een spel te kunnen spelen).
Oke... Dit is... problematisch. Als ik kijk naar het sfeervolle trailertje dan vallen me enkele dingen op. De verroeste deur laat nog gewoon zien dat het allemaal erg "gemaakt" uitziet. Gras ziet er ook niet echt sjiek uit en sommige graphics in een paar villains ook niet. Met andere woorden, op grafisch gebied is het niet te hoogstaand om dit soort specs te vragen.
Ik hoor hier van meerdere tweakers zeggen dat ze de gehele map willen laden. Nou, in een PC game moet dat wel lukken met 4/8 GB aan RAM geheugen. Echter, ik vind het echt onnodig om alles compleet te laden (hoe lang is dan wel niet de laadtijd?). Het heeft natuurlijk minder laadtijden als je de gehele map meteen inlaadt, maar een map die meer dan 4 GB nodig heeft ofwel de grootte van een stad of is gewoonweg niet heel erg efficiŽnt gecodeerd.
Het lijkt me nog steeds een vette game, maar als ik dit zo lees dan zet ik vraagtekens bij de codering. Eventueel inefficiŽnt coderen/programmeren kan ook snel omslaan in veel bugs, aangezien dat soms hand in hand gaat met slecht programmeren. Dus, ik wacht wel even af voordat ik tot aankoop sluit.
Trouwens, sinds wanneer is een i7 beter bij gaming dan de i5?
Technische is een i7 gewoon een i5 maar met 4 HT cores extra. Ze doen m.a.w hetzelfde, als enkel een paar cores aangesproken worden.

Waarschijnlijk klinkt het mooier als men een i7 aanraad, dan een i5 ... Gewoon al die hun aangeraden specs met wat ze voorschotelen in grafische gebied komt mij over als ... Ultra slechte port, en laat de eindgebruiker dat maar oplossen door extreem veel hardware er tegen te smijten.
Als je de trailer bekijkt op 1080p dan vind ik de visuele kwaliteit echt belabberd. Ontzettende statische, blurry, en kartelige textures. Models lijken allemaal ook erg low res, met idem dito low res textures. Komt eerder over als een outdated engine met low res textures die desondanks erg veel system resources vereist om er nog enigzins kwaliteit uit te krijgen.

edit:

video bij dit artikel is een low res trailer, dit is high res
https://www.youtube.com/watch?v=MMKhoHl9BnE

[Reactie gewijzigd door Gordijnstok op 26 september 2014 13:21]

Ja hoor 4GB....zit ik dan met een 780TI 3GB:(
4gig? hier komen ze wel op terug hoor.. 90%? van de (casual)gamers heeft nog niet zon kaart. En als het onspeelbaar is moeten ze wel iets doen.

*mompelt iets over bad coding ^^*
Waarom?

Het is niet onspeelbaar. Dit zijn de aangeraden specs, niet de minimale. Ze HOEVEN nergens op terug te komen en geven aan dat dit de spelervaring biedt zoals deze is bedoeld, daarmee zeggenze eigenlijk: zoals die er op PS4/X1 uit zal zien.

Ik denk dat je minder VRAM moet vergelijken met een wat strakkere versie van de X360/PS3 release en ook die gaan ze gewoon verkopen dus....

Persoonlijk vind ik de kwaliteit van graphics en effecten heel sterk wisselen, het ene lijkt wel begin PS3-tijd, het ander iets uit 2012. Maar alles ziet er toch enigszins gedateerd uit, vooral de belichting.

[Reactie gewijzigd door Vayra op 26 september 2014 13:49]

Het hangt er een beetje vanaf of de aangeraden specs inderdaad nu datgene betekenen dat jij zegt... In het verleden waren aangeraden specs vaak alsnog erg mager en waren de minimum specs eigenlijk alleen voldoende als je met alles op low nog genoegen nam met 20-30 fps (dus nauwelijks genoeg voor overtuigend bewegend beeld).
Als deze aangeraden specs inderdaad de specs zijn om alles op high te kunnen spelen dan zal er niet veel aan de hand zijn maar als ze eigenlijk echt nodig zijn om een beetje van het spel te genieten dan denk ik dat ze goed verguisd worden. Immers, niet alleen casual, maar ook de "hardcore" gamers (wie dat ook mogen zijn) hebben in overgrote meerderheid (nog) niet zulke hardware.
Ik denk eerder dat je het moet vergelijken met de 3GB uit Watch Dogs.

Het zal ongetwijfeld te maken hebben met de hogere hoeveelheid VRAM dat in de consoles benut kan worden. Matige optimalisatie voor PC, maw de kosten van optimalisatie worden afgewend op de PC gamer die dan maar een dikkere GPU moet aanschaffen.
Skyrim PC nooit gespeeld? (ook van Bethesda)

32 bit software niet large address aware.

Crasht bij bereiken 32 bit geheugen limiet
Crasht bij bereiken van VRAM geheugen limiet
Crasht bij een te grote save file vanwege teveel/(vreemde) genomen ingame besluiten

Geloof niet dat ze hiervan gaan terug komen, je zal het wel kunnen spelen met je GPU met <4gb VRAM maar als je dan een crash ervaart zal de supportdesk/forum medewerker vrolijk zeggen: Please replace your GPU to one with =>4GB :).

Ik zie dit als het zichzelf indekken van inefficente code.

(skyrim kan je trouwens prima fixen met verschillende mods zowel voor het RAM als het VRAM gebeuren, alleen de savefile die te groot wordt kan dan nog een probleem zijn na zoveel honderd uur gamen.)
Erm... Je haalt een aantal zaken door elkaar:
Skyrim is gemaakt door Bethesda Game Studios
The Evil Within is gemaakt door Tango Gameworks
Beide games worden uitgegeven door Bethesda Softworks

Je kan een beetje moeilijk de specifieke bugs van de ene game vergelijken met de andere game op basis wie de game heeft uitgegeven, dat doe je op basis van wie de game heeft gemaakt. Je zou wel een trend kunnen trekken bij een uitgever die de ontwikkelaars niet voldoende tijd/geld geeft om dergelijke bugs voor/na release te fixen...
Daar doelde ik ook niet echt op, dat de oorzaak zou liggen aan Bethesda (uitgever).

Waar ik wel op doelde is dat wellicht Bethesda (uitgever) een wijze les heeft geleerd uit het verleden en zich een (flinke) slag om de arm houdt. En er dus niet op terugkomt/iets aan gaat laten doen.

Maar in nieuws van later op de dag, LOTR Shadow of Mordor = 6GB VRAM. Lijkt er simpelweg een nieuw tijdperk aan VRAM requirements c.q. Texture resolutions te komen.

Nu nog zien dat de textures er (significant) beter van worden dan al bestaande spellen. Dat zie ik dan helaas nog niet in de trailers terug.

[Reactie gewijzigd door Mobzy op 26 september 2014 22:27]

Ik was niet onder de indruk van het voorfilmpje, qua shading, hoekige lijven, haar wat er nep uitziet, deed me een beetje denken aan jaren 90 graphics. Van een game met hoge grafische eisen verwacht ik meer, en dat heb ik bij trailers van andere games wel gezien...
Inefficiente code? Of mogelijkheid tot optimaal gebruik van je GPU/VRAM? Ik zou blij zijn als ik mijn VRAM (bijna) helemaal mag vullen => Betere textures

En zoals in het artikel duidelijk vermeld staat zijn dit NIET de minimale eisen. Dus als je je ingame settings wat omlaag schroeft kun je dit spel ook met 3GB of lager wel spelen.

En over Skyrim, ik heb dat spel helemaal plat gespeeld op meerdere systeem (waaronder 1 met een gtx 560 1Gb, nooit een crash gehad, nooit gemod). Ik herken me totaal niet in de issues die je noemt.
Mwah, de meeste 'casual gamers' zijn geen PC gamers ;) Maar goed, 'dankzij' de PS4/X1 is er nu flink wat meer geheugen beschikbaar; de gevolgen zie je nu ook voor de PC. En 'bad coding' lijkt me wat relatief; lijkt me eerder dat het businesswise niet loont om veel tijd te steken in optimalisatie. Maar lijkt mij dat deze game ook prima zal draaien op een i5 met een enigszins moderne kaart met 'maar' 2gb.
Ja de nieuwe games eisen steeds meer VRAM en +4 cpu cores voor recommended settings dankzij de nieuwe generatie consoles. Nu de 512MB ram limiet van de vorige generatie stilletjes aan verdwijnt en games specifiek voor de PS4/Xbone worden gemaakt met 8GB betekent dit natuurlijk ook dat de baseline voor pc's omhoog gehaald word.
Denk je? Er zitten zat casual gamers bij browser games zoals tanki online of standalone games zoals world of tanks, minecraft en league of legends. Mijn broertje van 10 en zijn vriendjes doen niet anders dan tanki en minecraft op de laptop, zomaar een voorbeeld maar de groep casual gamers op pc moet je ook weer niet onderschatten.
Mwah, daar heb je natuurlijk gelijk in, maar ik doelde meer op 'PC gamers' als gamers die zo nu en dan ook investeren in hun systeem. Dat zijn doorgaans geen 'Casual gamers'. En in het geval van je broertje ook niet de doelgroep denk ik van The Evil Within ;)
Nee zeker geen bad coding meer, werd wel gedacht maar games lijken het nu wel nodig te hebben. VoLgens mij is het nieuw dat veel van de map in het geheugen word geladen?

Ik twijfel er nog over omdat dit nu met meerdere nieuwe game sgebeurd maar wel goed draaien.

[Reactie gewijzigd door Magherb82 op 26 september 2014 13:19]

Ik denk juist dat ze textures lossless laten o_o
zou wel epic zijn, eindelijk megatextures in it's full glory
RAGE en wolf: new order hadden bijde zwaar compressed textures, die op sommige momenten een beetje blurry waren

maar ik betwijfel als ze dat echt voledig lossless gaan doen, dan zou de game waarschijnlijk vťťl groter als 50GB zijn (volgens carmack zou RAGE met lossless textures een terrabyte groot zijn)
Zal waarschijnlijk alleen komen doordat ze bruut mooie textures van "heel veel" GB gebruiken in de PC versie.
Die zullen het er inderdaad veel mooier uit laten zien.
Maar om het een vereiste te noemen ging hen daar bij Bethesda iets te ver, dus hebben ze het maar zo opgelost.
Ik vind het wel tactisch en mooi gedaan. :)
Als ik het zo lees, dan kan slechts 1.6% van de gamers op de hoogste instellingen spelen? Ik hoop dat het ook nog interessant blijft totdat 4GB VRAM mainstream word, anders hebben ze het voor niks gedaan. 1 of 2 GB VRAM is nu wat redelijk normaal is volgens die website, zelfs 512 MB komt hoog in de charts.

[Reactie gewijzigd door Feanathiel op 26 september 2014 14:24]

Uhm elke ps4 en xbox one gebruiker wel (8 volgens mij?)Zal dus heerlijk lopen op de next gen consoles!

Laat maar komen op de xone deze plaatjes
De game moet ook op last gen consoles draaien. Die 3GB mag geen probleem zijn, als het spel ook draait op een apparaat met het vermogen van een game PC van 8 jaar geleden. Hooguit moet je anti aliasing iets lager en moeten enkele vinkjes uit.
Ik denk niet dat de engine en de assets van de PC versie veel overeenkomsten heeft met de 360/PS3 versie, voor de last-gen versies zullen ze alles dermate ver hebben uitgekleed en uitgeoptimaliseerd om het spel draaiend te krijgen dat je echt niet meer kunt zeggen dat je in de PC versie de settings wat kunt terugschroeven en dan ineens op een 'game PC van 8 jaar geleden kunt draaien'.

De recommended specs doen vermoeden dat de PC versie een vrij directe port is van de PS4 en Xbox One versies: je hebt veel cores nodig, en veel VRAM, precies de 2 dingen die je in de consoles tegenkomt. Misschien daarom ook dat een i7 wordt aangeraden, quad-core met hyperthreading lijkt al meer op een 8-core console dan quad-core zonder hyperthreading.

Overigens voordat iemand van het master race zich in zijn koffie verslikt: ja ik snap ook wel dat een i7 veel krachtiger is dan de CPU in een PS4/Xbox One, en dat een game PC opgeteld veel meer RAM heeft dan 8 GB shared, maar als de engine van dit spel helemaal is gemaakt op multithreading en een min of meer volkomen flexibele verdeling VRAM en systeem RAM, en er verder geen moeite is gedaan om dit meer te balanceren voor PC, dan betekent dat gewoon dat je flink hogere specs nodig hebt om het verschill in efficientie te overbruggen (data heen en weer kopieren naar de GPU via PCIe is heel erg traag bijvoorbeeld).
Dat dacht ik net ook al, 780 TI maar in de prullebak gooien 8)7.
Gewoon een 2e erbij prikken ;)
Weet niet zeker of je hier een grapje maakt, maar even voor de duidelijkheid:
Je kan je beschikbare VRAM niet vergroten door er een kaart bij te prikken.
Idd...
Vram wordt gecloned in CF/SLI toepassingen, het is niet zo dat het Vram uitgebreid wordt :/
(is overigens wel logisch, want beide gpu's moeten alles in principe kunnen renderen)

OT.
Wel bizarre systeem specs :s
Dan doen ze toch echt iets grandioos fout met het optimaliseren van code....
Of ze optimaliseren gewoon helemaal niks :s
Als je Alternate Framerendering Mode gebruikt ja, er bestaat ook zoiets als Split Frame Rendering. Daar worden de frames gesplitst over de GPU's en heb je dus WEL de dubbele hoeveelheid VRAM, probleem hierbij is alleen dat je iets mindere performance hebt en dat er mogelijk meer tearing is.

Maar het is mogelijk

[Reactie gewijzigd door Vale vista op 26 september 2014 17:03]

Neen, je hebt dan nog steeds niet het dubbele. Sommige objecten komen voor in beide helften van het scherm. Sommige elementen zijn intrinsiek overkoepelend over GPU heen en gelden voor de hele scene, zoals belichting.

Daarnaast is het zo dat je scherm niet statisch 50-50 verdeeld wordt, maar dynamisch, omdat nou eenmaal niet elk stuk van je scherm even lastig te bereken is. Ga dat dan maar crossloaden over je GPUs.

Als laatste denk ik dat er daarnaast nog technische overhead is, zoals communicatie met de CPU en bepaalde relevante gegevens over de rest van het systeem. Dit soort dingen zullen beide kaarten in geheugen moeten hebben.

Voor zover ik weet wordt in split frame rendering ook gewoon alles in beide GPUs gezet.

[Reactie gewijzigd door A Lurker op 29 september 2014 10:48]

Dan heb je nog steeds 2GB. SLI bestaat niet om je geheugen te vergroten.
Koop dan een next gen console, goedkoper en voldoende ram..
Dat dacht ik net ook al, 780 TI maar in de prullebak gooien 8)7.
Moet dit nu serieus een reden worden om over te gaan stappen naar een AMD 290 variant, of een 970/980?
Dat ligt aan jezelf en waar je genoegen mee neemt. Je 780TI zal deze game prima draaien, maar niet met alles op Łber-high settings
Ik heb enkele maanden geleden een geforce 770 met 2GB gekocht. Mijn keuze was gebaseerd op het gegeven dat 2GB meer dan genoeg zou zijn als je op 1 niet 4k display speelt. Dat heb ik in meerdere bronnen gelezen. Op 4k kan je grotere textures kwijt, dus dat klonk mij verder logisch in de oren.

Wat is hier dan aan de hand? Forcen ze soms 4k textures op 1920x1080? Of klopt bovenstaande niet? Of...

Er was iets soortgelijks aan de hand met Wolfenstein. Daar stond in de minimum eisen dat er perse een i7 nodig was. Nou ik kan je vertellen die draait hier perfect op max settings op een i5-750.

Misschien een dealtje met hardware fabrikanten? Of misschien denken ze dat ze indruk maken met forse systeemeisen door de indruk te wekken dat hun game echt next-gen is?
die zal nog wel sterk in prijs gaan zakken denk ik :P
Naast 4GB aan ram wordt een GeForce GTX 670 aangeraden, of een vergelijkbare kaart, mits die over minimaal 4GB aan vram beschikt.
Er staat een GTX 670 of een andere kaart met 4GB geheugen. Ik vermoed dat er bedoeld wordt dat elke kaart vanaf een GTX 670 dus eigenlijk maar 2GB nodig heeft. Als je echter tragere kaarten hebt,
heb je de 4GB versie nodig, zoals bvb dit raar geval: MSI GeForce GT 630 4GB
Aangezien een GTX 780 Ti ruim boven een GTX 670 zit, verwacht ik dat je geen problemen zal hebben. ;)
Nou ik zou dit spel links laten liggen, mede gelet op de povere graphics ..
Mijn hemel daar wil je toch niet eens geld aan uitgeven ?!
Alsof ik Resident Evil 1 op de PS1 speel .. Brrrr
EfficiŽntie in programmeren is een kunst, die aan het vergaan is.
Dat gaat vandaag de dag simpelweg niet meer op. Tegenwoordig moeten games gigabytes aan resources managen en hoe meer mensen roepen "kartel randjes - dat KAN niet vandaag de dag" hoe groter die uitdaging wordt. Met de vraag naar scherpere textures stijgt ook de vraag naar meer systeem resources, textures gaan niet magisch mooier en scherper worden zonder in omvang te groeien.

Al schrijf je de meest brute code, dat is peanuts vergeleken met de performance die je kunt verliezen omdat een grote bulk data ingeladen moet worden op het verkeerde moment.
EfficiŽnt programmeren gaat wel hoor, al zijn er wat meer eisen.

Het is niet zo dat omdat mensen meer willen het onmogelijk is dat goed te programmeren.

Het kartel randjes verhaal zou meer duiden op verbetering in de hardware.
Die komt wel weer terug als betere hardware duurder wordt dan de uren van de programmeur. Voorlopig is er nog ruimte, maar gezien de bloat die ongeveer overal opduikt (200 MB voor een driver? Ga fietsen!) vermoed ik dat het een keer over is, al dan niet door de beperkingen van data-transport (niet iedereen heeft glasvezel).
Hey FreezeXJ,

Haha, ja precies! Ik heb een systeem thuis (goedkope/oude mediacenter) die een lichte versie van XP er op heeft staan, en daar zonder extra programma's 180MB RAM voor nodig heeft. En dan zien dat op sommige systemen dat aantal MB's voor alleen 1 driver nodig is, doet vermoedde dat er iets beter kan.

Natuurlijk zal er wel wat extra nodig zijn voor modernere hardware drivers, maar als ik ten aanzien van genoemd systeem in deze tijd laat zeggen 400% meer RAM geheugen heb te besteden, schiet ik er dus NIETS mee op! En kan ik over 3 jaar wel standaard 32GB RAM nodig hebben voor praktisch hetzelfde.
Mmm, vanwaar zo veel vram? Ik merk het al bij nieuwe games op dat het gaat stotteren met 3gb vram en niet meer met 4gb vram, zoals met Watch dogs, waar de 3gb kaart al snel geheugen te kort komt op de wat hogere resoluties.
Ik verondersteld dat het over Megatextures gaat zoals te zien in games zoals Return to caste wolfenstein. dit zorgt ervoor dat je unieke textures hebt en geen herhaalde patronen.
De nadelen zijn hoge vram eisen en grote install file.
Return to castle wolfenstein had zelf een 40Gig download op pc.

ik kan er alleen maar vanuitgaan dat ze op consoles geen megatextures gebruiken
Dan heb ik liever slim opgebouwde patronen, met net wat variatie. Totaal unieke tex betekent inderdaad gigabytes aan data, en een heleboel bijna-zinloos werk voor de ontwikkelaar die al die tex-files moet brouwen.

Voorlopig denk ik dat het overkill is, het kan er wellicht als optie bij (lever ook de normale kleine files zodat mensen met een normale GPU het ook kunnen draaien), en doe het over een jaar ofzo met een goeie update een keer goed. Het aantal GPUs met 4 GB aan boord is op 1 hand te tellen, de 290 en 290X van AMD doen het, en een paar NVidias, en rare edities. That's all. Misschien 1-2% van alle gamers. Natuurlijk staat het stoer op de doos, maar het voegt te weinig toe.
ik ben het volledig met je eens. Als ze wat mooie patroon generatie algoritmes zouden outsourcen naar de CPU dan zouden we eindelijk met wat minder cpu overhead zitten in gamen. en kan je belachenlijke file sizes van 40gig naar de 7gig terugschroeven.
Minder overhead op de CPU door hem het werk wat door een GPU gedaan wordt te laten doen en hem dus zwaarder te gaan belasten?

Terugdringen van vram gebruik kan ik toejuigen, maar er zijn zat spellen die de CPU al als belangrijkste onderdeel gebruikt. CryEngine wil cores en snelheid, maar wat ik gemerkt heb van Rage en Wolvenstein wil IDT5 ook liever CPU dan GPU.
Uiteraard drijven ze op CPU, maar vaak maar op 1-2 cores. Dit soort klussen (patronen verzinnen/aanpassen) kan gelukkig lekker los van de main thread, en is uitstekend te parallelliseren. Wat dat betreft verwacht ik geen problemen. Als je wilt zou het zelfs op de GPU kunnen, aangenomen dat de communicatie dan ook intern kan (het heeft weinig zin om dingen door je GPU uit te laten rekenen als ze daarna door de CPU heen en weer gestuurd worden).
Vraag ik me weer af waar die textures voor gebruikt worden bij WS, zoals sommige objecten zijn heel scherp, maar kijk je naar de rotsen en grond zijn het blokken van textures zoals in skyrim zonder mods.
Nou dat vind ik nogal wat, ik heb inderdaad een GTX680 met 2GB aan vram. Een Xbox 360/PS3 zou dan wel voldoende moeten zijn?

Een PS3 heeft maar 265mb aan vram.
En hoger dan 1080P gaat mijn monitor toch niet.
een game voor de Xbox wordt gemaakt voor 1 set hardware. Dit is veel eenvoudiger om te optimaliseren.

En een PC, en met name een Windows PC, zijn miljoenen hardware sets te verzinnen, en lastiger te optimaliseren.
Daar heeft 't volgens mij gewoon niets mee te maken. Dit zijn uiteindelijk ook niet de minimum systeemeisen maar wel de eisen om alles uit de kast te halen. Dat wat een pregen en current console dus absoluut niet kan.

PC gamers (ikzelf dus!) willen SUPER games ... daar staat tegenover dat je ook SUPER hardware moet hebben. Je kan 't niet allemaal op bad coding steken. Hi rez textures, full HD, hoog gedetailleerde modellen en omgeving .. het vraagt echt een boel van je systeem.

Ik wil het wel eens zien op een super systeem. Ben echt benieuwd of het dan ook zo super mooi is.
CryEngine is ook een zware engine, maar die weet met mindere hardware mooiere beelden te maken dan IDT5engine en daarnaast zijn de hardware eisen om op minimale settings te spelen een stuk lager. Die megatextures zijn leuk op papier, maar in praktijk een flop.
Enige reden waarom ze een flop is omdat het op de PC momenteel onmogelijk is om texture snel en rap van je "normaal" geheugen naar de video geheugen te krijgen. Dit is opgelost in een unified systeem en je zal ook zien dat op de X1 met zijn speciale move engines dit wel gaat werken. Hier zijn overigens als verschillende demo's van te bewonderen.
Ik snap hoe optimalisatie werkt, maar het gaat hier om het gebruik van videogeheugen. Daar valt wel iets te optimaliseren maar 256MB tegenover 4GB is iets te veel van het goede.
De meeste overhead zit sowieso aan de CPU/GPU kant, niet het geheugen.
Mensen er staat: "of"
GTX 670 aangeraden, of een vergelijkbare kaart, mits die over minimaal 4GB aan vram beschikt.
Als je een zwaardere kaart hebt dan de GTX670, dan voldoe je al aan de eerste "of".
Als je een zwaardere kaart hebt dan de GTX670, dan voldoe je al aan de eerste "of".
Ik snap deze opmerking niet helemaal. Ja, een GTX670 is niet verplicht, maar die mits geldt ook voor die vergelijkbare of zwaardere kaart.

Je wordt dus aangeraden een kaart met 4GB aan VRAM hebben, of dat nou een GTX 670 of vergelijkbare kaart is of een betere.
Voor OPTIMALE settings, zoals de makers het spel in gedachte hadden.

670 of hoger slaat op de "rekenkracht" van de GPU
4VRAM slaat op de ruimte voor de textures in (waarschijnlijk) de hoogste grafische settings
Voor OPTIMALE settings, zoals de makers het spel in gedachte hadden.
Ja, vandaar dat ik het heb over "aangeraden".
670 of hoger slaat op de "rekenkracht" van de GPU
4VRAM slaat op de ruimte voor de textures in (waarschijnlijk) de hoogste grafische settings
Klopt. Ik geef toch juist aan dat het hier gaat om de hoeveelheid VRAM, los van de verdere 'kracht' van de kaart?
Ok dan snap ik je vraag gewoon niet, hehe, sorry
Mijn vraag? Ik reageerde op GOT om aan te geven dat zijn reactie niet klopt.
4GB zal dankzij vooral de PS4 met zijn 8GB aan GDDR5 toch wel eens de standaard kunnen worden, toch mooi dat Vram na 10 jaar eens echt gebruikt gaat worden (mede dankzij de consoles)

en het heeft ook niets met optimalisatie te maken, maar gewoon het feit dat PC's al 8 jaar genoeg heeft met 2GB is gewoon vreemd als jij kijkt naar systeem geheugen gebruik.. (wat eigenlijk kwam door de PS3/Xbox360 die vram gebruik heel erg omlaag drukte)

en Met de PS3/xbox360 klaagde iedereen over "dumbed down" en nu klaagt iedereen over te extreem!!!..
UBER RACE :z (just not uber hardware) <~ Het is ook nooit goed :z

[Reactie gewijzigd door stewie op 26 september 2014 16:24]

Stewie, mensen klagen niet over "dumbed down", mensen klagen dat je 360/ps3 graphics krijgt voor een ultra zotte extreme eisen.
Vond het nooit zo ultra zot...
Misschien hebben mensen gewoon een mattige PC gekocht :+

en met veel nieuwe cross-platform games zul je inderdaad 6GB aan vram nodig gaan hebben, lekker zot hť :Y) :z
GTA5 zal dat waarschijnlijk ook nodig gaan krijgen voor ultra settings ( -__-)

[Reactie gewijzigd door stewie op 26 september 2014 16:36]

Je mag niet vergeten dat het tijdperk van VR eraan komt. En toch volgens wat iedereen zit te zeggen dat die spullen geprobeerd heeft, dat je 1080p een echt minimum is. En dat men 1440p achtige toestanden wilt zien voor echt te werken. En dan stijgt het geheugen gebruiken ook enorm ( zeker met zotte toestanden zoals hierboven omschreven ).
Alleen 95% van de gamers zal alleen nooit VR gaan gebruiken, slechts de 2 a 3% van de hardcore gamer zal daar zijn geld aan verslinden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True