Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 169 reacties
Submitter: shadow4thedark

Rockstar Toronto heeft bekendgemaakt dat om Grand Theft Auto V in 4k-resoluties op de pc te kunnen spelen minimaal een AMD HD 7870 of Nvidia GTX 760 met 2GB videogeheugen nodig is. Voor hogere framerates is een sli- of Crossfire-setup nodig.

De systeemeisen voor 4k-gameplay in GTA V zijn gegeven door Kevin Hoare, baas van Rockstar Toronto, aan PC Gamer. Om met 30 frames per seconde de sandboxgame soepel te kunnen spelen is minimaal een AMD HD 7870 of Nvidia GTX 760 met 2GB videogeheugen vereist. Wie 60 frames per seconde wil behalen heeft volgens Rockstar een 'high-end' sli- of Crossfire-setup nodig. Een preciezere specificatie voor een dergelijke opstelling geeft de gamedeveloper echter niet.

In januari maakte Rockstar al de minimale systeemeisen bekend. Een Intel Core 2 Quad Q6600- of een AMD Phenom 9850 quadcore-processor is samen met 4GB aan werkgeheugen het minimum. Daarnaast is voor het grafische werk een Nvidia GeForce 9800 GT of een AMD Radeon HD 4870 met 1GB aan geheugen vereist. Ook is een 64bit-versie van Windows nodig en de game vereist 65GB aan schijfruimte.

Om GTA V soepel te kunnen laten draaien op 1080p bij 60fps adviseert Rockstar een Intel Core i5 3470- of een AMD X8 FX-8350-processor in combinatie met 8GB aan werkgeheugen. Voor de grafische kaart wijst het advies naar een GeForce GTX 660 of een AMD HD 7870 met 2GB aan geheugen. Rockstars GTA V komt op 14 april uit voor de pc.

Gerelateerde content

Alle gerelateerde content (23)
Moderatie-faq Wijzig weergave

Reacties (169)

Een HD7870 voor 4K 30fps terwijl ze dezelfde HD7870 adviseren voor 1080p 60fps? Iets zegt me dat de realiteit het een en ander zal veranderen aan de waarde van dit statement :)
Hoezo kan dat niet? 4K twee keer zo zwaar als 1080p dus eigenlijk. Ja, het zijn vier keer zoveel pixels, maar het aantal pixels schaalt niet lineair met de benodigde power :P

Nee, het lijkt mij juist totaal niet raar, 1080p/60 net zo zwaar als 4k/30. Eerder logisch ;)
1080p60fps is juist zo zwaar als 4k15fps normaal gezien
(resolutie * 4 => framerate / 4)
ervanuit gaande dat dezelfde settings gebruikt worden

EDIT: oke ik had het iets te simpel voorgesteld, mijn stelling klopt idd niet :+

[Reactie gewijzigd door jeroen7s op 11 april 2015 10:45]

Die berekening klopt alleen als je er vanuit dat gaat je 4x zoveel rekenkracht nodig hebt bij 4x zoveel pixels, en dat is simpelweg niet het geval.
Niet? Terug naar computerles zou ik zeggen. 4* zo veel pixels betekend 4* zo veel bits. Dus is wel degelijk 4* zo zwaar.
Dat is niet zo. Momenteel worden grafische operaties typisch opgedeeld in vertex en fragment shaders. Vertex shaders zijn afhankelijk van de constructie van het 3D model, en worden toegepast op elk hoekpunt daarvan. Fragment shaders worden toegepast per pixel.

Het werk voor de fragment shaders wordt dus ~4x gedaan, het werk voor de vertex shaders blijft gelijk ongeacht de resolutie (er van uitgaande dat je dezelfde detail instellingen toepast). Aangezien het ingewikkelde werk vaak in de vertex shader stap zit, is het dus lang geen 4x voor het hele verhaal.

De framerate is dus niet gewoon een functie van het aantal pixels in het plaatje.
Ondanks dat je fragment shaders ook kunt gebruiken als term, is pixel shader duidelijk omdat het in de naam al aangeeft dat het over pixels gaat. Verder heb je volkomen gelijk.
DirectX gebruikt inderdaad de naam "pixel shader". OpenGL daarentegen gebruikt de naam "fragment shader". De reden hiervoor is dat pixels worden opgedeeld in meerdere fragments wanneer multisampling (MSAA) actief is.

Verwarrend daarbij is echter dat de shader slechts 1x per pixel (dus niet per fragment) wordt uitgevoerd, ongeacht het aantal fragments waarin de pixel is opgedeeld. Dus eigenlijk zou "pixel shader" ook hier een betere naam zijn geweest.
Als je dan toch over computerles praat, zelfs in het geval dat je niet met vertex shaders te maken hebt kan je die assumptie gewoon niet maken.

Algoritmes kennen een theoretische complexiteit die aangeduidt wordt met een grote O met daarin een functie. Bijvoorbeeld O(n^2).

Als je een algoritme hebt met O(n^2), duurt het verwerken van een dubbel zo grote dataset (2n ipv n) niet dubbel zolang, maar 4x zolang. Je kan hier eigenlijk eender welke functie in plakken, van constant O(1) tot superexponentieel O(n^n^n^n...) en verder.

Hoe dan ook, zonder diepe kennis van de algoritmes kan je geen uitspraak doen over het gedrag bij grotere datasets. Ga dus NOOIT er zomaar van uit dat je dubbel zoveel data vlotjes in het dubbele van de tijd gedaan krijgt. Dit is zeer zelden het geval.

[Reactie gewijzigd door Niosus op 10 april 2015 18:32]

Neen. Simpel voorbeeld is een explosie waarbij de videokaart berekend hoe deze plaatsvindt en hoe de deeltjes wegvliegen. Deze berekening zal altijd hetzelfde zijn ongeacht de resolutie. Vervolgens moeten deze resultaten worden omgezet in een spectaculair 3d-plaatje en uiteraard wordt dat wel meer werk als er meer pixels mee gemoeid zijn.

Overigens betekend 4 keer zo veel pixels ook echt al eeuwen niet direct 4 keer zo veel data. Weleens van compressie gehoord etc?

Zelf terug naar computerles dus.
Je hebt toch echt een 4x zo hoge bitrate. Compressie en technieken niet meegerekend komt dat toch echt uit op 4x zo veel aansturing.
Om die reden doen grafische kaarten met een grotere hoeveelheid ram en/of breedere geheugen interface het beter bij hoge resoluties.

Maar dat wil niet zeggen dat je een 4x zo snelle gpu nodig heeft.
Dat ligt wat gecompliceerder.
Zie de reactie op tenhagen hierboven ;)
Edit, hieronder: Richh in 'nieuws: Rockstar noemt systeemeisen voor 4k-weergave GTA V'

[Reactie gewijzigd door Richh op 9 april 2015 23:30]

Ligt allemaal aan je videokaart. Een nieuwe kaart met dikke pixel pipes zal beter met 4K omgaan dan een kaart die daar niet voor gemaakt is. Terwijl de prestaties op 1080p wel gelijkwaardig kunnen zijn.

[Reactie gewijzigd door Blackice09 op 10 april 2015 02:02]

Ik heb net even Unigine Heaven gedraaid met hoogst haalbare instellingen op 1080x1920 met 70,1fps gemiddeld en op 2560x1428 (Heaven pakte geen 1440p maar 1428p blijkbaar..) met 52,1fps gemiddeld.

Het verschil in de resolitie was 176% meer dan 1080p en het verschil in framerate was 134% meer met 1080p, dus dat wat jij zegt gaat niet op.
Bij 4K ben je veel minder aangewezen op AA en Anisotropic filters. Die kunnen een tandje lager of uit. Als ze aan zijn komt het er min of meer op neer dat voor 1080p al 4K wordt berekend en wordt gedownsampled. Zou zowaar dus nog lichter kunnen zijn voor de videokaart, ware het niet dat je meestal ook bet grotere texture maps gaat werken!

[Reactie gewijzigd door blanka op 10 april 2015 06:23]

Resolutie heeft niets te maken met aa of af cq. andere kwaliteits settings\ filters.
Ik zou zelfs willen zeggen dat je bij 4k zeker hoge iq settings nodig hebt omdat je verschil veel sneller ziet.
BTW af filtering is extreem goed zichtbaar juist als de resolutie omhoog gaat.
AA minder maardat hangt weer sterk af van de gebruikte rendering techniek.
Aa staat direct gelijk aan resolutie. Sterker nog 2*/4*/8* aa doet je beeld dan ook zoveel keer vergroten om een minder hoekige render te krijgen. AF staat er echter wel los van.
Dat is alleen bij supersampling (SSAA) het geval, maar geen enkele zichzelf respecterende graphics programmer gebruikt dat nog.

Bij MSAA worden alleen pixels die niet volledig binnen een polygon liggen in meerdere fragments opgesplitst. Alle overige pixels worden gewoon maar 1x berekend.

FXAA en SMAA passen een speciale edge detection filter toe op een full screen buffer en blenden alleen de naast elkaar gelegen pixels met een sterk contrast (diepte, kleur of luminance).
Daarom kun je met nVidia spellen in een hogere resolutie renderen dan wat je monitor aan resolutie heeft.

AA heeft heel veel met resolutie te maken. Een hogere resolutie doet meer wonderen dan AA. Voor Cities Skylines is er een mod waarmee je ook de render op een hogere resolutie kan zetten dan die van je monitor.

Wat belangrijk is waar niemand het over heeft blijkbaar is pixeldichtheid.

Een 22" monitor met 4K heeft niks aan AA. Als je een 4k scherm van 55" hebt en die staat een meter of 2 van je neus dan is AA weer een verbeterlaag, maar een hogere resolutie renderen heeft meer zin dan AA. Echter doordat het zwaarder is dan AA doe je dit niet zo snel.

http://www.geforce.com/hardware/technology/dsr/technology
Behalve dat bij 4k het aantal pixels 4x zo hoog ligt (2x zoveel in de breedte en 2x zo veel in de hoogte)
Zoals ik zeg, het aantal pixels schaalt niet lineair met de load. Het is helemaal niet zo dat je voor 2x zoveel pixels 2x zoveel power nodig hebt. Een gpu doet veel meer voordat uiteindelijk de output berekend wordt, waardoor die 4x hogere resolutie helemaal geen 4x zoveel power nodig heeft.
is het niet 16x zoveel pixels in totaal?
1080p is in feite 1K, dus 4K is 4 keer de hoogte en 4 keer de breedte. = 16x zoveel pixels in totaal.
als je 2x de hoogte en 2x de breedte neemt heb je 2K.
of denk ik nu zo verkeerd?


nevermind, ik dacht idd verkeerd.

[Reactie gewijzigd door parkeermeter op 10 april 2015 11:40]

Ja, daar ben ik ook wel benieuwd naar. Wat me ook niet duidelijk wordt is om welke grafische instellingen het steeds gaat. Mag ik er nu vanuit gaan dat mijn i5-4670k@4,5GHz, GTX 760 en 16GB geheugen het spel bij hoge kwaliteit en een resolutie van 2560x1440 soepel aan kunnen sturen?
Zonder anti-aliasing denk ik wel ja. :)
Hier heb je een ruwe schatting van 1080p en 4k: Because I give a damn: Hoe gaat GTA V op de PC draaien?
Anti-aliasing is nu net wel een zwak puntje voor AMD kaarten. Maar het zou wel kunnen dat een 7870 4K kan doen zonder (niet dat je AA nodig hebt op 4K, je merkt het toch nauwelijks). Misschien dat GTA V ook mantle ondersteund ... maar toch ... ik vrees wat voor de zaak. Op z'n minst gezegd optimistische system requirements.
Het is te hopen dat ze het waar maken, dan zou ik hem zelfs met mijn GT750m vloeiend op medium kunnen spelen!? Laat het maar komen :P
draait hem misschien nog beter dan gta4
die draait nog steeds vrij average op mijn gt755m, op 1080p low blijft hij constant droppen onder de 30fps
Dat zal dan eerder een CPU probleem zijn denk ik, want ik kon GTA IV toch vlot spelen op high (enkel schaduws moesten lager, want anders had ik strepen) met een GTS 450.
Passmark:
GTS 450: 1549
GT 755m: 1623


EDIT: bedenk net dat ik niet op 1080p speelde (oeps)
negeer dus maar ;-)

[Reactie gewijzigd door Robbedem op 9 april 2015 21:34]

GTA IV was dan ook een slecht geoptimaliseerde port die zeer belabberd draait, zelfs op moderne hardware.
een 755m haalt volgens mij niet de kracht van een gewone 650.
de mobiele varianten zijn altijd gestript zodat ze minder energie verbruiken.

bij de cpu's is dat ook zo; een i7 mobile versie is echt een pak minder krachtig dan een i7 desktop versie op dezelfde mhz
AMD heeft nu Virtual Super Resolution, mocht AA te zwaar zijn. Dit zal voor AMD'ers vast goed werken voor schermen kleiner dan 4K omdat GTA gemaakt is voor deze hogere resoluties.
Ik geloof ook niets van de system requirements, ik weet nog heel goed hoe GTA IV bij de helft van de PC gebruikers zwaar onder de maat presteerde. Maar goed dat ze de graphics settings er niet bij zetten.
GTA IV was een cashgrab op de pc. GTA V heeft voor de PC extra's en laat daar dus al mee zien dat het al meer aandacht heeft gekregen dan die domme port GTA IV.
Ik heb redelijk vertrouwen dat rockstar deze keer echt werk heeft gemaakt van optimalisatie.
We zijn gewoon zo pessimistisch omdat alle andere devs shitty ports leveren de laatste jaren die op hem enkele manier optimaal gebruik hebben gemaakt van de power in gpu's.
AA merk je ook gewoon op 4K als je een groot scherm hebt, of heel dicht op je scherm zit. Zoals hierboven door RadioKies ook al wordt aangegeven is pixeldichtheid leidend in de vraag of AA (zichtbaar) nut heeft.
mischien 1080p op max, en 4k op min vergelijking, elders zou ik het ook niet weten.


mocht het toch waar zijn, dan voldoe ik prima met 2 hd7870 (crossfire)
ook al doe ik die zodra me vakantiegeld binnen is , ter vervanging voor sli setup(2x Titan-x)
of 4x 290x, of de nog uit te komen amd 39x ,

ik hoop wel dat rokstar 4k texures heft inbegrepen :)
en op 1080p met 60fps, terwijl ze op 4k30fps kijken voor minimum
Laat ik nou net toevallig een 7870 hebben.
Eerst zien dan geloven, want GTA IV draaide ook voor geen ene moer in het begin.

Ik snap trouwens de push naar 4k niet zo. We kunnen nauwelijks 1440p goed draaien. 4k voor mij is meer een film, tv en workspace resolutie.
Dat ligt er een beetje aan op wat voor systeem denk ik...

Sinds 2 weken een nieuw systeem met 4K monitor, en ik kan de meeste games prima op ultra settings draaien met 75+ FPS. Ik vind dat een prima speelbare situatie, er zullen best mensen zijn die minimaal 100+ FPS willen zien maar dat is IMHO vrij onzinnig.
Het verschil tussen 4K en 1440p is overigens veel groter dan ik had verwacht, echt wel een stuk mooier hoor!

1440p draait op mijn oude machine al 4 jaar prima, dus ik weet niet waar je conclusie vandaan komt dat "we nauwelijks 1440p goed kunnen draaien"
Wat voor hardware heb jij om dit voor elkaar te krijgen?
Core i5 4690K met 16GB memory en 2x Nvidia GTX970 in SLI.
Draait bijvoorbeeld BF Hardline in 4K op Ultra settings, met 2x AA en AF aan. op gemiddeld 80 FPS (Min FPS zakt soms naar 65 FPS.

Ik weet wel dat dit niet de meest "zware" game is, maar ik ben er ruimschoots tevreden mee.

[Reactie gewijzigd door slash24 op 10 april 2015 11:40]

4K op low tegenover 1080p op medium waarschijnlijk :)
HD7870 voor minimum op 4k, maar als recommended for 1080p
dan bedoelen ze op 1080p wss high60fps en op ultra HD waarschijnlijk low 30fps
Het zijn 4x zoveel pixels, maar de berekening schaalt niet met een factor 4x mee, omdat niet alles 4x zoveel rekenkracht kost. Als ik de wiskunde een beetje begrijp.
Ik vind het ook apart. Maar het Is wel zo dat GCN kaarten goed schalen met hogere resoluties dus dat ze van een GTX660 naar een GTX760 gaan verbaast me niet.

Al Had ik daar een HD7970 en GTX770 verwacht voor 4k 30fps.

Ik verwacht Dat je met hun hardware eisen toch regelmatig dik onder die 30fps komt.
Dat moet een foutje zijn! :p
Er staat idd niets bij over de grafische kwaliteit.
4k op lage settings 30fps..? Prima toch? Daar dacht ik iig aan.
Met een gtx 970 4gb wel 4k mogelijk?
Gtx 970 4gb wel 4k mogelijk??
Toch wel jammer dat met een high end laptop, de game niet eens op high zal draaien.
Ik zit met een;
i7 4700hq 2.40 ghz
8gb werkgeheugen
gtx860m

Zit duidelijk in de hogere klasse van gaminglaptops, maar de prestaties gaan wellicht teleurstellend te noemen zijn.
Ligt er aan met hoeveel fps je te vreden bent? Nu weet ik wel dat je in de PC wereld geen 30fps mag zeggen want dan word je als gek uitgemaakt :P maar als ik alles op max op een stabiele 30fps kan draaien dan ben ik zeer te vreden vooral omdat ik het van de console gewend ben.

[Reactie gewijzigd door raymondtoonen op 9 april 2015 22:33]

Ik denk dat een game als GTA wel goed te spelen is met een fps van 35+.

Dus ik hoop dat ik minimum 35fps haal op een kwaliteit net onder high :p Zal wellicht meer op meduim zijn dat ik dat haal helaas.
Lijkt mij dat je gewoon mag zeggen dat je met 30FPS genoegen neemt op de PC (neem ik ook genoegen mee namelijk). Het is een ander verhaal als de developer het onmogelijk maakt meer dan 30FPS te halen door locks of vertellen dat 30FPS beter is dan 60 of niet merkbaar is.
Meer spannend dan jammer. Specificaties van games als deze zullen de hardware makers ook weer pushen om meer performance uit hun producten te halen. De eerste single-core videokaarten die GTA V / Star Citizen op 4K 60FPS kunnen draaien zullen als warme broodjes over de toonbank gaan! (de Mobile versies van videokaarten profiteren hier ook van)
Die processor is inderdaad prima, maar met een 860m mag je helaas niet claimen dat je je in het high end segment begeeft. Échte gaming laptops zijn helaas waanzinnig duur.

De GTX 860m is minder snel dan de GTX 650, een instapmodel desktop videokaart van Nvidia die 2,5 jaar geleden nauwelijks meer dan 100 euro kostte.
Het is allemaal heel leuk dat GTA 5 naar de PC komt en ook in 4K, maar dat neemt niet weg dat je het gehele spel grijs hebt gespeeld op de Xbox en of dergelijke.... ... De first person mode is dan een toegevoegde waarde , maar alle herhalingen in de game , ik ga in ieder geval geen enkele euro uitgeven hieraan en Ik ben al toe aan GTA 6.
Graag enkel voor jezelf spreken. Ik heb de 360 versie ook al uitgespeeld, maar kan me niet herinneren dat ik zo erg om een game heb gesmacht als deze. Heb er zelfs een week voor vrij genomen. Kan niet wachten om deze op de PC te spelen..
Tuurlijk niet, ik heb tot nu toe totaal 30min GTA V gespeeld bij vrienden op console. Heb zelf naast de gamepc alleen een Xbox360 maar heb gewoon op GTA V gewacht totdat hij op PC uitkomt. Naast wat YouTube videootjes die je onvermijdelijk tegenkomt ga ik alles nu voor het eerst beleven. :)
Voor de liefhebbers een overzicht van de grafische instellingsmogelijkheden van gta V hierhttp://www.pcgamer.com/gta-5-pc-graphics-options-in-full/.
Die zie ik ook al 2 dagen op voorbij komen, maar volgens mij is die screen fake;

Resolutie instellingen, aspect ratio, refresh rate en vSync settings zitten nooit onder graphic settings maar onder display settings. Verder zie ik settings die onder Advanged settings zouden moeten vallen.

Op veel sites zie je deze screen, maar nergens zie je het advanged settings screen of het display properties screen.

Er klopt iets niet
Goed opgemerkt! Inderdaad verdacht dat alle genoemde opties onder het menu item "graphics" staan, terwijl er ook nog de opties "advanced graphics" en "display" staan. Dan ga je je toch afvragen wat ze nog onder die 2 menuopties hebben zitten als het gros al bij "graphics" vermeld word.

Tevens staat er ik het artikel ook niet vermeld hoe ze hieraan komen. In het aanverwante artikel zeggen ze wel dat ze een demo hebben mogen spelen, maar hoe of waar staat hier ook niet vermeld.

Ondanks de verdachte omstandigheden krijgen ze van mij nog het voordeel van de twijfel, al is het maar dat ik nog zo'n debacle als GTA4 emotioneel niet aan zou kunnen.
Haha, in je laatste opmerking kan ik volledig bij aansluiten. :) Ik heb de game in pre-order staan, dus heb zojuist maar vast een r290 bij besteld voor cf opstelling. Ik vrees toch dat ik, ondanks de goede berichten, deze nodig ga hebben..en mocht het inderdaad meevallen, kan ik met een beetje geluk 4k halen..

We zullen het beleven dinsdag...
Als een GeForce 9800 GT al volstaat, dan vraag ik mij af of de game gaat draaien op mijn i7 4770K met Intel HD Graphics 4600 chip...
Ik speel amper games en zou het weggesmeten geld vinden om speciaal voor GTA5 een dedicated grafische kaart aan te schaffen.
Zie hier:
http://www.notebookcheck....orce-9800M-GT.9906.0.html (dit is de mobiele versie van de 9800 GT)
http://www.notebookcheck....raphics-4600.86106.0.html

Vergelijk de resultaten bij Crysis (2007).
9800 M GT: high 1024x768 : 34 fps
HD 4600: high 1024x768 : 27.7 fps

Zoals je ziet is de HD 4600 nog iets zwakker dan de 9800M-GT. En die mobiele versie is op zijn beurt weer iets zwakker dan de 9800 GT. Je GPU is dus net beneden de minimum requirements.

Betekent dat dat je het spel helemaal niet kunt spelen? Ik betwijfel het. Ik denk dat het wel speelbaar is op minimale settings op 1024x768. Dan zou je rond de 30 fps kunnen verwachten.

Het is aan jou of je de gok waagt. Met een GPU net beneden de minimum requirements kun je een spel vaak alsnog spelen, al zul je minimale settings moeten gebruiken op een vrij lage resolutie.
Ik ga het er op wagen :) Thanks voor de interessante links!
Als het echt tegenvalt, dan misschien toch maar een budget grafische kaart kopen :)
Als je een budget GPU wilt, dan is de Geforce GTX 750 ti misschien een goede optie. Die heeft een TDP van maar 60 W, die kan dus vrijwel zeker in je computer gezet worden zonder een nieuwe voeding te hoeven kopen. De GTX 750 ti hoeft niet eens op de voeding te worden aangesloten, alleen met PCIe.

De budget GPU van AMD, de R9 270, heeft een TDP van 147 W. Dan moet je zeer waarschijnlijk ook een nieuwe voeding kopen en ben je veel duurder uit.

Deze twee budget GPU's ontlopen elkaar niet veel qua performance: http://www.gamespot.com/a...-budget-gpu/1100-6426456/

De GTX 750 ti kost nieuw 150 euro, maar hij wordt in V&A op het moment tweedehands aangeboden voor 100 euro (3 maanden oud).

Als je een 750 ti koopt ga je er qua performance flink op vooruit:
http://www.pcper.com/revi...g-PCs/Performance-Results
Alle recente spellen zijn speelbaar met de 750 ti, terwijl de HD 4600 voor bijna alle spellen te traag is. De 750 ti haalt 5 tot 8 keer zo hoge framerates als je HD 4600.

Aan jou de keuze natuurlijk. 100 euro extra uitgeven maakt GTA 5 alsnog een heel erg duur spel. Als je ook nog andere spellen gaat spelen zou ik de 750 ti wel aanschaffen als ik jou was, maar alleen voor GTA 5 is het erg veel geld...

[Reactie gewijzigd door dusty-2011 op 11 april 2015 12:55]

Valt me nog enigszins mee moet ik zeggen. Qua systeemeisen dan, niet qua schijfruimte. Zat laatst te twijfelen om mijn 256 GB SSD te vervangen door een 512 GB exemplaar en dan de harde schijf helemaal weg te laten. Met games van dit formaat zit zo'n 512 GB SSD'tje echter ook zo vol.

Wat ik wel irritant vind is dat ze alleen de minimale systeemeisen en aanbevolen systeemeisen voor 1080p en 4K geven. Had me een stuk prettiger geleken als ze gewoon een tabelletje maken met verschillende resoluties (dus ook 1366x768, 2560x1440 etc) en dan aangeven wat je ongeveer nodig hebt voor 30 en voor 60 fps. Maakt het een stuk overzichtelijker voor veel mensen die niet op 1080p of 4K gamen en naar mijn weten zijn dat er toch nog behoorlijk wat.
Wat ik wel irritant vind is dat ze alleen de minimale systeemeisen en aanbevolen systeemeisen voor 1080p en 4K geven. Had me een stuk prettiger geleken als ze gewoon een tabelletje maken met verschillende resoluties (dus ook 1366x768, 2560x1440 etc)...
Ik vermoed dat het testen van 5 verschillende rigs op 768p, 1440p, 1080p en 4K bij 30 en 60 fps iets is wat Rockstar irritant vindt...
Wat een onzin, dat doet iemand in een dagje en levert genoeg op.
Het is lastiger dan je denkt. En eigenlijk gaf ik ook niet de correcte werkwijze neer.
Het lastige hieraan is namelijk dat je vastgestelde targets hebt:

768p @ 30 fps
768p @ 60 fps
1080p @ 30 fps
1080p @ 60 fps
1440p @ 30 fps
1440p @ 60 fps
2160p @ 30 fps
2160p @ 60 fps

Voor elke target moet je het MINIMALE systeem vinden dat het aankan. Dat betekent dat je voor elke target verschillende combinaties van videokaart, werkgeheugen en processor moet proberen. Zo'n klus is zeer tijdrovend.
Maar niet per se veel tijdrovender dan datzelfde al doen voor 1080p en 2160p. Je moet misschien net wat meer hardware testen, maar ik denk niet dat het zoveel meer werk is als jij nu suggereert.

Aan de andere kant twijfel ik ook een beetje aan de praktische waarde van zo'n test door de uitgever zelf. Voor 1440p is het redelijk in te schatten als je het al weet voor 1080p en 2160p en hoeveel mensen zouden er nou nog echt zijn die meteen bij release GTA V gaan kopen maar die nog op 768p spelen? En dan hebben we het niet over laptops, want laptops kun je sowieso niet vergelijken met desktop hardware... En als je het niet meteen bij release koopt dan zijn er genoeg 3e partijen die benchmarks uit gaan voeren op allerlei hardware, even googlen en je weet het, dat hoeft rockstar dan niet van tevoren te doen.
768p is wellicht niet het juiste voorbeeld omdat dat inderdaad vooral op laptops gebruikt wordt, resoluties als 1680x1050 komen echter nog wel relatief vaak voor bij desktopsystemen. Een aantal jaar terug (vlak voor de '1080p-revolutie') waren die schermen juist onder gamers erg populair.

Ik heb zelf een 1440p-scherm en vind het eigenlijk knap lastig om in te schatten hoe verschillende kaarten op die resolutie presteren. Zo kakt de ene kaart (vaak met een wat smallere geheugenbus) volledig in op die resolutie terwijl andere kaarten het prima doen, vandaar dat een R9 280X (384-bit / 3GB) mij destijds een logischere keuze leek dan de GTX 770 (256-bit / 2GB). Met die nieuwe compressiemethoden van Nvidia zegt de breedte van die bus echter ook niet meer zoveel.
Werkgeheugen en proccesor schalen niet met resolutie, dat scheelt al heel wat combinaties dus
Wat een onzin, dat doet iemand in een dagje en levert genoeg op.
Kan ik je dan inhuren voor dit soort werk? Nu kost het ons namelijk ongeveer 70 uur om een globale indruk te hebben (te herhalen voor elke build). Als jij dat in een dagje kan bespaart me dat vele duizenden Euro per jaar! Wij betalen de hardware (4 systemen, 16 grafische kaarten) met liefde!

Maar aangezien ik de medewerkers die dit soort testen elke dag zie weet ik dat het gewoon niet in een dag(je) kan. Ook niet in een week(je). Ik denk dus dat je geen idee hebt waar je het over hebt.
Ja, misschien heb je gelijk.
En vergeet niet dat daags na release de pers het gratis voor de dev doet.
Levert hun niets op. Klanten steken die tijd er zelf wel in, of kopen het blind.
Wat ze in feite zeggen is dat je een super snelle pc nodig hebt voor max. settings en of 4k.
Zo iets doet het marketing technisch niet zo goed omdat iedereen dan denkt dat hun pc te traag is.
Ben vooral benieuwd hoe dit gaat werken met 3 monitoren (res van 5760x1080). HD 7950 lijkt goed genoeg te zijn, aangezien er hier zelfs beweerd wordt dat het voldoende is om er 4K mee te spelen.

Ben benieuwd of de theorie klopt met de praktijk ;)
zal dat zeker ook even testen op mijn race sim set up :)
ben benieuwd hoe groot het verschil is op de pc, op de ps4 heb ik me aan genoeg te ergeren. frame drops als je door de stad raced met je porche, heel veel pop ups, veel kartel randjes en de draw distance mag van mij ook wel beter. ik zou dol graag gta op 4k@60 proberen op ultra settings, maar ik denk dat ik dat niet in mijn leven ga mee maken.
Je levens verwachting is minder dan 10 jaar? Binnen die tijd ligt dat uber systeem wat je nodig hebt in de budgetbak.
Misschien maar met de huidige snelheid van pc verbetering zou dat wel eens zwaar tegen kunnen vallen.
Mijn 3 jaar oude 3770k is overgeklockt nog steeds letterlijk de absolute top.
Ik hoop over 10 jaar niet meer te gamen haha en ga waarschijnlijk ook nooit een game pc halen.
Waarom hoop je niet meer te gamen? Vind je het nu al niet leuk en wil je er zo snel mogelijk vanaf zijn?
Zo snel mogelijk... We hebben het over 10 jaar. Ik hoop dan echt dat ik dan betere dingen te doen heb.
Ik zie het al; een gamer in hart en nieren. :*)
Waarom zou je dan niet meer gamen.
Heb zelf beide en heeft mij van het gamen nooit weerhouden.
Gamen gaat een beetje de lol van af nemen, de gouden jaren van de ps2 zijn allang voorbij en bijna alle games zijn commerciele zooi, zie cod of bf. De ps4 voelt aan als een ps3,5 met betere controller. De meeste next gen games zijn tegenvallers, ik ga na mijn examen week bloodborne halen en hopelijk is dat de game waar ik weer verslaafd aan kan worden. En nogmaals ik heb het over 10 jaar... De komende paar jaar zie je mij nog wel achter de ps4.
Het verschil is groot als je een goed systeem hebt.
Valt me eigenlijk nog heel erg mee.. Zeker na al die verhalen dat bijvoorbeeld de gtx 970 problemen zou gaan hebben met 4K materiaal. Nu zal het wel helpen dat het een port is van een game die op een in principe veel oudere grafische kaart draait, maar toch mooi.
Gepreload, en wacht af om hem op 1200p te kunnen spelen :)
Maar zit er ook supersampling in?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True