Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties

Bethesda heeft de systeemeisen voor Rage bekendgemaakt. Het schietspel vereist minimaal een dualcore-processor en een grafische kaart van het kaliber GeForce 8800 of Radeon 4200. De game verschijnt op 7 oktober.

Uitgever Bethesda heeft de systeemeisen van Rage bekendgemaakt op zijn blog. Rage zal draaien op Windows XP SP3, Vista en Windows 7. Minimaal wordt een Intel Core 2 Duo of gelijkwaardige AMD-processor vereist, waarbij Bethesda geen kloksnelheid noemt. Verder zijn twee gigabyte werkgeheugen en 25 gigabyte vrije ruimte op de harde schijf nodig. Van de grafische kaart wordt verwacht dat deze zich op zijn minst kan meten met een GeForce 8800 of Radeon 4200.

De aanbevolen systeemeisen liggen niet veel hoger; er worden een quadcore-processor en vier gigabyte werkgeheugen aangeraden. De aanbevolen videohardware bestaat uit een GeForce 9800GTX of ATI Radeon HD 5550. Bethesda meldt verder dat Rage gebruik zal maken van Steamworks. Het schietspel verschijnt op 7 oktober voor de pc, PlayStation 3 en Xbox 360.

Moderatie-faq Wijzig weergave

Reacties (65)

Bijzonder ... de opgegeven NVIDIA kaarten beschikken normaal gezien over een stuk meer spierballen dan de AMD kaarten. Zou het zijn dat de nieuwe engine een lichte AMD GPU voorkeur heeft? Een 9800GTX is toch echt sneller dan een HD5550 in veel games - maar hier worden ze op gelijke voet gesteld ...

Game on :) !

Ter referentie: http://www.tomshardware.c...rts/Gamer-Index,2673.html

[Reactie gewijzigd door Cassius op 7 september 2011 11:03]

Meestal is het omgekeerd, ook de ratings die jij post: die zijn meestal erg in het voordeel van nVidia, terwijl de theoretische performance in GigaFlops anders is. Omdat men bij de ontwikkeling van Rage focuste op ALLE kracht benutten, zou het me dus niet verbazen dat wel andere verhoudingen dan normaal zien: bv dat een HD5770 gelijk presteert aan een GTX470, terwijl dat in de meeste games helemaal niet zo is terwijl de 5770 iets meer Gigaflops kan leveren.

Echter, het verschil tussen de HD4200 en de GF8800 is wel ERG groot: de 8800 levert ongeveer 500 Gflops (voor de GT uitvoering), terwijl de HD4200 onder de 100 zit (!).

Daarom denk ik dat het een van deze drie is:
-een typo
-een slechte performance analyse
-het heeft miss IETS te maken met DX 10.1, welke wel door de HD4xxx maar niet door de GF8 serie wordt ondersteund. Hoewel ik betwijfel dat dit zo een immens vershcil oplevert: tenslotte is de GF8800 een high-end kaart, en de HD4200 een onboard chipje :s
-> Rage gebruikt OpenGL ipv DirectX. Beide chips ondersteunen tot 3.3. Het is volgens mij dus echt een fout/slechte meting (als in: de 8800 zal het een STUK beter doen dan de 4200)

[Reactie gewijzigd door kiang op 7 september 2011 11:31]

Ik gok op een marketing department die geen verstand hebben van zaken.
Kan ook grofe natte vingerwerk zijn, en daar zoeken wij weer van alles achter
Is het niet gewoon dat ati een bepaalde techniek ondersteund al vanaf de 4200 en nvidia pas vanaf de 8800?
De GeForce 8 serie ondersteunt slechts DX10, de HD4000 serie DX10.1.

Echter, hoewel dat wel degelijk betere performance levert indien het spel DX10.1 gebruikt, kan dit niet zo een immens verschil opleveren: De 8800 is high-end, de 4200 zit op moederbordjes!

edit: Rage gebruikt OpenGL dus hieraan kan het zeker niet liggen: beide chips ondersteunen OpenGL 3.3.

[Reactie gewijzigd door kiang op 7 september 2011 11:33]

rage gebruikt geen openGL rage is gemaakt op de idtech5 engine waar carmack voor het eerst echt op DX is gaan leunen (tot zijn groot ongemak) dit omdat openGL niet snelgenoeg doorontwikkelde.

-edit, apart het lijkt erop dat carmack toch terug is gegaan naar openGL.
ondanks artikelen waaroin carmack vermeldde over te stappen naar DX.

desalniettemin zijn de systeemeisen merkwaardig, wel fijn dat het al reccommended draait op toch relatief oude hardware. heb zin in deze game :)

[Reactie gewijzigd door freaq op 7 september 2011 12:12]

Dacht dat JC juist voorkeur heefd voor DX maar dat hun grote code base dan ook overboord moet. En dat de overstap juist tegen houdt.
Dat Rage op Amd beter zou zou kunnen lopen. Verwijt ik aan dit.
Rage megatexture techniek leund op virtual video memory management dat ATI al bij Vista op orde had. Maar nV heefd laten schrappen uit dx10.

Misschien is nV op dat gebied nog niet op gelijk niveau gekomen.
Of latere refreshes hebben die techniek vanwege dx11 wel opgepakd.

Maar dat is meer een vermoeden.
Hu? na mijn weten draait de nieuwe idtech5 engine op de nieuwste opengl 4.2 en niet op DX10/11.

@wiki.
Rage is an upcoming first-person shooter video game by id Software, set for release in October 2011. It will use the company's new OpenGL based id Tech 5 engine.[1] The game was first shown.
http://en.wikipedia.org/wiki/Rage_(video_game)

[Reactie gewijzigd door devil-strike op 3 oktober 2011 13:05]

Misschien is het geoptimaliseerd naar AMD kaarten ipv Nvidia.

Zoals unreal tournament 2004 is voor Nvidia kaarten en een AMD kaart in die tijd duidelijk iets meer moeite moest doen om de worden 'holy shit' in het configuratie scherm te krijgen. :)

Ten minste wat ik kan bedenken.
Het bijzonder ja, niet alleen op dat punt. Het verschil tussen een 8800 serie kaart en een 9800GTX is behoorlijk klein dezer dagen. Een 8800 GTX of GTS G92 zou dus ook makkelijk recommended settings kunnen spelen.

Verder: een HD4200 is een IGP, dus ontzettend traag! Ik denk dat ze een fout hebben gemaakt, het zal wel meer richting HD 4650 zijn.
Grappige is dat de HD5550 van vorig jaar is, terwijl de 9800GTX juist bejaard is.
Meer spierballen? denk het niet, amd is niet voor jan met de korte achternaam al keer op keer de snelste videokaart maker.
Dit gelooft natuurlijk niemand. De werkelijke aanbevolen systeemeisen zullen ongetwijfeld iets zijn als een 3+ GHZ Quadcore in combi met een Radeon 6870 of een NV560ti ofzo. Wil je het een beetje met eyecandy of 1900x1200 willen draaien.

En ja dit is nergens op gebaseerd maar ik wil wedden dat het een stuk dichter bij de werkelijkheid in de buurt komt dan wat Bethesda zelf vermeldt. (En alle andere uitgevers ook, for that matter).

Wanneer worden er nou eens realistische systeemeisen genoemd bij spellen. Daar erger ik me echt al een jaar of 15 aan.
"aanbevolen" moet je ook meer lezen als "aanbevolen minimaal"

Meer blijft altijd beter.
Aanbevolen systeem eisen zijn de eisen die gesteld worden om de game op een acceptabel niveau te spelen. De eisen die jij stelt zijn gewoon niet realistisch :P Ik denk dat ze uit gaan van alles op medium, zonder AA (en tessalation oid) en een resolutie van 12801024...

Staat los van het feit dat ik een Radeon 4200 als nog wat aan de slappe kant vind...
Uiteraard zijn de eisen om alles fullblown te spelen hoger maar vergeet niet dat de meeste gamers niet allemaal de dure kaarten bezitten. Een uitgever moet daar rekening mee houden om te voorkomen dat teveel mensen een game niet kopen vanwege te hoge hardware eisen, een beetje vergelijkbaar met de kijkwijzer waarderingen bij de topfilms: liever 6+ als 12+
Ik wil wedden dat ik het maxed out kan draaien op 1680x1050 met mijn setup.
Core 2 Duo 2.6GHz, 4GB RAM en een 5670HD.
Valt me tegen van ID dat ze er geen benchmark game van maken? betreft PC dan. Tenminsten als ze al zeggen dat het mogelijke aanbevolen systeem niet veel hoger is. Of ben ik nog te vroeg met het roepen van.....
Deze game als benchmark game? Het lijkt mij alsof deze game niet de nieuwste Direct X versie gebruikt (Win XP SP3) en daarom lijkt het mij vreemd om deze game als benchmark te gebruiken. Het verschil tussen een high end pc en een mid/high end pc zou dan bijna niet te merken zijn, net zoals ik op mijn mid/high end pc veel (vooral console ports) op max kan spelen.
Sigh... Deze game gebruikt OpenGL, iets dat net zoveel features heeft als DirectX11.
Maar goed, voor de leek betekend het zo'n beetje "OMG, GEEN DIRECTX DUS LELIJK!!!".
Niet helemaal... Volgens mij (ik weet het niet zeker) is het bij OpenGL lastiger om bijv Tessalation te gebruiken. Ik zeg dus niet dat OpenGL lelijk is, ik zeg dat je zonder al de fancy opties geen (of te weinig) verschil ziet tussen mid en high end pc's
Lastiger? http://www.songho.ca/opengl/gl_tessellation.html
Dat vind ik wel meevallen.
Tessellation zit al veel langer in OpenGL (hardware tessellation pas sinds 4.0) en het valt allemaal wel mee.
Je hoeft alleen maar op te geven hoeveel tessellation je wilt toepassen, op welk object, en wat er moet gebeuren met de nieuwe vertices. Da's wel een bare minimum.

[Reactie gewijzigd door Wolfos op 7 september 2011 12:17]

Niet helemaal... Volgens mij (ik weet het niet zeker) is het bij OpenGL lastiger om bijv Tessalation te gebruiken. Ik zeg dus niet dat OpenGL lelijk is, ik zeg dat je zonder al de fancy opties geen (of te weinig) verschil ziet tussen mid en high end pc's
OpenGL heeft een aantal dingen die het programmeren misschien ietsje ongemakkelijker maken, maar dat zal voor zo'n onderneming als ID Tech 5 geen probleem zijn. OpenGL is juist veel flexibeler: allerlei extensies bovenop de standaard zijn los te gebruiken. Daarom kan je veel features die de hardware aanbiedt (zoals tesselation) vaak ook eerder gebruiken dan directx en onder windows xp. (Microsoft heeft ondersteuning voor nieuwe mogelijkheden van grafische kaarten niet geimplementeerd voor xp, met opengl kan dit wel)

[Reactie gewijzigd door Antipater op 7 september 2011 23:23]

Dus omdat de recommended systeem-eisen laag zijn is het geen benchmark game? Waar staat er precies dat je op een recommended PC ook op full detail speelt? De games van id hebben in het verleden altijd al goed geschaald. De enige uitzondering daarom was eigenljik id Tech 4 (Doom 3).

[Reactie gewijzigd door .oisyn op 7 september 2011 11:31]

Best wel oudere machine specs.. Prima lijkt me - hoe eens een keer geen nieuwe pc tekopen voor een ID game. Kan me zo voorstellen dat de engine best wel e.e.a. toelaat. Kan me herinneren dat doom3 zo te tweaker was dat het op een voodoo2 kaart te spelen was - zag er wel niet uit maar het draaide wel http://www.3dfxzone.it/enboard/topic.asp?topic_id=1462
Dat kunnen ze zich ook niet veroorloven, dan zouden ze de game niet voor consoles moeten maken, en veel PC gamers zouden het ook niet kunnen draaien. Na een ontwikkeltraject van 7 jaar is dat een gegarandeerd recept voor faillissement.
Betreft wel een SLI opstelling met de Voodoo2.
Ik vind het raar dat de nVidia 8800 gelijk staat aan de ATI 4200. Deze laatste is een integrated chip die een flink eind minder presteert dan de 8800!

Dan in de aanbevolen systeemeisen is het ook weer zo. Een nVidia 9800 GTX vs een ATI 5550. De nVidia is ook weer veel beter, echt een wereld van verschil!

Betekent dit dat het spel geoptimaliseerd is voor ATI kaarten?
8800 waren de eerste dx10.0 gpu.
ATI had toen de R600 ramp.
Dus toen was er alleen nV
AtiAMD deed later wel me en naam de markt zowat over dus de tegen hanger is dan een midrange uit veel nieuwere lichting.
Daarbij is het grofe natte vinger werk dus het is niet gelijk waardig.
Maar gamers hebben nu een howvast of de game redelijk zou kunnen lopen op hun huidige gamerig.
Nu ik de releasedatum zie, besef ik mij ineens dat ik in een aflevering van 'Breaking Bad' van enkele weken geleden vorige week een van de hoofdrolspelers een heel stuk Rage heb zien spelen.



video:

http://www.youtube.com/watch?v=mCNSF7lsoSY

[Reactie gewijzigd door Rayures op 7 september 2011 14:26]

Dat was de aflevering van vorige week.
Was wel een flink aangepaste demo, want Jesse was met een gun aan het spelen
Klopt, bij de laatste aflevering zag je op zijn scherm alleen Rage groot staan. Aflevering daarvoor speelde hij het spel met een gun.
Zeer goede serie btw ;)
lees ik dit goed 4GB werkgeheugen aanbevolen, dus impliceert dat ook dat ze 64-bit systemen aanbevelen, anders kom je niet boven de 3.2GB uit ;-)
Ik haalde altijd 3.9 op windows 7 32-bit (zit inmiddels op 8GB + 64-bit)
een hd5770 moet hem dus wel maxen??
btw 25 gig YES!
dat betekend een lange / leuke / mooie game (hoop ik dan)
Of een game van 6 uur met HUGE textures :)
Megatextures ja, maar dat had Enemy Territory: Quake Wars ook en die heeft maar 750MB vrije schijfruimte nodig.
25gb das pittig, maar een 4200 tegen een 8800? dat moet gewoon een typefoutje zijn.
Of het is een 8400 NVidia of het is een 4900 ATI.
Wel blij dat Bethesda weer eens een mooie game uitbrengt want de fallout games waren/zijn supertof maar eerlijk gezegd best lelijk.

[Reactie gewijzigd door Blazing-Studios op 7 september 2011 11:11]

Fallout en Oblivion hadden geen echte schaduwen. In Oblivion hadden door een hack de bomen wel schaduwen, maar gebouwen enzo niet. Da's jammer, want ze lieten een demo zien waarin wel schaduwen zaten.

Gelukkig heeft Skyrim eindelijk wel fatsoenlijke schaduwen.
Ik denk eerder een HD4670 die zal net iets trager, zijn de HD4770 is al een heel stuk sneller.
Als je een HD4900 neemt dan kijk je naar een zwart scherm want die bestaat niet ;).
Je moet een iPad2 hebben om Rage te kunnen draaien. :D
Ja op 1/10de van de kwaliteit die hier onder 'aanbevolen' in te stellen is op de PC :)
Ga er maar van uit dat de grafix op de iPad en zeker op de iPhone nog lager zijn dan de laagste settings op de PC (en ook nog is een veel lagere resolutie hebben, gem reso voor gamers is volgens steam 1680*1050 en neigt al naar 1080p)...

[Reactie gewijzigd door watercoolertje op 7 september 2011 11:24]

Lol de iPad2 kan de AI berekeningen niet eens aan ;)
RAGE op iOS is een hele andere game hoor.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True