Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties

Gearbox Software, de makers van de Brothers in Arms-serie, zal de shooter Borderlands ondersteuning voor Directx 10 meegeven. Het spel wordt gemaakt op basis van Unreal Engine 3, die door Gearbox flink onder handen genomen is.

Corrinne YuCorrinne Yu, Director of Technology bij Gearbox Software, liet in een interview los dat de shooter Borderlands op basis van Unreal Engine 3 wordt gemaakt, maar dat Gearbox de engine flink heeft aangepast. De engine van Borderlands ondersteunt Directx 10, waarbij vooral het virtual texture management uit de grafische api veel voordeel oplevert, vertelt Yu. "Verder gebruiken we de geometry shader van DX10 om de precisie van shadow maps te verbeteren. We maken bovendien gebruik van de mogelijkheden van Shader Model 4.0." Het door Gearbox gebruikte texturemanagement heeft overigens ook een nadeel: de engine maakt voor het laden van textures niet alleen gebruik van het geheugen van de grafische kaart, maar ook van het werkgeheugen van de pc. Yu raadt dan ook een systeem aan dat, behalve over een Directx 10-videokaart, over een ruime hoeveelheid ram beschikt.

De cpu krijgt het ook zwaar. De wapens in Borderlands worden random samengesteld en ook de omgeving wordt gedeeltelijk willekeurig vormgegeven. Vooral het random samenstellen van de wapens zal de cpu belasten, zegt Yu. Wel is de engine door Gearbox zo ingericht, dat er zoveel mogelijk gebruik van multithreading gemaakt wordt. Yu zou dan ook het liefst een systeem met acht cores aanraden. Het uitbreiden van het aantal cores helpt de prestaties van het spel volgens haar meer dan een sli- of Crossfire-opstelling. "Het knelpunt zit bij een moderne engine niet in het aantal clocks per cycle, maar in het aantal instructions per clock. Spelers zullen weinig merken van een tweede grafische kaart. Crossfire en sli zijn mislukt. De bus heeft te weinig bandbreedte en is te langzaam voor echte synchronisatie."

Borderlands wordt een shooter met rpg-invloeden. In het futuristische spel speelt rondscheuren met bewapende voertuigen een grote rol. Het spel verschijnt niet alleen voor de pc, maar ook voor de Xbox 360 en de Playstation 3. Het spel is doorgeschoven naar boekjaar 2009 en zal daarom niet eerder dan op 1 november van dit jaar in de winkels verschijnen.

Borderlands Borderlands Borderlands Borderlands
Moderatie-faq Wijzig weergave

Reacties (57)

Het uitbreiden van het aantal cores helpt de prestaties van het spel volgens haar meer dan een sli- of Crossfire-opstelling. "Het knelpunt zit bij een moderne engine niet in het aantal clocks per cycle, maar in het aantal instructions per clock. Spelers zullen weinig merken van een tweede grafische kaart.
Ik dacht dat een 2e grafische kaart voor een dubbele IPC zou zorgen? Als 1 GPU voor x IPC zorgt, dan zorgen 2 GPU's toch voor 2x IPC?
Net zoals een dualcore voor y IPC zorgt, een quadcore voor 2y IPC zorgt?
Of had ze 't hier expliciet op de IPC van de CPU?
Nope, GPU's werken namelijk niet daadwerkelijk samen. Kunnen ze ook amper, omdat ze elk hun eigen stuk geheugen gebruiken. Je hebt dus meer aan een verdubbeling van pipelines op dezelfde chip dan diezelfde 'effectieve' verdubbeling op aparte chips. De meest gebruikte methode is frame interleaving, maar dat is gewoon ruk zodra je frame afhangt van de vorige (zoals bijvoorbeeld bij feedback effects). Scan line interleaving is wat hipper, maar zorgt wel weer voor een verdubbeling van de data, want die moet nu naar tegelijk naar 2 videokaarten ipv maar 1, en dan krijg je dus weer bandbreedte issues.
Je mist latentie tijd & Througput.
Het door Gearbox gebruikte texturemanagement heeft overigens ook een nadeel: de engine maakt voor het laden van textures niet alleen gebruik van het geheugen van de grafische kaart, maar ook van het werkgeheugen van de pc.
Want een verschrikkelijk domme uitspraak! Het is juist een groot voordeel, niet een nadeel! Door het nieuwe geheugen management kun je het geheugen op de videokaart gebruiken als cache voor je werkgeheugen, vergelijkbaar met de manier waarop een CPU L2 cache heeft zitten voor het werkgeheugen.

Daardoor kun je eindelijk het werkgeheugen daadwerkelijk effectief inzetten voor de GPU. Dat betekent enerzijds dat je minder werkgeheugen op je GPU nodig hebt, (waardoor de kosten van videokaarten kunnen dalen), en anderszijds dat je veel grotere hoeveelheden textures kunt gebruiken, waardoor je mooiere spellen kunt maken.

Ik heb op dit moment 3GB RAM, simpelweg omdat het zo verschrikkelijk goedkoop is, dat ik maar gelijk van 1GB naar 3GB ben gegaan, i.p.v. 2GB. Scheelde een paar tientjes. Zo heel mooi zijn wanneer ik die extra GB voor textures in spellen zou kunnen gebruiken, in plaats van een overdreven grote diskcache tijdens het spelen.

Normaal werkgeheugen van je PC is veel goedkoper, en veel universeler toepasbaar dan het geheugen op je videokaart.
Fantastisch dit is dus de toekomst voor PC games? Wat verwachten deze mensen?
Dan blijf ik maar bij de console.
Het gat tussen gaming en andere activieiten op de pc wordt steeds groter en er is dus imho steeds minder reden om te upgraden zeker zolang met de huidige prijzen van grafische kaarten etc. Mijn pc staat nu al 80% van de tijd uit zijn neus te eten, daar heb ik geen 8 cores en 2GB ram voor nodig.

Het lijkt mij dat de toekomst voor PC games is games die het merendeel van de mensen die een pc hebben van 3 jaar of nieuwer kan spelen (zeg maar World of Warcraft specs) en dat dit de manier is om piracy te omzeilen. Een groter pubiek aanspreken door lagere specs. Hoeveel miljoenen mensen hebben wel niet een pc met geforce6 of hoger. Het is alleen wachten om een populair spel die deze theorie bewijst en de developers over de streep halen.

8 cores aanraden en directx10, veel meer dan een paar honderdduizend stuks zal het spel dan wel niet verkopen.
Mijn pc staat nu al 80% van de tijd uit zijn neus te eten, daar heb ik geen 8 cores en 2GB ram voor nodig.
Een dikke videokaart staat ook 90% van de tijd uit zijn neus te eten, namelijk de hele tijd dat je geen game aan het spelen bent. Ik denk dat het juist gunstiger is voor gamers om te gaan investeren in een snellere cpu en meer geheugen omdat dit in de toekomst alles sneller maakt wat je op je pc doet, zowel algemene taken als (met name in de toekomst dus) gamen, terwijl je de investering in een videokaart alleen in games terug ziet.

[Reactie gewijzigd door PhWolf op 13 juni 2008 12:47]

Crysis gebruikt max 3 van m'n 4GB ram. De dual core CPU is overgeklokt op 3.6GHz en verveelt zich al bijna, maar m'n 8800GT is echt flink aan het zweten op 1920x1200. Ja laten we de CPU en Ram upgraden, dan kan ik sneller gamen! Want de CPU neemt magisch het werk van de GPU over.

Je upgrade toch de bottleneck van je systeem?

Met echt zware berekeningen is dat vaak je CPU. Bij gamen is dat heel snel je GPU. Helaas je kunt niet met 1 upgrade alle bottlenecks doen verdwijnen.

Ik vind het nogal frappant dat iedereen aan de hand van de statement van mevrouw Yu over een spel dat nog niet eens in de final stage van development is, denkt dat je straks ineens alleen nog een dikke CPU en veel RAM gaat nodig hebben.
We zullen over een jaar nog eens spreken, wanneer het spel daadwerkelijk zal verschijnen. Ik gok dat het rond volgend jaar juni zal zijn, en rarara wie heeft er dan al octa-cores? Jawel, Intel! En als alles goed gaat heeft zelfs AMD tegen dan een octacore op de markt gezet. En die zullen echt niet zoveel meer kosten dan de quadcores van vandaag.

Ik denk trouwens dat ze met die octacore echt wel de high-end vereisten opsomt. Aangezien het spel nogal multithreaded zal zijn zal het ook wel draaien op een dualcore/quadcore, maar een octacore zal het dan sowieso nog beter doen natuurlijk.

En kom op, 2Gb RAM??? Dat heb ik al twee jaar in m'n PC zitten!
Een van die honderdduizend stuks zal dan in ook in mijn bezit zijn :+

Als iedereen zo redeneerde als jij zaten we nog steeds met games à la Dune 2-graphics, want o wee, alle games worden zwaarder naarmate de tijd verstrijkt! Of moeten we plots ophouden met technologische vooruitgang? Ik heb dan liever dat ze daadwerkelijk games maken die de volledige rekenkracht van je PC gebruiken, dan dat het ding niets doet. Ik snap trouwens niet echt wat je bedoelt: Je zegt eerst dat ze veel teveel verwachten, en tegelijk dat je PC nu al 80% uit zijn neus staat te vreten...Dus aan de ene kant ben je niet tevreden over het feit dat je PC nu niks te doen heeft, en aan de andere kant kun je er niet tegen als er dan een ontwikkelaar komt die daadwerkelijk de volle 100% probeert te benutten. Beetje vreemd, niet? :P

[Reactie gewijzigd door darkjeric op 13 juni 2008 12:22]

Als iedereen zo redeneerde als jij zaten we nog steeds met games à la Dune 2-graphics, want o wee, alle games worden zwaarder naarmate de tijd verstrijkt! Of moeten we plots ophouden met technologische vooruitgang?
Nintendo lijkt anders aardig succesvol met die tactiek... Technologische vooruitgang hoeft niet per se altijd van dikkere gfx te komen he, het 'succes' van Crysis bevestigd het punt van Justice: PC games blijven te veel gericht op het high-end segment, en het percentage mensen dat bereid is daarin te investeren zal m.i. steeds verder afnemen, en wel om 2 redenen: 1) consoles zijn nu dermate krachtig en multifunctioneel dat het voor de meeste games & gamers 'goed genoeg' (en convenient) is, en 2) PC's zijn al jaren dermate krachtig dat voor zo'n beetje alle *andere* taken dan gamen een 4 jaar oude PC meer dan voldoende is (heb ik het even over thuistoepassingen). Upgraden van de PC wordt dus steeds minder interessant en eigenlijk alleen nodig om te gamen. Daarbij zie ik juist steeds meer mensen naar small form factors, energiezuinig & stil overstappen, die machines voldoen voor 90% van de mensen prima.
Ik heb dan liever dat ze daadwerkelijk games maken die de volledige rekenkracht van je PC gebruiken, dan dat het ding niets doet. Ik snap trouwens niet echt wat je bedoelt: Je zegt eerst dat ze veel teveel verwachten, en tegelijk dat je PC nu al 80% uit zijn neus staat te vreten...Dus aan de ene kant ben je niet tevreden over het feit dat je PC nu niks te doen heeft, en aan de andere kant kun je er niet tegen als er dan een ontwikkelaar komt die daadwerkelijk de volle 100% probeert te benutten. Beetje vreemd, niet?
Zo'n GPU en 8-core CPU staan inderdaad veruit het grootste gedeelte van de tijd niets te doen, behalve als je aan het gamen bent. Blijft moeilijk te bevatten voor sommige mensen dat niet iedereen zijn PC als een spelcomputer gebruikt...
Er zijn echt wel meer toepassingen waarbij een octacore en grote hoeveelheden RAM een grote boost geven. Gaming behoort daar zelfs nog niet toe, daarom ben ik blij dat er eindelijk een ontwikkelaar is die WEL de high-end kracht benut die er is.

Trouwens, die technologische vooruitgang bedoelde ik inderdaad ook niet in graphics hoor. Ik zit zelf thuis met een Wii en amuseer me te pletter met Mario Kart ;)
Maar ook dat is technologische vooruitgang, want 20 jaar geleden hadden ze geen machine kunnen maken die tegelijk beeld, geluid en motiontracking berekent. Daarnaast zijn er heel wat andere dingen die veel rekenkracht vergen in games dan graphics, zoals de physics en de AI. Ook daar mag van mij gerust nog heel wat vooruitgang geboekt worden.

Daarnaast ben ik het eens met PhWolf dat, als je dan toch moet upgraden het dan toch best de CPU+RAM is, aangezien dat een algemene boost geeft. Crysis was in die zin anders dat het vooral op je GPU aankwam, en dat is toch een tikkeltje erger, want een GPU gebruik je doorgaans alleen om te gamen (UVD enzo negerend, want daar heb je geen echte high-end GPU voor nodig).

Ik denk dat het voor jou moeilijk te bevatten is dat er naast gamen ook nog een hele hoop andere zware taken zijn die een PC kan verrichten :P
Vergeleken met een console heeft elke pc die je nu koopt heeft een vele malen krachtiger out-of-order CPU, minimaal vier keer zoveel RAM (acht keer in het geval van PS3), en zelfs de budget GPUs zijn al krachtiger en sneller dan die in de console, laat staan de mid-range en high-end GPUs die rondjes rennen om de RSX en Xenos. En die voorsprong is over een half jaar nog groter.

Als een bedrijf een game ontwikkelt voor meerdere platformen kun je er van uit gaan dat elke moderne pc dit mooier en beter op het scherm kan zetten. Zie bijvoorbeeld Call of Duty 4. Op mijn 2 jaar oude pc met 8800GTX ziet dat er zoveel mooier uit dan op de 360. En ik kan het op >60FPS draaien met 4xAA op 1680x1050, terwijl de console het moet doen met een lullige 720p resolutie.
Je kunt hetzelfde doen als op de consoles: kwaliteit naar beneden gooien, dan kun je spellen nog jarenlang op een gelijk systeem spelen.
De UT3, vind ik maar een vieze grauwe eninge. Het voelt zo Doom 3-achtig aan.
Dat ligt helemaal aan de 'art direction'. Kijk b.v. 'ns naar BioShock of Mass Effect.
Bioschock was één grote kermis bende. Vind het allemaal niet zo bijzonder.

Vind het er zo plastiek uitzien, blijf er bij dat het grauw is vies blijft.

Doe mij maar de Unreal Engine 2.5. Ziet er veel natuurlijker uit.

Denk maar aan Splinter Cell Double Agent, dat zag er echt prachtig uit. Vooral het level met het Cruiseship.
Ja, want Splinter Cell Double Agent speelt zich ook in exact dezelfde setting af als BioShock :P

Punt blijft dat een 3D-engine niet de stijl en de graphics van een game bepaalt.
Als vergelijking: Toen Half-Life 2 uitkwam werd de Source-engine bejubeld omwille van de prachtige graphics. Toch is het Troika gelukt om met zo'n prachtige Source engine een grafisch eerder middelmatige game te maken (Vampire: Bloodlines)

Mensen moeten er zich gewoon van bewust worden dat een 3D-engine en stijl&graphics maar weinig met elkaar te maken hebben. De 3D-engine is de code die het mogelijk maakt om modellen te maken en die te laten reageren met de omgeving. Hoe de modellen zelf eruitzien (textures, gedetailleerdheid enz.) ligt volledig in handen van de art-directors. Je kunt de UE3 er bijvoorbeeld perfect laten uitzien als UE1, als je hem in 640x480 zet en modellen gebruikt van niet meer dan 400 polygonen. Een 3D-engine geeft de mogelijkheid graphics te maken, maar maakt niet de graphics zelf.
Een modern spel dat geen SLI ondersteuning heeft?
Per definitie afgeschreven in mijn boek.
Weg er mee!
Het is toch van de zotte dat je met zo'n dure rig van moderne games maar moet verwachten of SLI wel of niet ondersteunt word?
Leer eens lezen:
Ze zegt niet dat CF/SLI niet zullen helpen, maar dat je er niet zoveel baat bij zult hebben als van bv. veel RAM en een 8-koppige CPU. Dat is heel anders natuurlijk dan wat jij zegt.

Daarbij vind ik dat ze gelijk heeft, CF/SLI is nog altijd niet optimaal. Toegegeven, de tegenwoordige generatie doet het al heel wat beter dan in het begin, maar zoals ze aangeeft is de bus meestal te beperkt om de volledige rekenkracht van beide (of meerdere) GPU's tegelijk aan het werk te zetten.
darkjeric's post vervormt de waarheid en ik vraag me af of PegOpDeWeg uberhaupt zich ooit in SLI heeft verdiept.

Het feit is dat bij een normaal systeem met een dual core en een enkele GPU, bij heel veel spellen de GPU de bottleneck is op hogere resoluties. Dat jij op 1280x1024 gamed wil niet zeggen dat iedereen dat doet. Een GPU erbij stoppen haalt de bottleneck weg. Dit is gewoon een feit. Dat bij Borderlands de bandbreedte een probleem is bij SLI wil echt niet zeggen dat dit bij het gros van de spellen is.

Dan kun je wel gaan roepen dat multithreading de toekomst heeft maar als 2 cores al sneller met hun taken klaar zijn voor 1 frame dan 1 GPU dan heeft het natuurlijk absoluut geen zin om een quadcore of zelfs een octocore in je PC te stoppen, die gaat echt niet meehelpen met je GPU's hoor.

Bovendien ligt het er ook maar net aan in welke mate een game threaded is. Als jij 4 threads hebt die allebei ongeveer even zwaar zijn kun je je quadcore goed inzetten. Echter bij een spel is dit vaak lastig. Vaak komt het er op neer dat je 1 grote en wat meer kleine threads hebt, als het spel al uberhaupt threaded is. De bottleneck zit em dan gewoon in hoe snel 1 core die grote thread kan berekenen.

Ik heb het bij deze rant over de meeste spellen en niet Borderlands, er zijn nog geen benchmarks van dit spel dus haar statement kan bevestigd noch ontkracht worden.
Helemaal mee eens darkjeric, SLI is sowieso useless want tegen de tijd dat je er gebruik van gaat maken is er al weer een snellere, zuinigere single kaart uitgekomen met meer render opties. Het is puur marketing praat om twee kaarten te verkopen in plaats van één. Wat denk je dat dit oplevert!
Het punt is ook dat SLI wordt per definitie niet ondersteund door games: het al dan niet verdelen van de grafische zooi moet bepaald en bestuurd worden door de drivers van de videokaart, en die laten tot nu toe nog flink te wensen over.
Op zich is er niks mis mee, als ontwikkelaar richten op optimalisatie van het gros van de systemen ipv een klein deel met SLI.
heb jij dan een dual quadcore rig ? ik denk dat er meer mensen met SLI zijn, dan dat er octocore-systemen te vinden zijn
Ik denk dat je daar goed fout zit, aangezien de meeste nieuwe PC's die verkocht worden gewoon quad-cores zijn, terwijl er in principe geen of bijna geen kant en klare SLI-systemen te koop zijn of geweest zijn.

Dit moest altijd op aanvraag, en in de tijd dat ik zelf bij de MyCom heb gewerkt in de Technische Dienst, wat zo'n 6 maanden is geweest heb ik misschien 2 SLI-systemen in elkaar gezet, tegenover de tientallen (zoniet honderdtallen) Quadcores die kant en klaar de deur uit vlogen.
dasiro heeft het hier niet over een Quadcore (4 cores) maar een dual quadcore rig (8 core's dus).
Er staat niet dat het spel geen sli of Crossfire ondersteunt, maar dat Yu het voordeel er niet van inziet. Ze gelooft niet in de voordelen van sli/Crossfire, maar wel in de voordelen van multithreading.
Hoezo niet? Als jij door goede multithreading veel betere physics kan toepassen dan kan dat weldegelijk het spel leuker maken.
"Yu zou dan ook het liefst een systeem met acht cores aanraden."

(Voorlopig PS3 dus...)
Nee, want de ps3 heeft 1 core met 7 spe's
Waarvan zelfs eentje voor onderliggend OS gebruikt wordt. En nogmaals, SPE's zijn niet hetzelfde als core's:

" Unlike a Cell processor, desktop CPUs are more suited to the general purpose software usually run on personal computers. In addition to executing multiple instructions per clock, processors from Intel and AMD feature branch predictors. The Cell is designed to compensate for this with compiler assistance, in which prepare-to-branch instructions are created. For double-precision floating point operations, as sometimes used in personal computers and often used in scientific computing, Cell performance drops by an order of magnitude"

bron: http://en.wikipedia.org/w...essing_Elements_.28SPE.29

De CELL-processor is zeker gesofisticeerd maar men moet er de programma's wel op aanpassen/ m.a.w. speciaal voor schrijven. Het lijkt me onwaarschijnlijk dat men het spel opnieuw van de grond af bouwt speciaal voor de PS3. Waarschijnlijk zal de game samen met de Xbox360 versie gemaakt worden, wat wil zeggen dat het nauwelijks gebruik maakt van de capaciteiten van CELL.
En dat terwijl er eigenlijk weinig van dat OS te merken is onder het spelen, aleen wanneer de Home-knop wordt ingedrukt komt er een menuutje.

Dus of dit echt een volledige SPE vereist?
Merk jij veel van Windows/MacOSX/etc dan als je een spel in volledig scherm speelt?

Een OS doet natuurlijk ontiegelijk veel in de achtergrond: inputs (controllers in het geval van een console), filesystem, memory managment, threading, etc.
Wanneer een spel als dit zowel op de pc als op de consoles uitkomt verbaasd het me niets dat het niet schaald met sli, de grafische kracht van de consoles blijft gewoon ver achter bij de pc versie, dus de pc met sli bied gewoon zware grafische overkill die onbenut blijft.

Meerdere Cores bevatten de consoles wel, zodoende is hier een pc nodig die dit ook heeft, kortom de realiteit wordt even aangepast aan de marketingpraat.

Dat de bus bandbrede niet hoog genoeg zo zijn voor :? SLI Haaaaahaha wat een klets praat.

Cod 4 schaalt 100%, FEAR schaalt 100% Prey Schaalt 100%
Ik spreek uit ervaring heb zelf 2 x 8800gtx en de bus is echt geen enkele beperking.
SLI/Xfire is een grote flop, een HELE EXTRA videokaart voor 20% preformance? laat me niet lachen, je hoeft je miskoop niet te verdedigen met ongefundeerde onzin.

dit spel ziet er echter wel erg spannend uit, verwacht er niet te veel van, maar zou zeker een keer doorspelen waard moeten zijn.
:')

Ikzelf heb een SLI opstelling met al een wat ouder setje kaarten (2x 7900) en het schaalt zeker wel flink meer dan 20%, gemiddeld per game is er denk ik een performancewinst van +- 80%.

Als ik SLI uitschakel dropt mn FPS zwaar in o.a COD4.

Mocht je het niet geloven, kom gerust een keer langs he ;)

Jouw verhaal is meer ongefundeerd dan de zijne, al schaalt het geen 100%.
80% vind ik eigenlijk best wel indrukwekkend. Ik dacht dat het meestal rond de 50 a 60% hing.

Naja, 80% is ook nog steeds geen 100%. Hoewel een stap ricthing 90% al een goeie is.
Een tweede CPU schaalt ook niet 100%. Je VideoRAM overklokken schaalt ook niet 100%. Shaderengine overklokken schaalt ook niet 100%.

En dat is niet alleen vanwege overhead, maar simpelweg om de uiteindelijk prestaties van het spel niet afhankelijk zijn van 1 enkele factor. Een enkel onderdeel van de videokaart versnellen zal nooit 100% schalen, aangezien dat zou betekenen dat je spel voor 100% door dat onderdeel gelimiteerd is.

Met SLI verdubbel je bijvoorbeeld wel het aantal shader engines, maar niet de hoeveelheid geheugen, of de bandbreedte. Hoe goed SLI schaalt is dus simpelweg afhankelijk van hoe shader gelimiteerd het spel is.
Laten we nou eerlijk zijn. Voor CoD 4, Prey & FEAR heb je helemaal geen SLi nodig, om het goed te kunnen spelen. Dat speelt nu ook wel goed met 60+ fps

Daar heb jij geen SLi voor gekocht, voor die "oude spellen".
Ik vraag me dan wel af hoe complex die wapens wel niet zijn, als je al een 8-koppig monster nodig hebt om dat soort zaken te genereren. Ik bedoel, bij een wapen random genereren denk ik in de eerste instantie aan een aantal cijfertjes voor het gedrag die willekeurig gegenereerd worden - wat sneller klaar is dan je ooit voor kan stellen - en in de tweede plaats willekeurig gegenereerde 3D modellen. Maar ook dat laatste zou niet zo'n groot probleem moeten zijn, aangezien er ook spellen zijn die in zijn geheel door code gegenereerd worden (kkrieger etc).
Toch wel gek dat ze het nut van SLI/Corssfire niet ziet terwijl enigens van bijv. Cod4 bijna perfect schalen op Corssfire. Ik ben wel benieuwd hoe het dynamisch samenstellen van wapens de cpu gaat belasten, die rekent het toch 1x uit en slaat het daarna op in een bestandje met paramaters?

Wel ziet het spel er cool uit (iets te bruin maar dat is mode tegenwoordig :P) ben benieuwd wat het spel precies inhoud.
Mooie explosie op screen 3, maar moet je die grond zien :/ Beetje plantjes, gras etc. mag ook wel...

Los van bovenstaande; DirectX 10 heeft nog steeds niet veel toegevoegde waarde, t'word toch wel tijd :( Beetje kip-ei probleem :?

[Reactie gewijzigd door KVubah op 13 juni 2008 12:09]

Van die paar screenshots kun jij zien dat DX10 geen toegevoegde waarde heeft?

Knap hoor.... vooral aangezien de ontwikkelaars zelf juist zeggen dat het virtual texture management van DX10 zo'n grote waarde heeft!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True