Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 177, views: 48.139 •

Met de introductie van triple- en quad-sli probeert nVidia in het high end-segment het onderste uit de kan te halen. Het Duitse PCGH kreeg een testsysteem met drie XFX Geforce 8800 Ultra's in handen en wist Crysis op de knieŽn te krijgen.

Behalve drie GeForce 8800GTX- of Ultra-videokaarten en een uit de kluiten gewassen voeding heeft een gebruiker met sli-aspiraties een moederbord nodig met drie pci-express-x16-sloten en een Nforce680i-chipset. Ook moet Windows Vista van de nodige patches worden voorzien om het trio goed aan de gang te krijgen; XP mankeert vooralsnog de benodigde Forceware-bŤtadrivers.

De reviewers prikten de drie 8800 Ultra's in de sloten van een Asus P5N32-E SLI-moederbord. In de cpu-socket was een Intel Core 2 Quad Q6850 gemonteerd. De Crysis-benchmark werd in 'very high'-modus gedraaid met een gekozen resolutie van 1920x1200 pixels en zonder anti-aliasing of anisotropic filtering. Het sli-trio wist de framerate van een onspeelbare 14,8fps bij het gebruik van een enkele 8800 Ultra op te krikken tot 37,9fps. Bij het 'benchen' van Unreal Tournament 3 sorteert het toevoegen van een derde videokaart aanzienlijk minder effect, terwijl de spellen Fear en Company of Heroes juist weer meer profiteren van de extra paardenkrachten.

Concluderend stelt PCGH vast dat gamers die het geld investeren in drie grafische krachtpatsers beloond worden met uitstekende prestaties. De reviewers zijn verder wel nog benieuwd hoe de 'alternate frame rendering'-methode die nVidia gebruikt om de werklast over de kaarten te verdelen, zich manifesteert als er vier krachtpatsers in een quad-sli-opstelling zouden worden gebundeld.

3-weg-sli-monster 3-weg-sli-monster 3-weg-sli-monster
3-weg-sli-monster

Reacties (177)

Reactiefilter:-11770160+139+28+30
1 2 3 ... 7
mmm, vraag me af wat voor voeding daar in moet zitten
Op het eerste plaatje staat 1200 Watt ;)
achja, hoef je de verwarming niet aan.
met de opkomende winter moet je toch je keet verwarmen, dit is een mooie combi ;-)
"hey, schiet eens wat door in Crysis, ik krijg het koud!"
"Its gonna be a cold cold Christmas without youuuuu" :+
Dat er 1200 wat in zit wil toch niet zeggen dat er 1200 Watt in moet zitten?

Hier wat ik erover vond:
Uit het artikel zelf:
Nvidia empfiehlt zum letztgenannten Punkt ein Netzteil mit mindestens 1.100 Watt unter BerŁcksichtigung
Verder op internet: TDP van genoemde XTX ~177W, dat drie keer ~531 Watt,
TDP van de Intel ~130Watt maar bij Intel is TDP lager dan max stroomverbruik, dus gebruikt de CPU max ~143 Watt, samen al 674 Watt. Daar komt gok ik nog zo ~165 Watt bij voor Mobo + RAM + HD, samen al ~840 Watt. ~20% van het aantal Watt gaat meestal al in de voeding verloren als hitte, dus heb je aan de hand van 'mijn' schatting een voeding nodig van 1050 Watt. Fannetjes gebruiken vaak ook nog iets van 7 Watt per stuk. En zie daar de 1100 Watt die nVidia aanbeveelt.

Kortom, in tegenstelling tot wat ik verwacht had toen ik begon met rekenen moet er wel 1,2 kW inzitten :).

[Reactie gewijzigd door kidde op 13 december 2007 21:38]

& Als jij reviews had gelezen van die voeding, dan had jij gewqeten dat die voeding gewoon de 1.200w vol trekt en niet op 900w stopt |:(

Lekker hoor die 1.000W+ voedingen van TT :9
Ik denk dat het systeem nooit de volle 1,2 kW zal trekken, met wat voor applicatie wil jij de CPU, NB, RAM, 3x 8800, HDD spinup simuleren, + deze voedingen doen ook geen 20% rendementsverlies, eerder iets van 10-15% (het zou gestoord zijn als een voeding 240W aan warmte produceert)

Kortom, ik denk dat het best te halen is met een beetje sturdy 800W voeding (welk 1/3 is van de prijs van een 1200W)
Toevallig net met een klein machientje bezig.

Asus P5W DH Deluxe Intel 975X
Intel Q6600 overclocked van 2.4Ghz naar 3Ghz
2x 1GB Corsair geheugen overklokt naar DDR2-999 op 2.2Volt
2x 250GB WD in RAID-0
eVGA 8800GT standaard overclocked naar 650Mhz core

Draait op een Xclio 600Watt 85% efficiŽnte voeding.

Echter met een Kill-A-Watt meter kom ik maximaal op 196Watt piekvermogem tijdens het opstarten en 153Watt in idle. Nu zal het wel hoger liggen als ik een zware bench draai die zowel CPU, GPU als het RAID-0 tegelijk maximaal belast, maar meer dan 300Watt zal het niet lopen.

Twee extra videokaarten tellen daar natuurlijk wat bij op, maar meer dan 600Watt totaal is wel een goede indicatie. En dat is de Wattage aan de stopcontact kant, er gaat dus 15% verloren, dus een kwaliteits voeding van 510Watt zou al voldoende zijn voor Triple-SLi.
Kijk eens eerst naar de plaatjes, staat toch duidelijk er op? 1200W...

Veder leuk zo'n systeem, maar wat moet je in godsnaam hebben kwa koeling, en hoeveel kost dat wel niet. Laat staan de stroom kosten...
Ik zie dat er het gewoon luchtgekoeld wordt. En op de CPU en GPU zitten volgens mij standaard fans.
Op het plaatje kan je zien, dat er een 1200Watt voeding in zit. Dat valt dus best mee ;)

:X

Ontopic: Crysis is dus wel te spelen, op Very High, toch vraag ik me af of als je zelfs met deze kaarten nog maar een framerate haalt van 37 fps hoe goed of slecht Crysis wel niet geprogrammeerd is. Nu is het ook zo dat het rendement van SLi helaas maar heel laag is (in sommige gevallen maar 30%!)

En Crysis kon toch nog niet met SLI omgaan, of is de eerste Crysis patch al released?
Ik vraag me ook af hoe de 9xxx serie van nVidia met Crysis om zal gaan :)

edit: Iets met spuit11 enzo...

[Reactie gewijzigd door Sebazzz op 13 december 2007 16:57]

Het sli-trio wist de framerate van een onspeelbare 14,8fps bij het gebruik van een enkele 8800 Ultra op te krikken tot 37,9fps.
dat is 2,56 keer zoveel frames. gemiddelt 78% extra power per extra kaart dus(ervanuitgaand dat kaart nummer 1 op 100% power draait)
hoe goed of slecht Crysis wel niet geprogrammeerd is
Je hoeft echt niet slecht te programmeren om een moderne videokaart op de knieen te krijgen. Gewoon veel detail gebruiken is genoeg, dat is simpelweg waar het probleem zit.
hmm, vroeger was het wel zo dat de developers hun programma aan het systeem probeerde aan te passen en elke bit telde. Tegenwoodig is het anders, het systeem wordt aan de software aangepast, er wordt nog weinig geld uitgegeven aan optimalisatie, daarom dat er soms ook 101 patches worden vrijgegeven.

Maar goed, de complexiteit van een programma code is nu ook een stuk harder dan 10 jaar geleden.
Onzin. Er wordt nog net zo hard aan optimalisatie gewerkt als vroeger.

De kwestie is gewoon dat reviewers (en sommige Tweakers) graag patsen met resoluties van 1920x1200, terwijl de meeste gebruikers gewoon op 1280 of 1024 resolutie zitten. Dat betekent dat je 2 tot 3 maal minder pixels hoeven te renderen, hetgeen grofweg 2 tot 3 maal hogere framerates levert. Voor die mensen worden de hoogste instellingen mogelijk gemaakt. Wil je graag hogere resolutie, dan kan dat, maar dan moet je een stapje terug doen in andere instelling.

Het is gewoon een kwestie van keuze vrijheid leveren. Zowiezo, toen Oblivion net uit kwam, was er ook geen enkele kaart die het op max kon draaien.
"Er"? Ik denk niet dat je dat zo makkelijk kunt stellen. Sowieso is dit per ontwikkelaar verschillend. En dat is al jaren zo. Of dit een kwestie van moeite, capaciteiten, of talent is, is een tweede. En dat dat hier per ontwikkelaar verschil in zit, is ook al jaren zo. Feit is wel dat op dit moment de werkelijk grensverleggende graphics iets wat uitblijven ten opzichte van bepaalde periodes van een tijdje geleden. Zegt niets over vroeger en nu, maar wel dat er in bepaalde periodes een grotere stap wordt gezet. Als dit nu net in een periode is waarin de GPU's wat achterblijven, relatief aan de software die uitkomt, dan is het nodig om wat harder te werken aan optimalisaties. Nu zitten we in een periode waarin de GPU's doorgaans sterk genoeg zijn om alles te draaien, dus wordt er logischerwijs minder moeite voor optimalisatie gedaan. Echter, is dit per ontwikkelaar verschillend. Dit betekent die niet per definitie dat het Crysis-ontwikkelteam geen moeite ter optimalisatie heeft gedaan (maar het zou wel kunnen), hooguit wel dat men wat overambitieus is geweest. Alleen het wrange is dat een hoop mensen wel voor het optimale willen gaan. En zoals het er nu uitziet, en het zo dat dit spel pas over een jaar of wat met een regulier systeem kan spelen. En wie zit er dan nog op de wachten? Vast nog wel wat mensen, maar wel een beperkter aantal dan nu.
Maar goed, aan de andere kant, moet men zich dan inhouden tijdens het schrijven van een spel? Je kunt het spel toch spelen op een lagere resolutie waarop het nog altijd prachtig is? Je kan een spel ook veel intenser beleven met een dikke, top of the bill, surroundset, monitor, game muis en toetsenbord. Maar ook daar heeft niet iederen het geld voor.

Ik denk sowieso dat dit optimalisatie-idee het belangrijkst is voor de console markt, die natuurlijk minder dynamisch is kwa optimalisaties, aangezien je in je PS niet een nieuwe GPU kunt zetten. Zat ontwikkelaars die niet in staat zijn een fatsoenlijk spel voor een console te programmeren, en het daarom alleen maar op de PC uitbrengen. Dit wil echter niet zeggen dat het niet kŗn. Het betreffende platform moet interessant genoeg zijn (commercieel), en het moet een haalbare kaart zijn. Zou heeft Core ten tijde van TombRaider 2 beweerd dat het spel niet kon op de Saturn, en wel op de PS. Hetzelfde gold voor EA die dit beweerde voor een NHL-game. Sega nam de rechten van de laatste over, en bewees dat EA eigenlijk Úf gelogen had, of het ontwikkeltalent niet had (iig in het betreffende team). De TR2-kwestie werd weersproken dmv enkele games van Lobotomy Software (Exhumed, Duke 3d en Quake) die de betreffende effecten die zgn. niet op de Saturn konden, gewoon op Sega's machine lieten zien en de PS-versies flink overtroffen. Dit bracht het werkelijke motief van Core en EA aan het licht: het was gewoon niet interessant genoeg om een game op de Saturn uit te brengen (of men had inderdaad niet de kennis/kwaliteiten in huis om voor de Saturn te ontwikkelen). Dat men hun keuze met een negatieve, onterechte sneer naar het Saturn-platform motiveerde, vond ik zwak, en deed mij vermoeden dat behalve het eerste, zeker ook het laatste het geval was, of er sprake was van een 'hint' van Sony. Maar goed, genoeg off-topic.

[Reactie gewijzigd door RaJitsu op 15 december 2007 21:52]

Een paar optimalisaties hier en daar kunnen heel veel opleveren, dus slecht programmeren (of beter gezegd: slecht optimaliseren) speelt wel een rol. Kijk ook eens naar video driver updates - leveren vaak procenten prestatiewinst op bij specifieke spellen.
als ze het testen met de settings handmatig op very high, onder dx9 en xp (geen kwaliteitsverschil) wedden dat ze het dubbele aantal frames halen :)

heb enkele uitgebreidde crysis tests gezien, ofja meer tests voor vista en xp en dx9 vs dx10 (visueel en prestaties). vista en dx10 waren duidelijk rommel vergeleken met vista of xp en dx9 en de settings handmatig omzeilt en op very high gezet.

De ultieme winner was xp+dx9 elke keer, en het verschil van beeldkwaliteit was nihil tussen dx10 en dx9. heel af en toe, heel vaag kon je zien dat er andere shaders om hetzelfde te bereiken werden gebruikt in dx10 maar daarvoor moest je dan eerst een half uur rustig zoeken naar een voorbeeld in crysis en er dan een half uur naar staren om het zien..
WinXP + DX9 + Tri-SLI = 0,0 fps
Ook moet Windows Vista van de nodige patches worden voorzien om het trio goed aan de gang te krijgen; XP mankeert vooralsnog de benodigde Forceware-bŤtadrivers.
En nul is niet het dubbele van 37.

Vroeger was Win95 ook veel sneller dan W2k/XP. En daarvoor was DOS ook veel sneller dan Win95. Vreemd dan toch dat niemand meer DOS gebruikt! Crysis moet dan op 1920x1200, full aniso en AA, ultra high settings haast wel 200 fps halen! Toch?
daarom zitten er ook zoveel bomen in crysis :Y)
Dus jij denkt dat zo'n voeding constant 1200W produceert. :?
175W*3 = 525W voor de 3 videokaarten alleen al.
130W voor die CPU.
Pak nog zo'n 50W-100W voor de rest van je pc.
Dat is toch al minimum 705W aan pure warmte.
Pure warmte? Hebben al die componenten dan een rendement van 0%?
Grapjas ... energie wordt niet verbruikt, het gaat altijd slechts in een andere vorm over. Gezien dat de computer zich niet verplaatst en geen nucleaire reacties aan gaat moet dat wel warmte zijn.
Bullcrap; de energie wordt omgezet in warmte EN electriciteit.
Als je een kachel van 1000watt op je kamer hebt staan of een systeem dat 1000 watt verbruikt, weet ik wel wat er meer warmte oplevert.
Uhm energie wordt niet omgezet in electriciteit, electriciteit *is* energie, net als warmte. De energie komt als electriciteit uit jouw stopcontact.

Wat een videokaart doet is niks meer dan de elektronen op een bizar complexe manier door circuitjes leiden wat er uiteindelijk voor zorgt dat andere elektronen (degenen die staat van je video RAM vastleggen) op een bepaalde manier worden geordend. Daarbij ondervinden de elektronen weerstand, waardoor warmte ontstaat = energie'verbruik'.

Dus ja uiteindelijk wordt alle energie die naar je videokaart gestuurd wordt omgezet in warmte. Ok misschien niet *alle* energie, de fan draait immers ook nog (hoewel alle bewegende lucht en wrijving uiteindelijk ook in warmte opgaan). De reden dat een elektrische kachel beter werkt om je huis te verwarmen is omdat het de warmte direct via een speciaal daarvoor ontworpen oppervlak aan de omgevingslucht afgeeft. De warmte die een PC gebruikt wordt op allerlei verschillende plaatsen afgegeven, ook aan andere onderdelen en niet alleen aan de lucht. Een kachel koelt ook veel sneller af dan alle losse onderdelen van je PC bij elkaar, omdat een kachel daar speciaal voor gemaakt is, en de chips op jouw videokaart niet.

[Reactie gewijzigd door johnbetonschaar op 14 december 2007 13:22]

175W is toch het maximum? Hij zal dus niet altijd 705W gebruiken... Ik durf te wedden dat je het grootste deel van de tijd (ver) onder de 500W zit.
Goed voor een energiecrysis, ik ben benieuwd wanneer we de eerste benchmarks krijgen die laten zien wat een spel per minuut spelen kost.
Aangezien een kWh nog steeds niet meer dan 20 ct ofzo kost (geen idee wat dat tegenwoordig in NL kost) zal dat wel loslopen. Dan betaal je nog geen 0,4 ct per minuut bij een 1 kW systeem.
Dat zou wel mooi zijn: Dit systeem verbruikt 1200Watt, dat is 1,2 kWh voor een uurtje gamen. Dat kost u al gauw 30 eurocent inclusief belastingen. Als u per maand net zoals de gemiddelde gamer zoiets 32 uur speelt kost u dat al 10 euro per maand. Laat u dit systeem ook 's nachts aanstaan om te downloaden, dan bent u ondanks het mindere verbruik op dat moment toch zomaar het tienvoudige hiervan kwijt, een heftige 100 euro per maand.
Volgens mij is dat tientje nog niet echt een wereldbedrag, zeker niet vergeleken met de overige hardware kosten, zelfs niet als je daar drie jaar mee zou doen (wat erg lang is voor PC gaming hardware).
Maar goed, als de energieprijzen blijven stijgen en het wordt 20 of 30 euro per maand voor een redelijk aantal uren, dan kost het je al hetzelfde als een gangbare internetverbinding, misschien dat het dan ook een financiŽel interessant wordt.
Hij gebruikt geen 1200 watt de Voeding KAN 1200 watt leveren.
Zou lekker zijn sluit je een 600w zalman voeding aan op je oude pc gaat hij ineens meer verbruiken. (zal wel iets meer verbruiken aangezien een ferrari bij 120 meer verbruikt dan een fiat op dezelfde snelheid.
Mijn q6600 met 8800gt sli 2 raptors, 2 320 gig hd's x-fi en een 24 inch tft gebruiken terwijl ik dit typ nu samen 299.4 Watt. (dus incl het scherm)
Dit klopt niet helemaal...
een voeding van 1200 watt kan inderdaad 1200 watt leveren...
maar wanneer je dat langere tijd aan laat staan begeeft zelfs deze krachtpatser het... :)
Nonsense. Wanneer jouw voeding 1200 Watt gespecificeerd heeft, dan moet hij dat gewoon over lange tijd kunnen leveren.

Bij een enigzins behoorlijk merk is dat ook inderdaad zo. Alleen de extreme budget modellen willen dan wel eens gek doen.
Ik heb dus deze Thermaltake Toughpower 1200W en deze kan echt makkelijk 24/7 1200W geven. Of je dat wil is iets anders natuurlijk :+

In reviews komt ook naar voren dat deze voeding na tests van 2-3 uur amper warmer wordt dan idle, de fan draait dan uiteraard wel wat harder. Rendement van deze voeding is 84% op 100% load.

Het betreft natuurlijk ook geen voeding die in de categorie "budget" valt met het prijskaartje van §250.
Die berekening zou inderdaad opgaan ware het niet dat die voeding een maximale belasting heeft van 1200 watt en dus niet constant 1200 watt loopt te trekken.
Dat er een 1200 watt voeding in zit betekent natuurlijk niet dat het systeem ook 1200 watt gebruikt. De voeding zal niet meer stroom vragen dan de kaarten gebruiken aangevuld met het verlies wat de voeding veroorzaakt.

Neemt niet weg dat dit systeem niet normaal veel stroom verbruikt natuurlijk :X
Ik denk dat een beetje gamer met zo'n setup die 32uur in een week ipv een maand haalt.
*Gniffel* 32 uur in de maand... gemiddelde gamer... dat is nog net een uur per dag :+

Een gemiddelde gamer speelt toch echt wel 2 uur per dag, anders ben je geen gamer imo. Dus de rekening mag je x2 doen. Maar dan moeten we wel volledig zijn: Je moet dan weer de stookkosten aftrekken, want je kamer kan je hier echt wel warm mee houden, en dus hoef je de kachel niet aan te zetten zolang je de deur van je kamer dichthoudt. Kan betekenen dat gamen energiezuiniger is dan het stoken van je woning. :9~
Het enige nadeel is dat elektriciteit om je pc mee te stoken duurder is dan gas voor je cv-ketel. Dus je hebt wel gelijk dat je je stookkosten dan zakken, maar het is altijd duurder dan warmte van de cv en met wat vrienden monopoly spelen :P (buiten de snacks en het drinken dan..)
Gas is toch duurder dan electriciteit? Als dat niet zo is mag daar snel verandering in komen aangezien electriciteit makkelijker te winnen is ;).
Kom kom als je zo'n systeem kan veroorloven maak je je echt geen zorgen over je hogere energiefactuur ;-)
Jongens, reken het nou is uit met:
http://extreme.outervision.com/psucalculator.jsp
efficientie: 87% Zal in het echt 80-85 zijn
cpuQ6850
3 ultra's
2 ram sloten (zie foto)
en
1 ultra 150 watt
komen wij uit op
482watt met 2 ultra's
doen we daar 150 bij op
632watts dat delen door 80 en *100 = 790watt
dus da's met 20 cent per uur:
790+70watt (lkkr groot beeldscherm voor 1920*1200)
0.860*20=17,2
Conclusie: Verbied koeien en je heft het probleem op :P

En verder ben ik het eens met grmmbl

[Reactie gewijzigd door SirKay op 13 december 2007 17:57]

Toch schat ik het piekvermogen van dit systeem op <500 watt en het gemiddelde vermogen op ongeveer 400 watt.

Hoe ik erbij kom? Ervaring met een watt meter en 1 8800 ultra, daarvan was het piekvermogen 210 watt en gemiddeld tijdens het spelen 170 watt. Over het gehele systeem dus.
Volgens dat ding heb ik een voeding nodig van 338W terwijl ik hier zit met een voeding van 240W(!). (Shuttle SN85G4)
Haha waar gaat dit nog over, 3 monsterkaarten in SLI en een framerate van 38 en dan heb je nog niet eens anti-aliasing of anisotropic filtering. Het systeem zal zelf ook wel rond de 700/800 watt gebruiken onder full load. Betaal je 20 eurocent per uur aan stroom om crysis op een matige framerate te kunnen spelen.
Naja 37,5fps is niet echt op zijn knieŽn he. Dat vind ik meer toepasselijk bij oudere spellen die met 200+ fps draaien.

Blijft het nog absurd dat je een dergelijke setup moet hebben om dit spel te kunnen draaien. Hopelijk heeft de nieuwe generatie van Nvidia meer in zijn mars en heb je met 1 kaart genoeg. Sowieso zie je dat 3 videokaarten relatief inefficiŽnt zijn aangezien je geen verdrievoudiging van je fps krijgt. Een snellere videokaart is zeker met deze prijzen dan ook de enige echte prijs/prestatie oplossing.

De vergelijking met Cod4 en UT vind ik niet passen. Cod4 ziet er inderdaad goed uit, maar op Ultra High en hoge resoluties zakt de fps ook wel es onder de 30, en in die spellen heb je gewoon te maken met veel minder polygonen.

[Reactie gewijzigd door REDFISH op 13 december 2007 16:56]

ik vind 2.56 al aardig efficient anders... Toen SLI er net was zag je dat 2 kaarten nog geen 1,5 haalden in spellen. Het wordt dus steeds interresanter om SLI in huis te halen. Nou ben ik niet van de high-end spullen (1680x1050 met 2x AA en een fps van 25 vind ik prima), maar als ik een opstelling zou halen zou ik echt wel voor 2x 8800gt gaan ipv 1x Ultra.
Ik vraag mij trouwens af he:
- hoe sterk is 2x 8600gts ten opzichte van een 8800gts?
- hoe efficient is 2x8800gt en 4x 8800gt?
Ik vind het nog steeds belachelijk dat Crysis zo'n zware pc nodig is om het op ultra-high te kunnen spelen. het zit voglens mij fout in de engine, kijk bijvoorbeeld naar UT3 engine deze draait PERFECT op een 2 jaar oude bak.. (op z'n hoogst). En Call of Duty 4 precies hetzelfde.
Ik vraag me af of het daar in zit en niet in DX10, of een combinatie van beide :P . Op DX9 (medium) is het best goed te spelen op een oudere kaart (X1950XT/pro) . Andere games doen het in DX10 namelijk ook een stuk minder. :)

[Reactie gewijzigd door 3dmaster op 13 december 2007 16:59]

Crysis is een van de weinige spellen (misschien wel zelfs als enige, weet ik niet precies) die volop gebruik van de mogelijkheden in dx10. Andere spellen slechts ten dele of zelfs niet/nauwelijks. Dit bewijst dus wel hoeveel het kost om dx10 een beetje fatsoenlijk te kunnen draaien. Ik denk dat dit op zich helemaal niet verkeerd is aangezien de nvidia en ati nu eigenlijk toch wel genoodzaakt zijn om flinke vooruitgangen te boeken in de videokaarten markt en niet alleen naar elkaar moeten voorblijven. Dat is tenslotte waar de markt naar vraagt, of in de nabije toekomst zeker naar zal vragen en een iets snellere videokaart die voor crysis en dergelijke spellen nog steeds niet echt goed genoeg is zal voor velen dan ook niet bepaald interessant zijn.
Mja, daarom dat je tussen DX9 en DX10 op de hoogste settings zo goed als geen verschil ziet.
Volgens mij is dat toch geen goede redenering. Om de beeldkwaliteit van verschillende spellen goed te kunnen vergelijken moet je dat doen bij dezelfde framerate; vergelijk bijvoorbeeld hoe Call of Duty er uitziet in een setting die op een bepaalde machine 40 fps oplevert en hoe Crysis er dan uitziet. Wanneer je in het eerste geval bijvoorbeeld alles op 'very high' kunt zetten, met AA en AF op 1920x1200 en bij Crysis alles terug moet naar 'low' op 1024x768 (bijvoorbeeld) kan ik me best voorstellen dat dat laatste er toch echt een stuk minder uitziet. Immers, supergedetailleerde beelden op het scherm toveren door de systeemeisen krankzinnig hoog op te drijven is ook geen kunst, toch?

Je argument over dx10 klopt m.i. dan ook niet; als op dezelfde machine met een nog goed speelbare setting Call of Duty 4 er beter uitziet dan Crysis hebben ze het bij Infinity Ward gewoon beter voor elkaar. En of dat nu komt omdat Microsoft Windows Vista en dx10 nog niet voldoende uitontwikkeld heeft, het in de dx10 hardware of drivers zit of omdat Crytek's engine inefficient is: dat is toch allemaal een pot nat? Crytek heeft er zelf voor gekozen om gebruik te maken van de dx10 api en theoretisch zou die inderdaad een performancewinst op moeten leveren. Ze lopen daarmee echter wel voor de muziek uit en wanneer blijkt dat, om wat voor reden dan ook, die winst er (nog) niet is mag dat toch best geconstateerd worden? Bovendien, Crysis hoeft niet onder dx10 gespeeld te worden maar loopt ook prima onder dx9; als ook dan de beeldkwaliteit minder is dan COD4 is Crytek's engine gewoon minder efficient dan die van Infinity Ward lijkt me. Of zie ik dan iets over het hoofd?
dx10 is veel meer dan "betere beeldkwaliteit." Als het aantal polygonen vergroot wordt en daardoor de textures preciezer en mooier zijn spreek je echt van betere beeldkwaliteit. dx10 bied echter de mogelijkheid tot nieuwe, mooiere, realistischer technieken. Denk bijvoorbeeld aan de bomen die allemaal kapot kunnen in Crysis met dx10, maar dat gaat dus niet met dx9. En zo zijn er nog meer van dat soort features wat heel veel van je videokaart vergt. Dit hoeft dus helemaal niet perse tot strikt betere beeldkwaliteit te leiden.

Het zal waarschijnlijk inderdaad wel zo zijn dat er inderdaad nog flinke verbeteringen kunnen worden aangebracht in de Crytek engine. Maar dit is logisch met nieuwe technologie en in Crysis is dit juist zo merkbaar omdat er zoveel gebruikgemaakt wordt door dx10 terwijl andere spellen nog met veel oude bekende en dus beter getweakte code werken.

Ik weet niet zeker hoe het zit met Crysis en dx9, maar ik kan me voorstellen dat dat relatief minder presteert omdat er getracht is de code te optimaliseren voor dx10. Het kan ook zo zijn dat daar inderdaad flinke fouten zitten in de engine. Het lijkt me echter eerlijk gezegd niet heel interessant, want wat Crysis zo interessant maakt zijn juist al die dx10 features waarmee Crysis voorloopt op anderen.
In DX 9 schiet ik toch echt gewoon bomen kappot (en ze vallendan om ja).

Wat wel minder is is dat ik een 1920*1200 resolutie heb en hoopte crysis met een 8800gt toch wel redelijk rond high te spelen, maar die vlieger gaat niet op denk ik.

Dan maar op 960*600 spelen @ very high :+
Volgens mij zal die met de volgende generatie wel veeel beter draaien in een pc met een enkele kaart.
Zal wel een flinke klus zijn om die opstelling koel te houden! :o
Het sli-trio wist de framerate van een onspeelbare 14,8fps bij het gebruik van een enkele 8800 Ultra op te krikken tot 37,9fps.
3 ultra's en dan nog niet eens 50-60 FPS. En ze hebben vanwege XP niet eens in DX10 modus kunnen testen. Dat er in de zoveel tijd eens games zijn die zwaar zijn, alright. Maar dat zo'n enorm overkill systeem nog niet eens Crysis fullout kan draaien betekend gewoon dat Crysis te vroeg is uitgebracht met het oog op de huidige hardware (en gemiddelde gamePC)
Zudem benŲtigen Sie noch Windows Vista, da das šltere XP von den verwendeten Forceware-Treibern 169.18 bislang nicht unterstŁtzt wird.

Ze gebruiken Vista dus, anders is very high ook niet instelbaar ;) .
Je kan wel Very high gaan onder XP/DX9, moet je gewoon enkele bestandjes aanpassen.
Klopt, bij mij ging de framerate van 30 naar 15. Dus meteen maar weer teruggezet... :P
Heb jij Crysis op Windows XP in DX10 staan dan???
Of heb jij toevallig Vista en dat truukje uitgeprobeerd? :P
inderdaad hoe bedoel je : 'crysis bedwongen met drieweg-sli systeem'
het zou eerder moeten zijn. 'drieweg-sli systeem bedwongen door crysis'
Mijn ervaring met FPS shooters is dat alles onder de 50 fps bepaald niet vloeiend verloopt.

De tweaker van het nieuwsbericht behaald "maar" 37,9 fps, zonder van alle pracht en praal van Crysis te kunnen genieten, omdat anti-aliasing en anisotropic filtering uitgeschakeld staat.

Zelfs met heel veel geld, tweaker-skills en de beste hardware is Crysis niet op de zwaarste en mooiste settings te spelen met bijvoorbeeld 60 fps.
bij crysis zijn lagere Frames ook acceptabel door het "motion blur" effect dat word toegevoegd.. ikzelf merk dat ook dat ik met 25 fps het spel toch erg soepel vind spelen.
Dat motion-blur effect is juist 1 van de grootste FPS-trekkers... Zet dat uit en je waarschijnlijk naar 30 a 35 fps (bij 'motion-scenes' dan ;)).
Dan maar 2x nvidia triple-sli aan elkaar knopen met ductape voor een framerate van 75,8 :D

Damn, 6 videokaarten, ah moet kunnen lol

[Reactie gewijzigd door Nightanimal op 13 december 2007 23:18]

1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.