Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 177 reacties, 48.263 views •

Met de introductie van triple- en quad-sli probeert nVidia in het high end-segment het onderste uit de kan te halen. Het Duitse PCGH kreeg een testsysteem met drie XFX Geforce 8800 Ultra's in handen en wist Crysis op de knieŽn te krijgen.

Behalve drie GeForce 8800GTX- of Ultra-videokaarten en een uit de kluiten gewassen voeding heeft een gebruiker met sli-aspiraties een moederbord nodig met drie pci-express-x16-sloten en een Nforce680i-chipset. Ook moet Windows Vista van de nodige patches worden voorzien om het trio goed aan de gang te krijgen; XP mankeert vooralsnog de benodigde Forceware-bŤtadrivers.

De reviewers prikten de drie 8800 Ultra's in de sloten van een Asus P5N32-E SLI-moederbord. In de cpu-socket was een Intel Core 2 Quad Q6850 gemonteerd. De Crysis-benchmark werd in 'very high'-modus gedraaid met een gekozen resolutie van 1920x1200 pixels en zonder anti-aliasing of anisotropic filtering. Het sli-trio wist de framerate van een onspeelbare 14,8fps bij het gebruik van een enkele 8800 Ultra op te krikken tot 37,9fps. Bij het 'benchen' van Unreal Tournament 3 sorteert het toevoegen van een derde videokaart aanzienlijk minder effect, terwijl de spellen Fear en Company of Heroes juist weer meer profiteren van de extra paardenkrachten.

Concluderend stelt PCGH vast dat gamers die het geld investeren in drie grafische krachtpatsers beloond worden met uitstekende prestaties. De reviewers zijn verder wel nog benieuwd hoe de 'alternate frame rendering'-methode die nVidia gebruikt om de werklast over de kaarten te verdelen, zich manifesteert als er vier krachtpatsers in een quad-sli-opstelling zouden worden gebundeld.

3-weg-sli-monster 3-weg-sli-monster 3-weg-sli-monster
3-weg-sli-monster

Reacties (177)

Reactiefilter:-11770160+139+28+30
Moderatie-faq Wijzig weergave
1 2 3 ... 7
Nou is dit wel getest op een achtelijk hoge resolutie. 99% van de mensen die crysis gaan kopen/hebben gekocht hebben een scherm dat op 1680x1050 of lager is. (meeste zullen zelfs zitten op 1280x1024 ofzo.
Hier zal een enkele kaart al redelijk beeld neer kunnen zetten. misschien op een lager detail wel op een 8600gts ofzo. Dit soort tests blijven leuk om te lezen, maar de relevantie voor eigen gebruik is een beetje ver gezocht.
Een vergelijking van een enkele of twee leuke kaarten in SLI of crossfire opstelling en daar op een normale resolutie (max 1920x1200) kan meer idee op leveren tov de meeste gebruikers.
Als jij 3 8800 GTS kaarten in SLI opstelling op je systeem geprikt hebt, ga je je desktop dan ook op 1280x1024 draaien? Of probeer je zoveel mogelijk pixels over de kabels te persen? 3x 8800 GTS komt neer op een minimum van 600 euro zoals de PriceWatch er nu uitziet (even uit mijn hoofd). Een monitor die 1920x1200 aankan heb je al vanaf 300/350 euro. Ga mij niet vertellen dat als je 600 euro budget hebt voor grakas dat je dan geen 300 overhebt voor een widescreen.

Om nog maar te zwijgen van mensen die de PC op een full-HD tv aansluiten :)
niet iedereen draait op maximale resolutie. ik draai meestal net een tikje lager om alles duidelijk te kunnen zien. toegegeven dat in spellen dit niet altijd opgaat maar in sommige spellen wordt alles gewoon te klein voor mij.

kan eraan liggen dat ik niet op5cm afstand van de monitors zit :p
Is leuk, maar draai maar eens niet op de native resolutie van een TFT scherm, dan wordt alles super vaag.
Ben ik de enigste die het krankzinnig vind dat er zoveel vermogen en kaarten nodig zijn?

Ik vind het gewoon geen technologisch goede oplossing dat er drie a vier kaarten in SLi worden geplaatst voor de beste graphics. Ik ben zelfs al een beetje huiverig voor twee kaarten langs elkaar en een 600+ Watt voeding met zeer hoge temperatuurmetingen. Er is gewoon een technologische vernieuwing nodig en die zal ook wel komen.

Over 5 jaar slaan we een PC boekje van nu open en lachen we waarschijnlijk om de idiote SLi opstellingen die wat nu worden toegepast.

Geld natuurlijk wel dat er niets is tegen het onderste uit de kan halen van game-graphics. :)
Nee, je bent niet de enige die dit krankzinnig vindt, er zijn een aantal items die allemaal even krankjorum zijn.

1) Zoal eerder aangegeven het enorme stroomverbruik.
2) Maar liefst 3 ultra kaarten zijn er nodig om een rendement te halen van 2.5.
3) Er is nog niks bedwongen want er is nog steeds geen full AA en AF gebruikt.
4) De zak met geld die je voor 3 ultra's moet neertellen.
5) De hitte die gegenereerd wordt in de kast.
6) Crysis moet heel slecht geprogrameerd zijn
7) nVidia had eigenlijk alang een nieuwe generatie moeten uitbrengen maar door gebrek aan concurentie hoeft dat helemaal niet.
8 ) SLI is hype, want tegen de tijd dat je een 2de kaart erbij wilt zetten zijn die nergens meer te krijgen en is er iets wat 2x zo snel is.


Afijn... Genoeg gekheid dus

[Reactie gewijzigd door PegOpDeWeg op 13 december 2007 17:30]

6) Crysis slecht geprogrammeerd? Waarom heeft iedereen het nu toch over slecht programmeerwerk. Als we terug kijken naar FarCry dan was er op het moment dat dat spel uit kwam ook geen enkele kaart die dat spel full aankon.

Zowel Cysis als toen der tijd FarCry zetten een compleet nieuwe standaard qua graphics neer, en zullen over 3 jaar nog steeds tot de mooiere games behoren.
Dit heeft helemaal niks met progammeer werk te maken, maar eerder met het verschil van uitgangspositie ten opzichte van Unreal3. Die is gemaakt met huidige hardware in het achterhoofd.
Je kunt het toch niet slim vinden om een spel op de markt te gooien dat pas goed werk voor PC's die er zijn als het spel in de §5 bak ligt? Nagenoeg alle klanten zullen teleurgesteld zijn over de performance, dat hoeft geen slecht programeerwerk te zijn maar een marketingblunder is het wel zeker.
Natuurlijk wel. Welke game ontwikkelaar wil nu niet de CryEngine kopen: Op het moment dat zij klaar zijn met het ontwikkelen van hun game, is de technologie er klaar voor en hebben zij een gelikt spel.

Ik vraag me dus af in hoeverre Crysis niet een soort Tech demo is om de CryEngine te verkopen.
Crysis is ze tijd gewoon ver vooruit! En SLI is helemaal geen hype, als ik over een maand of 2 een 8800GT op de kop kan tikken voor 150/170Euro kan me systeem weer een jaartje vooruit zonder dat ik voor 300+ een nieuwe highend kaart moet kopen.
sli is niet alleen van deze generatie, maar ook uit de voodoo tijd. Sowieso is paralellisatie helemaal niet zo raar. Dus sli, in welke vorm dan ook, blijft nog wel even.
Naja 37,5fps is niet echt op zijn knieŽn he. Dat vind ik meer toepasselijk bij oudere spellen die met 200+ fps draaien.

Blijft het nog absurd dat je een dergelijke setup moet hebben om dit spel te kunnen draaien. Hopelijk heeft de nieuwe generatie van Nvidia meer in zijn mars en heb je met 1 kaart genoeg. Sowieso zie je dat 3 videokaarten relatief inefficiŽnt zijn aangezien je geen verdrievoudiging van je fps krijgt. Een snellere videokaart is zeker met deze prijzen dan ook de enige echte prijs/prestatie oplossing.

De vergelijking met Cod4 en UT vind ik niet passen. Cod4 ziet er inderdaad goed uit, maar op Ultra High en hoge resoluties zakt de fps ook wel es onder de 30, en in die spellen heb je gewoon te maken met veel minder polygonen.

[Reactie gewijzigd door REDFISH op 13 december 2007 16:56]

ik vind 2.56 al aardig efficient anders... Toen SLI er net was zag je dat 2 kaarten nog geen 1,5 haalden in spellen. Het wordt dus steeds interresanter om SLI in huis te halen. Nou ben ik niet van de high-end spullen (1680x1050 met 2x AA en een fps van 25 vind ik prima), maar als ik een opstelling zou halen zou ik echt wel voor 2x 8800gt gaan ipv 1x Ultra.
Ik vraag mij trouwens af he:
- hoe sterk is 2x 8600gts ten opzichte van een 8800gts?
- hoe efficient is 2x8800gt en 4x 8800gt?
Ik vind het nog steeds belachelijk dat Crysis zo'n zware pc nodig is om het op ultra-high te kunnen spelen. het zit voglens mij fout in de engine, kijk bijvoorbeeld naar UT3 engine deze draait PERFECT op een 2 jaar oude bak.. (op z'n hoogst). En Call of Duty 4 precies hetzelfde.
Crysis is een van de weinige spellen (misschien wel zelfs als enige, weet ik niet precies) die volop gebruik van de mogelijkheden in dx10. Andere spellen slechts ten dele of zelfs niet/nauwelijks. Dit bewijst dus wel hoeveel het kost om dx10 een beetje fatsoenlijk te kunnen draaien. Ik denk dat dit op zich helemaal niet verkeerd is aangezien de nvidia en ati nu eigenlijk toch wel genoodzaakt zijn om flinke vooruitgangen te boeken in de videokaarten markt en niet alleen naar elkaar moeten voorblijven. Dat is tenslotte waar de markt naar vraagt, of in de nabije toekomst zeker naar zal vragen en een iets snellere videokaart die voor crysis en dergelijke spellen nog steeds niet echt goed genoeg is zal voor velen dan ook niet bepaald interessant zijn.
Volgens mij is dat toch geen goede redenering. Om de beeldkwaliteit van verschillende spellen goed te kunnen vergelijken moet je dat doen bij dezelfde framerate; vergelijk bijvoorbeeld hoe Call of Duty er uitziet in een setting die op een bepaalde machine 40 fps oplevert en hoe Crysis er dan uitziet. Wanneer je in het eerste geval bijvoorbeeld alles op 'very high' kunt zetten, met AA en AF op 1920x1200 en bij Crysis alles terug moet naar 'low' op 1024x768 (bijvoorbeeld) kan ik me best voorstellen dat dat laatste er toch echt een stuk minder uitziet. Immers, supergedetailleerde beelden op het scherm toveren door de systeemeisen krankzinnig hoog op te drijven is ook geen kunst, toch?

Je argument over dx10 klopt m.i. dan ook niet; als op dezelfde machine met een nog goed speelbare setting Call of Duty 4 er beter uitziet dan Crysis hebben ze het bij Infinity Ward gewoon beter voor elkaar. En of dat nu komt omdat Microsoft Windows Vista en dx10 nog niet voldoende uitontwikkeld heeft, het in de dx10 hardware of drivers zit of omdat Crytek's engine inefficient is: dat is toch allemaal een pot nat? Crytek heeft er zelf voor gekozen om gebruik te maken van de dx10 api en theoretisch zou die inderdaad een performancewinst op moeten leveren. Ze lopen daarmee echter wel voor de muziek uit en wanneer blijkt dat, om wat voor reden dan ook, die winst er (nog) niet is mag dat toch best geconstateerd worden? Bovendien, Crysis hoeft niet onder dx10 gespeeld te worden maar loopt ook prima onder dx9; als ook dan de beeldkwaliteit minder is dan COD4 is Crytek's engine gewoon minder efficient dan die van Infinity Ward lijkt me. Of zie ik dan iets over het hoofd?
dx10 is veel meer dan "betere beeldkwaliteit." Als het aantal polygonen vergroot wordt en daardoor de textures preciezer en mooier zijn spreek je echt van betere beeldkwaliteit. dx10 bied echter de mogelijkheid tot nieuwe, mooiere, realistischer technieken. Denk bijvoorbeeld aan de bomen die allemaal kapot kunnen in Crysis met dx10, maar dat gaat dus niet met dx9. En zo zijn er nog meer van dat soort features wat heel veel van je videokaart vergt. Dit hoeft dus helemaal niet perse tot strikt betere beeldkwaliteit te leiden.

Het zal waarschijnlijk inderdaad wel zo zijn dat er inderdaad nog flinke verbeteringen kunnen worden aangebracht in de Crytek engine. Maar dit is logisch met nieuwe technologie en in Crysis is dit juist zo merkbaar omdat er zoveel gebruikgemaakt wordt door dx10 terwijl andere spellen nog met veel oude bekende en dus beter getweakte code werken.

Ik weet niet zeker hoe het zit met Crysis en dx9, maar ik kan me voorstellen dat dat relatief minder presteert omdat er getracht is de code te optimaliseren voor dx10. Het kan ook zo zijn dat daar inderdaad flinke fouten zitten in de engine. Het lijkt me echter eerlijk gezegd niet heel interessant, want wat Crysis zo interessant maakt zijn juist al die dx10 features waarmee Crysis voorloopt op anderen.
In DX 9 schiet ik toch echt gewoon bomen kappot (en ze vallendan om ja).

Wat wel minder is is dat ik een 1920*1200 resolutie heb en hoopte crysis met een 8800gt toch wel redelijk rond high te spelen, maar die vlieger gaat niet op denk ik.

Dan maar op 960*600 spelen @ very high :+
Mja, daarom dat je tussen DX9 en DX10 op de hoogste settings zo goed als geen verschil ziet.
Ik vraag me af of het daar in zit en niet in DX10, of een combinatie van beide :P . Op DX9 (medium) is het best goed te spelen op een oudere kaart (X1950XT/pro) . Andere games doen het in DX10 namelijk ook een stuk minder. :)

[Reactie gewijzigd door 3dmaster op 13 december 2007 16:59]

Volgens mij zal die met de volgende generatie wel veeel beter draaien in een pc met een enkele kaart.
Goed voor een energiecrysis, ik ben benieuwd wanneer we de eerste benchmarks krijgen die laten zien wat een spel per minuut spelen kost.
Jongens, reken het nou is uit met:
http://extreme.outervision.com/psucalculator.jsp
efficientie: 87% Zal in het echt 80-85 zijn
cpuQ6850
3 ultra's
2 ram sloten (zie foto)
en
1 ultra 150 watt
komen wij uit op
482watt met 2 ultra's
doen we daar 150 bij op
632watts dat delen door 80 en *100 = 790watt
dus da's met 20 cent per uur:
790+70watt (lkkr groot beeldscherm voor 1920*1200)
0.860*20=17,2
Conclusie: Verbied koeien en je heft het probleem op :P

En verder ben ik het eens met grmmbl

[Reactie gewijzigd door SirKay op 13 december 2007 17:57]

Toch schat ik het piekvermogen van dit systeem op <500 watt en het gemiddelde vermogen op ongeveer 400 watt.

Hoe ik erbij kom? Ervaring met een watt meter en 1 8800 ultra, daarvan was het piekvermogen 210 watt en gemiddeld tijdens het spelen 170 watt. Over het gehele systeem dus.
Volgens dat ding heb ik een voeding nodig van 338W terwijl ik hier zit met een voeding van 240W(!). (Shuttle SN85G4)
Dat zou wel mooi zijn: Dit systeem verbruikt 1200Watt, dat is 1,2 kWh voor een uurtje gamen. Dat kost u al gauw 30 eurocent inclusief belastingen. Als u per maand net zoals de gemiddelde gamer zoiets 32 uur speelt kost u dat al 10 euro per maand. Laat u dit systeem ook 's nachts aanstaan om te downloaden, dan bent u ondanks het mindere verbruik op dat moment toch zomaar het tienvoudige hiervan kwijt, een heftige 100 euro per maand.
Volgens mij is dat tientje nog niet echt een wereldbedrag, zeker niet vergeleken met de overige hardware kosten, zelfs niet als je daar drie jaar mee zou doen (wat erg lang is voor PC gaming hardware).
Maar goed, als de energieprijzen blijven stijgen en het wordt 20 of 30 euro per maand voor een redelijk aantal uren, dan kost het je al hetzelfde als een gangbare internetverbinding, misschien dat het dan ook een financiŽel interessant wordt.
Hij gebruikt geen 1200 watt de Voeding KAN 1200 watt leveren.
Zou lekker zijn sluit je een 600w zalman voeding aan op je oude pc gaat hij ineens meer verbruiken. (zal wel iets meer verbruiken aangezien een ferrari bij 120 meer verbruikt dan een fiat op dezelfde snelheid.
Mijn q6600 met 8800gt sli 2 raptors, 2 320 gig hd's x-fi en een 24 inch tft gebruiken terwijl ik dit typ nu samen 299.4 Watt. (dus incl het scherm)
Dit klopt niet helemaal...
een voeding van 1200 watt kan inderdaad 1200 watt leveren...
maar wanneer je dat langere tijd aan laat staan begeeft zelfs deze krachtpatser het... :)
Nonsense. Wanneer jouw voeding 1200 Watt gespecificeerd heeft, dan moet hij dat gewoon over lange tijd kunnen leveren.

Bij een enigzins behoorlijk merk is dat ook inderdaad zo. Alleen de extreme budget modellen willen dan wel eens gek doen.
Ik heb dus deze Thermaltake Toughpower 1200W en deze kan echt makkelijk 24/7 1200W geven. Of je dat wil is iets anders natuurlijk :+

In reviews komt ook naar voren dat deze voeding na tests van 2-3 uur amper warmer wordt dan idle, de fan draait dan uiteraard wel wat harder. Rendement van deze voeding is 84% op 100% load.

Het betreft natuurlijk ook geen voeding die in de categorie "budget" valt met het prijskaartje van §250.
Die berekening zou inderdaad opgaan ware het niet dat die voeding een maximale belasting heeft van 1200 watt en dus niet constant 1200 watt loopt te trekken.
Dat er een 1200 watt voeding in zit betekent natuurlijk niet dat het systeem ook 1200 watt gebruikt. De voeding zal niet meer stroom vragen dan de kaarten gebruiken aangevuld met het verlies wat de voeding veroorzaakt.

Neemt niet weg dat dit systeem niet normaal veel stroom verbruikt natuurlijk :X
Ik denk dat een beetje gamer met zo'n setup die 32uur in een week ipv een maand haalt.
Kom kom als je zo'n systeem kan veroorloven maak je je echt geen zorgen over je hogere energiefactuur ;-)
*Gniffel* 32 uur in de maand... gemiddelde gamer... dat is nog net een uur per dag :+

Een gemiddelde gamer speelt toch echt wel 2 uur per dag, anders ben je geen gamer imo. Dus de rekening mag je x2 doen. Maar dan moeten we wel volledig zijn: Je moet dan weer de stookkosten aftrekken, want je kamer kan je hier echt wel warm mee houden, en dus hoef je de kachel niet aan te zetten zolang je de deur van je kamer dichthoudt. Kan betekenen dat gamen energiezuiniger is dan het stoken van je woning. :9~
Het enige nadeel is dat elektriciteit om je pc mee te stoken duurder is dan gas voor je cv-ketel. Dus je hebt wel gelijk dat je je stookkosten dan zakken, maar het is altijd duurder dan warmte van de cv en met wat vrienden monopoly spelen :P (buiten de snacks en het drinken dan..)
Gas is toch duurder dan electriciteit? Als dat niet zo is mag daar snel verandering in komen aangezien electriciteit makkelijker te winnen is ;).
Aangezien een kWh nog steeds niet meer dan 20 ct ofzo kost (geen idee wat dat tegenwoordig in NL kost) zal dat wel loslopen. Dan betaal je nog geen 0,4 ct per minuut bij een 1 kW systeem.
Haha waar gaat dit nog over, 3 monsterkaarten in SLI en een framerate van 38 en dan heb je nog niet eens anti-aliasing of anisotropic filtering. Het systeem zal zelf ook wel rond de 700/800 watt gebruiken onder full load. Betaal je 20 eurocent per uur aan stroom om crysis op een matige framerate te kunnen spelen.
handig kan je het niet echt noemen een xfi of extra raidcontroller kan je wel vergeten met zon opstelling.
Hopelijk is de volgende generatie kaarten wat beter in staat om zon spel vlot te renderen dat je er geen 3 kaarten voor nodog hebt.
Voor zo'n opstelling, mag je wel 60fps+ verwachten. Maar nee hoor.

AA en AF stonden nog geen eens aan.
inderdaad, het zou wat geweest zijn: diashow ;)
De resultaten van de Triple opstelling zijn echt wel realistisch als je kijkt naar single vs SLI. Niets mis mee.
Als ze het op 1280 zouden hebben gezet zou dat misschien wel gehaald zijn :)
Dus is het niet zo gek dat ze "maar" zo weinig fps hebben gehaald op die monster resolutie :D !
Eigenlijk zijn de makers van crysis dus ver hun tijd vooruit gezien de hardware het er erg moeilijk mee heeft, met recht een next gen game dus :) Zorgt voor ons ervoor dat de gpu bakkers er extra hard aan gaan werken om een superkaart te ontwikkelen die crysis wel onder de knie krijgt :)
Het duurt toch best lang op dit moment, ze zijn de 8 serie kaarten een beetje aan het uitmelken (met gebrek aan concurrentie)... De sprong van de Geforce 7- naar Geforce 8- was in minder dan 1 jaar. De Geforce 8- serie is toch al vrij lang op de markt (een jaartje ofzo) en nog steeds niet veel nieuws van de nieuwe Geforce (9) series.
Lancering van de 7 serie heb ik niet eens echt bewust meegemaakt. De 8 serie is veel meer marketing omheen geweest volgens mij.
Eingelijk vraag je je dan ook gelijk af op welke grakas het Crytec team dit grafisch monster van een spel op heeft ontwikkeld......
In de inleiding staat dat het XFX 8800's zijn, maar op de foto zie je de '..VGA' van het EVGA logo?

Welke kaarten zijn gebruikt?

Overigens wel leuk zo'n opstelling, maar niet echt realistisch... 1200 watt en je hele kast vol grafisch geweld. Sommigen hebben nog een fatsoenlijke audiokaart of een wifi kaartje (of een modem :+) er bij. Daar is volgens mij geen plaats meer voor!

Edit:
37,9fps met 3 kaarten vind ik nog niet echt 'op de knieen'. Bovendien staat AA nog helemaal uit :S

[Reactie gewijzigd door Biinjo op 13 december 2007 17:18]

1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True