Door Marc Rademaker

Redacteur

Asus Mars II: een vermogen aan graphics

05-12-2011 • 08:00

225

Multipage-opmaak

Inleiding

De Asus Mars II-videokaart wordt in een beperkte oplage uitgebracht en voor de 1300 euro die de kaart moet kosten kun je ook een modaal compleet systeem bouwen. Daar staat tegenover dat geen enkele andere videokaart zulke goede specificaties heeft en alleen daarom al is de Mars II een interessant product.

Asus plaatste twee GTX 580-gpu's op een enkel pcb, net zoals dat bij de GTX 590 het geval is. Asus gaf de gpu's echter ook dezelfde kloksnelheid als de GTX 580, wat Nvidia zelf niet aandurfde. Tweakers.net bekeek de resultaten die dat oplevert en natuurlijk ook of de koeler het allemaal kan behappen.

Verder grijpen we de gelegenheid aan om een aangepaste benchmarksuite in gebruik te nemen. Eerder testten we videokaarten met de resoluties 2560x1600 en 1920x1200, en in plaats daarvan komen 2560x1440 en 1920x1080. De laatstgenoemde full-hd-resolutie is immers populairder dan 1920x1200, terwijl 2560x1440 tegenwoordig 'betaalbaar' te noemen is; een 27"-scherm met een dergelijke resolutie is tegenwoordig al voor minder dan 600 euro te koop.

Ook haalden we de bezem door de verschillende benchmarks. De nadruk komt meer te liggen op DirectX 11-spellen: zo wordt er nu getest met Shogun: Total War, The Witcher 2, Battlefield 3, Call of Duty: Modern Warfare 3 en Batman: Arkham City.Asus Mars II

De Mars II

De Mars II is alweer de derde videokaart van Asus die de grenzen opzoekt. In 2009 werd de eerste Mars uitgebracht, die twee GTX 285-gpu's aan boord had - destijds de snelste gpu uit het Nvidia-assortiment. Ook die draaiden op de standaard kloksnelheid van de GTX 285, en ook toen durfde Nvidia dat met zijn GTX 295 niet aan.

Medio 2010 verscheen de Ares - net als de Mars vernoemd naar een oorlogsgod uit de klassieke oudheid - met aan boord twee HD 5870-gpu's. Ook deze draaiden op de gebruikelijke kloksnelheid voor die chip. De koeler was een groot blok koper en kreeg het aardig voor elkaar om de gpu's koel te houden.

Na ruim een jaar wachten, en geruime tijd nadat Nvidia de GTX 590 uitbracht, komt Asus dus met de Mars II op de proppen. De videokaart doet wat zijn voorgangers ook deden: twee van de snelste gpu's op een enkel pcb combineren met zo hoog mogelijke kloksnelheden. Ditmaal zijn dat twee GF110-gpu's, zoals de motor van de GTX 580 officieel heet, met een kloksnelheid van 782MHz.

GTX 580 GTX 590 Mars II
Videochip GF110 2x GF110 2x GF110
Transistors 3M 3M 3M
Die-size 520mm² 520mm² 520mm²
Procedé 40nm 40nm 40nm
Technische Specificaties
Cuda-cores 512 2x 512 2x 512
Rop's 48 2x 48 2x 48
Texture units 64 2x 64 2x 64
Kloksnelheid 772MHz 607MHz 782MHz
Geheugenbus 384bit 2x 384bit 2x 384bit
Geheugen 1536MB gddr5 2x 1536MB gddr5 2x 1536MB gddr5
Geheugensnelheid 3600MHz 3414MHz 4008MHz
Tdp 244W 365W onbekend
Lengte 26,67cm 28cm 26,67cm

Om het geweld van de Mars II in goede banen te leiden, is de videokaart voorzien van een 21-fasig powercircuit, waarvan er 8 fasen voor elke gpu zijn, 4 stuks voor het geheugen en nog eentje die waarschijnlijk voor de pci-e-bridgechip wordt gebruikt.

Het tdp van de videokaart is onbekend maar zal met gemak boven de 365W van de GTX 590 uitkomen. Met drie achtpins pci-e-connectors kan de kaart in theorie 525W verstoken. Om al die warmte af te voeren zit er op elke gpu een flink koelblok met vier heatpipes. Elk koelblok wordt van frisse lucht voorzien door een eigen 120mm-fan.Asus Mars II

Testsysteem

Het testsysteem werd opgetrokken rond een Core i7 920-processor, die op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. Als moederbord gebruikten we de Asus Rampage Extreme III op basis van Intels X58-platform. Sinds het verschijnen van het X79-platform is dit niet meer de allersnelste hardware, en we zullen op korte termijn dus op Intels nieuwe platform overstappen.

Testsysteem
Moederbord Asus Rampage Extreme III
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 240GB Kingston HyperX
Videokaarten

Nvidia GTX 590
Asus GTX 580
Asus HD 6990
Asus HD 6970
Asus Mars II

Koeler Thermalright Ultra Extreme 120
Voeding Corsair Professional Gold AX750

We streven ernaar om altijd de nieuwste drivers te gebruiken en als er bètadrivers zijn gebruikt, vermelden we dat. Bij deze review werden de AMD-kaarten met driverversie 11.11 aangestuurd, terwijl de Nvidia-kaarten versie 285.79 van de GeForce-drivers gebruikten.

Als benchmarks kozen we de games Call of Duty: Modern Warfare 3, Far Cry 2, Stalker: Call of Pripyat, Battlefield 3, Alien vs. Predator, Shogun: Total War, The Witcher 2, Batman: Arkham City en Metro 2033. Van deze games werden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk werden de interne benchmarks van de games gebruikt.

Dell U3011Elke game is getest op de resoluties 1920x1080 en 2560x1440 met behulp van Dells U3011-scherm. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast. Bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van AMD's CCC of Nvidia's Control Panel.

In AMD's Catalyst Control Center staat de adaptive aliasing op multisampling en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing transparancy-modus op multisampling en is de texture quality op quality ingesteld.

3DMark 11, Vantage & Unigine

We beginnen met een drietal synthetische benchmarks om een eerste indruk van de mogelijkheden van de Mars II en zijn belangrijkste concurrenten te krijgen.

3DMark 11
Videokaart Punten, hoger is beter
Mars II
*********
10.530
HD 6990
********
9527
GTX 590
*******
9118
HD 6970
****
5569

De Mars II laat in 3DMark 11 meteen zien waartoe hij in staat is. De videokaart is ruim 15 procent sneller dan de GTX 590 en heeft dat enkel te danken aan de hogere kloksnelheid van de gpu's.

3DMark Vantage
Videokaart Punten, hoger is beter
Mars II
*********
39.054
HD 6990
********
34.854
GTX 590
********
34.656
HD 6970
*****
22.847

Ook in 3DMark Vantage is de Mars II de snelste videokaart, terwijl de HD 6990 en de GTX 590 elkaar nauwelijks ontlopen.

Unigine Heaven 2.0 - normal
Videokaart Punten, hoger is beter
Mars II
*********
2469
HD 6990
********
2343
GTX 590
*******
2084
HD 6970
****
1278

In Unigine is het verschil tussen de Mars II en de HD 6990 niet zo heel groot, maar de Mars II gaat nog steeds aan kop. Het verschil met de GTX 590 is hier gestegen tot 18 procent.

Alien vs. Predator

Het eerste spel dat we testen is Alien vs. Predator. We gebruiken voor deze DirectX 11-game bijna de hoogst mogelijke settings, maar passen geen anti-aliasing toe. Op deze resoluties is de benchmark al zwaar genoeg.

Alien vs Predator - 1920x1080 - High - 0xAA
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
*****
+
***
65,2 / 105,8
HD 6990
*****
+
***
63,3 / 100,4
GTX 590
****
+
***
53,5 / 85,7
HD 6970
***
+
**
34,5 / 53,1

Het verschil tussen de Mars II en de HD 6990 is vrij klein, maar de cpu zou hier een bottleneck kunnen zijn. De GTX 590 volgt op gepaste afstand.

Alien vs Predator - 2560x1440 - High - 0xAA
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
*****
+
****
48,3 / 84,3
GTX 590
****
+
***
39,0 / 68,2
HD 6990
****
+
***
38,7 / 63,0
HD 6970
**
+
*
20,0 / 32,8

Op 2560x1440 bijt de Mars II van zich af. De HD 6990 wordt afgetekend verslagen en moet ook in de GTX 590 zijn meerdere erkennen. Een enkele HD 6970 blijkt op deze resolutie niet genoeg om AvP lekker te spelen.

Battlefield 3

We hebben Battlefield: Bad Company 2 voor Battlefield 3 vervangen. De vernieuwde engine produceert mooiere beelden, maar dat gaat wel ten koste van de framerate. We testen op de hoogste instellingen, inclusief 4xAA en 16xAF.

Battlefield 3 - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
*******
+
**
61,0 / 73,8
HD 6990
******
+
*
53,8 / 65,2
GTX 590
******
+
**
50,5 / 63,4
HD 6970
***
+
*
30,0 / 35,4

Het is nu eigenlijk al duidelijk dat de Mars II de meeste spierballen heeft, terwijl de GTX 590 en de HD 6990 om de tweede plaats vechten. Of je op deze resolutie bij BF3 het verschil in framerate gaat merken is een ander verhaal.

Battlefield 3 - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
******
+
**
40,0 / 52,4
HD 6990
*****
+
**
34,0 / 45,2
GTX 590
*****
+
**
33,5 / 43,3
HD 6970
***
+
*
19,5 / 23,7

Op 2560x1440 krijgt de HD 6970 het weer moeilijk, terwijl de dual-gpu-videokaarten wel speelbare framerates weten te produceren - zij het met enige moeite. De Mars produceert minimale en gemiddelde framerates die rond de 17 procent hoger zijn dan bij de op een na beste kaart.

Metro 2033

Metro 2033 is grafisch erg mooi maar ook zwaar voor videokaarten. Als de hoogste instellingen worden gebruikt, inclusief tesselation en depth of view, storten de framerates in. We schroefden de instellingen dan ook iets terug om tot bruikbare resultaten te komen.

Metro 2033 - 1920x1080 - high
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
******
+
***
61,0 / 90,5
HD 6990
*****
+
***
51,0 / 81,7
GTX 590
****
+
**
48,0 / 71,0
HD 6970
***
+
**
31,8 / 48,2

De Mars II heeft wederom een comfortable voorsprong. De HD 6990 blijft nog enigszins in de buurt, de GTX 590 moet al bijna 30 procent toegeven.

Metro 2033 - 2560x1440 - high
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
HD 6990
*****
+
****
34,0 / 61,5
Mars II
*****
+
***
38,0 / 57,1
GTX 590
****
+
**
32,8 / 48,3
HD 6970
***
+
**
22,6 / 32,9

De 2560x1440-test wordt onverwacht gewonnen door de HD 6990, al produceert de Mars II nog steeds een betere minimale framerate. Mogelijk profiteert de HD 6990 van het feit dat deze per gpu 2GB geheugen te besteden heeft, terwijl de Mars II het met 1,5GB geheugen per chip moet stellen.

Stalker: Call of Pripyat

Stalker: Call of Pripyat begint oud te worden, maar weet videokaarten nog altijd flink onder druk te zetten. Het gebruik van diverse DX11-functies en de grote levels maken het leven van een videokaart er niet makkelijker op.

Stalker: CoP - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
HD 6990
*****
+
****
60,6 / 102,6
Mars II
****
+
***
54,4 / 90,4
GTX 590
****
+
**
49,8 / 70,5
HD 6970
***
+
**
39,1 / 56,2

Waar de HD 6990 bij de 2560x1440-test in Metro al liet zien dat de Mars II niet onverslaanbaar is, laat de AMD-kaart het Nvidia-monster zijn hielen zien als we Stalker op 1920x1080 testen. De Mars II moet een procent of tien toegeven op de HD6990 en de voorsprong op de GTX 590 is ook niet om over naar huis te schrijven.

Stalker: CoP - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
HD 6990
*****
+
***
43,4 / 70,1
Mars II
****
+
***
37,7 / 57,6
GTX 590
****
+
**
33,6 / 44,8
HD 6970
***
+
*
29,1 / 37,1

Ook op 2560x1440 gaat de HD 6990 er met de winst vandoor en is het verschil tussen de Mars II en de GTX 590 vrij klein. Het verschil in gemiddelde framerates tussen de Mars II en de GTX 590 is hier wel weer bijna dertig procent.

Call of Duty: Modern Warfare 3

Call of Duty: Black Ops is ingeruild voor Call of Duty: Modern Warfare 3. We vragen ons stiekem wel af waarom we dat doen, want MW3 maakt nog altijd gebruik van een engine die al jaren op zijn laatste benen loopt. Gezien de populariteit van het spel is het in elk geval wel belangrijk om te meten hoe de Mars II hierin presteert.

CoD: MW3 - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
*****
+
****
112,0 / 185,3
GTX 590
*****
+
***
117,0 / 182,0
HD 6990
****
+
***
81,0 / 139,3
HD 6970
****
+
*
88,0 / 113,3

Op 1920x1080 zien we vermoedelijk weer dat de cpu een bottleneck vormt; de Mars II kan zich dan ook niet onderscheiden van de GTX 590. De HD 6990 heeft moeite met deze test: de minimale framerate is lager dan die van de HD 6970.

CoD: MW3 - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
GTX 590
*****
+
***
109,0 / 178,0
Mars II
*****
+
***
111,5 / 168,9
HD 6990
****
+
***
80,5 / 142,3
HD 6970
****
+
*
83,0 / 107,3

Ook op 2560x1440 zien we dat de cpu de beperkende factor is. Call of Duty: MW3 is niet geschikt om high-end videokaarten op de proef te stellen. Het verschil tussen de GTX 590 en de Mars II is eerder aan onnauwkeurigheden in de metingen toe te schrijven dan aan iets anders.

Shogun 2: Total War

Voor de nodige afwisseling tussen alle first-person-shooters hebben we Shogun 2: Total War in onze benchmarksuite opgenomen. Dit strategiespel maakt gebruik van enkele DirectX 11-technieken en weet de gpu behoorlijk op de proef te stellen.

Shogun 2: Total War - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
******
+
**
53,0 / 72,7
HD 6990
******
+
**
49,7 / 64,9
GTX 590
*****
+
**
43,0 / 58,0
HD 6970
***
+
*
26,0 / 33,9

Op 1920x1080 is de Mars II ruim twintig procent sneller dan de GTX 590, maar de HD 6990 toont zich wederom een waardige concurrent: het verschil met deze kaart ontstijgt nauwelijks de tien procent.

Shogun 2: Total War - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
******
+
**
36,0 / 46,8
HD 6990
*****
+
**
30,0 / 40,5
GTX 590
*****
+
**
28,0 / 36,7
HD 6970
***
+
*
15,0 / 21,1

Ook op 2560x1440 is het verschil tussen de Mars II en de HD 6990 iets groter geworden, terwijl de GTX 590 weer op ruime achterstand gezet wordt. Om soepele video uit de HD 6970 te krijgen zullen de instellingen behoorlijk moeten worden teruggeschroefd.

The Witcher 2

Ook The Witcher is opgenomen om wat broodnodige variatie te hebben. Deze rpg ondersteunt DirectX 11 en waar Oblivion enkele jaren geleden de toon zette voor rpg's, is het nu The Witcher dat qua graphics voorop loopt. Alle settings staan zo hoog mogelijk, maar übersampling staat uit.

The Witcher 2 - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
*****
+
***
59,0 / 92,9
GTX 590
*****
+
**
52,5 / 77,4
HD 6990
***
+
***
28,7 / 65,3
HD 6970
***
+
*
29,7 / 44,8

Ditmaal is het verschil tussen de Mars II en de GTX 590 wat kleiner. De HD 6990 laat het flink afweten; vooral de minima vallen ons erg tegen.

The Witcher 2 - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
*******
+
**
46,3 / 58,8
GTX 590
*****
+
**
34,7 / 47,5
HD 6990
***
+
***
24,0 / 46,5
HD 6970
***
+
*
20,0 / 28,5

Op 2560x1440 weet de Mars II wel duidelijk het verschil met de GTX 590 te maken: de voorsprong bedraagt ruim 30 procent. Ook hier presteert de HD 6990 beneden zijn stand, al vallen de gemiddelde framerates nog wel mee.

Far Cry 2

Far Cry 2 heeft altijd beter gedraaid op videokaarten van Nvidia en biedt hedendaagse videokaarten geen echte uitdaging meer. Het is een van de laatste DirectX 10-spellen en we zullen dit spel vermoedelijk binnenkort uitfaseren.

Far Cry 2 - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
HD 6990
******
+
***
118,6 / 173,0
Mars II
*****
+
***
107,4 / 167,1
GTX 590
*****
+
***
106,6 / 156,7
HD 6970
****
+
*
80,1 / 101,3

Het was ons al opgevallen dat AMD-kaarten in Far Cry 2 recentelijk een flink stuk sneller zijn geworden en de HD 6990 weet de Mars II op full hd zowaar af te troeven. Het verschil tussen de Mars II en de GTX 590 is marginaal, vooral als we naar de minima kijken.

Far Cry 2 - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
******
+
***
107,8 / 150,0
HD 6990
******
+
**
108,3 / 140,7
GTX 590
*****
+
**
97,7 / 124,0
HD 6970
***
+
*
57,3 / 75,7

Op 2560x1440 pakt de Mars II de leiding weer terug, maar de voorsprong is niet groot en de HD 6990 heeft nog wel een betere minimale framerate. Ook van de voorsprong op de GTX 590 barsten we niet in een spontane lofzang uit, maar het verschil is in elk geval niet kleiner dan tien procent.

Batman: Arkham City

Batman: Arkham Asylum hebben we lang geleden afgedankt voor alles behalve het testen van low-end gpu's, maar Arkham City leek weer een veelbelovende zwaargewicht. De DirectX 11-functionaliteit werkt echter nog niet naar behoren, dus waren we genoodzaakt om de benchmark op de DirectX 10-stand te draaien, waarbij de opties verder wel allemaal aan of op hun hoogst stonden.

Batman: Arkham City - 1920x1080 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
****
+
*****
60,3 / 137,3
GTX 590
****
+
****
60,3 / 125,4
HD 6990
***
+
****
53,3 / 122,0
HD 6970
***
+
****
45,0 / 110,1

De Mars II pakt de leiding, maar wederom is de cpu de beperkende factor. Alleen de gemiddelde framerate van de nieuwe Asus is iets hoger dan die van de GTX 590. Het verschil met de HD 6990 is om dezelfde reden ook niet groot.

Batman: Arkham City - 2560x1440 - Ultra
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
Mars II
****
+
****
61,0 / 116,8
GTX 590
****
+
***
60,0 / 105,5
HD 6990
***
+
*****
42,3 / 103,0
HD 6970
**
+
***
31,0 / 72,9

Ook op 2560x1440 lijkt de cpu de -bottleneck te zijn en het verschil met de andere videokaarten blijft klein. Opvallend is wel dat de minimale framerates van de AMD-kaarten in Arkham City fors lager zijn.

Energieverbruik

We meten het energieverbruik van het gehele systeem aan het stopcontact. In de idle-stand wordt enkel de Windows-desktop weergegeven, op één scherm.

Energieverbruik systeem - Idle
VideokaartVermogen in watt, lager is beter
GTX 590
********
156,00
HD 6990
********
159,00
Mars II
*********
172,00

Het idle-verbruik van de diverse dual-gpu-kaarten is redelijk vergelijkbaar. De Mars II verbruikt iets meer, maar dat is gezien de gigantische koeler en het uitgebreidere pwm-systeem niet verwonderlijk.

Energieverbruik systeem - Load
VideokaartVermogen in watt, lager is beter
GTX 590
*****
452,00
HD 6990
******
586,00
Mars II
*********
802,00

Als we de systemen met Furmark voluit belasten, trekt de Mars II schrikbarende hoeveelheden energie uit het stopcontact. Het verbruik is echter wel vergelijkbaar met dat van twee GTX 580's in sli, een opstelling die we eerder al eens hebben getest. Bij de GTX 590 grijpt Nvidia's software in om het verbruik kunstmatig laag te houden.

Energieverbruik systeem - In-game
VideokaartVermogen in watt, lager is beter
GTX 590
*******
450,00
HD 6990
*******
488,50
Mars II
*********
560,00

De verbruikscijfers tijdens het spelen van een game zijn veel realistischer. De Mars II verbruikt nog steeds het meest, maar niet absurd veel meer dan zijn concurrenten. Gezien de hardware, de kloksnelheden en de prestaties is het ook niet meer dan logisch dat deze kaart het meeste verbruikt.

Geluidsproductie

Naast het energieverbruik maten we ook de geluidsproductie. De geluidsproductie word op een afstand van 20cm gemeten.

Geluidsdruk systeem - Idle
VideokaartGeluidsdruk in dB(A), lager is beter
Mars II
****
33,7
GTX 590
********
42,2
HD 6990
*********
43,0

De Mars II presteert bewonderenswaardig goed. Wanneer de videokaart niets hoeft te doen is deze amper hoorbaar. Dat is te danken aan de twee 120mm-fans en de gigantische koelblokken, waardoor zelfs het geringste zuchtje airflow genoeg is om de warmte af te voeren.

Geluidsdruk systeem - Load
VideokaartGeluidsdruk in dB(A), lager is beter
GTX 590
***
48,6
HD 6990
********
62,3
Mars II
*********
64,0

Onder volle belasting brengt de Mars II het er minder goed vanaf. Net als bij de verbruiksmetingen geldt echter dat Furmark het systeem voluit belast, zodat het verbruik naar 800W stijgt en de beide ventilators vol aan de bak moeten om al die warmte af te voeren. In realistischere situaties, zoals tijdens het gamen, daalt het verbruik al snel met meer dan 200W en krijgen de fans dus ook minder te doen.

Geluidsdruk systeem - In-game
VideokaartGeluidsdruk in dB(A), lager is beter
Mars II
**
41,6
GTX 590
***
49,3
HD 6990
*********
63,0

Bij het spelen van games bleek de Mars II door het lagere verbruik niet meer dan 41,6dBA te produceren. Het verschil met de 63dBA van de HD 6990, die erin slaagde om nog meer herrie te maken dan bij de Furmark-test, mag gerust groot genoemd worden. De GTX 590 is met 49,3dBA ook relatief stil, maar maakt nog altijd meer geluid dan zijn overgeklokte broertje.

Conclusie

Het beoordelen van de Mars II is een lastige aangelegenheid. De videokaart is gruwelijk duur: voor 1300 euro kan je ook twee GTX 590's aanschaffen, of drie GTX 580's, die vrijwel altijd sneller zullen zijn. De schaling voor meer dan twee gpu's laat echter nog altijd te wensen over, en de huisvesting en energievoorziening van een dergelijke setup zorgt weer voor een heel stel nieuwe uitdagingen.

We moeten het Asus dan ook nageven: het is geen sinecure om twee heftige gpu's met dergelijke kloksnelheden op een enkel pcb te schroeven, en om alles goed te laten werken. Daarmee is niet gezegd dat het ook verstandig is om de Mars II aan te schaffen. Als we de prijs-prestatieverhouding echter even negeren, dan moeten we constateren dat de Mars II de snelste videokaart van dit moment is. Bovendien is de kaart, zeker voor de prestaties die hij levert, ook nog eens erg stil. Voor zover wij dat kunnen inschatten, valt de kaart ook nog goed over te klokken - maar dat moet je wel durven. De Mars II is geen kaartje om zonder handschoenen aan te pakken.

Reacties (225)

225
218
78
7
0
76
Wijzig sortering
Wellicht leuk om te vermelden. Er loopt ook een casemod op GoT waar deze kaart in verwerkt gaat worden: http://gathering.tweakers...message/37170437#37170437
niet gesponsort hoor.
zelf gekocht, iedereen kan zeggen dat hij dit en dat gesponsort krijgt.

Als je de hardware hebt VOOR deze retail is in shops, en je hebt em toch al, ware het niet tegen verminderde prijs of gratis tegenover een contract waarbij je een tegen prestatie moet verrichten, dan spreken we over sponsorring.
Tja Asus Benelux en ik noemen het toch sponsoring Jo.
Enige dat ik moet doen is hem in mijn casemod verwerken :)
het boeit niet of het nou "voor" of terwijl de hardware al word verkocht, het is en blijft een sponsor
het leukste is dat deze geen prijs heeft betaald want het betreft een gesponserde kaart. misschien heeft tweakers de kaart wel even van hem geleend.
ik zou wel eens opencl / cuda benchmarks toegevoegd zien worden aan dit soort reviews. Ik begrijp dat dat nog steeds een niche toepassing is, maar het zou toch een mooie extra informatiebron zijn om de directe computationele mogelijkheden van verschillende kaarten met elkaar te vergelijken.
De afschrijving van dat ding is erger dan de prijs. Het bedrag gaat nog wel, maar in een paar jaartjes tijd is er niet veel meer van over.
paar jaar.... volgende generatie GPU's liggen al om de hoek letterlijk als in Q1 2012 en die zullen wel in de buurt of er zelfs overheen gaan qua prestaties voor een een derde van de prijs.
Hmm, wel apart dat ze zo'n kaart maken met een slecht prijs/prestatie, zoals er in de review word gezegd is het goedkoper om 2x een gtx 590 of 3x een gtx 580 te kopen. Maar ik denk dat een extra iets voor Asus dan ook is, dat Asus met dit product kan laten zien van "Dit kunnen we" en met dit product hebben ze DE snelste videokaart
Hmm, wel apart dat ze zo'n kaart maken met een slecht prijs/prestatie, zoals er in de review word gezegd is het goedkoper om 2x een gtx 590 of 3x een gtx 580 te kopen. Maar ik denk dat een extra iets voor Asus dan ook is, dat Asus met dit product kan laten zien van "Dit kunnen we" en met dit product hebben ze DE snelste videokaart
Klopt, deze videokaart levert een prestatieverbetering van 22% vergeleken met een gewone GTX590, terwijl de prijs met ruim 50% is toegenomen. Dan is dit gewoon een relatief slechte koop, maar zoals je al aangeeft is dit een prestige kwestie. Asus wil laten zien dat ze de snelste kaart kunnen maken.
Heb even alle FPS metingen op geteld en in een grafiekje gezet
http://i.imgur.com/1vvFn.png
FYI:

Heeft www.techreport.com inmiddels niet overtuigend gedemonstreerd dat FPS een niet feiloze en zelfs soms zinloze maat is?

Als je 150 FPS haalt en 149 frames worden in 0.1 seconde genegereerd en een frame in de resterende 0.9 seconde, dan haal je wel 150FPS maar je spelervaring is niet bepaald plezierig.

De FPS variatie binnen een seconde wordt aangeduid met micro stutter. Vooral combo's van videokaarten zijn hier erg gevoelid voor en micro stutter vormt een belnagrijk onderzoeksveld bij zowel Nvidia als AMD

Een veel betere maat (zie wederom techreport.com) is de gemiddelde en maximale tijd per frame . Nog beter zou het zijn om frame-tijd distributies weer te geven.
Als je frames hebt die meer dan 40ms duren om weergegeven te worden kan dit je spelervaring negatief gaan beinvloeden.

@naikon
lezen!!!
- het gaat puur om de tijd die het kost om 1 frame te genereren. Als dit meer dan 40ms bedraagt zul je dat als een vertraging ervaren. Vandaar dat de maixmale tijd per frame de belangrijskte maat is.

[Reactie gewijzigd door vladimirN op 23 juli 2024 05:48]

Het eerste gedeelte van je verhaal klopt, maar het tweede gedeelte is onzin, want:

seconden = s, frames = f

f / s = frames per seconde = 1 / (s / f) = 1 / (seconden per frame)

Als je meting over het hele tijds interval loopt, dan bereken je hiermee de gemiddelden. Echter je kan ook dit op elk willekeurig moment meten, en dan de minima/maxima berekenen.

Hier uit volgd dat de minimale frames per seconde gelijk is aan 1 / (maximale seconden per frame).

Wat jij waarschijnlijk bedoelt is dat als je de FPS maar berekend over tijds intervallen van 1 seconde (in plaats van veel kleiner) dan krijg je eigenlijk het minimum van de gemiddelde FPS over 1 seconde tijds intervallen terug. Dat is niet het zelfde als de minimum FPS, want de eenheid FPS zegt niks over het meet interval (kan best minder dan 1 seconde zijn), daarom is min FPS = 1/ max SPF.
Nou het zal ook wel wat meer zijn dan alleen een prestige kwestie, zoals in de benchmark al wordt aangegeven is het nog niet zo makkelijk om 2 GPU met zulke kloksnelheden op een enkel pcb te schroeven.

Ik denk dan ook dat dit voor hun een goede test is om dergelijke ontwikkelingen in de toekomst goedkoper te maken. En zo ook eventueel de levensduur van bestaande GPU architecturen te verhogen, en goekdopere kaarten produceren!

Hmm misschien wordt het tijd dat ik me processor ook maar eens overclock, kijken of ik me i7 930 ook op 3,8Ghz krijg ;)

[Reactie gewijzigd door Andyk125 op 23 juli 2024 05:48]

Moet geen probleem zijn met jou versie ;-) mits goede koeling, mijn i7 920 (spijtig genoeg met C0 stepping) draaid al 3 jaar op 3.4Ghz stabiel.
Ze testen dan wel al jaren, niet ? Nee, onzin. Pure prestige kwestie, niks meer en niks minder. Wij kunnen de snelste, beste videokaart maken!
Het lijkt mij sowieso beter om een 590 te kopen, en die zelf te "overclocken" naar de normale snelheden van de GF110. Evt. met custom koeling.
Je bedoelt dat de prijs met ruim 100% is toegenomen, dat maakt je punt echter niet minder waar, integendeel.
Met deze kaart wordt het dan wel weer mogelijk om er bijvoorbeeld 3 of 4 op een moederbord te plaatsen. Dat levert een heel leuk prijskaartje en specs op. :)
Dude. Hoe had je dat ingedachten? 3 van deze kaarten in je PC en de stoppen krijgen het moeilijk! Je spreekt dan trouwens ook niet meer van een 'voeding' in je pc, maar je hebt zo'n beetje een eigen fukushima nodig; deze kaarten doen meer dan 375W per stuk, dus alleen voor de videokaarten heb je al een 1200W voeding nodig, en dan belast je die echt op z'n max. Dan heb je er waarschijnlijk ook nog wat leuke andere hardware omheen (zoals een processor en een moederbord, enzo) dus reken maar dat je naar 1.5kW voeding toe moet.

Ohja, en dan vergeet ik voor het gemak nog even te noemen dat deze dingen 3 pci-slots hoog zijn, dus je moederbord moet daar wel ruimte voor bieden ;). Als je er vervolgens drie dicht tegen elkaar schroeft krijgt de middelste kaart het wel erg warm. Waterkoelen is dus het devies (en dus nog meer stroom nodig).

[Reactie gewijzigd door Pixeltje op 23 juli 2024 05:48]

ik heb voor een voeding van 1250W iets van 180,- betaald (niet dat ik hier ook maar de helft van gebruik, maar het is toekomstgericht en nu heb ik een efficientie van +90%), aangezien er slechts 2 van deze kaarten in een systeem passen, aangezien je daarvoor al 4 pci sloten bezet, i.v.m. de kaartgrootte zou het dus wel mogelijk zijn, het is naar mijn mening een beetje dom om er dan 3 te kopen aangezien je kunt aannemen dat het dan niet meer gaat om 3 pci 2.0x16 sloten gaat, maar dat we bij het 3e slot al gauw over een x4 slot praten...
je eigen fukushima, ik zou zeggen, ga in zeeland wonen en koop borssele, of herstart de oude kerncentrale te dodewaard maar weer eens op... kun je nog lekker in het enigszins bewoonde gelderland verblijven...

voor dergelijke prijzen kun je beter even wachten op de 600 serie van nvidia of de 7000 serie van amd, aangezien je toch nog wel even zult moeten sparen, voor je het geld bij elkaar hebt kun je een sli-opstelling van de nieuwere serie kopen tegen hetzelfde bedrag..
aangezien er slechts 2 van deze kaarten in een systeem passen, aangezien je daarvoor al 4 pci sloten bezet,
Je kijkt niet helemaal goed, het is zelfs nog erger :)

Je bezet zelfs al 6 (!!) sloten voor 2 van deze kaarten. 1 kaart neem er 3 in beslag. (goed zichtbaar op het plaatje van de eerste en tweede pagina!)

edit:
quote toegevoegd

[Reactie gewijzigd door mister X630 op 23 juli 2024 05:48]

Inderdaad waterkoelen, maar als je dan toch gaat waterkoelen koop je beter nu 3*580 (lawaai van de baan) en als deze te traag worden koop je nog eens 3*"eenneiuwesnellekaart" die je weer waterkoeld met dezelfde universele blokken, moet je al geen extra geld uitgeven aan een dure kaart met goede std koeling.

Denk dat je op deze manier meerdere jaren zoet bent voor hetzelfde geld.
Niet dat je ooit de bandbreedte en de snelheid nodig hebt de komende tijd. Zelfs niet met 6 schermen. En over een paar jaar kan je jezelf wel voor je kop slaan als dezelfde prestaties geleverd worden door één kaartje ter grootte van een envelopje.

Nee, de doelgroep van de MarsII zijn puur de showoffs.
Euhm elke kaart eigen 400W voeding? Kom je wel toe met het overklokken en heb je minder problemen op je 12V lijnen :D
je kunt maar maxinaal 2 van deze kaarten plaatsen. quad-sli is de max voor de huidige mobo's
Dat ligt niet aan de mobo's, die kunnen prima 6 videokaarten met 2 GPU's per stuk aan als er maar genoeg PCIe-sloten zijn. Quad-SLI wordt door NVidia gewoon niet ondersteund.
Houdt dat in dat je maar maximaal 4 GPU's kunt gebruiken of betekent dit dat het maximaal 4 videokaarten mogen zijn, ongeacht het aantal GPU's per videokaart? Want in het laatste geval zou je dan dus 8 GPU's hebben (in het geval van een dual GPU per videokaart).
Elk moederbord heeft een beperkt aantal master pci-e sloten en hetzelfde aantal slaves

Je kan onder windows maximaal 4 gpu's aanspreken of deze nu op 1 kaart zitten of dat je er 4 kaarten voor gebruikt, het kan er gewoon niet meer aan.
Linux wijkt af en kan maximaal 6 gpu's aanspreken alleen heb je daar dus geen ruk aan want je kan er geen enkel spel op spelen van die lijst ;)
Voor het gebruik met Distributed Computing en Bitcoin worden deze wel gebruikt, alhoewel daar heel veel gebruik gemaakt word van pci-e riser kabels.
Dit omdat A de kaarten niet passen en B je ze simpel weg niet genoeg kan koelen.
En C omdat elke kaart eigenlijk alleen maar in pci-e x4 word aangesproken.
Bitcoin servers zijn bijna altijd open rekken vol met video kaarten opgehangen boven het mobo.

[Reactie gewijzigd door rschwartnld op 23 juli 2024 05:48]

ik hoop dan dat je nog thuis woont of heel erg rijk...dat gaat stroomslurpen (voordeel is dat je dan wel een kerstpakket van je energieleverancier krijgt ieder jaar :P )

denk dat je al geluk moet hebben als je er 2 weet te bemachtigen gezien ze maar in een oplage van zon 1000 stuks (dacht ik) komen?
Als je 4 van deze jongens kan betalen..., dan maak je je niet druk om de energierekening! Dat is hetzelfde met mensen die een Hummer kunnen betalen, die maken zich niet durk om de benzine :D

Waarom is de 2600K niet gebruikt? Ik dacht dat bij een kaart als deze de 920 een bottenleck zou zijn, alhoewel die wel nice overgeclockt is :)
Vergeleken met wat je aan brandstof in je auto mikt is het verbruik van zo'n videokaart op jaarbasis echt peanuts. Al rijd je op LPG in een Suzuki Alto 8)7

Alleen die aanschafprijs. Holy crap, 1300 euro voor een videokaart. En dan nog een die met de eerstvolgende generatie GPU's alweer hopeloos ouderwets is. Al zal het ook wel een collectorsitem worden omdat er maar 1000 exemplaren beschikbaar worden. Dus ook 2e hands zal het altijd wel een te duur kaartje blijven :)
hahaha voor die aanschaf prijs kan je ook een leuke alto met lpg kopen.
Toch was vrijwel iedere hummer die ik gezien heb er een op LPG. Het zijn de mensen die het eigenlijk niet kunnen betalen die dat soort dingen aan schaffen.

Zelfde met dit denk ik. Er zal een aantal mensen zijn die er net een kunnen aanschaffen maar dan inderdaad met een (te) hoge energie factuur komen te zitten. Waarom? Dit is een prestige product. Je koopt er een omdat het een wow factor heeft, niet omdat het zo geweldig zinnig is om er een te hebben.
Tja, het concept van de Hummer (ongelofelijk veel brute kracht) is denk ik wel te vergelijken met dit concept. Lompe kracht. praktisch probllempje zie ik alleen al in he gewicht van dit ding. je zou je pci-e slot haast van je moederbord af rukken. Hoe dan ook er zijn altijd mensen die ongelofelijk veel meer willen betalen voor een klein beetje meer prestatie/prestige. Dat verklaard natuurlijk ook die toren hoge prijs. Desalniettemin denk ik dat deze kaart hetzelfde lot gaat delen als de Hummer...
Hoezo zou hij het PCIe-slot van je mobo af rukken? Daarvoor heb je de bevestiging aan je behuizing. Er zal nauwelijks kracht op je PCIe-slot komen te staan.
Als je 4 van deze jongens hebt zal je een aparte groep moeten plaatsen in je meterkast!
Tijd voor krachtstroom videokaarten! :D
Nergens voor nodig, op een groep kan je 3600watt draaien, die setup draait in het slechtste scenario misschien 1500watt.
Gewoon avondje stevig doorfietsen :+
quadruple PSU setup lijkt me ook handig lol xD
die 100 euro op jaarbasis... lekker boeien.
Het is een 3 slots kaart dus je kan er maar hoogstens 2 plaatsen.
met een pci-express riser hoeft dat geen obstakel te zijn
Enne, hoe los je dat aantal GPU's op ?
Max 2 gaat werken want meer dan 4 gpu's kan nog niet en zal nog niet werken
Even serieus, breekt je mobo dan niet in een paar stukken? Het lijkt me dat één MARS II al voor problemen kan zorgen.
Ja, maar voor gamen heeft dat geen zin.
Maximale driver ondersteuning van NVIDIA is quad SLI dus meer als 4 GPU cores tegelijk kun je niet gebruiken.

Alleen voor andere toepassingen behalve gamen die geen SLI nodig hebben is dit intressant (cuda)
4 van deze passen niet eens op je mobo ;) (gezien de heatpipe en fans 3 slots)
Aftermarket coolers erop doen, als je dat durft? :P
Nee kan niet! Sli kan maximaal 4 gpu's aansturen, maar sinds hier 2 chips per gpu zitten, komt het maximaal op 2 ;)

meer info op wikipedia/google :+
Helaas gaan er maar twee werken. SLI is maar tot max 4 GPU's en dit is al een dual GPU. Die andere twee staan dan uit hun neus te vreten.
Ook als je ze CUDA berekeningen laat doen of geldt dit alleen als ze beeldjes moeten maken?
dat is toch niet apart? alles wat het snelste is heeft een hoger prijskaartje, voor een paar procent winst moet snel een hoofdprijs betaald worden. anders bestonden er ook geen lambo's, ferrari's en porsche's meer...
Dit alleen maar "Extreme Enginering" om te laten zien wat nu kan en over een jaar of 5-10 standaard is.
5-10? lol.. Doe maar 2, 3 max.
Ik zou dan nog gaan voor 2 x 6990 in CF opstelling, dat woet toch wel even snel zijn ??? Zie hier alleen maar nvidia alternatieven genoemd worden.
Op zich verbaasd het me niet; voor de beste prijs-prestatieverhouding moet je al sinds jaren niet meer bij nVidia zijn.

Vind het een absurde prijs; het enige nut dat deze videokaart heeft is dat je maar 2 slots kwijt bent in je PC-kast. Als je iemand bent die ook nog een hoop PCI / PCI-e insteekkaarten in gebruik heeft en toch de hoogst mogelijke GPU performance wil huisvesten, dan kan deze kaart uitkomst bieden. In ieder ander geval zouden twee losse videokaarten voordeliger zijn en daarom de voorkeur genieten.

Bovendien is een resolutie van 1920x1080 meer dan genoeg. Veel PC-games worden tegenwoordig geport vanaf een console-versie, dus heeft al die brute hardware vaak weinig zin. Bespaar je dan liever een hoop geld en schaf voor een bedrag rond de € 630 (wat ik ook al absurd vind voor een videokaart-) een Radeon HD6990 aan. Die zal de huidige spellen ook probleemloos laten werken.

Ik denk ook dat er maar een kleine markt is voor dergelijke producten. Ik vind het zonde van het geld, maar dat is een persoonlijke keus. Als er spellen zijn die mijn laptop niet kan spelen schaf ik simpelweg de PS3 versie aan. Het geld wat ik daarmee bespaar aan hardware investeer ik liever in m'n huisje. Maar zoals gezegd; ieder z'n ding.

[Reactie gewijzigd door Titan_Fox op 23 juli 2024 05:48]

3 slots, en ik zou er geen fullsize kaart direct naast willen hebben.
De i7 960 die jij in je inventaris hebt staan is anders ook niet meer zo zuinig :P mijn 75w processor is haast sneller/zuiniger :+

"hierbij weten veel mensen dus niet dat je met een veeeel goedkopere kaart en framerate ook een behoorlijk goed beeld kunt krijgen"

Goed beeld komt uit je beeldscherm niet uit je videokaart :+ (moet je wel een goed scherm hebben).
hierbij weten veel mensen dus niet dat je met een veeeel goedkopere kaart en framerate ook een behoorlijk goed beeld kunt krijgen
?
Wat is een veeeel goedkopere framerate?
zal mij een zorg zijn hoe hoog de resolutie en vooral hoe snel een kaart of spel is, en vooral de framerate
Heb jij even geluk! Een Xbox 360 is nog maar 200 euro oid
voor deze prijs schaf je een luxe systeem aan wat battlefield 3 op ultra met 8x AA kan draaien met dezelfde framerate!
Er hangt aan zon ding ook nog een label met daar op iets als :"hebbeding(etje)"
Hoewel dingetje niet van toepassing is, wat een gruwelijk vette/grote kaart :)
Maar voor de rest heb je gelijk!

EDIT: Jammer dat het stroom verbruik van 1 MARS II onbekend is ..
Was nog wel een leuk extratje geweest om te weten dat dat gevaarte rond de 600(gokje) watt kan trekken?

[Reactie gewijzigd door Zen!th op 23 juli 2024 05:48]

dingeTJE is totaal niet vantoepassing gast.
dat ding weegt een vies harde 7 kilo gek :D
er zit zelfs een steuntje bij zodat het PCI-E slot/de kaart zelf niet van het moederbord afbreekt!
7 kilo? hoe kom je daar bij? Dit ding weegt 2,380 Kg

(ter vergelijking, de 6990 van AMD weegt 1.155 Kg)

verdere info: oplage van deze kaart 999 stuks

bron: http://hexus.net/tech/rev...rog-dual-gtx-580-mars-ii/
7 kilo?:O
Daar mag je idd wel een hele ophanging bij krijgen om je moederbord in tact te houden!
Zelfde frame rate denk ik niet want hier voor koop je niet een kompleet systeem met 2 gtx580's er in.
maar wel acceptabele framerates

voor 800 euro heb je al een complete pc die zo'n beetje alles kan trekken
Apart dat Tweakers de 6990 totaal niet noemt. De 6990 lijkt me de beste kaart als je bang for je bucks wil hebben. De 590 loopt in vele benchmarks hard achter de rest aan terwijl deze een tientallen euro's duurder is dan de 6990. En dan heb ik het nog niet over het feit dat de 6990 sneller is dan de 590 in Metro 2033 welke een Nvidia geoptimaliseerde game is.

Dus om voor dat geld te adviseren voor 2x 590 is wel heel erg scheef en ruikt naar fanboygedrag.

[Reactie gewijzigd door Relief2009 op 23 juli 2024 05:48]

Niks fanboy gedrag, in deze review word de Asus Mars II behandeld, de 6990 en 590 doen slechts mee voor de vergelijking, het is dan ook logisch dat deze niet opgehemeld worden, daar ligt de focus niet op.
Je hebt blijkbaar je rode oogkleppen nog op.
De gtx590 en hd6990 zijn vrijwel even snel alleen is de nvidia gtx590 duurder
Als ik de benchmarks terug kijk dan is de 6990 relatief sneller in alle benchmarks samen dan de gtx 590, ik keek ook raar op dat in de conclusie een gtx 590 in sli werd genoemd, ipv een 6990, die ook nog eens goedkoper is.
al met al vreemde reacties hier, er wordt altijd gelijk gerept over fanboy'ism, wat hier toch duidelijk niet aan de hand is, nooit een keer rechtvaardigt deze mars zijn prijs, ik moet wel zeggen dat ik behoorlijk anti Asus ben als het gaat om pc onderdelen, hoofdzakelijk vanwege dit soort ongein, met hun mobo's net zo. Ze zijn goed in marketing, daarom betaal je logischerwijs ook teveel voor hun producten, Be Quiet! is er ook zo een. RMA afhandeling is ook niet al te best en ze spammen je dood met allerlei vernuftigheden en termen die ze zelf het leven in hebben geroepen. Ik heb daar echt enorme hekel aan, ik zal in mijn winkel ook nooit asus adviseren, ze trollen je gewoon waar je bijstaat, dat laat je je toch niet gebeuren of wel dan...

[Reactie gewijzigd door BruT@LysT op 23 juli 2024 05:48]

over fanboy gedrag gesproken, jij fanboy van ATI zeker?

Nvidia = performance kroon (wereld records benchmarks)
ATI (AMD) = bang for buck

dit is normaal dat de gtx590 trager is, deze is vertraagd wegens slechte VRM op vga.
Met de MArs is dit opgelost vanuit asus om de clocks te behouden.

Maar dit is een review van de Asus Mars 2 en niet van de GTX590 nVidia of de 6990.
Persoonlijk zou ik deze kaart niet willen hebben; mijn PC draait met een HD6850 en daar draaien de meeste spellen van tegenwoordig op met ong 30+ FPS op ultra settings.

Een kaart zoals deze is echt ronduit overkill, een gigantisch leuk speeltje om te kijken wat je er uit zou kunnen halen, maar overkill nonetheless; buiten allerlei professionele gebruiken om denk ik niet dat je het volle potentieel van deze kaart kan gebruiken in spellen. Als de trend van games-moeten-ook-op-consoles-kunnen-draaien blijft bestaan heb je pas iets aan deze kaart wanneer er nieuwe consoles uitkomen...

Gezien het lijkt dat dat pas gaat gebeuren wanneer de hel bevroren is, is het waarschijnlijk aardige geldverspilling wanneer je deze kaart koopt..

Nog steeds een leuk speeltje though :)
"Een kaart zoals deze is echt ronduit overkill"

Dit vind ik altijd zo een nonsens opmerking, zeker nog nooit in 3d gegamed? Ik kan je zeggen dat je daarmee zelfs deze kaart netjes op zijn knieën krijgt hoor. ( ok, ook mede brakke drivers en software die nog steeds 3d niet goed ondersteunen, maar goed )

En wat te denken van multi-monitor opstellingen? Als ze dat mee hadden genomen in de tests had je kunnen zien dat zelfs met deze kaart een reso van bijv 5760x1080 (3x1) nog aardig aan de zware kant is voor deze kaart.

dus..overkill? no way
Ik betaalde toendertijd 700 euro voor mijn twee HD4870X2's 2 GB in crossfire... en met 4 gpu's en 4 gb gddr5 draait ook Battlefield 3 nog met gemak op max.
wel met direct x 10.1 toch?
ik heb ook nog steeds een HD4870x2 van asus :) en die alleen al draait battlefield 3 met gemak dus voor 2 stuks is het een piece of cake.
Effectief heb je nog steeds maar 1gb aan gddr5 hoor ;)
Tja voor sommige mensen is 30FPS nou weer een beetje te weinig, een shooter met 30fps spelen doe ik niet (behalve op de console, maar daar ontwijk ik ze ook zo veel mogelijk, op GOW en Halo na)...

Nu heb je inderdaad geen MARS 2 nodig voor 60FPS :P maar over een jaar (of 3) wel :)
Dat is maar net waar je genoegen mee neemt. Deze kaart kan nog steeds niet met de hoogste settings elke game op 120 FPS draaien, dat laat deze test wel zien. 120 FPS is toch echt wel fijn als je een monitor hebt die dat aan kan.
Zelfs 60 FPS blijft niet altijd gegarandeerd, zeker niet op de hogere resolutie. Zelf zie ik het op 40 FPS al iritant schokken als ik in een shooter mijn scherm heen en weer beweeg. Bij 60 FPS eigenlijk zelfs nog, maar dat is niet meer zo iritant.

Aan de andere kant moet ik zeggen, ik heb zelf een 5770 en heb er geen problemen mee de settings gewoon iets lager te zetten zodat ik daar ook lekker 60 FPS op heb (heb helaas geen 120FPS monitor). Als iemand me dit monster cadeau zou willen doen zou ik er echter geen nee tegen zeggen hoor ;)

[Reactie gewijzigd door Finraziel op 23 juli 2024 05:48]

De geluidsdruk testen kloppen volgens mij niet helemaal..

Zowel de GTX 590 als de 6990 produceren onder Furmark minder geluid dan ingame, terwijl de Mars waarschijnlijk wel ECHT wordt gestressed door Furmark (AMD en NVIDIA bouwen inmiddels speciale profielen voor Furmark, waardoor deze testmethode omstreden is!)
Dan nog kloppen de geluidstesten wel...
Dat de software ingrijpt verandert daar niets aan, dat is een veiligheids maatregel die door de fabrikanten is ingebouwd, al is deze eigenlijk bij de nvidia gtx590 broodnodig omdat anders het pcb de load niet aankan met zijn onderbemeten voedingscircuit.
Daarentegen steekt bij de stock kaarten de AMD met kop en schouders boven de rest uit, lijkt me helemaal niet gek omdat de stock koelers van AMD nogal bekend staan om hun lawaai (gelukkig stille alternatieven van HIS, SAPPHIRE etc.) Ik kan me nog mijn hd4870 herrineren... daar kan een fx5800ultra niet tegen op kwa lawaai denk ik. Is dan wel een prut vergelijking maar toch, omdat het kan :P
Maar bij de load hebben ze bij de MARSII toch op het 'fan' knopje op de backplate gedrukt en zo de fans voluit gezet, lijkt me wel een goede keuze bij een kaart van 1300euro :Y)
Lol ik heb deze kaart op Firstlook gezien En dat ding is echt superwreed, zo op het moederbord leek het bord zelf klein! Alleen realiseerde ik me toen niet dat ik naar de beste videokaart in de wereld aan het kijken was, daarbij was hij een beetje "weggestopt" in een hoekje En keek er helemaal niemand naar, waarom zou asus zoiets machtigs niet zoveel aandacht geven?
...waarom zou asus zoiets machtigs niet zoveel aandacht geven?
Omdat je jezelf niet op je schouders kan kloppen als er maar 999 van zijn, en dan ook nog eens voor een bedrag dat je de halve wereldbevolking nodig hebt om er vanaf te geraken.
Wat vreemd; de oorspronkelijke titel van dit artikel was

"Asus Mars II: een godsvermogen aan graphics"

Is dit nu verandert omdat iemand op zijn tere zieltje is getrapt
of heeft dit een normale reden?
dat merkte ik ook op

Ik vond "Godsvermogen" wel een leuke woordspeling nml.
Een "Normale" reden, zoals jij dat noemt, kan ik niet verzinnen iig.

Opzich wel jammer
Viel mij ook op, volgende keer maar dit van maken?

"Asus Mars II: een bobsvermogen aan graphics"

Of zijn dan de bob vrezende mensen op hun tere zieltjes getrapt? :+

Op dit item kan niet meer gereageerd worden.