Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Marc Rademaker

Redacteur

Strijd der titanen: GTX 590 versus HD 6990

Conclusie

Nvidia en AMD hebben allebei een monsterlijke videokaart op de markt gezet, maar het lijkt erop dat AMD de prestatiekroon in handen houdt. In sommige benchmarks zijn de videokaarten even snel, maar de HD 6990 wint vaker en overtuigender dan de GTX 590. Alleen in Bad Company 2 en in de Far Cry 2-benchmark op 5760x1080 is de GTX 590 duidelijk sneller. In Metro 2033 produceert de GTX 590 nog wel hogere minima, maar is de gemiddelde framerate van de HD 6990 iets hoger.

Daar komt nog bij dat Nvidia heeft aangegeven dat de GTX 590 een adviesprijs krijgt van 650 euro, terwijl de HD 6990 voor ongeveer 550 euro over de toonbank zal gaan. Als de GTX 590 even duur zou zijn als de HD 6990, zou het meer van de voorkeur van de koper afhangen welke videokaart het beste is.

Er moet wel bedacht worden dat de GTX 590 onder load heel veel stiller is dan de HD 6990. Ook heeft AMD niet langer het voordeel van Eyefinity: de GTX 590 kan met de Surround-techniek ook een trio schermen aansturen. Dat AMD er zelfs vijf kan gebruiken is op papier mooi, maar voor het gros van de kopers van weinig praktisch belang.

Het overklokpotentieel van de videokaarten is weer redelijk vergelijkbaar. De HD 6990 heeft wel de AUSUM-schakelaar om de kloksnelheden te verhogen, maar als de garantie dan vervalt, is dat in feite een dooie mus. Wij zijn niet erg van zulke 'extra's' gecharmeerd.

Wie voor de absolute topprestaties gaat, moet ook overwegen om twee losse videokaarten aan te schaffen. Twee HD 6950's kosten samen ongeveer 450 euro, en twee GTX 570's zijn voor rond de 600 euro te koop. Dan heb je echter wel een moederbord nodig dat sli of CrossFire ondersteunt en bovendien genoeg ruimte voor de koelers biedt. Ook de voeding moet maar net over vier pci-e connectors beschikken, tenzij je met verloopjes aan de slag gaat. Wie het simpeler wil oplossen en toch maximale prestaties zoekt, komt als vanzelf terecht bij de GTX 590 en de HD 6990.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Lees meer

Nvidia introduceert GTX 590 Nieuws van 24 maart 2011
00:59
AMD Radeon HD6990 Video van 24 maart 2011
01:08
NVIDIA GTX590 Video van 24 maart 2011
Eerste details GTX 590 lekken uit Nieuws van 14 maart 2011
AMD introduceert de HD 6990 Nieuws van 8 maart 2011

Reacties (197)

Wijzig sortering
Goede review, maar zoals maar een paar keer hierboven genoemd wordt, is bij de meeste gerenomeerde review websites de GTX590 sneller dan de HD6990 (Bijna alleen op Alien vs Predator na).
Er is dus hoogst waarschijnlijk bij deze test, óf met verkeerde drivers getest, óf een buitensporige aanpassing in de settings van Nvidia-Configuratiescherm gebruikt, zoals ambient occlusie of de transparantie waarde van de anti aliasing op supersampling in plaats van multisampling.

http://www.guru3d.com/article/geforce-gtx-590-review/16
http://www.guru3d.com/article/geforce-gtx-590-review/12

http://www.tomshardware.c...adeon-hd-6990,2898-6.html
http://www.tomshardware.c...adeon-hd-6990,2898-7.html

http://nl.hardware.info/r...iew-metro-2033-directx-11
http://nl.hardware.info/r...all-of-pripyat-directx-11
Als je nou eens goed keek naar de linkjes waar jezelf mee komt, zie je dat er helemaal niks aan de hand is. HWI test niet op 2560x1600, Tom's gebruikt andere, nog hogere settings, waar de HD 6990 blijkbaar meer moeite mee heeft dan de GTX 590. Bij Guru3d scheelt het ook weinig en laten ze geen minima zien.

Settings van de drivers vind je terug op pagina 4. Daar wordt niet van afgeweken en ook niet per ongeluk. Verder zijn er de verschillende SLI-opstellingen die ter referentie dienen en waarvan de scores niet vreemd zijn ten opzichte van de GTX 590. Denk je dus dat we elke keer dezelfde, verkeerde settings hebben gebruikt?

Als je hier naar kijkt: http://www.computerbase.d...schnitt_leistung_mit_aaaf

zie je dat ook daar de HD 6990 op 2560x1600 sneller is dan de GTX 590. Laat ik nou net enkel op die resolutie getest hebben...
Hoewel ik je gedeeltelijk gelijk wil geven, vind ik het niet compléét gerechtvaardigd dat dan de HD6990 als 'Zeer Goed' uit de bus komt en de GTX590 als 'Goed'. Gezien het maar net is hoe je het wilt zien. De andere review sites laten ook een lagere resolutie zien, puur omdat de meeste mensen nog niet op die resoluties hun games spelen. Lagere resoluties met hogere anti aliasing is ook een goed alternatief, vind ik.

Doordat het een SLI opstelling op 1 PCB betreft kan er inderdaad goed gezien worden dat de GTX590 zich iets meer gaat inhouden. Dat komt deels doordat beide GF110 videochips echter in SLI samenwerken, de chips moeten dezelfde data in het eigen geheugen opslaan, waardoor er effectief 1,5GB overblijft. 1,5GB tegenover 2GB scheelt dus wel wat.
Mensen die het geld over hebben voor dit soort videokaarten gamen echt niet op 1280 x 1024 hoor... dat ligt waarschijnlijk echt wel op > 1920 x 1080
Minima tellen idd mee, maar zoals veel sites het nu doen geeft het een vertekend beeld.
Omdat de minimale FPS vrijwel altijd slechts een periode behelst van enkele milliseconden op een test van minuten...
Vaak zo kort, dat je er amper last van zal krijgen. MAW: de minimale FPS word wat mij betreft te zwaar aangezet in vele reviews. Nee, ik kijk vooral naar de gemiddeldes. Die tellen nog altijd het zwaarst.
Ik vind de scorekaart een beetje raar..
De HD6990 krijgt als algemene beoordeling 5*, terwijl het maar 2 sterren bij warmte en geluid heeft. De GTX590 is dan wel duurder, maar scoort overtuigend beter op de warmte en geluid. Toch krijgt die als algemene beoordeling 4*.

Als je de algemene beoordeling buiten beschouwing laat, heeft de GTX590 een ster meer dan de HD6990. Toch moet de GTX590 het dan met slechts een 'goed' medaille doen.

Verder is de GTX590 wel erg duur geworden, kan me niet voorstellen dat die koeler 100 euro meer kost dan die van de HD6990 :+
De koeling weegt niet zo zwaar als de prijs. Prijs/prestatie-verhouding staat wat mij betreft voorop.
@ Marc Rademaker:
Wat me eerlijk gezegd ook verbaast op de scorekaart is dat de 6990 5 sterren heeft voor "Featureset" terwijl de GTX590 er maar 4 krijgt.

De unique selling point van deze generatie Radeons (5000/6000 serie) is Eyefinity.
Voor nVidia is dat PhysX en CUDA. Met SurroundView ondersteund nV nu echter feitelijk hetzelfde als ATI doet met Eyefinity, met als extra (nV exclusief) nog steeds PhysX en CUDA.

Hoe kan het dan dat de Radeon vervolgens hoger scoort op Featureset?? Wat kan de 6990 wel dat de GTX590 niet kan? Zeker gezien je zelf al stelt dat deze implementatie van die "AUSUM-switch" feitelijk een 'dooie mus' is: er zijn niet veel mensen die er zin in zullen hebben hun garantie op een kaart van 550 Euro door de WC te spoelen ;)

<edit>
HWI komt trouwens met een benchmarksuite met grotendeels dezelfde games tot een andere conclusie:
Is de GeForce GTX 590 de snelste videokaart ter wereld? Ja, als we al onze benchmarks middellen is de kaart sneller dan de Radeon HD 6990. Echter, het verschil is niet bijster groot. Beide kaarten zijn duidelijk aan elkaar gewaagd.
Altijd wel gek dat er zo'n opmerkelijk verschil in de resultaten kan zitten als bijna dezelfde games worden getest...

<edit2>
Zo ongeveer alle andere gerenommeerde reviewsites die ik nu check komen tot de conclusie dat de GTX590 en 6990 gelijk presteren (met hier en daar een lichte 'edge' vaak juist naar de 590):
http://www.tomshardware.c...deon-hd-6990,2898-19.html
http://www.bit-tech.net/h...rce-gtx-590-3gb-review/10
http://www.hardwarecanuck...tx-590-3gb-review-23.html
http://www.techspot.com/review/378-nvidia-geforce-gtx-590/
http://www.techpowerup.co...S/GeForce_GTX_590/27.html
http://www.guru3d.com/article/geforce-gtx-590-review/21
http://www.legitreviews.com/article/1576/17/
http://www.anandtech.com/...r-the-single-card-king/17

Het is dus niet HWI die de vreemde eend in de bijt is...

<edit3>
@Marc Rademaker hieronder:
Een test op 1920x1080 - met afstand de meest gangbare resolutie op high-end gamemachines - is "tijdverspilling"?? :?
Interessant uitgangspunt... dat je als je ~600 Euro overhebt voor een videokaart je ook wel 1200+ Euro zult (over)hebben voor een 2560x1600 scherm om op die reso te kunnen gamen is nogal een aanname. 1680x1050 skippen: soit. Maar 1920x1080? Dit zorgt er in ieder geval wel voor dat je eindconclusie behoorlijk scheef trekt bij de rest... want ook Computerbase die je aanhaalt concludeert
Einen eindeutigen Gewinner im Duell GeForce GTX 590 gegen Radeon HD 6990 gibt es also nicht, denn beide Karten haben ihre Vor- und Nachteile. [...] In Sachen Performance gibt es keinen eindeutigen Gewinner.
Wat 2560x1600 betreft heeft hardwarecanucks trouwens ook lichtelijk andere ideeen bij bijna dezelfde benchmarksuite als hier gebruikt, maargoed...

PS: What about the featureset die ik hierboven bespreek? Want - performance aside - ben ik heel erg benieuwd waarom de Radeon ook daar beter uit de bus komt in de score?

[Reactie gewijzigd door Cheetah op 24 maart 2011 22:34]

Zie: http://www.computerbase.d...schnitt_leistung_mit_aaaf

Ik heb op 2560x1600 getest en op 5760x1080. Ik vermeld naast gemiddelden ook minima. Dat doen niet veel websites ons na. Daarkom is bij ons de HD 6990 sneller. Ik was tot een volledigere conclusie gekomen als ik ook op 1920x1200 had getest, maar dat vind ik tijdverspilling. Je haalt graag hwi aan, daar testen ze dus maximaal op 1920x1080 en halen ze soms 200fps. Nogal een verspilling voor een kaart als de GTX 590 en HD 6990.
Lekker makkelijk. Dit soort kaarten worden nogal vaak gekocht voor de patsfactor. Test dan op 1920*1080 of 1920x1200 met hele hoge kwaliteitsinstellingen in de drivers geforceerd, extreme AA, etc. Verzin wat, die kaarten zijn echt wel op hun knieen te krijgen in bijvoorbeeld stalker met alles op fucking wicked zeg maar ;) Ook op 1920x1080.

ATI en nVidia hebben allebei erg veel optionele instellingen die AA en AF naar een heel nieuw platform tillen. Gebruik die opties. Wat je veel review-sites ziet doen, tweakers incluis, is de AA op 4x houden en net zo lang je resolutie opschroeven tot de kaart op z'n plaat gaat.

Ik ben zelf alleen bekend met ATI, die heeft een optie om hekjes en andere fijnmazige structeren in games te AA'en. Wordt mooi. Maar heb geen enkele game speelbaar kunnen krijgen op een voor mijn kansrijke resolutie :P

Steam heeft vast wel data beschikbaar van users en hun kaarten + resjes. Mijn onderbuikgevoel zegt me dat de meeste mensen die gamen op een "monsterkaart" van deze of de vorige generatie niet gamen op 2560x1600.

Waarom toch altijd zo verdedigend. Is het zo raar om je benchmarks een heuhl klein biettie beetje op realiteit af te stemmen?

[Reactie gewijzigd door Fallen Angel op 25 maart 2011 04:08]

De benchmarks even veranderen is niet zo simpel als het lijkt. Je hebt namelijk een hele hoop verschillende videokaarten en die moet je dan allemaal op die verschillende settings (die dus afwijken van wat je normaal test) moet testen. Mocht ik nog gaan testen op 1920x1200 dan zijn je resultaten met 2560x1600 opeens niet meer vergelijkbaar.

Sowieso zie ik het probleem niet echt. Zoveel verschil zit er niet tussen het opvoeren van de settings of het opvoeren van de resolutie. Beide maken het zwaarder voor de videokaart. Als een videokaart op een hogere resolutie beter presteert, is dat negen van de tien keer ook het geval bij hogere settings.
Testen op 5760x1080 is in mijn ogen eerder een eyefinity/multi monitor test dan een vergelijk tussen grafische kaarten. Om dat dan als basis neer te leggen vind ik een ongelukkige keus. Je zou idd verwachten dat prestaties evenredig meeschalen, de praktijk is echter weerbarstiger en laat regelmatig verrassende verschillen zijn. Veelal veroorzaakt door de niet perfecte drivers.

1920x1080/1200 is de meest gangbare resolutie, die zouden dan in mijn optiek dan ook geheid als basis voor het testparcours moeten dienen. Daarbovenop kan je testen wat je wenst.
eens, en nog iets wat raar is, is de proc.
dat had gewoon een 980X moeten zijn met overclock, als je dan de reviews bekijkt blijkt de 590 opeens sneller te zijn.

en het is gewoon ramdebiel dat er gewoon geen 1920x1200 of 1920x1080 is getest.
ik weet dat er weinig mensen zijn die zo een kaart kopen, maar de mensen die hem kopen draaien ook vaak gewoon 1920x1080 of 1200.
Daar wil ik nog aan toevoegen dat het beeld wat beide kaarten uit zullen poepen niet meer gelijk zal zijn doordat ze verschillende AA technieken gebruiken, dus dan zijn de resultaten niet meer vergelijkbaar.
@Marc: sluit me helemaal bij je aan, 2560x1600 is een veel geschiktere resolutie om te testen. Als je zo'n kaart koopt voor de patsfactor en er vervolgens een cheap-ass TN-panel van 24" aan hangt ben je niet goed wijs.
Juist wel, met een kaart koop je ook een AA techniek. Dus tweakers kan weer eens ouderwets diep gaan door de beeldkwaliteit van de gebruikte AA technieken eens te vergelijken met de performance impact bijvoorbeeld. Zou prachtig zijn, er zijn de afgelopen erg veel nieuwe technieken op het gebied van AA bij gekomen.

Ik bedoel, met een kaart koop je de drivers, en alle daarbij behorende plussen en minnen.
Alhoewel ik dat snap vraag ik me toch wel of, als je tóch al zoveel pecunia af moet geven voor je videokaartje, je dan niet liever die paar extra twintigjes neer zou leggen om dan ook zonder oordoppen te kunnen gamen. Een beetje meer geluid á la, maar het verschil tussen 48 en 62 dB is wel, grof gerekend, 4 tot 5x zo luid...

Niet dat de nvidia kaart hierdoor beter wordt dan de AMD, maar ik vind persoonlijk dat zo'n dik minpunt wel de 5e ster bij de nvidia ook weg mag halen: hij is niet érg goed want hij valt op een belangrijk punt toch wel heel hard tegen.
M'n Club3D 6990 is niet luider dan m'n 5970, & die was al behoorlijk stil. Zelfs na een aantal uur gamen draait de fan van de 6990 nog op 35% (30% idle), & idle is hij net zo stil, zo niet stiller dan de 5970, dus het valt allemaal reuze mee, zeker voor die prijs (€ 527,- / 538,- incl verz...)
Voor die extra twintigjes zou ik een beter koeler op de HD6990 zetten.
Dan ben je waarschijnlijk nog steeds goedkoper uit en je hebt een snellere videokaart.
Verschilt ook per persoon vermoed ik... Ik vind de (oude) Xbox 360 altijd een mooi voorbeeld. Deze maakt naar mijn mening echt een pokke herrie wat mijn game ervaring verpest :P Al praat ik hierover met een bepaalde groep van mijn vrienden kijken ze me aan alsof ze water zien branden :)

Dus ja in mijn ogen zouden deze kaarten op gelijke hoogte zitten maar ja de reviewer geeft zelf al aan dat hij (net zoals mijn vrienden) hier iets minder waarde aan hecht omdat het voor hem niet storend is.

Ontopic: Beide kaarten zijn wel echt bizar :P gamen op 5760x1080 :D :D :D Mijn huidige pc kan nog wel minimaal een jaar mee maar deze review schets wel een leuk toekomst beeld!

[Reactie gewijzigd door Mellow Jack op 24 maart 2011 16:55]

Elke 3 dB is een verdubbeling, dus:
62-48=14dB
14/3=4,6
2^4,6=25x luider
Mn eerste reactie was 'nette review' maar toch ontbrak er een heleboel. Jullie geven aan dat 'dergelijke kaarten alleen voor hoge resoluties gebruikt worden' maar persoonlijk denk ik daar anders over dus ben even naar 'de engelstalige buren' gegaan (anandtech) waar een nog veel uitgebreidere review staat.

Kort samengevat presteerd de GTX590 op 1920x1200 relatief gezien veel beter ivm de HD6990. Niet dat hij nu ineens sneller is maar het gat is minimaal. Komt er dus gewoon op neer dat de GTX590 prima met de HD6990 mee kan komen maar wrs door geheugentekort verliest op hogere resoluties.

Daarnaast komt ook naar voren dat Nvidia de clockspeeds zeer zuinig heeft afgesteld want in de hele review is een bench meegenomen met clockspeeds van 750mhz op de core en dan delft de HD6990 zelfs het onderspit.

Anyway, wat mij betreft is er geen overduidelijke winnaar. Gelukkig hoef ik ook niet te kiezen, beide kaarten zijn toch ver buiten budget (A).
Zo'n kaart koop je toch alleen maar om op hogere specs dan gemiddeld te gaan gamen lijkt mij? En hd is tegenwoordig gemiddeld. Een beetje game-fanaat heeft toch al drie schermen staan en stijgt al snel boven het gemiddelde uit.
Dus dan wordt het de 6990 nietwaar? Of je moet willen gaan OC'en. En dat is op dit moment niet interessant, wel voor het eventueel later doorverkopen ;)

Keuze blijft persoonlijk idd.

[Reactie gewijzigd door D-Day op 24 maart 2011 15:20]

Hogere specs ben ik mee eens maar dat staat dan toch los van een hogere resolutie. Trek alle AA settings maar eens open op 1920x1200 en dan zal je zien dat je het ook deze kaarten nog wel lastig kan maken.

reactie op edit:

Waarom zou je ze niet willen OC'en? De chips kunnen het makkelijk aan want als single-gpu draaien ze er ook op. Je moet alleen zorgen dat je wel voor voldoende koeling zorgt :)

[Reactie gewijzigd door dvl-2 op 24 maart 2011 15:34]

Yep. Ik bedoelde met dat OC'n dat het nu nog niet nodig is voor de meeste games. In de toekomst wel, en dan bepaalt de mate van OC-baarheid de restwaarde :)
Ik ben wel gamefanaat maar ik heb nog een magere 1680 x 1050 staan :X Ik ga als ik eens wat geld verdien over op een 30" 2560 x 1600 met evt een extra scherm erbij om andere progjes op te draaien, internetpagina, temps, chat progje ed. Ik heb eigenlijk niet zo'n gevoel dat ik er 3 moet hebben en met mij geloof ik dat de meeste gamers, zeg 90 % 1 scherm meer dan genoeg vind en dat is in full HD idd. Tegen de tijd dat er nog hogere resoluties op een scherm mogelijk zullen zijn ben ik al wel wat jaartjes ouder denk ik...

Ik moet wel zeggen dat andere reviews wel een wat ander beeld geven, toms hardware laat betere resultaten zien voor de 590, vooral op de meer gebruikte resoluties, al is die daar natuurlijk niet primair op gericht. Het geheugen is echter af en toe de limiterende factor...
Denk dat het aantal luitjes met multi monitor gaming setups toch nog steeds zwaar in de minderheid zijn. Ook denk ik dat het aantal dat multimonitor daadwerkelijk wil gaan aanschaffen laag is. De wens is er misschien, praktisch gezien komt het er vaak niet van, denk ik.


Maw: je doet aannames die je totaal niet kan staven. Mij lijkt het vooral een gimmick voor een handvol diehards. Niets meer en niets minder.
De GTX 590 laat het vooral liggen op prijs. Als ze hetzelfde hadden gekost, had de veel betere koeler van de GTX 590 wat mij betreft de doorslag gegeven.

En tja op 750MHz, dat is een 25% overklok :P Hebben ze daar extra spanning voor gebruikt?
lees de review en dan weet je het: ja ze hebben de spanning verhoogd naar dezelfde spanning waar de gtx580 op draait.. hetzelfde dus wat ati met de 6990 doet :)
ik zou maar oppassen met het voltage verhogen

http://www.youtube.com/watch?v=sRo-1VFMcbc

sweclockes heeft met een lichte overvolt al de magische rook laten ontsnappen, en waren blijkbaar niet de enige.
Ga je nou clock speeds van 2 verschillende architecturen vergelijken? een ATI chip op 750 mhz is niet hetzelfde als een nvidia chip op 750 mhz.. appels en peren...

Uit de meeste reviews komt naar voren dat de 6990 toch de betere keuze is.
Mss was het niet helemaal duidelijk maar het ging in dit geval op een GTX590 op 750mhz.. de 6990 draait veel hoger :)
Hoe komt het dat de gtx 590 op : Hardware.info sneller is? ( en niet zo'n beetje ook )
Heeft tweakers.net misschien een verkeerd exemplaar te pakken??

[Reactie gewijzigd door TheJackal83 op 24 maart 2011 15:28]

Of Hardware.info. Ik lees hier al tegenstrijdig reacties: "andere reviews geven aan dat die of die sneller is..."
imo tijd voor een Meta-Review: kwaliteit van iedere review beoordelen, de goede op een hoop gooien en het gemiddelde daarvan nemen. Geeft alweer een beter beeld :p
sorry, maar een UBBER kaart ga je niet benchen met een i7 920.
dan een i7 4600k op 4800MHz. of een i7 990X
Wat is er mis met een i7 920 ?
Bottleneck voor een kaart als deze.
Op HWI zijn de resoluties lager. (niet meer van de tijd)

Hoge resoluties zouden voor de 590 (1,5gb geheugen) wel eens een probleem kunnen vormen.

Bij hwi hebben ze wel nieuwere drivers voor de 590 gebruikt. Wat voor de 6990 is gebruikt is me niet duidelijk.
Hij is bij hwi niet sneller, ze testen daar op andere resoluties.

Zie bijv: http://www.computerbase.d...schnitt_leistung_mit_aaaf

Omdat ik enkel op 2560x1600 of hoger heb getest, is de GTX 590 sneller. Had ik ook op 1920x1200 getest, dan had ik ze even snel kunnen noemen :)
Daarbij moet worden opgemerkt dat bij hwi vrijwel geen enkele framerate onder de 60fps komt. Op een aantal pagina's scoren beide kaarten zelfs consequent > 100fps en hier en daar is 200fps te zien. Daar heeft echt niemand wat aan. De enige conclusie die je volgens mij aan zulke cijfers kan verbinden, is dat je voor die resoluties deze kaarten domweg niet nodig hebt.
Bij 3d-gaming worden 120+FPS resoluties in een keer weer erg prettig ;) Crysis 2 zou een mooie toevoeging aan de testsuite zijn in dit geval. Grote kans dat je in 3d ziet dat testen op 1920 toch niet zo'n gek idee is :P

[Reactie gewijzigd door Fallen Angel op 25 maart 2011 04:19]

Ik weet niet wat de Nvidia ingineurs op hadden toen ze deze kaart ontwikkelden maar dit is totaal Nvidia onwaardig. Ik weiger te geloven dat dit de GTX590 moet zijn. Hopenlijk is het een foutje en komt er (net als met Intel's P67 chipset) een verbeterde versie. Maar als dit het moet zijn, stellen ze me zwaar teleur want dit ben ik niet van ze gewend.

Dat GTX580 SLI is wel ziekelijk snel trouwens. :9~
Die is indd ziekelijk snel, en ook nog eens goed over te klocken.
Ik zelf heb hem al een halfjaar ongeveer want met 2x losse kaarten heb je een half jaar tot een jaar langer plezier van tot er weer wat snellers komt. Daarom wacht ik zelf nooit op dualgpu kaarten.
Dit zal Nvidia echt niet oplossen door een bug te fixen hooguit zullen ze partners wat ruimte geven om over de spec's heen te gaan als ze dat al toestaan.
Probleem is verbruik!
Ze lopen domweg tegen het maximaal toegestane verbruik op, 375 watt is de max, meer kunnen ze de kaart niet laten verbruiken.
het systeem incl de GTX580 verbruikt onder LOAD maar 30 watt minder dan de GTX590.
Dat zegt genoeg.
Ati loopt ook tegen dit limiet, maar kan iets meer spelen daar hun GPU's over het algemeen iets zuiniger zijn en dus meer FPS/watt kunnen leveren.
Toch vind ik het knap om met zo'n complexe kaart met maar lieft 3,2miljard transistors een dual kaart te maken
Dit is niet als flame bedoeld, of fanboy praat, maar wat had je dan precies verwacht? ik zie hier namelijk hetzelfde plaatje wat al een jaar of 4-5 aan de gang is. AMD komt gewoon èlke keer met een produkt wat beter is dan Nvidia in dezelfde prijsklasse. 1 of 2 uitzonderingen daargelaten.

Dat neemt uiteraard niet weg dat beide gewoon goede produkten zijn , en je aan beide geen miskoop zult doen, maar dit ligt wel in de lijn der verwachtingen.
AMD is altijd beter met prijs prestatie, dat weet ik. Maar ik vind bijde gewoon goede producten hebben. Ik ben zelf wel een nvidia fan en koop daarom graag vaak de wat snellere kaarten van nvidia zoals de gtx580 in sli. Maar goed, zoals de laatste keer had ik de wat snellere kaarten van amd zoals de hd5870 in cf. Bijde kaarten vind ik goed en nooit problemen tot nu toe mee gehad. Ach en het boeit niet zo heel veel wie sneller is als de drivers maar goe zijn.
Ben ik de enige die het opvalt dat bijvoorbeeld de enkel GTX 580 méér geluidsdruk produceerd dan 2 GTX 580 in SLI ???

ligt dat aan mij of is dat vreemd?
Ik zeg twee van die fans vlak bij elkaar doven elkaar gedeeltelijk uit (anti-geluid).
dat zou je zeggen, maar anti-geluid werkt alleen als je 2 geluids golven heb die tegenover gesteld zijn aan elkaar. Deze kaart maken natuurlijk allebei de zelfde trilling.
dan zouden ze elkaar moeten versterken.

ik zat nog even te googlen en vond deze handige tool:
http://wwwtw.vub.ac.be/we...uk/N_druk_supe_rbdb_1.htm

als je hier de meetwaarden van de individuele kaarten in stopt, dan kom je op een totaal van 41.01 dB uit. Nou heb ik het zelf niet nagerekend, maar dat klinkt als dat als je 2 bronnen heb met het zelfde geluiddruk, de intensiteit verdubbeld wordt.
(Immers is +3 dB een verdubbeling en -3 dB een halvering)

edit: link en waarden

[Reactie gewijzigd door otandreto op 24 maart 2011 17:35]

Ik wil eerst wachten tot er geupdate drivers zijn voor de GTX590.
Vaak zie je dat benches eerst wat tegenvallen, dan komen er nieuwe drivers uit en gaat de performance een aantal procenten omhoog. Ik weet niet hoeveel goeds dat zal doen, maar toch, de GTX590 zou misschien nog wat kunnen inlopen!

Ik was erg blij om te lezen over de relatieve geluidsniveau's en het stroomverbruik, dus wat dat betreft, chapeau nVidia!


Oh en redacteurs: BETER ALS?! SCHAAM JE~!!
offtopic:
Als je gaat afgeven op taalgebruik (op zich altijd goed) moet je vervolgens niet zelf heel kansloos zo'n anglicisme als "redacteurs" in je tekst verwerken...


Ben inderdaad benieuwd naar de resultaten over 1 of 2 generaties drivers. Daar kunnen nog behoorlijke verschillen uit voortkomen. Hoe zit het eigenlijk, zijn één of meerdere van de geteste games ook "meant to play with nVidia"?
Het zal wel aan mij liggen hoor, Nika, maar redacteurs is gewoon een bestaand Nederlands woord, afgeleid van redacteur en alternatief voor redacteuren.

http://woordenlijst.org/zoek/?q=redacteur&w=w

Het heeft hoe dan ook niets met anglicisme te maken, daar het Engelse woord voor redacteur '(news)editor' is en 'redacteur' niets meer of minder dan de Nederlandse variant op het Franse 'rédacteur' is.

Rédacteur laat zich vertalen in 'Editor, news editor, sub-editor, drafter of copywriter' dus waar haal je het hele 'anglicisme' vandaan?

Je had het hooguit Gallicisme kunnen noemen, maar aangezien het gewoon in het groene boekje voorkomt zit je er volkomen naast.

Supersang deed helemaal niets fout - jij echter wel.
offtopic:
Kijk de VanDale er nog eens op na. Het meervoud van redacteur is zonder pardon redacteuren. Het is een Anglicisme naar mijn idee gezien het feit dat wordt gekozen voor een "s" ala editorS.
Sowieso Metro is ontwikkeld met flink wat support van Nvidea (als ik het goed heb) wat ook gelijk de winst in die test verklaard imo... Van de overige games weet ik het niet
Jammer zelf had ik eerst de shaders ge oc'd en niet de core speed van de gpu.
Vraag mij af wat hij dan doet.
ALs je de gpu overklokt, gaan de shaders automatisch ook omhoog.
Met de g92 chip konden shaders en gpu nog apart worden overgeklokt.
Nvidia blijkt hier wel de verliezer te zijn maar op bijna alle andere reviews de winnaar.
Ik weet dus zelf niet naar welke reviews ik moet kijken.

[Reactie gewijzigd door 304087 op 24 maart 2011 15:04]

graag bronnen ij dit soort beweringen. hardwareinfo, tom's hardware?
Ik heb zelf 2 8800gt's gehad en het kon geloof ik ook nog met de gtx280, daar heb ik ook 2 van gehad. Ik weet zo niet waar ik zo snel bronnen weg moet halen maar het kon iig altijd met rivatuner en msi afterburner en asus smartdockter je kan dan shaders en gpu unlinken of linken. Jammer dat dat tegenwoordig niet meer kan.
Ik zal wel even bij wat echte benchmarkers vragen om linkjes.

Edit

Ach ik hoef er ook niet om te vragen, dit zegt wel genoeg ?
http://www.google.nl/#hl=...=&oq=&fp=d9aedabfce9c4c02

[Reactie gewijzigd door 304087 op 25 maart 2011 17:30]

Ik vind de prestatie's allemaal maar een beetje magertjes voor die prijzen.... Dat de 5970 soms sneller is dat de gtx590? Apart
Episch is het woord dat je zoekt ;)

Daarbij, magertjes vind ik zeker zeer overdreven. De kaarten moeten zich bewijzen op 2560 x 1600 en schalen verdomd lekker tov CF HD6950 bijvoorbeeld... Dat de prijs niet interessant is, ach... Dan had je een paar dagen geleden maar een drietal HD6950's aan moeten schaffen voor nog geen 550 euro :) Dan heb je wel flinke performance hoor...
Tsja, de twee krachtigste consumer-range videokaarten op de planeet zijn allebei in staat ieder beschikbaar spel op maximale instellingen op 1920x1080 (of lager) te draaien, wat toch de resolutie is die bij 98% van de mensen op het bureau staat.

Beide kaarten zijn zoals gezegd krankzinnig snel en ik denk dat het ondanks het huidige prijsverschil (zal ongetwijfeld kleiner worden) toch weer aankomt op voorkeur.

Maar als je je bedenkt dat vrijwel iedere kaart van 100-200 euro ieder denkbaar spel met acceptabele framerates op je scherm kan toveren, zijn dit soort kaarten steeds minder interessant.
Mijn 'oude' HD5850 kan nog steeds alles draaien, en ook bijna altijd met alle eyecandy op maximaal.

Overigens hoop ik wel dat ze die Catalyst rotzooi nou eens een keer gebruiksvriendelijk gaan maken, Nvidia doet wat dat betreft al jaren een betere job.
Dit word pas weer interessant als ze de games weer dermate zwaar maken a la crysis en far cry dat je zulke kaarten nodig hebt maar ze worden zwaar gekanibaliseerd door de gewone CF opties die goedkoper en sneller zijn, in verhouding. Het enige wat je nodig hebt en wat vrijwel elk nieuw mobo wat wat hoger is dan de minimale plankjes ook wel heeft is de ruimte voor twee videokaarten.
Het is en blijft een nichemarkt waar dit soort monsters voor gemaakt worden. Toch helpt die ontwikkeling de andere kaarten ook dus het blijft leuk om te zien :D
Mede dankzij de stilstaande ontwikkeling van de consoles blijft de software op een lager pitje qua vooruitgang. Dx11 word nog maar mondjesmaat gebruikt omdat de consoles er toch niet mee overweg kunnen. Bij de nieuwe xboxen en playstations zul je weer een stap voorwaarts zien denk ik.

[Reactie gewijzigd door SouLLeSSportal op 24 maart 2011 19:42]

1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True