Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties

Nvidia heeft de GTX 590 ge´ntroduceerd, een dual-gpu-videokaart die de strijd moet aangaan met AMD's HD 6990. Nvidia voorzag de videokaart van twee van zijn snelste gpu's, maar uit tests blijkt dat de HD 6990 toch marginaal sneller is.

De GTX 590 is voorzien van twee GF110-gpu's, met elk 512 Cuda-cores. De kloksnelheid van de gpu's bedraagt echter slechts 608MHz, terwijl een GTX 580 met GF110-gpu op 772MHz is geklokt. De gpu's staan elk door middel van een 384bit-geheugenbus in contact met 1,5GB geheugen. Het gddr5-geheugen tikt op 3414MHz. Dankzij Nvidia's eigen pci-e-bridge-chip kunnen de gpu's met elkaar communiceren. Door de combinatie van twee gpu's kent de videokaart een verbruik van maar liefst 365W. De videokaart moet dan ook door middel van twee pci-e-connectors met elk acht pinnen van stroom worden voorzien.

Om de gpu's koel te kunnen houden, werden ze beide voorzien van een vapor-chamber-koeler, die de warmte direct van de gpu afvoert naar een aantal koelvinnen. Een flinke ventilator tussen beide koelers in levert de nodige airflow. Dat betekent wel dat een deel van de warmte de kast ingeblazen wordt. Uit onze test blijkt dat de koeler erg stil zijn werk doet, vele malen stiller dan AMD's HD 6990. De videokaart beschikt verder over drie dvi-poorten en een mini-displayport. Daarmee kan de GTX 590 drie schermen in een Surround-opstelling aansturen, net zoals dat mogelijk is met AMD's Eyefinity-techniek.

De GTX 590 is een snelle videokaart, maar vanwege de sterk verlaagde kloksnelheden moet de kaart regelmatig zijn meerdere erkennen in de HD 6990. In een enkele benchmark is de GTX 590 weer sterker. Nvidia geeft de GTX 590 echter een adviesprijs van 650 euro, terwijl de HD 6990 al voor 550 euro over de toonbank gaat. Daarmee lijkt Nvidia zichzelf enigszins uit de markt te prijzen.GTX 590

Moderatie-faq Wijzig weergave

Reacties (78)

Waar het dus eigenlijk op neerkomt is dat Nvidia een kaart op de markt brengt, die qua prijs/prestatie achterloopt op de HD6990..
Maar ze vragen er wel meer geld voor, wat denken ze dan dat ze ermee kunnen verdienen?
Als ik het zo zie zouden alleen de ECHTE Nvidia fanboys deze kaart dan evt kopen, maar als je meer prestaties wilt, ga je toch voor de 6990..
Beetje raar weer van Nvidia.
Het ligt er natuurlijk helemaal aan wat je ermee wilt gaan doen. Aangezien dat toekomstige programma's bijvoorbeeld de Adobe CS5 serie CUDA nodig hebben voor extra acceleratie buiten de standaard GPU acceleratie. Dit in combinatie met meerdere schermen en in het achterhoofd-houdend dat je alle spellen waarschijnlijk op high-settings kunt spelen, is dit toch wel interessant vind ik. Mede omdat Quadro niet erg lekker zijn voor spellen, zo kan je met ÚÚn videokaart meerdere wensen vervullen.

AMD wordt dan toch minder ondersteund, wat ik persoonlijk jammer vind. En in de tekst staat dat AMD voor 550 euro over de toonbank gaat, terwijl deze kaart een adviesprijs heeft van 650 euro. Dat zijn natuurlijk weer twee verschillende dingen. De prijs waarmee deze over de toonbank gaat zal ook wel lager liggen schat ik zo.

De kaart slurpt wel aardig wat uit het stopcontact geloof ik. Ben benieuwd naar (realtime) benchmarks met deze kaart.

Edit: Ik zie hier net de review in vergelijking met de AMD HD6990 voorbijkomen: reviews: Strijd der titanen: GTX 590 versus HD 6990
Echter voor mij weer niet erg interessant vanwege slechts een benchmark op gamegebied, als programma's als Photoshop en Premiere Pro nou ook eens worden getest, wordt het voor mij een stuk interessanter! (stille hint aan reviewers @ T.net)

[Reactie gewijzigd door marcel87 op 24 maart 2011 16:04]

Heb je wel eens serieus bekeken voor welke functie CUDA dan wordt gebruikt en welk verschil het oplevert tov een AMD kaart?

Dan kom je onmiddellijk tot de conclusie dat het niet de moeite waard is.
Ik weet dat Photoshop (al dan niet Extended) CS5 het vooral van je CPU moet hebben. Bij Premiere Pro is dat allemaal weer een heel ander verhaal. Ik heb ooit eens gelezen dat AMD wel ÚÚn of andere plugin zou hebben, maar resultaten daarvan heb ik nooit gezien. Heb jij dan toevallig een serieuze bron/link waarmee jij het tegendeel kunt bewijzen dat AMD zeker net zo goed werkt?

Edit 1: @ mjtdevries hieronder: Ja okÚ, maar nu kijk je alleen naar Photoshop. Wat zijn de prestaties dan bij Premiere Pro (want daar draait het mij dan eigenlijk meer om)?

Edit 2: @ mjtdevries hieronder: Inderdaad, van Quadro in een gewone PC die je voor alles en nog wat gaat gebruiken (incl. die specifieke programma's) is wat minder. Maar zoals in de link in mijn reactie onder die van Chaosstorm te zien is, kan je heel gemakkelijk (bijna alle) huidige GeForce kaarten ondersteund krijgen. En inderdaad de CPU is erg belangrijk, maar ik denk dat de i7-2600K dat wel kan volbrengen :9.

[Reactie gewijzigd door marcel87 op 24 maart 2011 23:04]

Ja, gewoon de website van Photoshop zelf.
Als je oppervlakkig kijkt dan promoten ze daar ook CUDA. Maar als je dan in de details kijkt op hun site dan zie je dat het voor 99% gewoon standaard OpenGL is, en alleen CUDA voor een paar situaties die totaal niet interessant zijn, of die geen enkel normaal persoon ooit tegen komt.

[edit:]
Bij premiere pro CS5 hebben bepaalde Nvidia kaarten wel zin omdat CUDA daar wel daadwerkelijk gebruikt word. Vreemd genoeg dan wel alleen voor encoding, en niet voor decoding. (raadselachtig waarom ze niet beiden doen)
En dan heeft Adobe bovendien een kunstmatige beperking ingesteld dat alleen bepaalde door hun gekeurde kaarten gebruikt mogen worden. Dat zijn vooral Quadro kaarten :(
Als je professioneel Premiere Pro gebruikt dan is dat niet zo'n ramp voor een dedicated Premiere bak. Maar als particulier word je daar niet vrolijk van.
Maar er zijn ook mensen die met wat hacks de andere CUDA kaarten ook werkend hebben gekregen.
Overigens zie je in de fora pros ook continu vertellen dat je vooral in de CPUs moet investeren omdat die toch het belangrijkste blijven.

Oh ja, SLI schijnt niet ondersteund te worden. Dat maakt deze 590 met ingebouwde SLI geen voor de hand liggende keus.

[Reactie gewijzigd door mjtdevries op 24 maart 2011 22:38]

Voor de cuda acceleratie in adobe cs5 haal je geen GTX 590 ... dan kun je beter een GTX 280 halen.

zelfs een gtx 280 is daar nog zwaar overkill voor.
Deels waar inderdaad, maar in hoeverre loopt Premiere Pro CS6 straks lekker met dat kaartje? Elk jaar upgraden houd ik niet zo van, maar ik zei ook niet dat ik deze ging halen :P, veel te duur en nee, de HD6990 wordt het ook niet.

De GTX 280 wordt overigens wel officieel erkend door Adobe voor dergelijke toepassingen in dat soort programma's, maar andere kaarten zijn handmatig ook in te stellen zodat deze ook gaan werken (zie trucje @ link hieronder).

Daarnaast wordt geadviseerd om in Premiere Pro minimaal met een kaart van 1GB DDR5 geheugen te werken, de GTX 280 wie jij noemt heeft dat ook niet.
Bron: http://www.studio1productions.com/Articles/PremiereCS5.htm (vanuit de BBG: Workstation)

[Reactie gewijzigd door marcel87 op 24 maart 2011 15:00]

deze hele nieuwe series videokaarten zijn zwaar overkill..

ik heb nog een gtx 285 can msi en kan zo goed als alle spellen voluit spelen de enigste game die ik niet vol heb kunnen spelen tot nu toe was RIFT beta al komt dat volgens mij door een bug in de shadow rendering aangezien shadows uit en shadows laag het verschil was tussen 44 of 12 fps wat mij niet echt realistisch lijkt.


enigste dat ontbreekt is dx11 maar vraag me af of dat veel effect heefd.
Ligt er net aan hoe je speelt. Als jij op 2560*1600 speelt en daar alles op max wil hebben staan dan heb jij toch bijna 2 keer zoveel rekenkracht nodig voor je eyecandy.

ik hoop persoonlijk op een revamp van beide series tegen de tijd dat The Elder Scrolls 5 Skyrim uitkomt. Dan vervang ik mijn gtx460 voor whatever er dan de prijs/prestatiekroon heeft en gebruik ik de 460 voor physics :).
Gaat het niet al 3 jaar zo? Volgens mij is sinds de introductie van de 4850 de kroon in handen van AMD en de prijzen die daaraan vast hangen liegen er niet om. nVidia is gewoon te duur op dit moment voor wat je ervoor terug krijgt als je het zo bekijkt.

En dan 650 eu betalen voor een videokaart dat lijkt me echt alleen maar voor de enthousiastelingen weggelegd. Met een kaart van 150 eu haal je op vandaag genoeg prestaties in huis om de komende 2 tot 3 jaar zorgeloos te kunnen spelen.
Blijf mooi bij AMD, goedkoper, stiller, energiezuiniger en nog sneller ook.
Niet stiller
link

>60dB vind ik te luid, ik zou daarom eerder een gtx590 dan een hd6990 kopen.
dan vervang je als tweaker de koeler toch?
Precies, of je wacht tot er andere varianten van de 6990 komen. Ding is pas net uit.
Mee eens. Maar ik ga ze allebei niet kopen. Ik blijf lekker in de higher-mid-range mijn spulletjes kopen. :)
Uit onze test blijkt dat de koeler erg stil zijn werk doet, vele malen stiller dan AMD's HD 6990
Niet stiller, en op sommige rfronten sneller. Echter geen PhysX, wat in sommige spellen zoals bv Maffia 2, erg goed tot zijn recht komt.

Al met al wel jammer dat ze hem zo duur ingezet hebben, dit betekend dat eventuele OC modellen of Edities van EVGA nog duurder zijn.

Dat wordt voor mij wachten op de volgende generatie. Nu denk ik dat ik sowieso geen DualGPU vidkaart meer ga nemen. Grafische rekenkracht is erg hoog, maar aangezien je 50% van je geheugen kwijtraakt omdat hij dubbel aan het bufferen is, blijf je altijd achter qua performance op Singlecore kaarten met een hoger geheugen.

De meeste kaarten hebben tegenwoordig geen probleem meer met het grafische geweld, maar meer met het bufferen van textures ( op hoge resoluties).

Waarschijnlijk wordt mijn volgende kaart iets met 3gb on board en single gpu.
Blijf mooi bij AMD, goedkoper, stiller, energiezuiniger en nog sneller ook.
Stiller niet.
Nevertheless, in a comparison between GeForce GTX 590 versus Radeon HD 6990, Nvidia wins.

And it wins because I can put a GeForce GTX 590 in my workstation, which doubles as my gaming machine, and not hear it. It’s quiet enough to use. And that’s a requisite.
http://www.tomshardware.c...deon-hd-6990,2898-19.html
Volgens mij ligt de kroon nog altijd bij NVIDIA, de GTX 580 is de snelste single GPU kaart.
daar hangt dan ook wel een leuk prijskaartje tegenover bij een vergelijking van bijvoorbeeld een 5870.
wel voordeel blijft dat Nvidea nog steeds over PhysX beschikt, wel jammer dat er dan weer zo`n prijskaartje aan moet hangen. ik weet het wel, ik ga weer een generatie met AMD mee.
Was het niet dat de vraag was wie de snelste KAART heeft? het single-GPU lijkt me niet echt relevant... IOW, prestatiekroon = AMD.
De verschillen qua prestaties in het topsegment videokaarten zijn zo marginaal dat je bijna uitsluitend fanboy mˇet zijn, wil je Řberhaupt zoveel geld uitgeven aan een kaartje dat na 3 maanden alweer verouderd is omdat er een snellere variant beschikbaar is...
Dan is het meestal ook een single GPU kaart die met de prijs/prestatie verhouding ver over deze heen gaat.
Of je bent iemand die gewoon een koele en stille kaart wil
al was het in het verleden wel anders ik heb de laatste 6 jaar nvidia vanwege de drivers en betere game support in veel games.
die grote pot geld die we nvidia betalen heefd blijkbaar engsins nut :)
ik heb met alle amd/ati producten het gevoel dat de drivers niet helemaal top zijn en niet genoeg geupdate worden.
het moederbord wat ik nu gebruik is de eerste met een amd chipset en moet zeggen ben er niet over te spreken.
de ahci drivers zijn ruk moederbord drivers zelf zijn volgens mij niet optimaal aangezien de hele pc bij een dataoverdracht compleet hangt tot de bewerking klaar is (meerdere borden getest).
kortom voor de net iets betere software ( ondersteuning zelfs drivers voor games voordat de game uit is ). heb ik het wel over en ik koop nooit kaarten boven de 330 euro en in die prijsklasse zitten amd en ati tegenwoordig redelijk bij elkaar.
Temperatuur (100% load) - Volgens meting 62 ░C
Temperatuur (100% load) - Volgens drivers 63 ░C
Geluidsniveau (10 cm. - Full load) 51 dB(A)

dit is uit de hardware.info benchmark gehaald, dat zijn echt supergoede waardes als deze kloppen, die 2 vapor chambers doen hun werk dan echt heel goed.
dit vergeleken met de 71 db van de 6990 en de temperaturen die die ook nog eens haalt, dan zijn dat best hele goeie redenen om een 590gtx te nemen ipv de 6990.
betekent ook gelijk weer dat als je een goeie badge tepakken hebt je hem ook nog wel redelijk kan ocen, hardware.info haalde max 12% maar wie weet kan dit nog veel hoger.

en gezien het feit dat deze kaart icm crysis 2 gereleased wordt, zal die ook daarin beter draaien dan zn tegenstander. (athans zo gaat dat vaak wel).
Ik zeg even de prijs echt afwachten, en misschien een prijsdaling afwachten maar dan heb je wel een degelijkere kaart imo.

bron:
http://nl.hardware.info/r...iew-asus-vs-point-of-view
tja met die ~100 euro verschil kan je een hele dikke en stille custom koeler halen voor de hd6990 natuurlijk, en nog geld over houden waarschijnlijk.
of een full cover blok als je al waterkoeling hebt.

daarbij is het wel zo eerlijk om te vermelden dat full load hier furmark betreft, en niet games.
in games is het verschil in geluid minimaal.

[Reactie gewijzigd door Countess op 24 maart 2011 16:21]

in games is het verschil in geluid minimaal.
Niet volgens T.net:
reviews: Strijd der titanen: GTX 590 versus HD 6990
maar wel volgens techpowerup
http://www.techpowerup.co...S/GeForce_GTX_590/22.html

en anandtech
http://www.anandtech.com/...r-the-single-card-king/16

grappig is ook dat de fan bij nvidia MINDER geluid maakt bij furmark als bij games terwijl furmark juist is ontworpen om zo veel mogelijk energie gebruiken.
waarschijnlijk een gevalletje driver manipulatie dus waardoor het verschil bij sites die enkel testen met furmark veel groter is als het eigenlijk is.

[Reactie gewijzigd door Countess op 25 maart 2011 03:51]

T.net heeft geen furmark gebruikt.
En ook Tom's hardware niet:
http://www.tomshardware.c...deon-hd-6990,2898-19.html

[Reactie gewijzigd door aval0ne op 25 maart 2011 11:27]

Succes met het vinden van die dikke en stille custom koeler.... ;)
komen vanzelf. enkel een kwestie van geduld.
voor de hd5970 zijn ze te krijgen voor nog geen 50 euro.
pricewatch: Arctic Cooling Accelero Xtreme 5970
Klopt, maar dat duurde meer dan een half jaar voordat die kwam en daarbij zal Arctic nu ipv 300watt afvoer nu naar ~375watt afvoer moeten en daarbij liggen de gpu's nu een stuk verder uit elkaar. Daar zullen ze een flinke klus aan hebben...
Misschien handig om even bij te vertellen voor de leken onder ons dat deze decibellen niet te vertalen zijn in de vorm van de ATI maakt ruwweg 40% meer herrie.

Stukje wikipedia (altijd handig)
Elke verhoging met 10 decibel betekent een vergroting in vermogen met een factor 10. Een verhoging met 20 dB betekent dus een factor 100, een verhoging met 30 dB
De NVIDIA kaart is dus stukken stiller!
De deciBelschaal is echter juist logaritmisch gekozen omdat het menselijk oor geluidsdruk ook logaritmisch waarneemt.
Hoewel 10dB inderdaad een 10 maal zo hoge geluidsdruk betekent, nemen mensen dat waar als slechts een verdubbeling van het geluidsniveau.
Alsof er geen flinke zak geld gemoeid gaat met het bundelen van een 'high expectations' game release bij een nieuwe videokaart. Nvidia heeft daarvoor gewoon bij Crytek aangeklopt.

In het kort, de 6990 is sneller. Op alle benchmarks is hij over het algemeen gewoon het snelst, en dan heb je de turbo modus nog niet eens aangeraakt. Dan kan je fanboy gedrag vertonen door over het geluid van de koeler te zeuren, dat maakt de kaart niet minder snel.
hardwareinfo test op lagere resoluties.
Het moge duidelijk zijn dat we ons voor kaarten van dit kaliber primair op de 1920x1080 met 4x AA benchmarks richten.
terwijl tweakers juist dit zegt:
Elke game is getest op de resolutie 2560x1600; daarnaast werden vier spellen ook op 5760x1080 getest. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast.
wellicht zit het verschil daarin.
99 van de 100 gamers heefd alleen geen scherm dat die resolutie aan kan wat de daadwerkelijke prestaties dus niet zichtbaar maakt de meeste gamers gamen op 1920x1200 of 1920x1080 er zijn niet veel mensen die 1000 euro+ voor een scherm overhebben
zoals eerder gezegd, 2 of 3 x 1440*900 of 1680*1050 of 1920*1200 geeft al enorme resoluties, tel daarbij dat je met een toekomstige 6990 waarschijnlijk 6! schermen aan kan sturen en het hele punt van 1000 euro voor een scherm is onzin.

ik wacht nog steeds op schermen zonder een echte rand en "behuizingen" voor dit soort opstellingen. Als ik bijvoorbeeld 3 22 inch schermen kon kopen zonder echte rand hadden die hier allang gestaan met een custom-behuizing voor die 3.
Als je de conclusie leest van HWI zie je dat tweakers de test deden die ze eigenlijk bij HWI moeten doen.

Daar staat namelijk dat de kaart is om te gamen over meerdere schermen. Aka resoluties van 2560x1600.

Eigenlijk staat er gewoon, KOOOP DE KAART(EN) NIET, tenzij je op minstens 2x 1600*1280 gamed.
Aan de manier waarop de conclusie is opgesteld zie je duidelijk dat ze moeite hebben gehad om een conclusie te maken die lief is voor Nvidia.

Dat betekent dat er sprake is van een goodwill (of een smak geld) van Nvidia die ze niet willen mislopen of sprake is van fanboy gedrag.

Anderhalf keer zoveel prestaties als de 580, voor minder dan anderhalf keer de prijs.
Eh ja? En wie is daar in geinteresseerd? Niemand die ooit zo'n redenatie gebruikt.
Je vergelijkt uiteraard met de directe concurent. En dat is niet een 580, maar de AMD 6990.

Maar die vergelijking maken ze dus niet, want dan zou je moeten concluderen dat de 580 veel te duur is.

Die conclusie is een mooi voorbeeld van de manier waarop je zonder te liegen toch de waarheid kunt verhullen.
Ik denk niet dat je hwinfo van fanboy gedrag kan verdenken. Het is gewoon niet de site die je moet raadplegen als je goede reviews wil. Alle reviews zijn daar zo basic en banaal dat ik niet begrijp waarom er voortdurend naar gelinkt wordt.
mooie kaart al staat daar een flinke prijs tegenover.. Volgens mij heeft ie wel een flink overclockt potentieel gezien het feit dat de chips van de GTX 580 komen. In dat opzicht kan hij dus de 6990 ver gaan verslaan mits je hem dus overclockt
Als hij echter op hogere kloksnelheden og stabiel zou zijn dan was hij vermoedelijk niet teruggeklokt door nvidia. Ik zou eerst even wachten wat OCers met poen teveel er voor resultaat mee boeken alvorens het ding te kopen om te gaan OCen. (Tenzij je zelf geld teveel hebt natuurlijk :+ )
ze clocken hem terug om het energie verbruik binnen de perken te houden. Ze kunnen hem wel op extreme snelheden laten lopen maar dan gaat het nergens meer heen met het energie vebruik. Reken maar dat hier leuke OC resultaten mee gehaald zullen worden ;)
probleem van meer energie verbruik is een grotere warmte ontwikkeling. Bij gebruik van betere koeling (waterkoeling bijv.) zal OC'en wel zin hebben.
OC'en heeft vrijwel nooit zin, behalve dan als je echt rekenkracht tekort komt. Met zo'n kaart zal dat niet gauw het geval zijn.

Hoever hij kan is alleen interessant voor de echte oc'ers, die meer met de hardware spelen dan ze een spelletje aanraken.
Als je de vergelijkingsreview leest met de 6990, dan komen ze eigenlijk tot de conclusie dat de 6990 sneller is. Bovendien als je beide max overclockt, dan wint de 6990 nog steeds.
Ik zie nooit CUDA benchmarks, terwijl die kaarten daar bij uitstek geschikt voor zijn. Kunnen er een paar CUDA benchmarks worden toegevoegd ?

Mooie kaart, ASUS heeft een variant met voltage tweak functie (zie de uitpakparty op www.nordichardware.com), reden om te vermoeden dat er inderdaad kan worden overgeklokt. Alleen stom van Nvidia dat ze dat niet al standaard hebben gedaan.

Is er al een watergekoeld exemplaar ?
CUDA is nVidia-only, en dan wordt het een beetje een WC-Eend verhaal.
Gaat rocksolid om hoe deze zich ten opzichte van andere nvidia kaarten houdt.
Natuurlijk wel interessant als je belangen bij CUDA liggen om te zien hoe deze het dan doet, wellicht is het op die manier toch prijstechnisch nog een interessant kaartje.
Klopt, en inmiddels heeft evga.com een quad-sli pack (2 kaarten) te koop voor maar liefst 1730 dollar plus btw en invoerrechten, watergekoeld dat wel. Met maar 5% overlcock, shudder.
OpenCL dan, dat werkt ook op ATI (maar heel trrraaaagg door hun slechte implementatie).
Jammer genoeg niet in SLI te gebruiken. Zou wel mooi zijn geweest.
Op dit moment een beetje een aanfluiting. Langzamer dat de concurrent maar wel een goeie 100 euro duurder.
Eens de benchmark induiken voor de tdp. De lage geluidsproductie is echt een onverwachte meevaller, maar zodra je dit beestje overklokt is dat voordeel sowieso kwijt.

Ik denk dat ik het maar bij de GTX460 2WIN hou, draait ook best en is een stuk betaalbaarder.
hoezo niet in SLI te gebruiken? Als jij 1300 euro, een SLI bridge en een goede voeding hebt kun je ook deze kaart(en) gewoon in SLI draaien.

Het enige verschil is dat je nu met 2 kaarten al op Quad SLI zit en dus maximaal 2 kaarten kunt gebruiken in plaats van 4. Dit omdat er op elke kaart 2 chips zitten
Oh okee, derp.
Bij de eerder genoemde 460 2win is dit niet het geval. Door limitaties in de gebruikte cores en on-card SLI chip om de twee aan te sturen was het niet meer mogelijk om twee van zulke kaarten in SLI te zetten. Ik dacht dat dezelfde limitatie hier van toepassing zou zijn. Schijnbaar opgelost door Nvidia. Ligt waarschijnlijk aan het gebruik van de 580 cores.
Wel gaaf, nu kunnen we zeker gekke benchmarks van mensen met net te veel geld verwachten. Ik heb er zin in.
Op naar de volgende generatie! Twee mooie afsluiters. Alles wijst er op dat de GTX6xx en HD7xxx 28nm chips gaan bevatten.

Ik vraag me alleen echt af hoe groot de markt nou voor deze kaarten is. Het lijkt me sterk dat alleen de enthusiasts dit kunnen dragen. Het tijdperk waar de consument 350+ voor een videokaart wil neerleggen lijkt voorbij. Daarnaast gaat de technologie veel harder dan de software (mede door 'consolisatie').
dat hardware volwassener is dan software die er op draait ben ik het niet mee eens: het valt me zelfs tegen als je een nieuwe game neemt: full hd en max detail draait, dat alleen de laatste generatie videokaarten er goed mee overweg kan. Vooral vanaf DX10 is dit een probleem.
Bijv. metro2033 op een gtx470 is niet vloeiend.
Games-fabrikanten ontwerpen op schaalbaarheid, zodat een game langer meegaat. Feitelijk richten ze zich tijdens de ontwikkeling op de verwachte stand van de techniek - of liever nog niets verder, zoals Crytek deed - op het moment van release. Aangezien terugschalen en features uitzetten is altijd makkelijker is dan achteraf complexiteit toevoegen, vergroten ze daarmee de levensduur van hun product.
De koeler ziet er goed uit en mooi dat hij zo stil is. Ik vraag me af wat overclock ruimte er nog inzit.... Jammer van het hoge verbruik (Watt) en het hoge prijskaartje. Waarschijnlijk een kaartje voor alleen de echte die-hard nvidiafanboys :)
nVidia heeft moeite uit een slop te komen waar ze terecht in zijn gekomen sinds ze een aantal jaar heb voortgeborduurd op de G71 en G80 (respectievelijk 7900/8800-series). Dat zie je terug door de weinig technologische voortgang die nvidia heeft genoten, waar de kaarten overigens meer zijn gaan verbruiken, minder yield overhouden, slechter zijn te overclocken en dat willen ze nog met een gangbare prijs verschaffen terwijl ati meer prestaties voor minder geld levert. Voor mij word het ook dit jaar de 7e op een rij dat ik weer voor ati kies.
GTX 590 gelanceerd, kunnen we door naar de GTX 6xx generatie. Aangezien het dubbele GPU model in de laatste drie generaties altijd de laatste zucht van de het release-schedule bleek te zijn.

Zit nog met 285's in SLI, en de 580s waren net niet interessant genoeg om te upgraden. Hopelijk is de 680 dat wel.

Wat me wel opvalt is dat veel van de 'verbeteringen' gefreubel in de kantlijn zijn -- kaart word sneller, maar bandbreedte is kleiner, wat het nette effect weer vermindert. Het blijft goed opletten voor je iets aanschaft, want een 'volgende generatie' hoeft niet effectief sneller te zijn. (Vooral het omnummeren is sneaky. :)

[Reactie gewijzigd door Rarz op 24 maart 2011 14:44]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True