Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 83 reacties

De Chinese website Expreview weet te melden dat Nvidia zijn dual-gpu videokaart, de GTX 590, op 22 maart zal introduceren, tegelijk met het spel Crysis 2. Eerder bracht Nvidia al zijn GTX 580 uit op de dag dat WoW: Cataclysm uitkwam.

Volgens het Chinese Expreview, maar ook volgens Nordichardware, wordt de GTX 590 op 22 maart geïntroduceerd. Op die dag wordt ook Crysis 2 op de markt gezet en de datum lijkt daardoor waarschijnlijk. Zo zou Nvidia de GTX 590 tijdens de Cebit gedemonstreerd hebben met Crysis 2 en Nvidia's vorige videokaartintroductie viel ook samen met de introductie van een spel. Nvidia zal binnenkort echter ook de GTX 550 Ti introduceren, dus helemaal zeker is het niet.

Er gaan al geruchten over een dual-gpu-videokaart sinds Nvidia de GTX 480 uitbracht. Die gpu's bleken echter onverenigbaar op een enkele videokaart. De introductie van de GTX 580 en GTX 570 wakkerde de geruchten weer aan, aangezien het verbruik nu beter onder controle zou zijn te houden. Tot op heden bleef het echter stil en repte Nvidia met geen woord over een eventuele dual-gpu-videokaart.

AMD introduceerde onlangs de HD 6990 en om de strijd aan te gaan met die videokaart moet Nvidia wel twee GF110-gpu's gebruiken, met 448 of 512 Cuda-cores en een 384bit- of 320bit-geheugenbus. Of Nvidia het verbruik echter onder de 375W kan houden, zoals AMD, hangt af van de kloksnelheden, die naar verwachting lager uitvallen dan bij de GTX 580 of GTX 570.

Moderatie-faq Wijzig weergave

Reacties (83)

Een HD6990 is sneller dan een GTX570SLI opstelling dus een GTX590 zal sneller moeten zijn dan een GTX570SLI opstelling wil het met de HD6990 kunnen concurreren.
Deze resultaten worden natuurlijk behaald op de resoluties waar deze kaarten in horen te opereren. Namelijk 2560x1600 en alles daarboven(multi-monitor c.q. Eye-Finity). Anders haal je z'n high-end kaart(en) niet.

Een HD6990 is 95% sneller dan een HD6950 2GB op 2560x1600 en een HD6950 2GB schaalt 87% op 2560x1600. Een HD6990 is dus sneller dan een HD6950 2GB CF opstelling.

Computerbase:
Bron1
Bron2

Ik betwijfel dus of een GTX590 Łberhaupt wel kan gaan concurreren met een HD6990.
Zelfs als de GTX590 precies twee GTX580 zal worden dan zal de GTX590 nog geen 10% sneller worden dan de HD6990 op 2560x1600. De GTX590 wordt dus of langzamer dan de HD6990 met gelijk verbruik of. De GTX590 wordt sneller met een veel hoger verbruik. Waarschijnlijk het laatste...

[Reactie gewijzigd door madmaxnl op 10 maart 2011 09:37]

De GTX590 wordt dus of langzamer dan de HD6990 met gelijk verbruik of. De GTX590 wordt sneller met een veel hoger verbruik. Waarschijnlijk het laatste...
Van wat ik gelezen heb (o.a. in het AMD nieuws discussie topic) verbruikt de 6990 maximaal zo rond de 450W. En dat zou ongeveer het maximum zijn wat 1 kaart kan verbruiken i.v.m. koeling etc. Als Nvidia meer kan verbruiken met 1 kaart zou dat alleen al redelijk knap zijn.

Je laat het alleen klinken alsof het heel slecht is van Nvidia dat ze meer verbruiken. Minder is natuurlijk beter, maar het is niet alsof deze 6990 nou zo zuinig is.

2 580's komt overeen met een TDP van ~500W, haal daar 20-30W vanaf doordat de 2 gpu's op 1 kaart zitten (dat is het verschil ongeveer tussen 1 6990 en 2 6970's) en je zit op ~25W meer dan de 6990. En 2 580's op default clocks zijn sneller dan een 6990...


Ik wil niet zeggen dat Nvidia AMD hier gaat "verslaan", ik heb geen idee welke van de 2 kaarten de snelste wordt. Ik vond het alleen wel nodig om wat tegengas te geven :p
Ja maar de TDP van de GTX580 die nVidia heeft opgegeven is niet bepaald accuraat te noemen. De chip kan als je pech hebt ook gewoon 350 watt verstoken.

Bron

De berekening zoals jij die namelijk maakt: "2 580's komt overeen met een TDP van ~500W," Is al niet helemaal correct omdat de ook TDP 350 watt kan zijn. Ook heeft de HD6970 een TDP van 250 watt en verbruikt evenveel als een GTX570 met een TDP van 219 watt, in game. In Furmark verbruikt de GTX570 75 watt meer. De TDP zegt in dit geval niet wat het verbruik is.

Kijk je dus niet blind op die TDP en ga daar zeker niet meer rekenen. HD6990 non OC stand heeft een TDP van 375 watt. In de OC stand heeft deze een TDP van 450 watt. Toch is het wattage verschil dat gemeten word in games maar 50 watt en in Furmark opeens richting de 100 watt.

Een GTX570SLI opstelling verbruikt ~100watt meer dan een HD6990 en is toch langzamer(2560x1600). Terwijl een GTX580SLI opstelling ~200 watt meer verbruikt en 10% sneller is.
Misschien dat ik dan geluk heb met mijn kaarten. Ik houd bij hoeveel vermogen mijn pc gebruikt en ik kom uit op:

PSU efficiency: ~90%
Idle: 200W -> 180W
LinX max test: 340W -> 305W
Crysis W.: ~620W -> 560W

380W verschil tussen idle en Crysis W. 70-80W daarvan gaat naar m'n cpu, de rest naar de gpu's. Zelfs als al mijn idle W verbruik naar de 2 gpu's gaat kom je nog maar uit op 90 + 150 = 240W. Ik denk echter dat overgrote gedeelte van die 180W naar andere dingen gaat dan m'n 580's.

Natuurlijk zijn er spikes in verbruik dat ie eventjes op 680W zit, dat is ongeveer 25W meer per gpu. Maar het volgende moment duikt ie naar de 560W.

GPU's worden beide 95-99% gebruikt tijdens Crysis W. dus daar zal het lijkt me niet aan liggen.
een GTX580 in SLI verbruik veel meer als 500watt.

zo'n opstelling verbruik tot piek 170watt meer als de hd6990 in OC stand
http://www.anandtech.com/...e-new-single-card-king/18
meer als 600 watt dus, als we er vanuit gaan dat de hd6990 piek niet meer als 450watt verbruikt.

[Reactie gewijzigd door Countess op 10 maart 2011 12:00]

Dan heb je het misschien over Furmark, tijdens "gewoon" gamen zoals Crysis zie je dat de 6990 ~75W minder verbruikt dan 2 580's, bij 2 6970's is dat nog maar ~55W minder. En het verbruik van de CPU zal waarschijnlijk meer zijn bij 2 580's dan met 1 6990. Het verbruik van 2 580's zal is maar een klein beetje hoger zijn dan dat van 2 6970's.
het verhaal van het CPU gebruik gaat er bij mij niet in, het FPS verschil is minimaal meestal, en in CPU limited games zie je dat nvidia het vaak een paar FPS beter doet, wat doet vermoeden dat hun drivers ze iets CPU vriendelijker zijn. hij werkt dus eerder minder hard.

en 75watt is nog altijd 2 keer zo ver over de pci-e limiet als de hd6990, en 55 nog altijd zo'n 80%. en ook het furmark verbruik zal Nvidia rekening mee moeten houden.

edit : wat ik bedoelde is dat ook met crysis de cpu dus iets minder hard hoeft te werken om de zelfde FPS neer te zetten. dus dat de iets hogere FPS geen de cpu niet meer verbruikt

[Reactie gewijzigd door Countess op 10 maart 2011 17:41]

Ze hebben het niet over cpu limited, dus daar zullen ze geen last van hebben bij Crysis.

Net ging het er nog over dat de SLI GTX 580 "veel meer" dan 500W verbruikt, nu is het: "ja maar het is wel meer dan een 6990". Je wilt dus gewoon zeggen dat jij de 6990 beter vind. Prima, maar dat voegt niets toe.

Volgens wat ik gezien heb verbruiken deze kaarten in Crysis trouwens minder dan 250W per stuk, misschien dat er ergens een klein piekje zit dat op / over 250W uitschiet.
Als ik jouw 2e bron bekijk zie ik dat de 6990 tussen de 37 en 65% sneller is dan een enkele GTX580. Dat zou dus betekenen dat een lager geklokte dubbele GTX580 met gemak sneller zou moeten zijn dan een 6990. Steker nog, je zou verwachten dat een GTX570 SLI al sneller zou zijn dan een 6990 (maar dat is niet getest, eerste bron test 6970 in CF).
als je echter naar het verbruik kijk, zie dat zowel een gtx580 als een gtx570 in SLI 100 tot 300watt meer verbruiken als de hd6990.(zelfs in OC mode.)
nvidia zal dus een flink stuk meer terug moeten klokken dan ATI dat moest.

edit: daar hebben ze waterkoeling voor uitgevonden :)

[Reactie gewijzigd door Countess op 10 maart 2011 17:35]

Als ik echter naar de geluidsproductie kijk dan mag nvidia wel 5 van deze kaarten in SLI zetten voor ze evenluid gaan klinken.
Op 1920x1200 is de HD6990 inderdaad maar ~40% sneller dan een GTX580 maar ben nou eerlijk om op een dergelijke resolutie te gamen koop je geen HD6990.
Voor 1920x1200 koop je een HD6970, GTX580, HD6950 1GB CF of GTX560Ti SLI setup.
Anandtech:
http://www.anandtech.com/...he-new-single-card-king/7
Inderdaad..
Wanneer je alleen kijkt naar de performance van de single-GPU varianten van deze kaarten en dat extrapoleert..dan zou de GTX590 zeker een deuk in een pakje boter slaan. Echter wanneer je het stroomverbruik mee gaat nemen, dan ga ik me afvragen hoe Nvidia een ding met een uitstoot van 450-500W warmte ooit in bedwang gaat houden. Het is bijna te gek als ze het echt zouden doen, een GTX590 op 580-clocks. Of ze gaan chips binnen die de kaart maar net de beste maken, maar zodanig dat ze kunnen undervolten...
gezien de lijn der verwachting en wat ze voorheen hebben gedaan zal het niet een dubbele 580 op dezelfde clocks worden. waarschijnlijk meer een 580 op 570 snelheden oid.
Met uitzondering als je bv 3d vision gebruikt van NVIDIA, en stel je gamed op 1920x1080, dan worden je frames toch zeg maar gehalveerd als ik het goed heb en houd je echt niet meer in elke game veel frames over, en kan me dan voorstellen dat mensen die op lagere resoluties gamen toch dit soort kaarten aanschaffen, want als je de aankomende GTX590 op 25060x1600 resolutie of hoger gebruikt met 3d vision dan durf ik nu al te stellen dat het ook voor deze kaart enorm zwaar word.

Verder betwijfel ik ook net als jou of NVIDIA goed kan gaan concurreren, ik gok wel dat ze koste wat kost een snellere kaart gaan lanceren maar de vraag is dan ten koste van wat?(watt) ;)
Dan het kostenplaatje , ik zag mensen in het forum al moord en brand schreeuwen dat de 6990 toch nog erg duur was in verhouding gezien, dan ben ik benieuwd wat NVIDIA voor deze kaart gaat vragen, kan me niet voorstellen dat deze kaart 550 a 600 euro gaat kosten, tevens als NVIDIA echt van plan zou zijn om 2 GTX 580 chips te gebruiken wat me sterk lijkt maar dit even terzijde , mocht men dit doen dan mag ik hopen dat ze standaard een waterkoeling blok mee leveren, want dat zal nodig zijn..

Ben al met al erg benieuwd naar het product wat ze gaan lanceren.

[Reactie gewijzigd door pino85 op 10 maart 2011 10:13]

Wordt het niet tijd om die standaard aan te gaan passen?

Zou mooi zijn als je zelf uit een paar gebruiksprofiele kan kiezen en zo het verbruik kan limiteren. Dan kun je meteen een kaart maken die boven die 375w uit kan, maar voor systemen die dat niet trekken, gewoon ingesteld kan worden om daar binnen te blijven.

Dan zou je ook meteen kunnen maken dat je kaart in 'desktop' modus op bijv. 20% capacity draait, voldoende voor vloeiend werken en 720p video, maar voor een fractie van het verbruik.
Dit bestaat allang onder de naam 2D modus hoor, elke kaart sinds Dx9 maakt er al gebruik van volgens mij, en het is steeds efficiŽnter geworden. Die 375 Watt is alleen maar het theoretisch maximaal verbruik afgaande op de aansluitingen die erop zitten, en Nvidia zou dus nog een extra power connector erop moeten maken om de kaart te voeden als hij meer dan 375 Watt verbruikt. Dit is onwenselijk omdat er vrijwel geen voedingen zijn met 2x8 pins + 1x6 pins connector. Behalve SLI/Crossfire voedingen, waar je al gelijk 20 euro meer betaald voor de exclusiviteit van dat stekkertje meer.
Doe ik al lang in NVidia configuratiescherm. Normale shader/mem/gpu snelheden draaien op minder dan 30% van haalbare. Bij specifieke applicaties (games) worden ook specifieke profielen geladen van max-fabric tot oc'et. Standaard Nvidia tools zijn daar goed in.
Dat haalt niet zo veel uit. Enkel het gpu voltage omlaagbrengen samen met de de gpu snelheden zal een merkbaar effect op het stroomverbruik hebben.
Maar misschien een betere tip: als je niet wil dat je kaart zo veel verbruikt koop dan een andere kaart die minder verbruikt. Er is keuze genoeg. met je ferrari ga je ook niet 70 op de autosnelweg rijden om brandstof te besparen.
dat gebeurt dus ook, zowel bij nvidia als ati.
Zou mooi zijn als je zelf uit een paar gebruiksprofiele kan kiezen en zo het verbruik kan limiteren. Dan kun je meteen een kaart maken die boven die 375w uit kan, maar voor systemen die dat niet trekken, gewoon ingesteld kan worden om daar binnen te blijven.
Ik denk niet dat ze dit zullen gaan doen. Waarom zou je een duurde videokaart kopen die niet op volle kracht kan draaien omdat je voeding het niet trekt, terwijl als je een wat goedkopere videokaart koopt die alle kracht gebruikt en die het wel trekt op je voeding.
Dan zou je ook meteen kunnen maken dat je kaart in 'desktop' modus op bijv. 20% capacity draait, voldoende voor vloeiend werken en 720p video, maar voor een fractie van het verbruik.
Bij NVidia gebeurt dit al, mijn videokaart draait op ongeveer 30% van zijn kracht in 2D modus. Ik weet niet hoe dit is bij AMD, want ik heb nog nooit een kaart van hun gehad.

[Reactie gewijzigd door eXtink op 10 maart 2011 09:42]

Welke standaard? Betere prestaties zorgen nu eenmaal voor een hoger verbruik.
Waarom een videokaart van 700 dollar kopen als je voeding het niet aankan? 8)7
Voor de echte hardcore gamer is het verbruik geen enkel probleem hoor.
Ik ben benieuwd of die zich kan meten met de 6990, naar het uitziet zou die on par moeten zijn of iets sneller. Zolang het geluid en verbruik iets lager is hebben ze in ieder geval wel een goede concurrent.
Als ze onder de 375watt willen blijven word hij in ieder geval trager, gezien de AMD serie wat efficiŽnter per watt is. Maar ik betwijfel of nVIDIA een kaart uit wil brengen die trager is dan zijn concurrent.
Dat is een aanname. Ja, de GTX 580 verbruikt meer dan een 6970. Echter, de 570 zit zowel qua verbruik als qua prestaties erg dicht in de buurt van de AMD single GPU kaarten Nvidia heeft dus voldoende opties om een kaart te maken die qua verbruik binnen de perken blijft (net zoals AMD < 450W) en toch beter presteert.

Over de magische grens van 375 Watt had anandtech trouwens wat opmerkingen. Het is eigenlijk voor dit soort kaarten geen belemmering. Je krijgt nog steeds een PCI-E logo. De enige reden dat dit een grens is, is dat men bi het ontwerp van de limieten niet verwacht had dat er een hogere standaard nodig zou zijn. Maar voor de klanten voor dit soort kaarten is het eigenlijk sowieso geen issue. (Al vond Anandtech de 6990 eigenlijk alleen voor een hele kleine groep mensen interessant. Een Crossfire opstelling van 6970 presteert meestal beter en is stiller en goedkoper)
even een opmerking over de 375 Watt grens.
officieel gaat de PCIe spec maar tot 300 W per kaart. Dus daar zit AMD al ruim boven de officiele specs.

2e officiele spec:
vermogen via het moederbord: 75 Watt
vermogen via 6 pins power connector: 75 Watt
vermogen via 8 pins power connector: 150 Watt
de 6990 heeft 2x 8 pins, dus samen is dat 375 Watt. Ook hier gaan ze al over de officiele specs heen omdat ze zeggen dat de kaart is ontworpen voor een vermogen van rond de 450 Watt.

zoals anandtech idd al aangeeft, als je deze kaart gaat halen zorg dan dat je een sterke voeding hebt waarvan je zeker weet dat die het hele systeem van voldoende prik kan voorzien.
Dan kunnen ze dat alleen door de max van 375W te overschrijden, misschien middels eenzelfde mechanisme als de 6990 gebruikt met een soortement van 'uberbios' waarmee de kaart hogere kloksnelheden gaat draaien.

Jammer genoeg voor Nvidia is AMD hier eerst mee, willen ze een snellere kaart dan de 6990 misschien door middel van een modus waarmee de PCI standaard word overschreden, dan zal het verbruik zonder meer hoger uit gaan vallen dan AMDs monster. En het zal een beetje geleend aanvoelen, zo'n feature.

Ik kan in elk geval niet wachten tot de eerste benchmarks!
Die kaart gaat zowiezo sneller zijn, langzamer geklokt of niet. Energie verbruik zal ook niet zp'n issue zijn en ik denk de prijs ook niet aangezien Nvidia ook dat steeds beter aanpakt.
Ben zeer benieuwd, kunnen mooie opvolgers worden voor mijn 3 GTX295's. Ik gebruik ze voor GPGPU applicaties en renderen met Octane Renderer en ook wel voor een gampepje maar dan kan ik uiteraard maar 2/4 van de 3/6 Kaarten/GPU's gebruiken.
Zal wel weer lekker knus en warm in mn kastje worden en de energienota zal ook wel met heel wat euro's omhooggaan.
En AMD kan wel de snelste kaart hebben (ook dat weten we niet zeker) maar ze bieden geen functies als GPGPU, 3D en cloudcomputing en laten dat nou net de dingen zijn die ik wil gebruiken :)
maar ze bieden geen functies als GPGPU, 3D en cloudcomputing
hebben ze allemaal wel, met het verschil dat ATI zich achter open standaarden heeft geschaard, ipv altijd de eeuwige propitiatory gedoe van nvidia.
Ik lees idd net dat ATI OpenCL ondersteunt inderdaad maar ik weet ook dat nvida dat ook ondersteunt en ook nog eens CUDA (wat een behoorlijk krachtige techniek is).
CUDA is ten dode opgeschreven. het is niet krachtiger het is enkel eerder op de markt en daardoor zijn de ontwikkel tools iets verder ontwikkelend.
zodra de tools van openCL op het zelfde nivo zitten zal cuda snel verdwijnen omdat er dan geen enkele reden meer is om je enkel aan nvidia te binden als je met openCL alle massive-parallele hardware can aanspreken (van gpu's tot supercomputers)

[Reactie gewijzigd door Countess op 10 maart 2011 14:25]

mwah, d'r zijn een hoop mensen gewend geraakt aan cuda programmering, zolang nvidia het blijft ondersteunen zal het wel blijven bestaan.

dat "cuda gaat dood" gedoe de hele tijd, ja, ooit, voorlopig nog niet.
hebben ze allemaal wel, met het verschil dat ATI zich achter open standaarden heeft geschaard, ipv altijd de eeuwige propitiatory gedoe van nvidia.
Laat 10 linux gebruikers kiezen tussen de open ATI drivers of de gesloten NVIDIA drivers.

[Reactie gewijzigd door aval0ne op 10 maart 2011 14:45]

hehe, snel gemaakt de keuze, kreeg mijn HD 4850x2 + HD 4850 in crossfire nooit aan de gang :( (maar dit zal te maken ehbben omdat er maar 1 exemplaar van bestaat en dat is die van Sapphire). Maar dan heb ik wel ff een heel lastige setup gekozen om te testen.

Voor de rest, heb een HD 4770 wel aan de gang gehad.
Dat betekent dus driver optimalisatie voor Crisis2 met nVidia. Zal wel gebruikt worden als marketing tool om te laten zien dat ze AMD/ATI ownen.
Zo veel optimalisatie is niet nodig voor Crysis 2. Deze valt ook niet zo zeer te vergelijken met Crysis 1. Deze game was te fotorealistisch en de engine was niet gefixeerd op het creŽren van een game maar eerder voor simulaties.

Crysis 2 loopt overigens prima op de laatste videokaarten vanaf de GTX460/HD5850 en hoger.
Zou ik ook doen als GPU bakker: De opvolger van de titel die jaren lang de kroon had betalen om z'n game voor MIJ te optimaliseren.
de echte vraag is of de uitgeleende engineers van nvidia weer eens 'optimalisaites' gaan toevoegen die nadelig werken voor ATI kaarten.
is crysis2 weer een TWIMTBP game?
en heeft ATI al wel toegang gekregen tot de game?
of gaan we een volledige geoptimaliseerde nvidia gtx590 driver voor crysis2 zien waar ATI nog practiesche moet gaan beginnen. (of hebben de engineers van nvidia zelfs weer 'optimalisaties' bij de game toegevoegd die nadelig werken voor ATI.)

hoe zwak ook, zou een mooie PR coup voor nvidia zijn natuurlijk...

[Reactie gewijzigd door Countess op 10 maart 2011 11:53]

Moest Crysis nu een ATI gesponsored game worden zou je het dan ook zwak van ATI vinden en sneu voor NVIDIA?

Ik dacht het ook niet. Zoiets noemen we hypocrisie.
Ik denk dat als de 590gtx uitkomt er vast wel meerdere games getest worden naast crysis 2 . Dus als crysis 2 de enigste is waarbij de 590gtx beter presteert als een 6990 dan zullen alle bekende review sites er wel woorden over reppen. Ze zullen bij Nvidia echt wel proberen om in alle games sneller te zijn. :)
En ze zullen reviewsites wel pushen om met name nVidia-pre titels te testen, zoals Mafia 2, Bad Company 2, Crysis 2 dus en bijvoorbeeld Metro2033... In Far Cry 2 schaalt CrossFire namelijk wel eens beter dan 100% en dat wil nV liever niet verliezen... Black Ops zullen ze wel moeten en F1 2010 verliezen ze wss...
Beter dan 100% lijkt mij lastig. Dat betekent dat 2 kaarten in Crossfire meer dan 2x zo snel zijn als de losse kaarten. Zeker bij GPUs met veel losse "cores" is dat vrijwel onmogelijk.
Dus als in een game NVIDIA sneller is dan zijn het NVIDIA titels en mogen ze niet getest worden? Maar enkel als ATI sneller is? Da's een lekkere logica.

In elk spel zal ofwel NVIDIA ofwel AMD sneller zijn, leer er mee leven.
Die 590 zal je ook niet nodig hebben voor Crysis 2, de gfx vallen in het niet bij Crysis/Crysis:Warhead en bijvoorbeeld Metro 2033 (A4 games, makers van Metro 2033, zijn er overigens wel in geslaagd om een engine te maken die zowel op console als PC draait, maar er ongelofelijk goed uitziet op de PC).

Ik ben niet van plan een enkele kaart met 2 GPU's te kopen, maar ben benieuwd hoe deze presteert tegenover een 6990. Waarschijnlijk halen ze allebei zo'n hoge framerate dat het niet eens uit maakt welke je hebt, het verschil tussen 100 en 105 zie ik toch niet.

[Reactie gewijzigd door Thomas op 10 maart 2011 09:42]

Ik vind het wel wat apart dat ze toen de GTX580 uitbrachten samen met WoW: Cataclysm. Mijn mobiele telefoon voldoet aan de minimum eisen van WoW....
(note, Galaxy S, 1GHz CPU, 512MB ram, WoW vraagt 800MHz en 512MB, tis dat mijn mobiel geen x86 heeft)

[Reactie gewijzigd door Amanoo op 10 maart 2011 12:08]

WoW VROEG 800 mhz en 512 MB. Ik weet niet hoe oud dat spel intussen al is, maar intussen liggen de systeemeisen al stukken hoger. Niet dat een gtx 580 nodig is maarja.
uhm.. ja.....
ga eerst eens intensief WoW spelen met max graphics voordat je oordeelt.
Dat wordt spannend, ben benieuwd of ze AMD van hun troon kunnen stoten. Is er al een goede preview van te vinden?
De kaart zal vast wel erg goed presteren in Crysis maar of de kaart ook in andere zaken erg goed is moet je maar afwachten.
De kaart presteert waarschijnlijk fantastisch. Dit aangezien de prestaties boven die van de GTX 580 zouden moeten komen te liggen. Daar maak ik me dus in geen enkel spel zorgen over. De vraag is meer: Hoeveel kost het, hoeveel verbruikt het en hoe verhoudt het zich tot de GTX 580 en AMD 6990. Maar performance is een non issue hier....
Dat de GTX590 beter zou moeten zijn dan de 580 lijtk inderdaad een vereiste, maar ik betwijfel het of dat in alle spellen kan worden gehaald: SLI heeft namelijk vreselijke schaling (op zijn allerbest 70%). Een game zoals crysis, waar nVidia de developer met tonnen geld heeft overspoeld om de engine toch maar op SLI af te stemmen, zal dus idd mooie benchmarks kunnen presenteren voor de GTX590.
Of de gemiddelde game die 2GPUs goed zal benutten is nog maar de vraag. In het slechtste geval blijft de 2e GPU dan onbenut. maar aangezien deze 2GPUs lager geklokt zijn dan de 570 en 580, ben je in bepaalde gevallen dus beter af met een van die kaarten vrees ik.

nVidia heeft zichzelf dus wat de das omgedaan met hun extreme energieverbruik: AMD heeft sinds de 4000 serie extreem hard ingezet op schaling (hun beste single-GPU kaart was nooit beter dan die van nVidia, en dat was ook neit AMDs doel, maar wel goedkoper, terwijl CrossFire n hun dual-GPUs beter schaalden, waardoor AMD toch weer itneressanter werd) terwijl nvidia de aloude strategie van grotere dies en meer rauwe prestaties bleef aanhouden.

Als je kijkt naar de productpipeline van de twee bedrijven zal de GTX600 serie mogelijk wel een grote verandering worden van nVidia: dat ontwerp is namelijk begonnen rond de tijd dat de HD4000 uitkam. Met de volgende generatie zullen we dus pas nVidia's echte rezactie zien op AMD's zuinigere strategie van kleinere dies en betere schaling.

Ik ben benieuwd :)

[Reactie gewijzigd door kiang op 10 maart 2011 11:49]

Jouw bronnen zijn behoorlijk achterhaald anno 2011.
SLI heeft tegenwoordig een veel betere c.q. buitengewoon goede schaling (vanaf de GF400-series in ieder geval).

EDIT: Bovendien heeft AMD/ATI bij veel games het probleem dat CrossFireX simpelweg niet werkt (waar SLI dat in de meeste gevallen beter doet).

[Reactie gewijzigd door Chť Mig op 10 maart 2011 18:20]

Het is ook behoorlijk achterhaald om te zeggen dat CrossFireX simpelweg niet werkt.
De 5k en zeker 6k serie schalen goed, minstens net zo goed als SLI, en soms beter.

Bron
http://www.computerbase.d...chnitt_directx9benchmarks
Bron voor je claim dat CF altijd beter heeft geschaald dan SLI?
Crossfire is namelijk pas echt goed geworden met de 6900 Nvidia heeft wat dual-gpu opstellingen bijna altijd 80+ % gehaald.
Er is geen bron. De laatste keer dat SLI/CF schaling werd onderzocht is door TH en die kwam tot de conclusie dat ze beiden evengoed schalen. Als CF wou werken tenminste, SLI werkt nog altijd in meer games dan CF. En ja ook bij grote titels (SC2 bijvoorbeeld).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True