Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 154, views: 26.358 •

AMD's HD 6990 komt op 8 maart beschikbaar, maar alle specificaties zijn al uitgelekt. De videokaart zou maar liefst 375W kunnen verbruiken en gemiddeld 67 procent sneller zijn dan een GTX 580. Ook kent de videokaart een overklokfunctie.

De website DonanimHaber publiceerde een groot deel van AMD's perspresentatie, die praktisch alle relevante informatie bevat; de slides lijken echt. De HD 6990 is opgebouwd uit twee Cayman-gpu's, zoals die ook voor de HD 6970 worden gebruikt. Dat betekent dat alle 1536 streamprocessors zijn geactiveerd. Samen zijn ze dus goed voor 3072 streamprocessors, nog altijd minder dan de 3200 streamprocessors van de HD 5970, maar door de nieuwe architectuur moet de HD 6990 ruimschoots sneller zijn.

De twee gpu's hebben standaard een kloksnelheid van 830MHz, terwijl het geheugen, 2GB per gpu, op 5000MHz tikt. Al met al zou de videokaart 375W kunnen verbruiken, maar als het verbruik daar overheen dreigt te gaan, grijpt PowerTune in door automatisch de kloksnelheden te verlagen, zodat het verbruik maximaal 375W bedraagt. Daarentegen zou het verbruik in spellen eerder rond de 350W liggen. AMD ontwierp de videokaart echter met een verbruik van 450W in het achterhoofd. De videokaart is namelijk met twee bios-chips uitgerust.

Zodra de bios-schakelaar wordt omgezet, nemen de kloksnelheden automatisch toe tot 880MHz, evenveel als een HD 6970. Ook de spanning neemt toe, van 1,12 tot 1,175V. Hierdoor zou het theoretische verbruik op 450W komen te liggen. Dat valt echter buiten de pci-e-specificatie en volgens de slides valt de kaart niet onder de garantie van AMD als hij in deze modus wordt gebruikt. In de overgeklokte modus zou de HD 6990 gemiddeld 67 procent sneller zijn dan Nvidia's GTX 580.

AMD publiceerde al eerder een aantal foto's en de HD 6990 werd ook getoond tijdens de Cebit. In het midden van de videokaart bevindt zich een centrifugale koeler, die koele lucht vanuit de kast over beide gpu's heen blaast. Dat betekent wel dat een deel van de hete lucht de kast in geblazen wordt. Ook maakt AMD gebruik van een nieuw soort thermal interface-materiaal, wat de koelprestaties eveneens ten goede moet komen. Vier mini-displayports en een dvi-poort maken het mogelijk om vijf schermen aan te sturen.

HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers

Reacties (154)

Reactiefilter:-11540141+174+22+30
dan mag ik mijn voeding alvast vernieuwen o_O
Ja, zo'n recent getoonde 1,5 kW voeding moet 'm wel doen.
Zovelen dachten dat zal nooit "nodig" zijn, zie hier een reden :P

[Reactie gewijzigd door Fireshade op 3 maart 2011 18:30]

slechte zaak dat zulk soort voedingen gebruikt worden, net een wasmachine die constant aanstaat.
Het houdt natuurlijk niet in dat de voeding dit constant verbruikt. Dat is natuurlijk afhankelijjk van hoeveel het systeem zich moet inspannen.
neen, alsof die voeding ook de heletijd 1500 Watt uit de muur zal trekken, natuurlijk niet.
In idle zal dat nog altijd rond de 200Watt zijn, full load is wat anders natuurlijk, maar je moet altijd overdimensioneren, je wilt niet tot op de grens je voeding belasten. Ik zit nu ook met een 1200Watt voeding in mijn pc, maar die wordt lange na niet ten volle benut, max load is nu maar zo'n 600 watt, maar dat gaat in de toekomst nog wel veranderen. Ware het ook niet dat ik deze voeding toevallig erg goedkoop kon krijgen, keuze makkelijk gemaakt, liever te veel dan te weinig. bijkomend voordeel is dat zulke zware voedingen vaak uit zeer goeie componenten bestaan en ze over het algemeen zuiniger zijn bij dezelfde belasting als (bijvoorbeeld) een goedkoop 600 Watt exemplaar. die van mij is dan ook nog eens 82+ gecertificeerd.
Verhaaltje heeft dus meerdere kanten, niet te kort door de bocht denken dus.

[Reactie gewijzigd door BruT@LysT op 3 maart 2011 19:29]

nee, een voeding heeft een curve: bepaalde vaste en een bepaalde dynamische overhead. Bij 75% tot 90% is een voeding geloof ik het zuinigste, is afhankelijk van de voeding.
volgens mij klopt dat niet, en is een voeding bij belasting van 30% - 60% het meest efficient.
de mijne iig wel, zie http://www.nexustek.nl/Ne...et_Power_Supply_1100W.htm
een voeding is het meest efficient tussen de 80 en 90%.
Dit natuurlijk afhankelijk van het merk en type voeding.
met een 800W voeding lukt dit ook zonder problemen hoor, heb je heus geen 1.5K voor nodig...
Man zelfs met een goede 750 watt voeding moed het makkelijk kunnen, ik heb een Intel Core i7 920 OC naar 3.66GHz en 6GB 1866MHz ram dat op 1833MHz draait, en X58 MB, en 2x Geforce GTX 460 1GB, en 2x 250GB HD en 2x SSD 30GB, en 6 fans en dat gebruikt als ik Crysis draai 465watt max.
Daarentegen zou het verbruik in spellen eerder rond de 350W liggen.
Dan moed een goede 750 Watt voeding geen probleem zijn, want 2x Geforce GTX 460 1GB gebruikt op standaard clocks all 320watt (2x 160watt).

[Reactie gewijzigd door AmigaWolf op 4 maart 2011 00:00]

Met 4 van die kaarten in Crossfire kom je al heel dicht in de buurt daarvan, althans als je de overklokmodus niet gebruikt, en dan is de resterende 400W waarschijnlijk net genoeg voor de rest van het systeem en een beetje headroom,

Not my cup of tea, zou geen verwarming meer nodig hebben in huis, en electrisch stoken is wreed duur.
Met 4 van die kaarten in Crossfire
Jammer genoeg kan je maximaal maar 2 van deze kaarten in crossfire zetten aangezien het een dual gpu kaart is. Daarbij komt nog dat 2 van deze kaarten al samen bijna 750 watt verstoken en met 50 watt red je het niet voor de rest 1000 watt is dan minimaal. 1200watt zou voldoende moeten zijn.
2 crossfire kaarten en er dan 1 dual gpu kaart in van nvidia voor physx met de leuke mod moet deze wel weer aan zijn te krijgen :p
Je hebt geen 1500W voeding nodig om 375W te mogen trekken hoor... Of verbruikt de rest van je PC meer dan 1000W :?
375w voor 1 videokaart, in een CrossFire opstelling 750 watt
200w voor 1 processor, in een dualproc opstelling 400 watt
reken dan nog 150 watt voor de overige componenten (geheugen, 6 HDD's, MB enz.)

Kan je zo aan de1300watt komen, en dan kan je 1500watt voeding wel gebruiken. Ik snap dat dit een monsteropstelling is maar als het kan zal het vast wel voorkomen.
Wat een flauwekul. De zwaartste CPU heeft een TDP van 130W en dat is *niet eens* het maximumverbruik. Geheugenreepjes zijn ongekoeld, dus verbruiken misschien 2W per stuk. Harde schijven zullen tussen de 5 en 10W per stuk verbruiken. Northbridge is tegenwoordig bijna niks meer en southbridge verbruik ook echt niet meer dan 10W, gezien die passief gekoeld worden.

Ik vind het dus een nogal buitensporige overschatting die je maakt.

Bovendien had ik het over 1 videokaart. Als je er twee van maakt, ja natuurlijk moet je dat dan verdubbelen.
Een beetje tweaker laat zn processor niet op standaard snelheden lopen. 200 watt haal je echt wel met een degelijke proc waarbij je wat extra ghz'en en voltage hebt gepropt.
Jep, wat een waanzinnige kaart. Wel lekker dat AMD 'm vanaf de fabriek al bruikbaar maakt als praktisch 2 6970s op 1 die, iets wat met de 5970 alleen kon worden bereikt met een aftermarket cooler door de enorme hitte van oa de VRMs.

Ik kan niet wachten op de benchmarks tegenover de 590. Reken maar dat ook het maximale verbruik van die laatste werkelijk idioot zal zijn. Gezien de fabrikanten zich aan een PCI-standaard moeten houden denk ik het potentieel van de 590 flink aan banden dient te worden gelegd om daaraan te voldoen vanaf de productielijn, hierbij aannemend dat het om 2 580 GPUs op 1 PCB gaat. Bij de GTX4xx serie is zo'n dual GPU kaart zelfs achterwege gelaten omdat dat gewoon niet haalbaar was. En dan te bedenken dat beide kaarten straks unlocked en unleashed te tweaken zijn, spannend! :D

Edit: moet trouwens zeggen dat de clocks niet eens zoveel schelen met de 6970 in tegenstelling tot het forse verschil tussen de 5870 en 5970 speeds... Nice!

[Reactie gewijzigd door Singular1ty op 3 maart 2011 18:53]

WOW :D dat kaartje zou ik wel willen hebben... Alhoewel ik mijn vraagtekens heb bij zo'n overclockfunctie... Ik zou niet zo'n dure kaart gaan overclocken (niet voor 24/7 iig.) maar het is wel leuk voor een CFX opstelling met bijvoorbeeld 4 van die kaartjes :P
Je kan maar 2 van deze kaarten in crossfire doen.
maakt weinig uit, boven de 2 kaarten schaalt het doorgaans voor geen meter
Je bedoelt boven de 4 kaarten aangezien dit heus niet beter/slechter hoeft te presteren als 4 HD6890's (uiteraard zitten er wat verschillen, maar dat zal elkaar niet veel ontlopen)...

Dus eigenlijk kon je volgens mij beter zeggen dat het boven de 4 GPU's niet lekker meer schaald (ik zeg bewust geen cores want dat zijn er 15xx per kaart).

[Reactie gewijzigd door watercoolertje op 3 maart 2011 15:56]

ik bedoelde boven de 2 single gpu kaarten schaalt het al slecht. Er zullen vast uitzonderingen zijn.
Ik zou niet zo'n dure kaart gaan overclocken (niet voor 24/7 iig.) maar het is wel leuk voor een CFX opstelling met bijvoorbeeld 4 van die kaartjes :P
Meer dan 2 van deze kaarten zal niet gaan werken aangezien er 2 GPU's per kaart aanwezig zijn, en je maximaal 4 GPU's in je systeem kan hebben.
Vier losse GPU's kan onder windows (of andere OS'en) ook wel hoor. ;) Hij doelt natuurlijk op crossfire en octa-crossfire gaat hem ook niet worden in linux.

Sowieso vraag ik me af waarom iemand zo'n dikke gamers-kaart zou kopen en dan linux zou gaan draaien, maar goed.
Ik ken praktisch niets van rendering, maar misschien kunnen tools zoals Blender onder Linux gebruik maken van de GPU('s) om beelden sneller te renderen...
Het is een switch(schakelaar) met 2 kanalen kanaal 1/2 is voor de overclock functie als jij hem dus omzet gebruik je hem niet.
het is wel leuk voor een CFX opstelling met bijvoorbeeld 4 van die kaartjes :P
Kom maar met je 2kW voeding. 8)7
nee1500, maar jij denkt dat de rest van je systeem geen energie nodig heeft?
Sorry dat ik jullie onderbreek maar het is nog niet mogelijk om dergelijke kaarten in quad crossfire te draaien. Dit komt doordat je slechts 4 GPU's in je systeem kunt hebben.
nieuws: Cebit: MSI toont Marshal-moederbord

"Het is zelfs mogelijk om acht AMD-videokaarten tegelijk te benutten."

Moet geen probleem zijn denk ik met deze videokaart of het gaat om het gebruik van 8 pci slots maar dat staat niet duidelijk in het artikel.
Dat gaat met een Hydra chip wat iets anders is dan CF. En bovendien heb je single-slot kaarten nodig. Dus bvb 8x HD5450 kan dan wel.
waterkoeling oid
Uit jouw verwijzing
De P67-chipset biedt onvoldoende pci-express-lanes om vier videokaarten aan te sturen
Dat bord kan niet eens 4 kaarten volledig benutten.
Lees dan eens meer dan 1 regel

De P67-chipset biedt onvoldoende pci-express-lanes om vier videokaarten aan te sturen. MSI maakt dan ook gebruik van een Lucid-chip die voor de extra lanes moet zorgen. Videokaarten kunnen dankzij de chip in quad-crossfire-modus worden gebruikt met acht pci-express-lanes voor elke videokaart. Het is zelfs mogelijk om acht AMD-videokaarten tegelijk te benutten
dat verschuift alleen de bottleneck, het werk maar uiteindelijk zit die hydra ook weer aan de P67
Alhoewel ik mijn vraagtekens heb bij zo'n overclockfunctie...
Wrom? Het zit erbij, dus het moet gewoon ondersteund worden. Het mag dus in geen geval je kaart kapotmaken.
Omdat AMD geen garantie geeft als je die modus gebruikt? Vraag me trouwens af hoe ze daar achter gaan komen, als ik mijn kaart daarmee zou slopen zet ik natuurlijk even het knopje terug voordat ik hem rma stuur.

Of bedoelen ze geen garantie dat het werkt?

[Reactie gewijzigd door coffeejunkee op 4 maart 2011 15:19]

HD 6990 kan 375W 450W verbruiken
Ik kan me nog heugen dat een 100W voeding een stevige was....

Vage BIOS overklok? Je kan het aanzetten, maar technisch is het waarschijnlijk onbruikbaar?
Nee het is juist in 9/10 gevallen wel bruikbaar maar omdat het niet volgens de officiële pci-e specs is bieden ze dus geen garantie dat het werkt op alle moederborden...

[Reactie gewijzigd door watercoolertje op 3 maart 2011 16:21]

Technisch is het prima bruikbaar, alleen ga je dan nog grover over de PCI-e-specs heen, en dat betekent dat AMD voor de garantie kan opdraaien. Verder wil men meer prestaties, en zo lang de stroomrekening je niet interesseert, voldoet dit aan de wensen.
AMD draaid dus helemaal nergens voor op. Er staat op dat bios switch plaatje dus duidelijk dat er geen garantie word gegeven op welke overclock dan ook. Dus ook de bios switch en software OC.

Leuke showcase kaart, maar ik had het idee dat de oudere dual GPU kaarten toch meer op daad werkelijk gamen gericht waren, in plaats van extreme overclocks.
Het stroom budget is er gewoon niet meer naar. Neem een dual GPU HD 5970, die verbruikt 294W, net onder de PCI-E specificatie grens van 300W. De single GPU variant HD 5870 zit op 188W. Dan heb je dus nog bijna 112W ruimte over om tegen extra stroomverbruik extra prestaties te realiseren. Dat is doenbaar en daardoor is de 5970 zelfs op dit moment in sommige spellen nog altijd de snelste kaart.

Nu doet een 6970 al 250W waarbij hij zichzelf onder extreme belasting (Furmark e.d.) al een beetje terugschakeld om niet teveel te verbruiken. Waar moet je dan nog heen met je dual GPU kaarten vraag je je af. Over de PCI-E specificaties heen zegt AMD, wat mij een zeer slechte zaak lijkt, die beperkingen zijn er niet voor niets. Maar goed, blijf je binnen de 300W dan presteert de 6990 mogelijk maar 20-30% beter dan de 6970, wat toevallig ook erg dicht bij de toegenomen hoeveelheid vermogen ligt. Ga je naar 375W dan kun je al 50-65% meer prestaties bieden en wordt de kaart interessant voor gamers. Met 450W kun je 80-100% meer prestaties bieden dan de 6970.

Dual GPU kaarten gaan verdwijnen verwacht ik, zeker wanneer de volgende generatie single GPU kaarten al 300W verbruikt. Dan heeft het geen zin meer omdat ze domweg geen behoorlijke prestatiewinst meer met een dual GPU kaart kunnen bieden, zelfs niet met 375W, of ze moeten dan standaard al naar 450W gaan. Knap van AMD dat ze die 450W weten te koelen overigens en bovenal dat ze toch nog wat meer prestaties uit 2 GPU's weten te persen dan bij hetzelfde verbruik met 1 GPU, maar de verschillen zijn nu al niet heel groot meer.

Je kunt prima 4x de 6970 in een moederbord steken dat daarvoor gemaakt is en je bent sowieso beperkt tot een maximum van 4 GPU's totaal. Dual GPU kaarten hebben uiteindelijk dus maar weinig voordeel boven single GPU kaarten, anders dan dat je met een goedkoper moederbord wegkomt. Dual GPU kaarten krijgen wel steeds meer nadelen, want een koeler die 450W moet wegwerken in 2 slots hoogte is zonder meer een aanslag op de systeemtemperatuur en vooal nog je gehoor, dat kan niet anders.
Dual GPU kaarten zijn min of meer een farce bedoeld om de prestatie benchmarks aan te kunnen voeren. Ze zijn niet kosteneffectief qua performance winst. Ze creeren onnodige warmte die beter met single CPU kaarten afgevoerd kan worden etc.

Ik ben het voor de goede orde dus geheel met je eens. Ik vraag me alleen af waarom je beperkt zou zijn tot 4 GPU kaarten. Je hebt een beperking in PCI-E lanes, maar als je 8 bits gebruikt hou je de meeste kaarten ook wel op 95% van hun capaciteit en is dat dus niet de beperkende factor.

Wat ik een schande vind is dat om die performance kroon maar te mogen claimen een fabrikant een knop er op zet met ´RAAK MIJ NIET AAN¨ erop. Wetend dat de benchmark sites dat allemaal zullen doen op goed geconfigureerde systemen met overbemeten PCI-E voedingscapaciteit.

De consument heeft vervolgens geen garantie op de werking stelt AMD, dus die knop is puur voor benchmarking = marketing gemaakt.

Zet er dan een trechter op voor stikstof koeling met een sticker ´PAS OP LEVENSGEVAARLIJK NIET GEBRUIKEN´. Als Nvidia morgen zo´n 590 uit zou brengen zou toch ook iedereen inzien dat dit gewoon kopersbedrog is.
"Over de PCI-E specificaties heen zegt AMD, wat mij een zeer slechte zaak lijkt, die beperkingen zijn er niet voor niets."

Dat is inderdaad de oplossing, een knopje waarmee je de 300W limiet uit kunt schakelen. Maar waarom zijn die beperkingen er dan eigenlijk? Want ik weet dat de limiet 300W is maar waar is die op gebaseerd? En waarom is er eigenlijk sowieso een limiet? Het gaat toch buiten het moederbord om, de enige eis is dat je voeding het aan kan...

Single gpu kaarten die 300W verbruiken, het zou kunnen want wat er nu gebeurt lijkt een beetje op de Pentium 4. Niet snel genoeg? nou, extra power erbij dan. Maar het zou natuurlijk ook kunnen dat ze een Conroetje gaan doen met de volgende schaalverkleining.
Hoef ik geen gta 2 meer te spelen!!! w00t.

dat wordt mijn geforce 250gts weer vervangen denk ik.
mijn voeding is dan ook aan vervanging toe.
En kan ik er weer tegenaan knallen op mijn 129 cm televisie:D
Ja, ja. Je TV gaat ook echt een hogere resolutie dan 1920x1080 weergeven.....
Maar het kost wel vermogen om meerdere pixels te weergeven.,
mijn huidige videokaart kan het moeilijk aan, en is toch wel een degelijke.
maakt ook heel veel lawaai trouwens.

hoop dat deze videokaart wat stiller is.
Met 375 watt (of zelfs 450 watt!) kan ik je nou al wel voorspellen dat je deze kaart niet moet halen omdat die zo stil is. Zoveel hitte afvoeren gaat gegarandeerd met een hoop herrie.
Het kost vermogen om pixels weer te geven? Jou videokaart stuurt door welke pixels welke kleur etc moeten hebben. pixel=pixel grootte van pixel maakt niet uit. En de TV zuipt de stroom wel uit het stopcontact.
de resolutie blijft 1920x1080, alleen worden de pixels uitgerekt.
ik denk dat je beter een GTX 570 kan halen: stil en goed genoeg voor die resolutie.
En niet vergeten om een extra groep in de stoppenkast te laten plaatsen :P
Heb juist voor dit soort ontwikkelingen een aparte groep laten trekken naar mijn pc kamer :+
Zeg mensen doe het dan ineens te goei he en tap af bij je buren :9
Nou, wees er maar trots op. Ik zou het knapper vinden als ze het principe van 'meer-met-minder' zouden volgen en hogere performance met minder power konden laten zien
Daar zijn ze ook mee bezig. Straks komen de Bulldozers (desktop) en de Bobcats (laptops) als je die specificaties bekijkt, en vergelijkt het verbruik met een gelijkwaardige CPU + GPU, dan is dat een goede vooruitgang...
AUSUM
Antilles Unlocking Switch for Uber Mode :+
Zo, 450Watt. Nu maar zien of ook nVidia zo'n non standaard oplossing gaat introduceren. Maar men doet er blijkbaar alles aan om vooral de snelste kaart te bouwen. Met 66% meer dan een 580 in de "overclock modus" ben ik benieuwd hoe de kaart zich verhoudt tov de 580 bij "standaard" gebruik.

Lijkt me trouwens interessant te zien wat er gebeurd als je dit ding in Crossfire wil zetten? Joepie 900W naar de videokaarten ;)
Kun je de centrale verwarming uit laten komende winter
Behoorlijk efficient toch? Kun je je besparen op je gas door veel te gamen!

Groener wordt het niet :P
Nu bij 2x 6990 in Crossfire... Een gratis kerstkaart van Essent/EON/Nuon ;)
Niet echt, electriciteit is niet de beste keuze als het om verwarmen gaat.
Dan heb je straks gewoon 2 losse voedingen nodig van 1000 watt :o eentje vcoor je dik oc'ed CPU + Mobo + schijffies + (blueray) fikker, en eentje voor de videokaarten... of je hangt er gewoon een 4KW Server PSU in :P
Bwaaa... Stroomverbruik komt eigenlijk neer op 2x 6970 als hij in OC modus draait. Ik draai nu een i7 systeem met een 6970 met een voeding van 550W. Hij heeft niet heel veel over maar het is wel voldoende. Tel er 250W bij voor de tweede 6970 en met 800W kom je (net) toe. Een enkele voeding van 1000W is dus ruim voldoende.
Sterker zelfs, ik heb een 750W voeding en die draait prima een i7 950 @ 4GHz en 2 GTX 580's (samen met geluidskaart, 4 HDD's, 6 fans, DVD speler en randapparaten).

Maar 450W voor de echte dual 6970's en die is dan 'maar' 70% sneller als een 580? Ik dacht juist dat CF enorm goed schaalde en dat ze dus wel 90% sneller zouden zijn.
Het zou maximaal 80% kunnen zijn, gezien 1 6970 ongeveer 10% langzamer is dan een GTX580.

Vergeet verder niet dat het om gemiddeldes gaat, niet maximaal!
Als je alle resolutiens neemd is de gtx580 13% sneller.
Verder schaald sli ook weer beter dan 2 maanden trug in nieuwe games.
Ze zijn hardbezig met de driversbij nvidia en de schaaling is zichtbaar beter geworden.
.
Dan vraag ik mij toch af of een moederbord niet lichtelijk begint te roken als je daar 900 watt doorheen voert. Of worden deze kaarten via een externe power aansluiting gevoed?
Yep daar heb je een losse (meestal 2 bij deze kaarten ;)) PCI-Express kabels voor nodig, die vanuit je voeding komen zie HIERO

[Reactie gewijzigd door _-SaVaGe-_ op 3 maart 2011 16:40]

PCIe kan tot 75 watt door z'n slot kwijt, daarboven moet je apart aansluiten.
En dan vroeg gisteren nog iemand wat je met die >1kW voedingen moest die op CeBit worden getoond :P
Het wachten is op de eerste PC met 3-fase 400V krachtstroom aansluiting
Waarom, een stofzuiger trekt ook 2000Watt door het stopcontact, en verschillende apparatuur ook, stoppen gaan tot 3600watt en volgens mij tegenwoordig al weer hoger, dus waar heb je in hemelsnaam krachtstroom voor nodig?
Logisch dat deze 60% sneller is als de GTX580 want het is zover ik weet een single chip kaart en dit een dual chip dat is dus druiven met meloenen vergelijken. In de praktijk zal het verschil wel rond de 45% liggen maar dit valt nog te bezien.
Fenomenaal stroom gebruik heeft deze kaart! naast alle stroom reducerende verbeteringen in de PC unie is dit toch wel een doorn in het oog van het energie beheer maar het is natuurlijk wel leuk als het renderen nu met ongekende snelheid zal gebeuren.
Ik hoop dat ATI met deze kaart ook iets aan de nog steeds zwakke driver ondersteuning gaat doen, ik hoor hier nog steeds veel klachten over.
Oninteressant uit hoeveel fysieke chips de kaart bestaat. Uiteindelijk bestaan die chips ook weer uit stapels cores. Waar het daadwerkelijk om gaat is gewoon de prestaties.

Zwakke driver ondersteuning is al jaaaaren geen issue meer. Behalve dan voor spellen die via TWIMTBP opzettelijk door Nvidia gesaboteerd worden.
Mwah, ik wil geen AMD kaart in een PC die ook als HTPC moet dienen. Mijn ervaringen met nvidia drivers zijn op dat gebied echt een stuk beter.
Deze kaart is natuurlijk ook niet bedoelt als HTPC videokaart... :+

Daarbij zijn drivers van ATI al lang geen issues meer, zeker niet wanneer je gewoon netjes iedere maand je driver update, want ATI brengt maandelijks een nieuwe driver uit, daarbij bieden ze ook CF optimalisaties middels losse updates.
Maar goed dat is altijd weer zo'n discussie die nergens over gaat, beide kampen hebben zo hun voor en nadelen.

Wat betreft die 6990, het blijft leuk zo'n kaart, dit is natuurlijk dik over de top qua stroomverbruik en performance, maar daar is de kaart ook voor bedoelt, qua opgenomen vermogen vs prestatie doen ze het niet slecht, dit is de top van het videokaarten segment, beter kun je niet krijgen, dan moet je niet zeuren over vermogens, degeen die dit koopt kan ook wel een dikke voeding betalen.
Hulde ATI, nu weer wachten op het antwoord van Nvidia's GTX590(?!) .
nu weer wachten op het antwoord van Nvidia's GTX590(?!) .
of een dual GTX600 ofzowiets :P

[Reactie gewijzigd door _-SaVaGe-_ op 3 maart 2011 16:26]

Die zou ook deze maand moeten uitkomen, volgens Fudzilla staat hij op de Cebit Crysis 2 in 3D te draaien

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Luchtvaart Crash Smartphones Sony Apple Games Besturingssystemen Politiek en recht Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013