Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 154 reacties, 26.415 views •

AMD's HD 6990 komt op 8 maart beschikbaar, maar alle specificaties zijn al uitgelekt. De videokaart zou maar liefst 375W kunnen verbruiken en gemiddeld 67 procent sneller zijn dan een GTX 580. Ook kent de videokaart een overklokfunctie.

De website DonanimHaber publiceerde een groot deel van AMD's perspresentatie, die praktisch alle relevante informatie bevat; de slides lijken echt. De HD 6990 is opgebouwd uit twee Cayman-gpu's, zoals die ook voor de HD 6970 worden gebruikt. Dat betekent dat alle 1536 streamprocessors zijn geactiveerd. Samen zijn ze dus goed voor 3072 streamprocessors, nog altijd minder dan de 3200 streamprocessors van de HD 5970, maar door de nieuwe architectuur moet de HD 6990 ruimschoots sneller zijn.

De twee gpu's hebben standaard een kloksnelheid van 830MHz, terwijl het geheugen, 2GB per gpu, op 5000MHz tikt. Al met al zou de videokaart 375W kunnen verbruiken, maar als het verbruik daar overheen dreigt te gaan, grijpt PowerTune in door automatisch de kloksnelheden te verlagen, zodat het verbruik maximaal 375W bedraagt. Daarentegen zou het verbruik in spellen eerder rond de 350W liggen. AMD ontwierp de videokaart echter met een verbruik van 450W in het achterhoofd. De videokaart is namelijk met twee bios-chips uitgerust.

Zodra de bios-schakelaar wordt omgezet, nemen de kloksnelheden automatisch toe tot 880MHz, evenveel als een HD 6970. Ook de spanning neemt toe, van 1,12 tot 1,175V. Hierdoor zou het theoretische verbruik op 450W komen te liggen. Dat valt echter buiten de pci-e-specificatie en volgens de slides valt de kaart niet onder de garantie van AMD als hij in deze modus wordt gebruikt. In de overgeklokte modus zou de HD 6990 gemiddeld 67 procent sneller zijn dan Nvidia's GTX 580.

AMD publiceerde al eerder een aantal foto's en de HD 6990 werd ook getoond tijdens de Cebit. In het midden van de videokaart bevindt zich een centrifugale koeler, die koele lucht vanuit de kast over beide gpu's heen blaast. Dat betekent wel dat een deel van de hete lucht de kast in geblazen wordt. Ook maakt AMD gebruik van een nieuw soort thermal interface-materiaal, wat de koelprestaties eveneens ten goede moet komen. Vier mini-displayports en een dvi-poort maken het mogelijk om vijf schermen aan te sturen.

HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers HD 6990 pers

Reacties (154)

Reactiefilter:-11540141+174+22+30
Moderatie-faq Wijzig weergave
Ik vind dit soort kaarten echt onzin, nagenoeg elk moederbord heeft crossfire tegenwoordig, daar haal je makkelijk hogere prestaties mee.
Het gaat erom dat je de kaart met het meeste prestatie in huis hebt als fabrikant.
Het feit dat nVidia de GTX580 in huis heeft en daar eventjes het snelste mee is geweest heeft ervoor gezorgd dat menig man een nVidia kaart in huis haalde. Ook al was het model in zijn prijscategorie niet de snelste kaart.

Wat telt is dat je topmodel het snelste is.
Als je dat hebt., is dat een verkoop boost voor je algehele productlijn. (als videokaart en processorfabrikant geld dit)
Ach dat kon amd toch al zeggen met de 5970? Nu zegt amd, "fastest card in the world" en nvidia zegt: "fastest gpu in the world".
Het grote verschil is dat heel erg veel review sites altijd de snelste kaart meenemen in tests.

En dat onthouden mensen.
Wat de snelste gpu is onthouden mensen niet.
En vaak kijken ze ook niet wat in een lagere klasse de beste bang-for-buck kaart is, maar kopen ze gewoon het merk wat in de high-end de snelste is.
Niet als je 2 van deze HD6990 kaartjes in crossfire zet... ;)

[Reactie gewijzigd door _-SaVaGe-_ op 3 maart 2011 17:24]

HD 6990 kan 375W 450W verbruiken
Ik kan me nog heugen dat een 100W voeding een stevige was....

Vage BIOS overklok? Je kan het aanzetten, maar technisch is het waarschijnlijk onbruikbaar?
Technisch is het prima bruikbaar, alleen ga je dan nog grover over de PCI-e-specs heen, en dat betekent dat AMD voor de garantie kan opdraaien. Verder wil men meer prestaties, en zo lang de stroomrekening je niet interesseert, voldoet dit aan de wensen.
AMD draaid dus helemaal nergens voor op. Er staat op dat bios switch plaatje dus duidelijk dat er geen garantie word gegeven op welke overclock dan ook. Dus ook de bios switch en software OC.

Leuke showcase kaart, maar ik had het idee dat de oudere dual GPU kaarten toch meer op daad werkelijk gamen gericht waren, in plaats van extreme overclocks.
Het stroom budget is er gewoon niet meer naar. Neem een dual GPU HD 5970, die verbruikt 294W, net onder de PCI-E specificatie grens van 300W. De single GPU variant HD 5870 zit op 188W. Dan heb je dus nog bijna 112W ruimte over om tegen extra stroomverbruik extra prestaties te realiseren. Dat is doenbaar en daardoor is de 5970 zelfs op dit moment in sommige spellen nog altijd de snelste kaart.

Nu doet een 6970 al 250W waarbij hij zichzelf onder extreme belasting (Furmark e.d.) al een beetje terugschakeld om niet teveel te verbruiken. Waar moet je dan nog heen met je dual GPU kaarten vraag je je af. Over de PCI-E specificaties heen zegt AMD, wat mij een zeer slechte zaak lijkt, die beperkingen zijn er niet voor niets. Maar goed, blijf je binnen de 300W dan presteert de 6990 mogelijk maar 20-30% beter dan de 6970, wat toevallig ook erg dicht bij de toegenomen hoeveelheid vermogen ligt. Ga je naar 375W dan kun je al 50-65% meer prestaties bieden en wordt de kaart interessant voor gamers. Met 450W kun je 80-100% meer prestaties bieden dan de 6970.

Dual GPU kaarten gaan verdwijnen verwacht ik, zeker wanneer de volgende generatie single GPU kaarten al 300W verbruikt. Dan heeft het geen zin meer omdat ze domweg geen behoorlijke prestatiewinst meer met een dual GPU kaart kunnen bieden, zelfs niet met 375W, of ze moeten dan standaard al naar 450W gaan. Knap van AMD dat ze die 450W weten te koelen overigens en bovenal dat ze toch nog wat meer prestaties uit 2 GPU's weten te persen dan bij hetzelfde verbruik met 1 GPU, maar de verschillen zijn nu al niet heel groot meer.

Je kunt prima 4x de 6970 in een moederbord steken dat daarvoor gemaakt is en je bent sowieso beperkt tot een maximum van 4 GPU's totaal. Dual GPU kaarten hebben uiteindelijk dus maar weinig voordeel boven single GPU kaarten, anders dan dat je met een goedkoper moederbord wegkomt. Dual GPU kaarten krijgen wel steeds meer nadelen, want een koeler die 450W moet wegwerken in 2 slots hoogte is zonder meer een aanslag op de systeemtemperatuur en vooal nog je gehoor, dat kan niet anders.
Dual GPU kaarten zijn min of meer een farce bedoeld om de prestatie benchmarks aan te kunnen voeren. Ze zijn niet kosteneffectief qua performance winst. Ze creeren onnodige warmte die beter met single CPU kaarten afgevoerd kan worden etc.

Ik ben het voor de goede orde dus geheel met je eens. Ik vraag me alleen af waarom je beperkt zou zijn tot 4 GPU kaarten. Je hebt een beperking in PCI-E lanes, maar als je 8 bits gebruikt hou je de meeste kaarten ook wel op 95% van hun capaciteit en is dat dus niet de beperkende factor.

Wat ik een schande vind is dat om die performance kroon maar te mogen claimen een fabrikant een knop er op zet met ´RAAK MIJ NIET AAN¨ erop. Wetend dat de benchmark sites dat allemaal zullen doen op goed geconfigureerde systemen met overbemeten PCI-E voedingscapaciteit.

De consument heeft vervolgens geen garantie op de werking stelt AMD, dus die knop is puur voor benchmarking = marketing gemaakt.

Zet er dan een trechter op voor stikstof koeling met een sticker ´PAS OP LEVENSGEVAARLIJK NIET GEBRUIKEN´. Als Nvidia morgen zo´n 590 uit zou brengen zou toch ook iedereen inzien dat dit gewoon kopersbedrog is.
"Over de PCI-E specificaties heen zegt AMD, wat mij een zeer slechte zaak lijkt, die beperkingen zijn er niet voor niets."

Dat is inderdaad de oplossing, een knopje waarmee je de 300W limiet uit kunt schakelen. Maar waarom zijn die beperkingen er dan eigenlijk? Want ik weet dat de limiet 300W is maar waar is die op gebaseerd? En waarom is er eigenlijk sowieso een limiet? Het gaat toch buiten het moederbord om, de enige eis is dat je voeding het aan kan...

Single gpu kaarten die 300W verbruiken, het zou kunnen want wat er nu gebeurt lijkt een beetje op de Pentium 4. Niet snel genoeg? nou, extra power erbij dan. Maar het zou natuurlijk ook kunnen dat ze een Conroetje gaan doen met de volgende schaalverkleining.
Nee het is juist in 9/10 gevallen wel bruikbaar maar omdat het niet volgens de officiŽle pci-e specs is bieden ze dus geen garantie dat het werkt op alle moederborden...

[Reactie gewijzigd door watercoolertje op 3 maart 2011 16:21]

Zo, 450Watt. Nu maar zien of ook nVidia zo'n non standaard oplossing gaat introduceren. Maar men doet er blijkbaar alles aan om vooral de snelste kaart te bouwen. Met 66% meer dan een 580 in de "overclock modus" ben ik benieuwd hoe de kaart zich verhoudt tov de 580 bij "standaard" gebruik.

Lijkt me trouwens interessant te zien wat er gebeurd als je dit ding in Crossfire wil zetten? Joepie 900W naar de videokaarten ;)
Dan vraag ik mij toch af of een moederbord niet lichtelijk begint te roken als je daar 900 watt doorheen voert. Of worden deze kaarten via een externe power aansluiting gevoed?
Yep daar heb je een losse (meestal 2 bij deze kaarten ;)) PCI-Express kabels voor nodig, die vanuit je voeding komen zie HIERO

[Reactie gewijzigd door _-SaVaGe-_ op 3 maart 2011 16:40]

PCIe kan tot 75 watt door z'n slot kwijt, daarboven moet je apart aansluiten.
Dan heb je straks gewoon 2 losse voedingen nodig van 1000 watt :o eentje vcoor je dik oc'ed CPU + Mobo + schijffies + (blueray) fikker, en eentje voor de videokaarten... of je hangt er gewoon een 4KW Server PSU in :P
Bwaaa... Stroomverbruik komt eigenlijk neer op 2x 6970 als hij in OC modus draait. Ik draai nu een i7 systeem met een 6970 met een voeding van 550W. Hij heeft niet heel veel over maar het is wel voldoende. Tel er 250W bij voor de tweede 6970 en met 800W kom je (net) toe. Een enkele voeding van 1000W is dus ruim voldoende.
Sterker zelfs, ik heb een 750W voeding en die draait prima een i7 950 @ 4GHz en 2 GTX 580's (samen met geluidskaart, 4 HDD's, 6 fans, DVD speler en randapparaten).

Maar 450W voor de echte dual 6970's en die is dan 'maar' 70% sneller als een 580? Ik dacht juist dat CF enorm goed schaalde en dat ze dus wel 90% sneller zouden zijn.
Het zou maximaal 80% kunnen zijn, gezien 1 6970 ongeveer 10% langzamer is dan een GTX580.

Vergeet verder niet dat het om gemiddeldes gaat, niet maximaal!
Als je alle resolutiens neemd is de gtx580 13% sneller.
Verder schaald sli ook weer beter dan 2 maanden trug in nieuwe games.
Ze zijn hardbezig met de driversbij nvidia en de schaaling is zichtbaar beter geworden.
.
Kun je de centrale verwarming uit laten komende winter
Behoorlijk efficient toch? Kun je je besparen op je gas door veel te gamen!

Groener wordt het niet :P
Nu bij 2x 6990 in Crossfire... Een gratis kerstkaart van Essent/EON/Nuon ;)
Niet echt, electriciteit is niet de beste keuze als het om verwarmen gaat.
Ach, 375W is op zich een best stevige hoeveelheid prik.
Maar daarentegen is het wel een Dual GPU kaart.

En moet je ook rekenen op dat je dit door 2 moet delen.
Je hebt een kaart die 67% sneller is dan het topmodel van de concurrent.

Maar terug op het verbruik, de gemiddelde koper van dit soort producten gaat niet voor een ultrazuinig HTPC'tje. Maar gaat of voor het snelste van het snelste op het moment., of voor gewoon de pc die het het langst uithoudt.

En allebei hebben hier een heel leuk product aan.
Wil je het minste verbruik en het meeste performance per W., dan moet je kijken voor een 6770 of 5770.

[Reactie gewijzigd door popolskuprosze op 3 maart 2011 15:55]

heb zelf nu een 5770, erg mooi kaartje en kan tot nu toe alle games met alles op max soepel spelen :) (in combi met i7)

desondanks, als dit kaartje uitkomt en hij niet al te duur is (rond 300-400 euro) dan ga ik sterk overwegen om m in crossfire te zetten :D

[Reactie gewijzigd door xorinzor op 3 maart 2011 16:07]

hahaha, dat kan voor de huidige games met DX 10 kloppen, heb zelf een GTX260 en die is vergelijkbaar met de prestaties (DX10) van een 5770. Op dit moment is dat vaak nog de aanbevolen kaart voor games maar het einde is toch echt wel in zicht. Op welke resolutie game je?
ik denk dat dat monster wel een stuk meer dan 300-400 euro kost.... een GTX 580 (beste nvidia kaart) kost ook ong 400 euro
"Zwakke driver ondersteuning is al jaaaaren geen issue meer. Behalve dan voor spellen die via TWIMTBP opzettelijk door Nvidia gesaboteerd worden."

ATI AMD zijn wel degelijk zwak. Ik kan met mijn 'bejaarde' 4870x2 eigenlijk niet meer voorbij 10.5a upgraden zonder mindere prestaties en zo, hangende 3D clock etc.
Op het AMD forum zie je dat juist de Crossfire setups meer problemen geven dat single card oplossingen.
Deze nieuwe kaart is ook weer een dual GPU oplossing en zolang AMD m.i. niet in staat is om drivers uit te brengen zonder oude bugs te herintroduceren staan ze even op de 2e plaats.

Ik sta nu op het punt om te upgraden (met mijn X58 Mobo sla ik de Sandy Bridge even over) maar dan een single card oplossing... kom ik nu uit op de snelste van het stel: de Nvidia 580.

en wie weet... zit ik over een paar jaar weer bij AMD :-)
kun je ook iets van statistieken tonen of een onafhankelijk onderzoek ?
ik vind dat forums soms nogal een vertekend beeld kunnen geven.
hij heeft gewoon zelf driverproblemen met de 4870x2. Niet vreemd dat je even bij het andere kamp gaat kijken.

M'n huisgenoot heeft een 4850 en die rendert bij mount and blade af en toe de grond gewoon niet. Bij mijn nvidia kaarten heb ik nooit zoiets gezien, een tijdje geleden zou ik geneigd zijn ati aan te raden door een (toen) betere price/performance. Nu is er geen wezenlijk price/performance verschil meer.
bla bla bla .
En zo zijn er ook stapels mensen die problemen hebben met Nvidia drivers.

Die bij Nvidia steeds drivers moeten wisselen omdat het ene spel met de ene driver problemen heeft, en het andere spel met de andere driver.

Als je eerlijk bent, dan moet je gewoon toegeven dat bij Nvidia en AMD de driver situatie de afgelopen jaren gewoon goed is. En bij beiden veel beter dan bv 5 jaar geleden.
Is er een goede reden waarom AMD niet gewoon een derde voedings connector op de kaart geplaatst heeft?

Als de derde connector wordt aangesloten kan de kaart toch zelf overschakelen naar de 450W modus en anders de vermogens opname beperkt tot 375W.
Omdat de stekkers/kabels het prima kunnen hebben, maar de pci-e specificatie stelt dat een kaart niet meer dan 375watt mag gebruiken. Dus dan zouden ze niet zomaar een labeltje op mogen plakken "PCI-E Certified" oid.
Maar de kaart trekt toch ook niet meer dan 75W uit het PCI-E systeem. Ik zie namelijk (nog) niet de relevantie van externe voeding en PCI-E.

Op mijn voeding (SeaSonic) staat nergens een verwijzing naar de PCI-E standaard. Aangezien het moederbord via PCI-E slechts 75W kan leveren, moet de rest dus van de twee externe voeding aansluitingen komen. Deze zijn gecertificeerd voor maximaal 150W.

update: Heb de reden gevonden en heeft niets met de PCI-E specificatie te maken, maar met de ATX12 V2.3 specificaticaties (maart 2007). Deze stelt dat er maximaal 2 PCIe connectors zijn toegestaan.

[Reactie gewijzigd door Niemand_Anders op 3 maart 2011 21:58]

Logisch dat deze 60% sneller is als de GTX580 want het is zover ik weet een single chip kaart en dit een dual chip dat is dus druiven met meloenen vergelijken. In de praktijk zal het verschil wel rond de 45% liggen maar dit valt nog te bezien.
Fenomenaal stroom gebruik heeft deze kaart! naast alle stroom reducerende verbeteringen in de PC unie is dit toch wel een doorn in het oog van het energie beheer maar het is natuurlijk wel leuk als het renderen nu met ongekende snelheid zal gebeuren.
Ik hoop dat ATI met deze kaart ook iets aan de nog steeds zwakke driver ondersteuning gaat doen, ik hoor hier nog steeds veel klachten over.
Oninteressant uit hoeveel fysieke chips de kaart bestaat. Uiteindelijk bestaan die chips ook weer uit stapels cores. Waar het daadwerkelijk om gaat is gewoon de prestaties.

Zwakke driver ondersteuning is al jaaaaren geen issue meer. Behalve dan voor spellen die via TWIMTBP opzettelijk door Nvidia gesaboteerd worden.
Mwah, ik wil geen AMD kaart in een PC die ook als HTPC moet dienen. Mijn ervaringen met nvidia drivers zijn op dat gebied echt een stuk beter.
Deze kaart is natuurlijk ook niet bedoelt als HTPC videokaart... :+

Daarbij zijn drivers van ATI al lang geen issues meer, zeker niet wanneer je gewoon netjes iedere maand je driver update, want ATI brengt maandelijks een nieuwe driver uit, daarbij bieden ze ook CF optimalisaties middels losse updates.
Maar goed dat is altijd weer zo'n discussie die nergens over gaat, beide kampen hebben zo hun voor en nadelen.

Wat betreft die 6990, het blijft leuk zo'n kaart, dit is natuurlijk dik over de top qua stroomverbruik en performance, maar daar is de kaart ook voor bedoelt, qua opgenomen vermogen vs prestatie doen ze het niet slecht, dit is de top van het videokaarten segment, beter kun je niet krijgen, dan moet je niet zeuren over vermogens, degeen die dit koopt kan ook wel een dikke voeding betalen.
Hulde ATI, nu weer wachten op het antwoord van Nvidia's GTX590(?!) .
Die zou ook deze maand moeten uitkomen, volgens Fudzilla staat hij op de Cebit Crysis 2 in 3D te draaien
nu weer wachten op het antwoord van Nvidia's GTX590(?!) .
of een dual GTX600 ofzowiets :P

[Reactie gewijzigd door _-SaVaGe-_ op 3 maart 2011 16:26]

Waar is Eyefinity 6 gebleven? Heb je zo'n monsterkaart waar 'maar' vijf schermen op aangesloten kunnen worden. Toen Eyefinity werd geintroduceerd waren er allemaal testopstellingen met Úf drie Úf zes schermen zodat je een breed groot vlak kreeg. Met vijf schermen kun je dit niet voor elkaar krijgen?
Twee mogelijkheden:
5x portrait geeft een mooie lengte/breedte verhouding van je totale schermoppervlak
de dual-link DVI gebruiken om twee schermen aan te sturen (dat kon toch?) -> 4x mini DP + DL DVI = 6 schermen.
kan je niet 3 schermen per DP aansluiten dmv doorlussen of een hub? dan zou je 12 schermen kunnen aansluiten
375 watt lijkt een nieuwe maximum voor een videokaart, in het verleden was er al de asus ares: http://tweakers.net/price...2dis-4gd5.html#tab:prices Die dus maximaal 350 watt gebruikt, straks heb je de hd6990 die 375 watt tdp heeft. Maar goed, het gaat hier wel om het absolute high-end segment en daar is stroomverbruik niet het belangrijkste. Het is een beetje vergelijkbaar met de situatie in de auto wereld: een bugatti veyron is nu eenmaal niet zo zuinig als een vw polo.
Ik dacht juist bij auto's dat grotere motoren (zeker die verfijnde) zuiniger zijn dat kleinere motoren, echter veranderd naarmate de auto sneller kan het rijgedrag er ook naar (en dan vooral in optrekken). Tja en daardoor ben je dus wel veel meer benzine per km kwijt, maar dat is dus onder 'full load', rijden op de snelweg daarentegen is voor een polo bijv. 40% belasting en voor de veyron misschien wel 10% (bijna 'idle' dus) :)

Echter is het bij videokaarten inderdaad zo dat vaak het IDLE gebruik mee stijgt met de kracht die die heeft... Maar dat komt zeker nog, cores die kunnen schakelen en dan is het net een turbo in de auto, die komt enkel als je dat nodig hebt (lees: het gaspedaal in trapt) in actie :)

[Reactie gewijzigd door watercoolertje op 3 maart 2011 19:49]

eehm mag ik ff zeggen dat die kaart meer verbruikt dan mijn hele pc?
maar daar gaat het niet om!
dit is bestwel vet _/-\o_
als ik het geld had zat het er misschien nog wel in om zo'n ding te kopen want daar kan je wel ff mee vooruit, maar ja ik heb ff geen €500 liggen ;(
tel maar gerust meer dan 600 neer...

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True