Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 60, views: 17.873 •

De kloksnelheid van AMD's komende vlaggenschip met twee gpu's, de Radeon HD 7990, gaat 850MHz bedragen, claimt een Chinese site. Dat is 75MHz langzamer dan de Radeon HD 7970, die over een enkele Tahiti XT-gpu beschikt.

Zoals gebruikelijk in de afgelopen jaren komt AMD met een dual-gpu-kaart, die dan de krachtigste kaart in zijn assortiment is. Volgens geruchten moet dat volgende maand gebeuren. Er komen twee Tahiti XT-gpu's op de kaart. Deze chip is ook het hart van de Radeon HD 7970. Bij de HD 7990 wordt de kloksnelheid iets verlaagd, van 925 tot 850MHz, claimt de Chinese site Inpai. Ook de geheugensnelheid is naar beneden bijgesteld, van 1375 naar 1250MHz of effectief van 5500 naar 5000MHz.

Voor het overige zouden de specificaties van de gpu gelijk blijven; de twee chips beschikken naar verluidt elk over 2048 shaders, 128 texture-eenheden en 32 rops. Daarnaast zal de Radeon HD 7990 effectief van 3GB gddr5 gebruik kunnen maken.

Eind deze maand wordt de GeForce GTX 680 van Nvidia verwacht, die naar het zich laat aanzien wat sneller is dan de HD 7970. Nvidia komt naar alle waarschijnlijkheid ook met een dual-gpu-kaart. De vraag is hoeveel tijd er zal zitten tussen de release van Nvidia's en AMD's kaarten met twee gpu's en wat het prijs- en prestatieverschil dan zal worden.

Reacties (60)

Shit, heb ik juist mijn MSI HD 7970 besteld 8)7

Dat ze de kloksnelheden van de GPU en het RAM verlagen heeft met temperatuur ontwikkeling te maken neem ik aan?
Warmteontwikkeling, ja.
Nu deze 7990 gaat bij volledig gebruik ver zijn boekje te buiten natuurlijk, zal vast rond de 450 watt zitten.

Spelletjes halen dat niet zo snel, gpgpu wel.

We zullen wel weer lang moeten wachten op drivers voor de AMD, Nvidia zal het vast wel beter doen daar, met name voor gpgpu.

Die kaarten van AMD zijn altijd weer in prijs gezakt op het moment dat de drivers prima werken.
Dat en het feit dat ze anders waarschijnlijk buiten de PCI-e spec gaan (300W dacht ik?).
tenzij ze er 2 8pins pci-e stekkers op zetten is het inderdaad 300 watt. maar daar zijn al meer kaarten overheen gegaan.
Daar was al sprake van met de 6990 ;)
Shit, heb ik juist mijn MSI HD 7970 besteld 8)7

Dat ze de kloksnelheden van de GPU en het RAM verlagen heeft met temperatuur ontwikkeling te maken neem ik aan?
Lijkt mij van wel, TDP van dat ding word insane :P
Ja en? Deze kaart valt in een totaal andere prijs klasse. Als je dan toch zoveel geld voor een kaart wil uitgeven, kan je net zo goed gaan voor een crossfire setup met 2 7970.
Ik snap je probleem niet..
Maakt toch niet uit? De 7990 is een hele andere prijsklasse.
Je kan toch binnen 8 dagen annuleren..?!
Poeh, en ik dacht dat m'n 7970DC2T al over the top was. Ze weten het wel aantrekkelijk te maken om steeds meer geld te reserveren voor een nieuwe PC.
Ach dan upgrade je vrolijk zodra de 8970 er is, dan kun je nog een leuk prijsje krijgen voor de oude kaart ook ;) Als je per se het nieuwste en het snelste wilt hebben ga je toch blut. Ik zie persoonlijk het nut niet in van die laatste 5 FPS die ik zelden gebruik, en geef het geld liever uit aan iets anders, zoals een mooiere monitor :P
Ja, zoals elke andere dual-gpu kaart. Voor TDP en temperatuur worden standaard de clocks wat lager gezet. Misschien dat AMD weer een "uber" switch heeft waardoor je op 7970 clocks komt. Ik vraag me wel af of de koeling deze keer wat beter is dan de 6990 stofzuiger, het was een interessante kaart maar maakte te veel herrie.
waterkoelen en lekker overklokken.
dat zou ik doen als ik het geld er voor over had.

[Reactie gewijzigd door Countess op 20 maart 2012 13:45]

Er zijn vast wel redenen te bedenken om zo'n kaart te willen maar volgens mij is het voor de meeste tweakers toch interessanter om "gewoon" crossfire te draaien als je op dit performance niveau wilt komen.

minder herrie
meer overclocking headroom
bij een kapotte kaart hoef je alleen die op te sturen
prijs van 2 7950 zal waarschijnlijk iets lager zijn dan dit topmodel wanneer die uit komt.
Aan de andere kant kan je als je echt geld over hebt natuurlijk ook een 7990 in crossfire draaien... 4x 7950 wordt al wat lastiger, en minder effectief.

[Reactie gewijzigd door ormagon op 20 maart 2012 14:43]

Buiten het feit van de kosten aan stroom en aanschaf is een 4x GPU vaak beter dan een dual GPU op het gebied van micro stuttering ;) Ook ten opzichte van 2x2 (Bron: tomshardware, even de link niet)
bij 4x GPU komt input lag toch al snel om de hoek kijken dus ik vraag me af in hoe verre dit natuurlijk nog wel gewenst is.
Ik ga gewoon vanmiddag blij zijn met mijn 7950OC die bij de buren word afgeleverd!
tis maar goed dat ze niet weten wat erin zit:)
Dat gaat je lukken denk ik, ik was (en ben) heel blij met mijn 6950 ;). Toen ik nog jong en onbezonnen had (en eigenlijk platzak) kocht ik ook altijd de duurste graka's, maar de nut en noodzaak voor een beetje gamen zie ik met de huidige games niet meer :)
Eindelijk (hopelijk) een waardige vervanger van de 5970/6990. Samen met een EK waterblock staat deze op mijn verlanglijst om mijn 5970 met pensioen te sturen :)

nVidia zal wel met 2xGK104 komen als dual GPU kaart wat toch in de buurt moet komen van de 7990. Hopelijk vergroten ze dan het geheugen ook naar 6GB totaal zodat je met 3 full HD monitoren nog uit de voeten kan.
Dat kunnen ze niet omdat de chip een 256bit geheugenbus heeft. Ze zouden wel bijvoorbeeld 4gb kunnen kiezen per chip ipv de 2gb die hij normaal heeft.
Ik ben persoonlijk benieuwd wat de TDP wordt van de nieuwe generatie DualGPU kaarten. Mijn oude gtx295 trekt al op volle toeren zo een 400 watt. Ik denk ook dat de TDP het probleem zal worden in de toekomst van Dual GPU kaarten.

@ [KGB]Beria

Jij gaat nu al je 5970 vervangen? Deze kaart draait volgens mij alle huidige games op FullHD Resolutie nog volluit.

[Reactie gewijzigd door Dakreal op 20 maart 2012 13:54]

Hij draait alles prima, behalve BF3 op Ultra met AA. Hier loop je tegen de 1GB geheugen per GPU limiet aan en moet je wel de kwaliteit terugschroeven.

Dit zal meer gebeuren in de toekomst dus vandaar de wens tot upgraden. Maar eerst zien wat de 7990 gaat doen :)
BF3 is toch een fake game de graphics zijn een soort truc ipv echte graphics. op medium ziet het er ongeveer hetzelfde uit als very high

40 fps vs 120.. nou dan weet ik het wel!!

[Reactie gewijzigd door A87 op 20 maart 2012 15:48]

Die tdp liegen ze beetje over. Max dat ze eigenlijk mogen gebruiken is 375 watt, dus dat vind je dan terug op de stickers van AMD en Nvidia als de TDP van de dual gpu kaarten, maar daar gaan ze ruim overheen. De meeste spelletjes trekken echter niet het maximum stroomverbruik, dat lukt pas met gpgpu echt goed.

Dan zitten ze in werkelijkheid rond de 450 watt.

Het valt wel iets te berekenen die max TDP.

De 7970 zit rond de 210 watt volgens eigen zeggen, daar gaat hij ruim overheen natuurlijk.

Dus we komen al gelijk uit op 210 watt. Dan komt erbij het effect v an de dual verwarming, dat verliest ook snel een 10% extra. Dan klokken ze 'm iets lager om het niet rond de 600 watt worst case te laten zijn.

Dus voor gros van spelletjes willen ze in de buurt van die 400 uitkomen, maar ja worst case is het heel wat erger dus.
Sinds wanneer mag je het geheugen zo optellen? Het is toch inprincipe een CF opstelling en dan telt het geheugen van 1 enkele kaart.
Klopt helemaal, omdat beide kaarten precies hetzelfde in het geheugen moeten hebben heb je effectief gewoon 3GB op deze kaart, en geen 6GB.

Helaas is al sinds jaar en dag zo dat ze de geheugens optellen bij de specificatie van een dual GPU kaart. Ze liegen niet en de consument die geen uitgebreide kennis hebben van de techniek ziet dat de kaart twee keer zoveel geheugen aan boord heeft dan de 7970 en zal sneller voor deze kaart gaan.

Marketing...
Er is echt geen consument te vinden die zoveel geld neerlegt voor zo'n monsterkaart zonder te weten wat hij koopt. Of misschien die ene sukkel die door een erg gehaaide verkoper dit ding krijgt aangesmeerd.

Dit soort kaarten wordt alleen gekocht door Tweakers (en dan nog de die-hards ook nog), die weten prima hoe dat zit met dat geheugen.
In werkelijkheid is het zo dat de spelletjes niet zoveel RAM tegelijk kunnen alloceren op AMD kaarten. Elke wavefront is weer een ander verhaal...

Dat lukt beter bij nvidia kaarten - heel wat ellende dus om het goed te krijgen op amd videokaarten.
Volgens mij was het zo dat beide kaarten dezelfde framebuffers hebben?
Iedere gpu moet de textures in zijn eigen framebuffer hebben. Je mag ze dus niet optellen...
Hoeveel een gpu wel of niet in zijn geheugen moet hebben heeft niets te maken met hoeveel geheugen er op een kaart zit. Er zit gewoon 6 GB aan geheugen op de kaart. Of alles gebruikt kan worden, is heel iets anders. Maar je kunt gewoon de 2x3 GB bij elkaar optellen hoor.
Op dual gpu kaarten heeft iedere gpu dezelfde textures in het geheugen staan.
Als iedere gpu dus in dit geval 3GB heeft is er dus voor het spel dus 3GB aan geheugen beschikbaar en niet 6GB.
De beschikbaarheid heeft niets te maken met de totale hoeveelheid. kijk naar een PC met 8 GB aan ram, maar met een 32 bits besturingssysteem. Zou raar zijn als ze dan zouden zeggen dat er maar 3 GB in zou zitten, terwijl er 8 GB in zit.
Je snapt geloof ik nog niet helemaal hoe het werkt exmatproton. Een dual GPU doet dezelfde berekeningen alleen dan frame voor frame, eerst de ene GPU, dan de ander. dit betekent dat ze beide dezelfde textures moeten laden, even simpel gezegd. Oftewel, het effectieve geheugen blijft 3 GB, een game die dus 4 GB voor de hoogste settings vraagt (theoretisch) zal in dat geval dus niet op 3 GB kaarten gedraaid kunnen worden op die settings. Het 32 bits verhaal is hier totaal irrelevant.
Ik weet PRECIES hoe het werkt. Ik draai zelf al jaren dual GPU oplossingen. Nvidia en ATI. En het gaat er gewoon totaal niet om wat gebruikt wordt of wat het uiteindelijke resultaat is van een oplossing zoals SLI of CF. Het gaat erom wat het slimste is marketing technisch gezien. Marketing technisch gezien zit er gewoon voor 6GB aan geheugen in je PC. Klaar. Kun je niets over zeggen. Is gewoon een feit. En zo gaat het ook gebracht blijven worden. Ik weet allang dat de "EFFECTIEVE" hoeveelheid letterlijk de helft is. Dus in dit geval 3 GB. Neemt niet weg dat de totale hoeveelheid nog steeds 6 GB is en blijft.

Overigens is het verhaal over de 32 bits versie van Windows zeker wel relevant. Stel je koopt een PC met 4 GB aan RAM, maar er staat een 32 bits versie van Windows op, staat er bij de specs gewoon 4 GB en NIET 3 GB (wat de EFFECTIEVE hoeveelheid RAM is). Dus eigenlijk is het hetzelfde. Marketing technisch erg handig. Maar zeker niet fijn voor de consument die niet net even wat verder leert/leest over hard- en software.

[Reactie gewijzigd door exmatproton op 20 maart 2012 21:28]

Is het niet zo dat Windows 32bit effectief minder werkgeheugen kan adresseren omdat het adres ruimte moet reserveren voor het aanwezige GPU geheugen?

Ik dacht dat bij 32bit Windows de laatste 1GB geadresseerd was om hardware te adresseren, maar wanneer je een videokaart in je systeem stopt met 3GB, dan blijft er nog maar 1GB voor Windows over?
Zou kunnen, maar dat bedoel ik niet. Het gaat me even niet om de technische kant, maar de marketing.

Als je 16 GB op je mobo propt, kan Windows maar 3 GB gebruiken, in een 32 bit omgeving. Maar bij de specs staat dan gewoon 16 GB RAM ... .. .

[Reactie gewijzigd door exmatproton op 21 maart 2012 12:24]

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Tablets Luchtvaart Samsung Crash Smartphones Microsoft Apple Games Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013