Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 65, views: 17.554 •

AMD gaat naar verluidt later deze maand het nieuwe topmodel in zijn Radeon-videokaartlijn uitbrengen. De HD 7990 moet twee Tahiti XT-gpu's gaan bevatten, die in verbinding staan met minimaal zes gigabyte gddr5-videogeheugen.

Amd Radeon Graphics logo (75 pix)Momenteel zouden er samples van de HD 7990 geproduceerd worden met het oog op een introductie halverwege juli, schrijft VR-Zone. De videokaart heeft de codenaam New Zealand en is gebaseerd op dezelfde Tahiti XT-gpu die ook in de HD 7970 gebruikt wordt, al zijn er in de HD 7990 twee stuks aanwezig. De videokaart staat al sinds december 2011 op de roadmap van AMD, maar is in tegenstelling tot Nvidia's GTX 690 nog steeds niet uitgebracht.

Over de kloksnelheden van het komende topmodel kwam enkele maanden geleden al informatie naar buiten; beide gpu's zouden op 825MHz geklokt zijn. Dat is 75MHz lager dan de enkele gpu in de HD 7970. Daarnaast zou de kaart minimaal 6GB gddr5-videogeheugen krijgen en speciale edities zouden zelfs met 12GB uitgerust kunnen worden.

Voor de rest zouden de specificaties van de gpu gelijk blijven; de twee chips beschikken naar verluidt elk over 2048 shaders, 128 texture-eenheden en 32 rops. Wat de HD 7990 moet gaan kosten, is nog niet bekend.

Reacties (65)

ik blijf bezig met het uitstellen van een aankoop van een nieuwe kaart, elke keer weer een nieuwe in de pijp....

c'est la vie...
U moet een grafische kaart kopen die voldoet aan uw behoeften. Niet sowieso de beste willen. Heb je nu behoefte aan een betere kaart., upgrade dan nu. Indien niet wacht totdat je echt eentje nodig hebt.
En daarnaast, zo vaak komt een highend kaart met 2 GPU's niet uit. Beide kampen brengen eens in een (ruim) jaar een dual GPU kaart uit.

HD6990 8 maart 2011
GTX590 24 maart 2011
GTX690 30 april 2012
HD7990 tweede helft juli
Koop je toch gewoon een 690 of twee 680's met 4GB.

Deze kaart speelt waarschijnlijk gelijk met de 690gtx of mischien er zelfs onder.
Geen reden om nog te gaan zitten wachten.
De 690gtx is snel stil en koel iets wat we bij de 6990 totaal niet hebben gezien die was heet en onzuinig. (niet dat de 590 nou echt top was)

Ik ga natuurlijk zelf wel kijken hoe het word maar ik heb de 690gtx bekeken en dat is echt een diamantje (koeler verbruikt etc)
Maar het kost wel 2.25x zo veel als een enkele GTX680. Als ze nu eens een dual-GPU kaart maken die verkocht zou worden voor een prijs die lager is dan 2x de single-GPU kaarten, zou die echt wel goed aanslaan ...
Maar dat de prijs hoger ligt dan 2x is niet verwonderlijk, gewoonweg gezien de moeite die het kost om deze kaarten te maken. En ze willen natuurlijk net zo graag dat je 2 producten koopt ipv het schaarse topproduct.

Ik snap het helemaal dat de fabrikanten het zo doen...
Vergeet niet dat de GTX 690 een vele mooiere en ook betere koeler heeft dan GTX 680, dat is voor veel mensen ook geld waard. Deze koeler is ook veel stiller naar wat ik vernomen heb, ook heb je maar een PCI-E slot nodig wat ook nog mee kan helpen als je minder ruimte in je kast hebt of je een kleinere pc wilt bouwen met ee mATX moederbord.
Was het daarnaast niet zo dat de GTX 690 bijna 2 volledige GTX 680 GPU's aan boord had en dat deze vrij weinig waren gedownclocked, dit in tegenstelling tot de meeste dual gpu kaarten? Ik weet niet hoe dit in verhouding staat tot de hoeveelheid downclocking die nodig is bij de 7990, maar dat kan nog wel eens verschil maken.

[Reactie gewijzigd door noobynater op 9 juli 2012 15:49]

Vergeet niet dat de GTX 690 een vele mooiere en ook betere koeler heeft dan GTX 680, dat is voor veel mensen ook geld waard. Deze koeler is ook veel stiller naar wat ik vernomen heb, ook heb je maar een PCI-E slot nodig wat ook nog mee kan helpen als je minder ruimte in je kast hebt of je een kleinere pc wilt bouwen met ee mATX moederbord.
Was het daarnaast niet zo dat de GTX 690 bijna 2 volledige GTX 680 GPU's aan boord had en dat deze vrij weinig waren gedownclocked, dit in tegenstelling tot de meeste dual gpu kaarten? Ik weet niet hoe dit in verhouding staat tot de hoeveelheid downclocking die nodig is bij de 7990, maar dat kan nog wel eens verschil maken.
Maar door een Geforce GTX 690 heb je niet perse meer ruimte, vooral omdat de Geforce GTX 690 28cm lang is en de Geforce GTX 680 is 26cm lang.

De Geforce GTX 690 heeft 2 volledige Geforce GTX 680 GPU's aan boord, alleen zijn de GPU's 91 MHz minder geclockt en is de Boost clock 39 MHz minder geclockt.

http://www.guru3d.com/article/evga-geforce-gtx-690-review/2
> Koop je toch gewoon een 690 of twee 680's met 4GB.

Dat hangt er vanaf waarvoor je hem nodig hebt. Als het bijvoorbeeld voor bitmining is dan kun je veel betere performance kopen voor dat geld, in de vorm van een Radeon.
Die hoeveelheid geheugen klinkt imposant. Bedenk echter wel dat dual GPU kaarten hun geheugen moeten delen. Elke GPU krijgt helft van het totaal. De data die er in dit geheugen staat is identiek, zodat beide processors erbij kunnen.

Dus 6 GB -> 3 GB per processor.
en 12 GB -> 6 GB per processor.

Dit is natuurlijk nog steeds een indrukwekkend getal. De hoeveelheid geheugen die voor grafische aansturing nodig is, is echter helemaal niet zo groot. Meer dan 2GB maakt amper verschil meer op 2560 x 1600. Deze huidige keus van het geheugen geeft dus ruimte voor 4k2k schermen, of om voor GPU-rekenwerk, waar het geheugen doorgaans de beperkende factor is, meer ruimte te bieden.

Al met al een interessante kaart.
"Meer dan 2GB maakt amper verschil meer op 2560 x 1600."

Ik speel Skyrim in 1680 x 1050 met 4x MSAA + FXAA en kom met gemak aan de 2300 MB VRam. En dat is op een enkel scherm.
Ik speel Skyrim op diezelfde resolutie (enkel scherm), maxed out met FXAA en ik heb een 1GB kaart.
Waarschijnlijk wordt jouw CPU meer belast om t beperkte geheugen te compenseren.
Nee hoor, het is allemaal te veel RAM, maar wat wel zo is is dat als het dezelfde grootte dimms zijn en je belast dat parallel over de compute units, dat je dan een grotere bandbreedte uit meer RAM kunt halen, als er meer channels naar het geheugen worden aangelegd.

Hoe AMD dat gaat oplossen is wel een raadsel, want de spoorbreedte was al aanzienlijk breder bij de 7970 dan Nvidia's spoorbreedte van 256 bits.

Vuistregel is dat bij 256 bits je nog wel simpeltjes 2 gpu's op 1 kaart krijgt want een totaal spoor van 512 bits kan maar net (bij enorme wattages).

AMD heeft daar duidelijk een probleem. De 7970 is 384 bits breedt dus dat zou 768 bits breedte betekenen, wat prijzig in productie gaat zijn en enorm veel hitte zal genereren (hoe koel je dat?). Bij hogere temperaturen verbruik je gelijk 20% meer stroom natuurlijk, dus de toename in stroomverbruik is dan enorm.

Hoe AMD dat plant op te lossen is interessant om te zien.
Je hebt het over hitte en warmte maar het deel van de Die die het geheugen regelt verbruikt bijna niks.
Zoals altijd is het enige wat verbruikt en hitte produceert bij dual gpu kaarten de verwerkingeenheden in de Die.

"Bij hogere temperaturen verbruik je gelijk 20% meer stroom natuurlijk"
Dat is bij voedingen de VRM verbruiken tijdens het omvormen naar 1V onder welke temp dat ook tussen de 20/120 graden hetzelfde.

Ook is het verhaal dat Bus breedte relevant zou zijn of een kaart te maken is of niet.
De 590 heeft de zelfde bus breedte ook van 2x384.

Ik snap niet hoe je voor zoiets 2+ krijgt hier op Tweakers...
de 590 vreet dan ook veel te veel stroom en nvidia had destijds enorme moeite om hem uit te brengen, Hij kwam dan ook veel en veel later op de markt dan zijn tegenhanger van AMD. Die van AMD destijds was 2 x 256 bits. Ook al kwam hij heel veel maanden later op de markt dan de 6990 van AMD, de 590 was qua prestaties alleen ok op spellen waar nvidia het al goed deed. Het was geen indrukwekkende kaart, met name niet door stroomverbruik.

Nu bij de 600 series heeft Nvidia die fout niet gemaakt en AMD wel en je ziet nu het omgekeerde. Namelijk dat AMD nog de kaart in de winkel moet zien te krijgen, dat we de prijs nog niet kennen en dat er al bij voorbaat getwijfeld wordt aan de prestaties.

Het is inderdaad zo dat de RAM niet de meeste stroom vreet, echter voor de spellen is de bandbreedte naar de RAM vaak de bepalende factor en de technischde meest limiterende. Zover ik weet is er maar 1 bekend spel een uitzondering hierop, die schaalt lineair met de cores.

Verder is het zo dat GPU's anders georganiseerd zijn dan CPU's. Bij cpu's heb je eerst een enorme L1 cache die echt 99.9% van de ellende opvangt, daarna is er een L2 cache en een L3 cache. Alle caches kunnen zowel data als instructies lezen en schrijven.

Dat werkt anders bij GPU's.

Er is voor een 32-64 cores maar een kleine L1 cache. In geval van AMD heb je maar een hele kleine instructiecache van rond de 8 KB en 32 KB schrijven. In geval van Nvidia mag je kiezen als programmeur , de gehele L1 is daar 64KB en die kun je op 2 manieren opspliten in instructies en data.

Feitelijk gesproken is de L1d te klein van Nvidia om over de 32KB local shared memory van AMD te zwijgen - die is bovendien ook vet trager dan de cores - dus je wilt die niet gebruiken in een streammodel.

Dus van de registers ga je boem naar de RAM toe, waar bij het streamen we de L2 natuurlijk alleen als obstakel kunnen zien, want er wordt zo ontzettend veel gestreamed dat het me een raadsel is waarom ze zulke kleine L2's gebouwd hebben.

Na de registers valt op GPU's feiteljk dus de bijl en schrijf je praktisch gesproken direct naar de RAM. Lezen van de RAM gaat wel via een hele kleine L2 buffer van 512KB maar, afhankelijk van welk model gpu we kiezen, maar het scheelt niet veel, die kleine L2 moet dus met een stuk of 6 kanalen dus al die honderden cq duizenden cores van data voorzien. L3 is er niet.

Als we het per core uitrekenen praten we over minder dan een handvol kilobytes per core aan registers + L1 cache, zeg maar gewoon 1 tot 4 kilobyte aan registerfile en dan is het BOEM de DDR5 RAM waarvandaan je dient te streamen.

Nu de bandbreedte. Zeg we nemen een 2048 streamcore AMD gpu van rond de 900Mhz.

in theorie kan elke core in single precision floating point dus van zijn lokale registers 2 floats afhalen en dan een instructie daarop uitvoeren.

dus de bandbreedte van de cores is uitgedrukt in bandbreedte gigabytes per seconde:

2048 cores * 0.9Ghz * 2 floats * 4 bytes per float = 14745 gigabytes per seconde.
De memory controller, wat haalt hij. Zo rond de 150GB/s meet ik hier in gpgpu bij AMD.

We snappen dat met een paar kilobyte registers per core, een L1d die je feitelijk niet gebruiken kunt bij AMD (is overigens 2 cycles latency, dus ook vet trager dan de registers) en een overkill aan bandbreedte wat de cores kunnen afleveren, dan is de memory controller dus de zwakste schakel.

Dus dat is een enorme klap van 14+ TB/s die DANG neerkomt op de memory controllers die met moeite iets meer dan 150GB/s trekken.

Let wel ik heb alleen de memory READs gerekend. Over de writes heb ik 't niet eens... ..terwijl die RAM bandbreedte de volledige bandbreedte is...

RAM is dus enorm belangrijk op een GPU.

Een GPU is voor de meeste spellen zo goed als zijn bandbreedte naar de RAM.
Stilstaan bij hoe goed of slecht een RAM ontwerp is, dat is dus geen luxe.

[Reactie gewijzigd door hardwareaddict op 10 juli 2012 00:32]

Ik speel Skyrim op diezelfde resolutie (enkel scherm), maxed out met FXAA en ik heb een 1GB kaart.
Wat niet blijkt uit jullie beider uitspraken is het aantal frames per seconde, wellicht zit jij met 1 gb vram op 70fps en zit hij door zijn grotere geheugen op 90fps, voor de game play ervaring maakt dat dan geen drol uit. En sowieso, net als windows zal je game domweg meer geheuigen claimen wanneer beschikbaar: Heb je 1 gig dan zallie niet meer dan dat kunnen pakken,
heb je 4 gig dan gaat ie meer nemen al naar gelang nodig of zodat er minder data over de PCIe-Bus gepompt moet worden met als gevolg hogere fpssen...
Skyrim is geen goed voorbeeld, komt nog eens bij dat je vram sowieso vol loopt als gevolg van buffering...

Skryim draait trouwens zelfs op een GTX 580 SLI 3gb setup slecht omdat het een mislukte console port is.
Het mogen duidelijk wezen dat Nvidia's GTX 690 compleet gehakt maakt van deze 7990 kaart.

[Reactie gewijzigd door A87 op 9 juli 2012 10:37]

Duidelijk te merken dat je duidelijk niet op de hoogte bent van de momentele verschillen tussen de top modellen van ATI en Nvidia.

Gamen op een enkel scherm zal de 690 een stop voorblijven op de 7990. Hetzelfde als wat de 680 momenteel op de 7970 heeft. Op een scherm heb je aan 2GB Vram voldoende. En de 680 is op ťťn scherm meer dan voldoende om iedere willekeurige game maxed out te spelen.

Op het moment dat er gebruik wordt van 3dvision of Eyefinity wordt die 2 GB gewoon te weinig. Games als Max payne 3 of Battlefield 3 gebruiken op een scherm al bijna 2GB vram als je maxed AA wilt draaien, laat staan wat er gebeurd als je op eyefinity of 3d vision speelt. Battlefield 3 gebruikt dan bijna 3GB geheugen.

Momenteel is het heel simpel:
1 scherm: GTX680/GTX690
3 schermen: HD7970/HD7990
Het is duidelijk dat jij niet genoeg reviews hebt gelezen. Deze claims die jij maakt lijken op het eerste gezicht logisch echter met een beetje research kom je er vanzelf achter dat ook bij 3 schermen de 680 en de 690 prima hun mannetje staan en het vaak muntje werpen is tussen de HD 7970 en GTX 680.

Echter hoe het nu met prijzen zit is het wel zo dat als je 3 schermen hebt en je moet kiezen tussen een HD 7970 en een GTX 680 dan is de HD 7970 een betere keus, of dit ook het geval gaat zijn bij de HD 7990 moeten we nog maar afwachten.
Wat je opmerkt heeft niks met de hoeveelheid RAM te maken. Als je kijkt naar de programmering zie je dat AMD zwaar achterloopt daar, je kunt in OpenCL eigenlijk alleen een blok van 256MB alloceren.

Wat wel zo is, is dat als je meer dimms hebt je meer memory channels kunt veroorloven wat grotere bandbreedte geeft. Daar dit spoor al breder was van AMD is het lastig om 2 van die sporen naast elkaar te leggen voor 2 gpu kaart.

Lijkt met dat deze kaart ENORM VEEL STROOM gaat verbruiken. Het spoor van nvidia is smaller dus was het eenvoudiger een 2 gpu versie te produceren.

Op voorhand zou ik dus niet een uitspraak durven doen over welke van de 2 videokaarten sneller is. Meestal pik je dan de nieuwste kaart, maar in dit geval dien ik wel te waarschuwen voor enorm verschil in stroomverbruik ten nadele van AMD.

Neemt niet weg dat als je er meer stroom doorheen knalt dat je wel iets snels hebt.
Hierbij komt dan ook nog eens dat AMD's kaarten, met de GPGPU architectuur die ze nu gebruiken, veel beter zijn voor rendering en repetitieve berekeningen, waar vroeger nVidia met hun CUDA veel beter was.
Dat is Nvidia nog steeds maar dan alleen met de Tesla lijn, die natuurlijk niet goedkoop is. Duidelijke splits bij Nvidia tussen gpgpu en gamerscards. AMD had dit ook aangekondigd in vage bewoordingen enige tjid geleden - we zullen zien wanneer ze ook zo'n soort split aanbrengen - volgens mij zijn ze nog niet zo vreselijk populair voor gpgpu.
Ben jij verkeerd bij enkele dingen: Ik had het over alle types workstation kaarten van AMD tegenover nVidia: zoals je enkele weken terug hier op tweakers kon lezen, kozen veel developers voor de AMD HD7970 kaart ipv de GTX680 wegens de verschillen in GPGPU kracht/resultaten.
Vele developers verwachten dan ook dat deze lijn zal doorgezet worden naar de workstation-versies van deze kaarten, die op het moment van schrijven dan nog moesten uitkomen.

Hierbij moet ik ook nog opmerken dat nVidia al enkele jaren een groot deel van hun development time bij het ontwerpen van cores ook toespitst op hoe hun cores kunnen gebruikt worden bij GPGPU toepassingen en ze daar dan ook voor te optimaliseren. Kijk maar naar CUDA en PhysX, 2 "technologieŽn" waardoor nVidia al redelijk wat jaren iets beter uitkwam dan AMD/Ati voor zowel gamers als voor developers die gebruik maken van de GPGPU mogelijkheden van de kaarten.

Deze splits is trouwens ook geen echte splits, maar eerder een gespecialiseerde kaart. De "gamercards", zoals jij deze noemt, zijn ook nog steeds redelijk geschikt voor GPGPU, net door de technologieŽn die gebruikt worden om de kaart zo geschikt te maken voor gaming.
Skyrim is geen goed voorbeeld, komt nog eens bij dat je vram sowieso vol loopt als gevolg van buffering...

Skryim draait trouwens zelfs op een GTX 580 SLI 3gb setup slecht omdat het een mislukte console port is.
Het mogen duidelijk wezen dat Nvidia's GTX 690 compleet gehakt maakt van deze 7990 kaart.
Je bedoeld, als ze 'm kunnen leveren? ;)
Uit benchmarks blijkt dat de AMD's met die 4 GB geheugen op 2560x1600 beter presteren dan vregelijkbare nvidia kaarten, terwijl dit niet is op 1920x1080. Dit wordt door veel reviewers toch echt toegeschreven op de hoeveelheid geheugen.
De 12GB variant is dan ook bedoeld voor mensen die eyefinity met 3x 2560x1440 of 3x 2560x1600 gaan draaien. De 6GB variant van de 7970 is al een tijdje uit in AziŽ, maar is (nog) niet uit hier vanwege de geringe vraag naar zulke kaarten aangezien er maar weinig mensen zijn die het geld er voor over hebben om eyefinity op dit soort hoge resoluties te draaien.
Die hoeveelheid geheugen klinkt imposant. Bedenk echter wel dat dual GPU kaarten hun geheugen moeten delen. Elke GPU krijgt helft van het totaal. De data die er in dit geheugen staat is identiek, zodat beide processors erbij kunnen.

Dus 6 GB -> 3 GB per processor.
en 12 GB -> 6 GB per processor.

Dit is natuurlijk nog steeds een indrukwekkend getal. De hoeveelheid geheugen die voor grafische aansturing nodig is, is echter helemaal niet zo groot. Meer dan 2GB maakt amper verschil meer op 2560 x 1600. Deze huidige keus van het geheugen geeft dus ruimte voor 4k2k schermen, of om voor GPU-rekenwerk, waar het geheugen doorgaans de beperkende factor is, meer ruimte te bieden.

Al met al een interessante kaart.
Nooit van eyefinity gehoord zeker?
Met 3 monitoren zit je zo op 5.760*1200 or 3600*1920
Inderdaad. Het is feitelijk maar gewoon 3 GB. Het is 2x 3GB waar hetzelfde op staat. Ik snap deze keuze dan ook niet helemaal. 2*6 had veel slimmer geweest.

Hoe dan ook, dit zal best een beest worden. Nu maar hopen dat ze de temperatuur in orde zullen maken. Meestal moeten zulke kaarten toch onder water voor het beste resultaat. net als de GTX590. Dat ding werd loeiheet.
Het klinkt logischer als je gewoon zegt dat in SLI/CFX elke GPU in de ketting op zijn beurt een frame moet renderen, tenminste als er alternative frame rendering (AFR) wordt gebruikt. In zo'n geval zal de HD7990 elke GPU afwisselend een frame laten berekenen en het is ook duidelijk dat door de beperkingen van de huidige technologie elke GPU enkel zijn eigen geheugen daarvoor kan inzetten, zijnde 3GB. Momenteel is de HD7990, toch op gebied van geheugenmanagement, nog steeds niets meer dan twee HD7970's op eenzelfde PCB gesoldeerd, maar elke GPU heeft nog steeds zijn eigen geheugen. Er wordt niks van geheugen gedeeld.

Voor elk gerenderd frame hebben beide GPU's elk maar 3GB tot hun beschikking, dus dat is dan ook de eigenlijke hoeveelheid bruikbaar geheugen per frame en per definitie ook voor het complete spel. Gewoon optellen is fout.

[Reactie gewijzigd door DevilsProphet op 9 juli 2012 13:04]

Je vergeet alleen even dat het geheugen gebruikt wordt voor opslag van textures en modellen en niet alleen als simpele videobuffer, want dan had je bij lange na niet eens zoveel nodig, dan was 256MB meer dan genoeg..
Wat ik wel raar vind is dat ik 2x 6870 1gb heb en dat ik toch echt met max payne 3.

2gb heb om te gebruiken in de graffice settings vind het zelf ook een beetje vreemd.
is niet vreemd beide kaarten moeten de textures laden in het werkgeheugen
waardoor het spel zegmaar 2 keer geladen is er word dan geruild tussen beide gpu chips voor het renderen van het video materiaal

dit betekent dat je eigenlijk maar 1GB vram per GPU chip overhoud
je moet het zo ook niet zien

het is niet dat zij het geheugen delen maar dat er geheugen beschikbaar is
ja het klopt dat beide GPU chips het zelfde moeten laden

de GTX460 2win (gtx460 in sli) heeft in totaal 2GB VRAM waar van 1GB vram aanspreek baar is per chip ze delen het geheugen dus niet het is gewoon niet meer aanspreekbaar

[Reactie gewijzigd door firest0rm op 9 juli 2012 16:17]

weer een videokaart erbij van 1000 euro
Ben ik ook bank voor, dan maar twee 7970 in CF, maar goed we weten de prijs nog niet...:)
Die weer aanzet tot het breken van records met nieuwe goedkopere kaarten. Mooi toch? En daarnaast, als we allemaal het meest luxe kunnen betalen, waar moet je dan nog van dromen? (Op het gebied van GPU performance dan)
Prijs zal afhankelijk zijn van prestatie. Als hij beduidend minder presteert dan de nvidia 690 zal AMD hem iets goedkoper prijzen, anders zelfde prijs of iets duurder.

De productiekosten van iets als dit, ook voor Nvidia, ligt op een prijs die zoveel lager is dan waarvoor ze hem verkopen, dat de fabrikanten simpelweg deze keuze hebben.
Beetje aan de late kant dit, zouden er veel problemen geweest zijn dat deze zo laat uit komt. Ik ben benieuwd wat voor benchmark scores hier uit gaan komen word wel prijzig.
misschien moesten ze even sparen voor ze genoeg chips hadden die zuinig genoeg zijn.
Inderdaad. Een erg verleidelijke kaart met deze specs, maar de HD 8970 komt al in januari en de 8990 in maart 2013. Zo blijft het steeds een kwestie van wachten, jammer dat de high end kaarten steeds zo laat komen.
nvidia =/= radeon, seems legit.
Met de HD6990 liepen ze al tegen de limieten van de huidige ATX/PCI specificaties aan. Via een schakelaar kon je de videokaart 'overklokken' van 375W (2 x 150W via connectors en 75W via PIC bus) naar 450W.

Net als de HD6970 zit ook de HD7970 tegen de limiet van 225W aan. Ik denk dat AMD vooral bezig is geweest het vermogen op een andere manier te betrekken zoals misschien een tweede PCI slot op de kaart. Door de koeler neemt de kaart toch al twee sloten in gebruik, dus waarom zou je geen voeding trekken uit dat tweede PCI slot. Daarmee zou je hetzelde vermogen kunnen trekken als twee losse videokaarten.

Ik denk dat ze namelijk flink aan het puzzelen zijn geweest zou ze de snelheid zo hoog mogelijk kunnen houden en toch binnen de limieten kunnen blijven. Dual GPU kunnen sneller zijn dan twee losse kaarten, maar dat voordeel kan natuurlijk snel verdwijnen als je vervolgens de kaart lager moet klokken..
Heb je ooit het nut gezien van alle top of the line high end graka's? Ik zal het je dan even uitleggen..research doeleinden (hoe ver kunnen we gaan en wat kunnen we verbeteren voor de volgende generatie mid-high), nieuwswaarde en gratis reclame via overclock wedstrijden en tech websites, bovenaan staan in de lijst als het aan komt op performance wat weer reclame is, laten zien wat je kan zodat je nog meer in de kijker komt te staan, etc etc.

Kortom; besproken worden en je naam op de kaart zetten. Hebben wij de beste kaart van iedereen? Dan kopen heel veel mensen onze wat goedkopere kaarten want die zijn dan net zo goed in hun ogen.

Van de omzet van de paar duizenden die verkocht zullen worden hoeven ze het niet te hebben in ieder geval.
Ik denk dat je de winstmarge op dit soort kaarten en de aantallen die ervan verkocht worden, zwaar onderschat.

Vanzelfsprekend zijn we het helemaal eens over dat 'de naam' hebben van een snelle videokaart ontzettend belangrijk is, vooral richting de pubers die ze kopen.

Wat me niet duidelijk is, is hoe snel of traag deze kaart zal zijn op gpgpu gebied.

Voor de nauwkeurige berekeningen domineert Nvidia daar met de Tesla. Die is echter erg prijzig en leunt nog sterk op het hebben van 1 gpu die ondertussen al vrij oud is.

De tesla die ik hier heb is de 2075. Daar heb ik er dan een paar van. Elke gpu heeft daar 448 cores en is 1.15Ghz geklokt. Hij heeft ECC en is "zo laag" geklokt zodat er geen bits flippen.

Dus het gros van de wetenschappers heeft alleen de tesla als gpgpu kaart als alternatief omdat ze niet willen dat bits flippen.

De 690 is geen gpgpu kaart.

Van enige Chinese wetenschappers weet ik dat voor hen het enige probleem de prijs van de kaarten is. Nvidia of AMD, maakt ze niet uit. Het gaat alleen om prijs. Stroom zat.

Stel je koopt bende 7990's en klokt de kaart iets lager, zeg op 700Mhz ofzo, teneinde hem iets betrouwbaarder te laten rekenen.

Dan heb je dus 4096 cores. Dat is omgerekend voor veel applicaties effectief rond de 1024 cores (veel instructies gebruiken 4 cores voor het doen van of 32 bits integer vermenigvuldigingen of 64 bits drijvende komma berekeningen) . Dus veel meer dan de tesla hier tegen een aanzienlijk lagere prijs.

In de 5xx generatie was net als in voorgaande generaties de double precision snelheid sterk gereduceerd door nvidia voor gpgpu, alleen de tesla was daar op volle snelheid.

In de 6xx generatie is ook het integer 32 bits gedeelte, dat zo snel was nog op de 580, sterk gereduceerd in snelheid. Dus 32 x 32 bits vermenigvuldigen is takketraag nu op de 690 voor gpgpu.

Het feit dat Nvidia dus iedereen dwingt de dure tesla's te kopen, betekent simpelweg dat een aantal dat zal doen maar ook een aantal zal uitwijken richting AMD.

Ook AMD had daar plannen om de zaak te limiteren qua snelheid. Het is interessant om dat te vergelijken met de tesla.

Vergis je niet erin dat een enkele supercomputer die zo iets gebruikt al snel 5000 kaarten afneemt.
Ik vraag me af of die clockspeeds nog wel kloppen. Want de 7970GE is veel hoger geclockt en een 7990 op 825 MHz kan de GTX690 echt niet verslaan. Dus is het in dat geval geen nuttige kaart. Als ze tenminste de 925 MHz kunnen halen. Is het nog wel interessant.

Met de huidige yields van de Tahiti chips kunnen de voltages tov de Vanilla 7970 aardig omlaag.
Heeft puur met stroomverbruik te maken, ook al zouden de voltages iets omlaag gaan. Op de standaard clocks wordt dit gewoon te hoog en valt het bijna niet te koelen. Had dit eerlijk gezegd wel een beetje verwacht aangezien de HD7970 ook gewoon wederom meer stroom is gaan verbruiken dan de HD6970, dan kom je met je duo gpu kaart gewoon in de knoop. Daarbij was de HD6990 al lastig voor AMD om te koelen (of ja, ze hebben daar teveel op bezuinigd) met als resultaat veel te veel herrie.

[Reactie gewijzigd door MW1F op 9 juli 2012 12:14]

Ja maar dat zeg ik dus. Door de betere yields zijn die hoge voltages helemaal niet meer nodig. op 1.0v kun je die 925 ook al halen als je de chips binned. Sterker nog op die voltages kun je ook 1000 halen.

Het wordt zeker een uitdaging omdat de chip groter is. Maar een 7990 op 825 MHz is in mijn ogen niet interessant. Hij kan dan niet in de buurt komen van de GTX690 en een 7970GE kan ook al een stukje die kant op komen. Ik verwacht dat ie 7990 iets van 40-50% sneller zal zijn.

Dan is 7970 CF of 7870 CF interessanter.
Tis altijd jammer dat die dual GPU kaarten pas zo laat komen...ik kan nu alsnog beter voor twee 7970's gaan...
Dat heeft een tijd geduurd voordat de 7990 zou komen? Ze zijn zeker lastig te produceren of de vraag uit de markt is voor deze type kaarten afgenomen?
Ben wel benieuwd naar de resultaten van deze 7990 maar ga hem niet aanschaffen.
Denk namelijk dat ik met mijn 2 x XFX 7970 Core beter af ben, niet kwa stroomverbruik maar kwa prestaties denk ik wel.
Wacht wel tot de nieuwe generatie AMD's uit gaan komen volgend jaar en met deze 2 kaarten kan ik zeker goed uit de voeten tot de nieuwe generatie.
Beetje overkill, maar wel leuk speelgoed natuurlijk :p
overkill? ga jij eens Metro 2033 spelen op HD met 4x AA en alles open...... ik haal vaak 24 fps met een GTX 580 en 20% overclock.

Batman arkham city zelfde gezeur.. 20 fps als je 8x aa aan zet.
battlefield 3 43 fps.....

/ i5 Quad op 3,94 Ghz cpu

So, duidelijk geen overkill een SLI kaart. Overkill bestaat gewoon niet.

[Reactie gewijzigd door A87 op 9 juli 2012 12:46]

Klopt, we hebben een tijdje gehad, waarin de GPU's voorliepen op de games. Op het moment is het inderdaad andersom. Echter gaat het wel weer even duren voor de games weer een stuk zwaarder worden. Vooral tesselation en DX11 zorgden sowieso voor een veel complexer gebeuren voor de GPU's.
De GPU's liepen en lopen heel vet voor op de software.
De verklaring is hiervoor supersimpel.

De limitatie is de mens. Het bouwen van een hoofd kost een designer nu eenmaal gewoon een volle maand, om een voorbeeld te geven.

Elk driehoekje moet zo'n designer wel met de hand tekenen cq aanpassen.

gpu's worden elke 18 maanden (Moore's law) praktisch factor 2 sneller. Dus exponentieel sneller. De graphics die de gameproducers hebben neemt echter niet exponentieel toe.

Dus logica zit er wel in die bewering.
De vraag is of je tijden het spelen ook het verschil ziet tussen 4x AA, 8xAA, 128xAA ...
Op die eyecandy (als ze al zichtbaar is) ben je na 1 avond spelen op uitgekeken. Met die honderden Euro's die je uitgeeft aan extreem dure GPUs kan je vele andere zaken kopen die je wel meer spelplezier bezorgen, of je uitgaven spreiden zodat je langer kan genieten van je high-end systeem.

Dus overkill, ja imo.

Maar wel een mooie ontwikkeling en noodzakelijk om de evolutie gaande te houden.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013