Specs Nvidia GeForce GTX 680 met Kepler-gpu duiken op

De officiële slide met specificaties van de nieuwe GeForce GTX 680 van Nvidia is op internet verschenen. De slide bevestigt dat de videokaart 1536 cudacores heeft, en tevens dat het een kloksnelheid van 1006MHz en een 'boost' naar 1058MHz krijgt.

De slide die de Chinese site PCOnline.com.cn publiceerde, zou afkomstig zijn van het officiële persdocument en bevestigt eerdere geruchten over de nieuwe kaart van Nvidia, die de strijd met AMD's Radeon HD 7970 moet aangaan. De GTX 680 krijgt 1536 cudacores met een standaardkloksnelheid van 1006MHz. De kloksnelheid kan bij grafisch veeleisende games of applicaties echter automatisch verhoogd worden naar 1058MHz. De kaart zal met 2GB gddr5 uitgerust worden en de gpu communiceert via een 256bit brede bus met het geheugen.

Nvidia GeForce GTX 680 Nvidia GeForce GTX 680

Nvidia heeft met de Kepler-architectuur de Fermi-voorganger aardig op de schop genomen: de GTX 580 had nog 512 cudacores, maar wel een 384bit brede geheugeninterface. Het gddr5-geheugen doet zijn werk op 1500MHz, effectief 6000MHz. De totale bandbreedte komt uit op 192GB/s.

Nvidia GeForce GTX 680

Nvidia maakt net als concurrent AMD gebruik van pci-e 3.0 en de kaart zal van de interfaces hdmi, displayport 1.2 en een dl-dvi-duo voorzien worden. De tdp bedraagt 195W en de grafische kaart zal zijn energie via twee 6pins aansluitingen betrekken. Op 22 maart zal blijken of de GTX 680 sneller is dan de HD 7970, want dan moet de kaart verschijnen en moeten de eerste reviews online komen.

Door Olaf van Miltenburg

Nieuwscoördinator

14-03-2012 • 18:02

122

Reacties (122)

122
108
54
8
0
25
Wijzig sortering
Anoniem: 298599 14 maart 2012 18:59
Uit de slide haal ik volgende gegevens:
  • 3DMark 11 Extreme Preset 9%
  • Stalker Pripyat Day 7%
  • Stalker Pripyat Day 4xAA 5%
  • Stalker Pripyat Sun 15%
  • Stalker Pripyat Sun 4xAA 8%
  • Battlefield 3 18%
  • Battlefield 3 4xAA 43%
  • Call of Duty MW3 14%
  • Call of Duty MW3 4xAA 15%
  • Civilization V 3%
  • Civilization V 4xAA -3%
  • Dirt 3 26%
  • Dirt 3 4xAA 23%
  • Just Cause 2 13%
  • Just Cause 2 4xAA 11%
GEMIDDELD: 14%

Niet zo indrukwekkend dus aangezien de HD 7970 al 3 maanden op de markt is en de GTX 680 nog moet uitkomen.

En nog wat meer info over de GPU:
NVIDIA's new flagship graphics card is going to be released soon and the leaks are coming in thick and fast now. The release date has been leaked by user ek84 at the overclock.net forum, claiming a March 22nd launch - just over a week away. He/she apparently works for a "big PC retail company" and was able to see a mini presentation given by EVGA a few days ago, where this was revealed. A few other things were revealed too: the card will have 1536 CUDA cores, 2GB GDDR5, two 6-pin PCI-E power connectors and a TDP of 190W, along with an MSRP of $550. Also, the GTX 580 is now seeing price cuts at all the usual retailers such as Newegg and Amazon, which lends credence to this release date. Finally, the reliability of this info seems reasonable, since ekg84 has a reputation score of 94, with 84 unique voters.
Bron: http://www.legitreviews.com/news/12601/

Slide blijkt fake te zijn: http://gathering.tweakers...message/37848260#37848260

[Reactie gewijzigd door Anoniem: 298599 op 23 juli 2024 07:46]

De 680 is ook niet de High End kaart. Het is meer de 570 van nu.
volgens mij wel de 690 word volgensmij de dual core kaart en is dus niet te vergelijken.
Inderdaad, zoals RampageNL al zegt is dit niet de top kaart van Nvidia.
Deze kaart is dus te vergelijken met de GTX 570 zoals staat aangegeven in de roadmap van Nvidia.
Er komt nu dus nog een Videokaart uit (GK110) en een Dual GPU variant van de GK110, dit heet dan de GK112.

Persoonlijk denk ik dat die 2 nog on aangekondigde kaarten de 685 GTX en de 695 GTX gaan heten net zoals de oude 200 series van Nvidia.
3 maanden stelt ok niets voor. Daar door lopen ze amper wat mis als het een goed product word. Voor ond die eerder een nvidia kaart willen hebben is dat wel weer minder.
Anoniem: 69322 14 maart 2012 18:40
AMD zal afhankelijk van de werkelijke prestaties, gewoon uitkomen met een hoger geklokte versie van hun GPU. Daar is zoals uit veel testen is gebleken ruim voldoende ruimte voor, ook binnen het warmte en energieverbruik budget.

[Reactie gewijzigd door Anoniem: 69322 op 23 juli 2024 07:46]

Blaat Moderator Harde Waren 14 maart 2012 18:03
Ik vind de TDP (195w) van deze kaart meevallen. Dit zal echter wel komen doordat de shaders nu op dezelfde clocks lopen als de rest van de core. Ik ben benieuwd of ze die 40% dan ook waarmaken.
Voor een ieder een die denkt dat de GTX 680 de top videokaart is, heeft het mis, dit is de GK104, dat is nVidia's versie van de HD7870.

De GK110 aka GTX 690 top kaart, moet nog steeds uitkomen, en die kaart zou 40% sneller moeten zijn volgens de geruchten.
(en nee de GTX 690 680 is niet een duo chip oplossing als de GTX 590)

Maar wederom heeft nVidia proces problemen, voor de GK104 zijn die niet zo groot als bij de GTX 480, maar hoe groot die problemen zijn voor de GK110 is nog steeds onbekend.
nVidia is al wel vast begonnen met TSMC de schuld te geven van de komende problemen die ze hebben met het 28nm proces.

Het maakt niet uit hoe goed je GPU is, als je er niet genoeg van kan maken, heb je nog steeds niks gewonnen, daar je de ontwikkelingskosten over veel minder GPUs moet verdelen.

Als nVidia wel genoeg GPUs kan maken, dan heeft AMD een probleem, tenzij AMD nog een geheime GPU uit zijn hoed kan toveren.

Ik denk dat nVidia met de GK104 genoeg GPUs kan maken om te concurreren met de 79x0 serie, maar op alle andere vlakken weer problemen heeft met het maken van een goed werkende GPU.

En dit help ook vast niet Apple drops Nvidia Kepler from large numbers of laptops

Niks staat nog vast maar alles is gebaseerd op de tot nu bekende informatie.

@DaLoona
Heb niks weg ge-edit, en zo als de abbr kan zien, en de disclaimer regel hier net boven zegt dat ook dat niks vast staat.

Maar wat iig wel vast staat is dat de GTX 680 iig niet de top kaart is, die gebaseerd op de GK110, maar de mid-range GK104 chip.

Dus hoe het top model gaat heten weet nog niemand zeker, denk dat ze het zelfs bij nVidia nog niet zeker weten, maar GTX 690 is een goede gok imho, GTX 780 is natuurlijk ook een mogelijkheid als het heel lang duurt (wat best zou kunnen) voor de GK110 klaar is.

[Reactie gewijzigd door player-x op 23 juli 2024 07:46]

Volgens eerdere slides van nVidia zelf zou de GK110 weldegelijk een dual-GPU GK104 oplossing zijn.

nVidia 2012 roadmap

[Reactie gewijzigd door knirfie244 op 23 juli 2024 07:46]

Dus dan zouden deze geruchten op de GK106 duiden??
De GK110 aka GTX 690 top kaart, moet nog steeds uitkomen.
(en nee dat is niet een duo chip oplossing als de GTX 590)
Eeeeh fout!

De GTX690 is WEL een dualgpu kaart:
http://videocardz.com/nvidia/geforce-600/geforce-gtx-690
gewoon 2 gpu's van de GK104 series

On topic:

1006MHz voor de shaders is wel een stap terug, op mijn GTX470 doen ze 1640MHz, maar ja dat maken ze dan weer goed met meer cudacores.

@hierboven:
Zoek eerst de feiten uit, voordat je post, hoef je het ook niet weg te editten.

Edit 2 @hierboven:
De GK110 aka GTX 690 top kaart, moet nog steeds uitkomen, en die kaart zou 40% sneller moeten zijn volgens de geruchten.
Ook weer fout, lees die link die ik gepost heb, die GTX690 heeft 2 GK104 gpu's, geen GK110!
What GPU the GK-110 chip would use is yet unknown!
van:
http://wccftech.com/nvidi...pler-gk110-chip-pictured/

[Reactie gewijzigd door DaLoona op 23 juli 2024 07:46]

Anoniem: 448497 @DaLoona14 maart 2012 19:11
'SPECS STATUS:Rumoured'

Niets is nog duidelijk over de specs.
Ik zie toch echt staan dat hij de GTX 680 een single core GPU noemt?
De GK110 aka GTX 690 top kaart, moet nog steeds uitkomen, en die kaart zou 40% sneller moeten zijn volgens de geruchten.
(en nee de GTX 680 is niet een duo chip oplossing als de GTX 590)

Als de TDP 195W is dan moet de kaart haast wel minder krachtig zijn dan dat ze in dit artikel beweren. Maakt niet uit of de kaart op 22nm gebakken is een TDP van 195W is erg laag voor zo'n vlaggeschipmodel als de 7970.

[Reactie gewijzigd door Jhonny44 op 23 juli 2024 07:46]

Is wel duidelijk dat hij doelde op de gtx690 en later in de tekst de gtx680 er in heeft ge-edit ;)
Er is niks aan de tekst ge-edit behalve "GTX 690 680", ik verander nooit de betekenis van mijn post, anders dan bv taalfouten, zonder het aan te geven.
Base clock != Shader clock bij nVidia kaarten..
Opletten! Bij deze videokaart is dat dus wel weer het geval :)
Denk eerder dat nVidia gaat voor GTX685 als High End Single GPU en GTX695 als Dual GPU, net als de 200 Serie.
Anoniem: 263922 @player-x14 maart 2012 18:36
Altijd weer de good old doemdenkerij, en een flink overclockte 7970 is niet echt een 'geheime' gpu, al maakt dat hem niet minder goed.
Hoewel ik sterke twijfels heb over het bestaan van die GPU

Is een GPU met 2304 shader processors 256 shader processors meer dan van de standaard 7970 2048 shader processors, of te wel 12% meer shader processors.

Wat mogelijk zou zijn, is dat of AMD heeft een nieuw/alternatief model van de in de 79x0 gebruikte GPU. (welke niet is gebruikt van wegen technische of andere strategische reden)
Of wat ook mogelijk zou zijn is, dat AMD het 9de blok van 256 shader processors heeft uit geschakeld, van wegen (mogelijke) binnings problemen. (wat imo meest mogelijk zou zijn)

Dus ja als AMD met die GPU zou komen, zou in beide gevallen hebben we het over een "geheime onbekende GPU''.

[Reactie gewijzigd door player-x op 23 juli 2024 07:46]

Het is juist amd die niet genoeg chips kan leveren, de afgelopen 2-3 jaarraporten staat er bij het kopje GPU al in dat de omzet lager dan mogelijk uitviel vanwege capaciteitsproblemen. Oftewel iedereen heeft er last van :).

Zou best eens kunnen dat AMD hierdoor nu iets duurder is geworden (price/performance is iets omlaag gegaan).

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:46]

Ik verbaas me erover dat je dit met zo`n stelligheid beweert.
Het zijn nog maar geruchten, en je claimt dat die al niet juist zijn, daarbij trek je ook nog eens een 780 model uit de hoge hoed.
Overal kun je lezen dat de de 690 een dual GPU model is, maar nee volgens jouw is dat het topmodel met 1 GPU.
Volgens jouw breekt Nvidia dan tevens met de gewoonte hun 90 serie uit te rusten met 2 GPU.

Vreeemd....................
Ik ben benieuwd of ze die 40% dan ook waarmaken.
Uit de grafiekjes van Nvidia zelf kun je al zien dat ze die 40% totaal niet waarmaken. (jammer dat de redactie zo makkelijke de PR onzin van Nvidia na praat)

Kijk maar eens goed naar de grafiek.
De vertikale as begint niet op 0 maar op 0,8. Vervolgens zie je dat de scores van de GTX680 zo rond de 1.1 lijn liggen. (de ene score wat hoger, de andere wat lager, maar gemiddeld rond die 1.1

Dat betekent dus maar 10% sneller

En als je dan bedenkt dat Nvidia uiteraard de best case scenarios er uit haalt voor zo'n grafiek, dan mag je al blij zijn als die GTX 680 in de praktijk even snel is en niet gemiddeld langzamer.
en er is één meting 40% sneller, daar komt de 40% vandaan. Ik zat de (semi-)nep al te zoeken, Dankje voor het zetje in de goede richting:P
De kaart zal allicht niet 40% sneller zijn. Maar ook al zou het 'slechts' 20% zijn, dan is dat met een TDP van 195W een hele goede prestatie. Nvidia heeft dan weer een kaart waarmee ze de concurrentie aan kunnen met AMD.

Dit zorgt er voor dat AMD hun high-end kaarten eindelijk scherp moet gaan prijzen. De laatste tijd was dat nou juist het heikel punt.

Goed nieuws voor mensen die binnenkort in de markt zijn voor een nieuwe high-end kaart.
Hangt ook wel af van hoe deze Nvidia kaart overklokt. De 7970 kaarten klokken erg goed. Met een verhoging tot de max van CCC is de kaart met gemak 20% sneller dan stock. Vrijwel iedere kaart haalt de maximale CCC limieten. Als de GTX680 een slechte overklokker zou zijn maakt dat het misschien nog wel een minder goede keuze dan de 7970.
Anoniem: 263922 @Blaat14 maart 2012 18:12
Dat hangt maar voor een deel van de kloksnelheid af, de gf100 van de gtx480 was bijvoorbeeld een reusachtige chip waar door productieproblemen een lage yield bijkwam, om nog een redelijk aantal chips bruikbaar te kunnen maken was er ook nog eens een hoger voltage nodig > hoger verbruik.

Die 40% betere performance dan de hd7970 gaan ze met deze chip nevernooit halen (overall), misschien met de gk110 maar die is op de lange baan geschoven. Wel mooi dat er nu een boost in kan ipv een begrenzer zoals de gtx580/590 bijvoorbeeld hebben.
Ik denk wel dat ze die 40% gaan waarmaken, het aantal cuda cores is nl verdrievoudig tov de 580.

Die 1006 MHz is toch de gpu kloksnelheid. Dat is gewoon immens hoog.

[Reactie gewijzigd door Fredi op 23 juli 2024 07:46]

Ja maar die 1006 mhz is nu ook de Shader/cuda core snelheid. Die snelheid was eerst twee keer zo hoog als de GPU clock. En die core's moet het uiteindelijke reken werk doen.

De cores zijn X3 gegaan en de clock snelheid van de cores ongeveer 30% omlaag.
Dus zal je in het beste geval 2X de snelheid van de GTX 580 halen.
Je hebt het fout. De 680 zou een gpu core (streaming processors)snelheid hebben van 1006 MHz en de shader processors draaien op 1411 MHz.

Bron: en.m.wikipedia.org/wiki/Comparision_of_Nvidia_graphics_processing_units#Geforce_600_series

Dit is gewoon een monsterkaart, zoveel is zeker. En dan nog eens een tdp van 195 w, zeer netjes van nVidia.

[Reactie gewijzigd door Fredi op 23 juli 2024 07:46]

het opgenomen vermogen valt nog best mee, gekeken naar het aantal cuda cores en de geschatte performance van dit monster...
de vraag is wel hoe die cuda cores zich verhouden tot die van de fermi architectuur,
ze zijn volledig anders van design, dus performance is niet simpelweg 3 maal die van een gtx 580. zoals te zien is aan hun eigen benchmarks,

(al verving hij wel 3 GTX 580s bij de samaritan demo van de UE3)

verder het verbruik is erg netjes, al vraag ik me wel af hoe goed het idle verbruik is, eerlijk gezegd verwacht ik dat dat wel hoger is dan bij AMD, 3 watt is wel erg indrukwekkend.
hoedanook ik ben super benieuwd, en als hij 20% sneller is dan een HD 7970 en de GK110 moet er nog aan komen over 5-6 maanden dan ben ik benieuwd wat voor scores die neer gaat zetten. met zeg 3K cores? 1,7 1,8X dit door lagere clocks en schaling wie zal het zeggen.
Ik ga voor 1) Wij van WC eend.

Tijdens de GTX 480 release (toen nog 380gtx) Was Nvidia ook sneller zeiden ze, maar de 5870 was sneller.
Dan zou ik je geheugen nog maar eens opfrissen als ik jou was. De GTX480 was sneller dan de HD5870, maar minder snel dan de dual GPU HD5970.

Mocht GK104 dezelfde performance hebben als de HD7970 dan vind ik dit een ernstig goede ontwikkeling, al is het dan GK104! Het ligt er vermoedelijk aan dat NVIDIA problemen heeft met de grotere chip, maar indien het ook maar deels waar is wat ze claimen hebben ze echt een top kaart in handen.
Anoniem: 382150 @millman15 maart 2012 00:03
Ja alleen was de GTX48- wel een kaart die veel teveel energie verbruikte en dat ze de hitte niet weg konden voeren, dus 1+1 =?? 2 juist.
De hd5870 was in alle opzichten beter tegenover de 480, alleen al als je naar het energieverbruik en de hitte keek.
Ik heb ook nooit gezegd dat ie zuiniger was, heb beide kaarten gehad om te testen en ja, warm werd de480 wel, maar dan was ie nog een stuk stiller dan de 5870.. Welke er beter was is meer een kwestie van smaak en wensen, welke er sneller was kan ik je wel vertellen..
Anoniem: 445463 14 maart 2012 18:05
Er zijn 2 opties:
1. Wij van WC eend....
2. Het is waar en de kaart valt in het €800+ segment.
Waarom? AMD heeft met de introductie haar kaarten veel te hoog geprijsd (relatief dan). De 7850 en daaronder zijn redelijk geprijsd, maar de drie topkaarten zijn 'te duur'. Nvidia zal de kaart ongetwijfeld iets hoger prijzen, want sneller, maar AMD zal snel genoeg reageren, met prijsverlaging/nieuwe kaarten, uiteindelijk met betere prijs/prestatie.

Dit tenzij AMD en nVidia zich net zo gedragen als de Nederlandse telecomproviders. Want dan vullen zij elkaar slechts aan en staan de prijzen inderdaad vast.
De HD7970 is niet hoog qua prijs, vergelijk deze maar eens met een GTX580 met 3Gb.
Let op mijn woorden ik zie de prijs niet verder zakken dan 399,- voor de goedkoopste HD7970.
Voor nVidia GTX670 prijzen zal deze iets boven de H7970 zitten en de GTX680, ik denk net onder de 600,- voor een referentie model.
je ziet alleen over het hoofd dat deze gtx 680 oorspronkelijk als GTX 660 gelanceerd zou worden, de die is maar 300mm² en is dus een stuk goedkoper te produceren dan de Radeon HD 7970, omdat de Radeon HD 7970 zo 'zwak' presteert kan nvidia de gk104 nu als high end uitbrengen

http://forum.ngfcommunity...hread-gtx-6xx.1447/page-8

http://www.fudzilla.com/h...a-aims-for-record-quarter
We zullen het wel zien. Ik zit toch nog wel 2 jaar op mijn GTX 560 Ti waarmee ik en half jaar terug mijn bak heb opgewaardeerd. In 2014 lachen we om de GTX 680... Velen hebben toch het geld niet over voor een kaart zoals deze.

[Reactie gewijzigd door Katsunami op 23 juli 2024 07:46]

Als deze performance benchmark klopt zou Battlefield 3 meer dan 40% beter presteren op de nVidia GTX680 dan een AMD 7970... geweldig!

Laat de GPU oorlog maar snel weer losbarsten.
Dan kunnen we weer upgraden voor een redelijke prijs! :9~

[Reactie gewijzigd door blastR op 23 juli 2024 07:46]

Anoniem: 271482 @blastR14 maart 2012 18:43
Een GPU oorlog tussen slechts 2 kampen? De vorige GPU wars maakten toch echt slachtoffers(3DFX, S3, STmicro, XGI...)
De fabrikant claimt in een afzonderlijke slide dat de prestaties van de GTX 680 maar liefst 40 procent hoger zouden liggen dan die van de Radeon HD 7970

Dat haal ik toch echt niet uit die slide hoor. Alleen voor Battlefield 3 geldt dat dan, de rest van de tests hangen gemiddeld op zo'n 115% van de 7970, oftewel gemiddeld een 15% sneller. Zou nog niet verkeerd zijn natuurlijk. Alles staat of valt met de prijs.

Ze hebben die slide wel sneaky in elkaar gezet trouwens. De 7970 moet dan 1 voorstellen en de rest van de kaarten relatief daar tegenover. De 7950 geeft zo'n 80% van de 70 maar in de slide lijkt het net een dwergje. Misselijke marketing :P
Behalve dat het op het gebied van marketing voordelen biedt om de grafiek zo neer te zetten is het ook gewoon heel handig.
Als je de grafiekjes bij 0 laat beginnen kun je grafiekjes simpelweg een stuk minder nauwkeurig aflezen.

Als ze zo'n grafiek naar buiten brengen zonder schaalverdeling ernaast; Tja, dan is het misschien 'misselijke marketing,' maar er staat hier toch duidelijk hoe je de grafiek moet lezen..
Als je de grafiek bij 0 zou laten beginnen zou je een neg waarde krijgen voor de hd7950, zou inderdaad een stuk minder duidelijk zijn.
nvidia weer aan de top per generatie.
Ben benieuwd wanneer de lightning, matrix en Classified versies hiervan gaan verschijnen en wat ze doen met overclocken als de GPU nu al 1000 stock gaat doen.
Erm? "weer" aan de top? ze krijgen anders de laatste jaren (zeker 3-4 jaar) flink klop van AMD in zo'n beetje elk segment... en laten we eerst maar eens echte benchmarks afwachten.
Dat valt wel mee de 2900XT was een flop. Daarna ging het beter met de 4870 (maar dat heeft zich nooit naar omzetcijfers vertaald). AMD was wel lekker vroeg met directx11en de gtx 465 stelde niet veel voor maar toen Nvidia (eindelijk) met de gtx 460 kwam ging dat toch eigenlijk wel weer gelijk op. De 460 was erg goede bang for buck. Het is eigenlijk altijd erg spannend in gpu land :+ .

Behalve aan de omzetscijfers uit de jaarverslagen kun je het ook bij steam zien:
http://store.steampowered.com/hwsurvey
55% nvidia, 39% amd, 3,4% intel.

Top kaarten met aandeel boven de 3% (in october):
ATI Radeon HD 5770
NVIDIA GeForce 9800
NVIDIA GeForce GTX 260
NVIDIA GeForce GTX 560
NVIDIA GeForce 8800
NVIDIA GeForce GTX 460
NVIDIA GeForce GTS 150
NVIDIA GeForce 9600
ATI Radeon HD 4850

Snel opgeteld is dat voor feb 2012: 7,44% voor AMD vs 24,39% voor Nvidia. Dan snap je ook meteen waar die 55% vandaan komt.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:46]

omdat mensen oude Geforce kaarten gebruiken....
betekent niet dat AMD het slecht doet de laatste jaren
je argument is gebaseerd op een stat die kijkt naar oude videokaarten en nieuwe
mensen met oude hardware hoeven niet persee gelijk een nieuwe videokaart te gebruiken

verder kun je ook in die lijn opmaken dat amd een opmars is aan het maken!

[Reactie gewijzigd door firest0rm op 23 juli 2024 07:46]

Hangt er puur vanaf wat jij als slecht ziet. Als je het over financieel hebt dan gaat het zeker niet goed met AMD. Verkochte aantallen vielen mij ook tegen de afgelopen jaren (gaat nu eindelijk beter). Heb je het over Price/performance dan ging het juist wel goed... Hangt maar net van je perspectief af.

Zoals ik al zei kun je dit ook aan de omzetscijfers en winst zien. Heb dit echter nu al wel 10x cijfers uit deze verslagen gepost op tweakers dus dat is wel even genoeg ;) . Gewoon zelf even naar de amd site gaan, op investor relations klikken en de jaarrapporten van de afgelopen 5 jaar downloaden. Dan zoek je daarna de tabel met de graphics devision en dan zie je de omzet en de winst. Daarnaast kun je ook lezen dat amd de afgelopen jaren zelf zegt dat ze een wat tegenvallende omzet hadden door productietekorten. Zelf zijn ze er in ieder geval niet blij mee.

Je maakt veder helemaal geen punt. Wat overigens je tegenargument dan? Heb je wel naar de top10 gekeken?? Heb je op de link geklikt??? De lijst kijkt gewoon naar wat mensen NU in hun systeem hebben, en laat het tot 5 maanden eerder zien. De GTX 460 en 560 uit de top10 zijn hardstikke nieuw, dus ook de nieuwe kaarten kom je tegen. Ook de"oude" toppers van amd zijn ook gewoon in de lijst te vinden(4870), achteraf kunnen we echter concluderen dat er toch wat minder zijn verkocht dan wat op tweakers vaak wordt gedacht... Overigens is er ook een uitsplitsing naar dx11 kaarten te vinden. Hier zie je dat amd nog altijd een voorsprong heeft, mede dankzij de eerste dx11 modellen. Nvidia kaarten uit die tijd vallen nog onder de dx10 tabel. Daarom is voorlopig de "overall" tabel nuttiger omdat die geen last van dat vertekende beeld heeft.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:46]

Een TDP van 195W en 256bit geheugenbus doet mij vermoeden dat dit niet om het topmodel gaat. Als dit wel het geval is dan heeft nVidia een uitstekende klus geklaard met wat betreft het stroom verbruik :Y)
Mee eens, met name die geheugenbus. Voorbeeldje: Als ik mijn geheugen overclock komen er tientallen fps bij in furmark tov enkele fps bij een gpu core overclock (gtx 460). Blijkbaar schaalt dat toch het snelste door in mijn geval.
ik ben erg benieuwd naar het stroomverbruik, van 22nm heeft al een groot voordeel, als ze de chip ook kleiner hebben gemaakt, brengt dat het totaal nog meer omlaag.

de gtx580 had een 6+8 pins voedingsconnector nodig, deze heeft er 2 minder :)

maar het is de x80, aka topmodel. die gaan niet voor een laag prijsje weg.

[Reactie gewijzigd door mrc4nl op 23 juli 2024 07:46]

Op dit item kan niet meer gereageerd worden.