Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 122, views: 29.655 •

De officiŽle slide met specificaties van de nieuwe GeForce GTX 680 van Nvidia is op internet verschenen. De slide bevestigt dat de videokaart 1536 cudacores heeft, en tevens dat het een kloksnelheid van 1006MHz en een 'boost' naar 1058MHz krijgt.

De slide die de Chinese site PCOnline.com.cn publiceerde, zou afkomstig zijn van het officiële persdocument en bevestigt eerdere geruchten over de nieuwe kaart van Nvidia, die de strijd met AMD's Radeon HD 7970 moet aangaan. De GTX 680 krijgt 1536 cudacores met een standaardkloksnelheid van 1006MHz. De kloksnelheid kan bij grafisch veeleisende games of applicaties echter automatisch verhoogd worden naar 1058MHz. De kaart zal met 2GB gddr5 uitgerust worden en de gpu communiceert via een 256bit brede bus met het geheugen.

Nvidia GeForce GTX 680 Nvidia GeForce GTX 680

Nvidia heeft met de Kepler-architectuur de Fermi-voorganger aardig op de schop genomen: de GTX 580 had nog 512 cudacores, maar wel een 384bit brede geheugeninterface. Het gddr5-geheugen doet zijn werk op 1500MHz, effectief 6000MHz. De totale bandbreedte komt uit op 192GB/s.

Nvidia GeForce GTX 680

Nvidia maakt net als concurrent AMD gebruik van pci-e 3.0 en de kaart zal van de interfaces hdmi, displayport 1.2 en een dl-dvi-duo voorzien worden. De tdp bedraagt 195W en de grafische kaart zal zijn energie via twee 6pins aansluitingen betrekken. Op 22 maart zal blijken of de GTX 680 sneller is dan de HD 7970, want dan moet de kaart verschijnen en moeten de eerste reviews online komen.

Reacties (122)

Reactiefilter:-11220108+154+28+30
Ik vind de TDP (195w) van deze kaart meevallen. Dit zal echter wel komen doordat de shaders nu op dezelfde clocks lopen als de rest van de core. Ik ben benieuwd of ze die 40% dan ook waarmaken.
Voor een ieder een die denkt dat de GTX 680 de top videokaart is, heeft het mis, dit is de GK104, dat is nVidia's versie van de HD7870.

De GK110 aka GTX 690 top kaart, moet nog steeds uitkomen, en die kaart zou 40% sneller moeten zijn volgens de geruchten.
(en nee de GTX 690 680 is niet een duo chip oplossing als de GTX 590)

Maar wederom heeft nVidia proces problemen, voor de GK104 zijn die niet zo groot als bij de GTX 480, maar hoe groot die problemen zijn voor de GK110 is nog steeds onbekend.
nVidia is al wel vast begonnen met TSMC de schuld te geven van de komende problemen die ze hebben met het 28nm proces.

Het maakt niet uit hoe goed je GPU is, als je er niet genoeg van kan maken, heb je nog steeds niks gewonnen, daar je de ontwikkelingskosten over veel minder GPUs moet verdelen.

Als nVidia wel genoeg GPUs kan maken, dan heeft AMD een probleem, tenzij AMD nog een geheime GPU uit zijn hoed kan toveren.

Ik denk dat nVidia met de GK104 genoeg GPUs kan maken om te concurreren met de 79x0 serie, maar op alle andere vlakken weer problemen heeft met het maken van een goed werkende GPU.

En dit help ook vast niet Apple drops Nvidia Kepler from large numbers of laptops

Niks staat nog vast maar alles is gebaseerd op de tot nu bekende informatie.

@DaLoona
Heb niks weg ge-edit, en zo als de abbr kan zien, en de disclaimer regel hier net boven zegt dat ook dat niks vast staat.

Maar wat iig wel vast staat is dat de GTX 680 iig niet de top kaart is, die gebaseerd op de GK110, maar de mid-range GK104 chip.

Dus hoe het top model gaat heten weet nog niemand zeker, denk dat ze het zelfs bij nVidia nog niet zeker weten, maar GTX 690 is een goede gok imho, GTX 780 is natuurlijk ook een mogelijkheid als het heel lang duurt (wat best zou kunnen) voor de GK110 klaar is.

[Reactie gewijzigd door player-x op 14 maart 2012 18:45]

De GK110 aka GTX 690 top kaart, moet nog steeds uitkomen.
(en nee dat is niet een duo chip oplossing als de GTX 590)
Eeeeh fout!

De GTX690 is WEL een dualgpu kaart:
http://videocardz.com/nvidia/geforce-600/geforce-gtx-690
gewoon 2 gpu's van de GK104 series

On topic:

1006MHz voor de shaders is wel een stap terug, op mijn GTX470 doen ze 1640MHz, maar ja dat maken ze dan weer goed met meer cudacores.

@hierboven:
Zoek eerst de feiten uit, voordat je post, hoef je het ook niet weg te editten.

Edit 2 @hierboven:
De GK110 aka GTX 690 top kaart, moet nog steeds uitkomen, en die kaart zou 40% sneller moeten zijn volgens de geruchten.
Ook weer fout, lees die link die ik gepost heb, die GTX690 heeft 2 GK104 gpu's, geen GK110!
What GPU the GK-110 chip would use is yet unknown!
van:
http://wccftech.com/nvidi...pler-gk110-chip-pictured/

[Reactie gewijzigd door DaLoona op 14 maart 2012 18:37]

Base clock != Shader clock bij nVidia kaarten..
Opletten! Bij deze videokaart is dat dus wel weer het geval :)
Ik zie toch echt staan dat hij de GTX 680 een single core GPU noemt?
De GK110 aka GTX 690 top kaart, moet nog steeds uitkomen, en die kaart zou 40% sneller moeten zijn volgens de geruchten.
(en nee de GTX 680 is niet een duo chip oplossing als de GTX 590)

Als de TDP 195W is dan moet de kaart haast wel minder krachtig zijn dan dat ze in dit artikel beweren. Maakt niet uit of de kaart op 22nm gebakken is een TDP van 195W is erg laag voor zo'n vlaggeschipmodel als de 7970.

[Reactie gewijzigd door Jhonny44 op 14 maart 2012 18:28]

Is wel duidelijk dat hij doelde op de gtx690 en later in de tekst de gtx680 er in heeft ge-edit ;)
Er is niks aan de tekst ge-edit behalve "GTX 690 680", ik verander nooit de betekenis van mijn post, anders dan bv taalfouten, zonder het aan te geven.
'SPECS STATUS:Rumoured'

Niets is nog duidelijk over de specs.
Altijd weer de good old doemdenkerij, en een flink overclockte 7970 is niet echt een 'geheime' gpu, al maakt dat hem niet minder goed.
Hoewel ik sterke twijfels heb over het bestaan van die GPU

Is een GPU met 2304 shader processors 256 shader processors meer dan van de standaard 7970 2048 shader processors, of te wel 12% meer shader processors.

Wat mogelijk zou zijn, is dat of AMD heeft een nieuw/alternatief model van de in de 79x0 gebruikte GPU. (welke niet is gebruikt van wegen technische of andere strategische reden)
Of wat ook mogelijk zou zijn is, dat AMD het 9de blok van 256 shader processors heeft uit geschakeld, van wegen (mogelijke) binnings problemen. (wat imo meest mogelijk zou zijn)

Dus ja als AMD met die GPU zou komen, zou in beide gevallen hebben we het over een "geheime onbekende GPU''.

[Reactie gewijzigd door player-x op 14 maart 2012 20:17]

Denk eerder dat nVidia gaat voor GTX685 als High End Single GPU en GTX695 als Dual GPU, net als de 200 Serie.
Volgens eerdere slides van nVidia zelf zou de GK110 weldegelijk een dual-GPU GK104 oplossing zijn.

nVidia 2012 roadmap

[Reactie gewijzigd door knirfie244 op 14 maart 2012 20:36]

Dus dan zouden deze geruchten op de GK106 duiden??
Het is juist amd die niet genoeg chips kan leveren, de afgelopen 2-3 jaarraporten staat er bij het kopje GPU al in dat de omzet lager dan mogelijk uitviel vanwege capaciteitsproblemen. Oftewel iedereen heeft er last van :).

Zou best eens kunnen dat AMD hierdoor nu iets duurder is geworden (price/performance is iets omlaag gegaan).

[Reactie gewijzigd door sdk1985 op 15 maart 2012 01:31]

Ik verbaas me erover dat je dit met zo`n stelligheid beweert.
Het zijn nog maar geruchten, en je claimt dat die al niet juist zijn, daarbij trek je ook nog eens een 780 model uit de hoge hoed.
Overal kun je lezen dat de de 690 een dual GPU model is, maar nee volgens jouw is dat het topmodel met 1 GPU.
Volgens jouw breekt Nvidia dan tevens met de gewoonte hun 90 serie uit te rusten met 2 GPU.

Vreeemd....................
De kaart zal allicht niet 40% sneller zijn. Maar ook al zou het 'slechts' 20% zijn, dan is dat met een TDP van 195W een hele goede prestatie. Nvidia heeft dan weer een kaart waarmee ze de concurrentie aan kunnen met AMD.

Dit zorgt er voor dat AMD hun high-end kaarten eindelijk scherp moet gaan prijzen. De laatste tijd was dat nou juist het heikel punt.

Goed nieuws voor mensen die binnenkort in de markt zijn voor een nieuwe high-end kaart.
Hangt ook wel af van hoe deze Nvidia kaart overklokt. De 7970 kaarten klokken erg goed. Met een verhoging tot de max van CCC is de kaart met gemak 20% sneller dan stock. Vrijwel iedere kaart haalt de maximale CCC limieten. Als de GTX680 een slechte overklokker zou zijn maakt dat het misschien nog wel een minder goede keuze dan de 7970.
Dat hangt maar voor een deel van de kloksnelheid af, de gf100 van de gtx480 was bijvoorbeeld een reusachtige chip waar door productieproblemen een lage yield bijkwam, om nog een redelijk aantal chips bruikbaar te kunnen maken was er ook nog eens een hoger voltage nodig > hoger verbruik.

Die 40% betere performance dan de hd7970 gaan ze met deze chip nevernooit halen (overall), misschien met de gk110 maar die is op de lange baan geschoven. Wel mooi dat er nu een boost in kan ipv een begrenzer zoals de gtx580/590 bijvoorbeeld hebben.
Ik ben benieuwd of ze die 40% dan ook waarmaken.
Uit de grafiekjes van Nvidia zelf kun je al zien dat ze die 40% totaal niet waarmaken. (jammer dat de redactie zo makkelijke de PR onzin van Nvidia na praat)

Kijk maar eens goed naar de grafiek.
De vertikale as begint niet op 0 maar op 0,8. Vervolgens zie je dat de scores van de GTX680 zo rond de 1.1 lijn liggen. (de ene score wat hoger, de andere wat lager, maar gemiddeld rond die 1.1

Dat betekent dus maar 10% sneller

En als je dan bedenkt dat Nvidia uiteraard de best case scenarios er uit haalt voor zo'n grafiek, dan mag je al blij zijn als die GTX 680 in de praktijk even snel is en niet gemiddeld langzamer.
en er is ťťn meting 40% sneller, daar komt de 40% vandaan. Ik zat de (semi-)nep al te zoeken, Dankje voor het zetje in de goede richting:P
Ik denk wel dat ze die 40% gaan waarmaken, het aantal cuda cores is nl verdrievoudig tov de 580.

Die 1006 MHz is toch de gpu kloksnelheid. Dat is gewoon immens hoog.

[Reactie gewijzigd door Fredi op 14 maart 2012 20:11]

Ja maar die 1006 mhz is nu ook de Shader/cuda core snelheid. Die snelheid was eerst twee keer zo hoog als de GPU clock. En die core's moet het uiteindelijke reken werk doen.

De cores zijn X3 gegaan en de clock snelheid van de cores ongeveer 30% omlaag.
Dus zal je in het beste geval 2X de snelheid van de GTX 580 halen.
Je hebt het fout. De 680 zou een gpu core (streaming processors)snelheid hebben van 1006 MHz en de shader processors draaien op 1411 MHz.

Bron: en.m.wikipedia.org/wiki/Comparision_of_Nvidia_graphics_processing_units#Geforce_600_series

Dit is gewoon een monsterkaart, zoveel is zeker. En dan nog eens een tdp van 195 w, zeer netjes van nVidia.

[Reactie gewijzigd door Fredi op 14 maart 2012 22:48]

Ongelooflijk een tdp van 195watt, kan gewoon niet.
Ziet er goed uit! Looking forward _/-\o_
Er zijn 2 opties:
1. Wij van WC eend....
2. Het is waar en de kaart valt in het §800+ segment.
Waarom? AMD heeft met de introductie haar kaarten veel te hoog geprijsd (relatief dan). De 7850 en daaronder zijn redelijk geprijsd, maar de drie topkaarten zijn 'te duur'. Nvidia zal de kaart ongetwijfeld iets hoger prijzen, want sneller, maar AMD zal snel genoeg reageren, met prijsverlaging/nieuwe kaarten, uiteindelijk met betere prijs/prestatie.

Dit tenzij AMD en nVidia zich net zo gedragen als de Nederlandse telecomproviders. Want dan vullen zij elkaar slechts aan en staan de prijzen inderdaad vast.
je ziet alleen over het hoofd dat deze gtx 680 oorspronkelijk als GTX 660 gelanceerd zou worden, de die is maar 300mm≤ en is dus een stuk goedkoper te produceren dan de Radeon HD 7970, omdat de Radeon HD 7970 zo 'zwak' presteert kan nvidia de gk104 nu als high end uitbrengen

http://forum.ngfcommunity...hread-gtx-6xx.1447/page-8

http://www.fudzilla.com/h...a-aims-for-record-quarter
De HD7970 is niet hoog qua prijs, vergelijk deze maar eens met een GTX580 met 3Gb.
Let op mijn woorden ik zie de prijs niet verder zakken dan 399,- voor de goedkoopste HD7970.
Voor nVidia GTX670 prijzen zal deze iets boven de H7970 zitten en de GTX680, ik denk net onder de 600,- voor een referentie model.
We zullen het wel zien. Ik zit toch nog wel 2 jaar op mijn GTX 560 Ti waarmee ik en half jaar terug mijn bak heb opgewaardeerd. In 2014 lachen we om de GTX 680... Velen hebben toch het geld niet over voor een kaart zoals deze.

[Reactie gewijzigd door Katsunami op 14 maart 2012 19:06]

het opgenomen vermogen valt nog best mee, gekeken naar het aantal cuda cores en de geschatte performance van dit monster...
Ik ga voor 1) Wij van WC eend.

Tijdens de GTX 480 release (toen nog 380gtx) Was Nvidia ook sneller zeiden ze, maar de 5870 was sneller.
Dan zou ik je geheugen nog maar eens opfrissen als ik jou was. De GTX480 was sneller dan de HD5870, maar minder snel dan de dual GPU HD5970.

Mocht GK104 dezelfde performance hebben als de HD7970 dan vind ik dit een ernstig goede ontwikkeling, al is het dan GK104! Het ligt er vermoedelijk aan dat NVIDIA problemen heeft met de grotere chip, maar indien het ook maar deels waar is wat ze claimen hebben ze echt een top kaart in handen.
Ja alleen was de GTX48- wel een kaart die veel teveel energie verbruikte en dat ze de hitte niet weg konden voeren, dus 1+1 =?? 2 juist.
De hd5870 was in alle opzichten beter tegenover de 480, alleen al als je naar het energieverbruik en de hitte keek.
Ik heb ook nooit gezegd dat ie zuiniger was, heb beide kaarten gehad om te testen en ja, warm werd de480 wel, maar dan was ie nog een stuk stiller dan de 5870.. Welke er beter was is meer een kwestie van smaak en wensen, welke er sneller was kan ik je wel vertellen..
de vraag is wel hoe die cuda cores zich verhouden tot die van de fermi architectuur,
ze zijn volledig anders van design, dus performance is niet simpelweg 3 maal die van een gtx 580. zoals te zien is aan hun eigen benchmarks,

(al verving hij wel 3 GTX 580s bij de samaritan demo van de UE3)

verder het verbruik is erg netjes, al vraag ik me wel af hoe goed het idle verbruik is, eerlijk gezegd verwacht ik dat dat wel hoger is dan bij AMD, 3 watt is wel erg indrukwekkend.
hoedanook ik ben super benieuwd, en als hij 20% sneller is dan een HD 7970 en de GK110 moet er nog aan komen over 5-6 maanden dan ben ik benieuwd wat voor scores die neer gaat zetten. met zeg 3K cores? 1,7 1,8X dit door lagere clocks en schaling wie zal het zeggen.
Een TDP van 195W en 256bit geheugenbus doet mij vermoeden dat dit niet om het topmodel gaat. Als dit wel het geval is dan heeft nVidia een uitstekende klus geklaard met wat betreft het stroom verbruik :Y)
Mee eens, met name die geheugenbus. Voorbeeldje: Als ik mijn geheugen overclock komen er tientallen fps bij in furmark tov enkele fps bij een gpu core overclock (gtx 460). Blijkbaar schaalt dat toch het snelste door in mijn geval.
192 GB/s is toch weinig?
ik ben erg benieuwd naar het stroomverbruik, van 22nm heeft al een groot voordeel, als ze de chip ook kleiner hebben gemaakt, brengt dat het totaal nog meer omlaag.

de gtx580 had een 6+8 pins voedingsconnector nodig, deze heeft er 2 minder :)

maar het is de x80, aka topmodel. die gaan niet voor een laag prijsje weg.

[Reactie gewijzigd door mrc4nl op 14 maart 2012 18:12]

1.2x, als deze grafiek klopt... Zulk soort grafieken proberen altijd de tegenpartij zo slecht mogelijk eruit laten te zien
Ja, maar de staaf begint niet bij 0. Volgens de grafiek is de GTX680 zo'n 44% sneller.
Hoezo te hoge cijfers? De cijfers kloppen gewoon, de verticale as is gewoon anders ingedeeld. Niets raars of verkeerds aan..
Als er wordt gezegd 44% performance boost en dat is ook uit de grafiek af te leiden dan klopt het toch gewoon prima?
Grafiek is toch eerlijk met eerlijke cijfers ?
Alleen erg positief gevisualiseerd :)
ja sorry hoor maar ik vind dit wel het meest onlogische gedoe van fabrikanten wat ik ooit heb gezien.
En toch wordt dat al jaren zo gedaan..
Als deze performance benchmark klopt zou Battlefield 3 meer dan 40% beter presteren op de nVidia GTX680 dan een AMD 7970... geweldig!

Laat de GPU oorlog maar snel weer losbarsten.
Dan kunnen we weer upgraden voor een redelijke prijs! :9~

[Reactie gewijzigd door blastR op 14 maart 2012 18:27]

Een GPU oorlog tussen slechts 2 kampen? De vorige GPU wars maakten toch echt slachtoffers(3DFX, S3, STmicro, XGI...)

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013