Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 125 reacties, 31.166 views •

De nieuwe videokaart van Nvidia, die de codenaam Titan draagt, zou een stevige hoeveelheid geheugen aan boord krijgen. De GeForce 780 zou 6GB gddr5-geheugen krijgen, waarmee Nvidia de hoeveelheid geheugen ten opzichte van AMD's vlaggenschip verdubbelt.

Volgens een Zweedse website wordt Nvidia's GeForce Titan standaard voorzien van driemaal zo veel als de standaardhoeveelheid gddr5-geheugen voor de GTX680 en tweemaal zo veel als concurrent AMD met zijn topkaarten meelevert. De Titan, met aan boord de GK110-gpu, moet die hoeveelheid geheugen kunnen benutten dankzij de gpu-architectuur, die gebaseerd is op de Tesla K20X-kaarten. De GK110-gpu bestaat uit 2880 cuda-cores, opgedeeld in vijftien smx-units die over 1,5MB l2-cache beschikken. De gpu staat via een 384bit brede bus in verbinding met het geheugen, dat op 1,3GHz geklokt wordt.

In de Titan-gpu zouden echter 'slechts' 2688 cores geactiveerd zijn. Dat is ruim zeventig procent meer dan het aantal cores in de GK104 van de GTX680. De prestaties van de Titan zouden dan ook een stuk hoger zijn en die van de GTX690 tot op 85 procent benaderen. De kloksnelheid van de Titan-cores zou met 732MHz flink lager zijn dan de ruim 1,2GHz van de 680, wat bijdraagt aan de relatief lage tdp van 235W. Om 6GB geheugen te realiseren, zou een deel van de benodigde 24 geheugenchips op de achterkant van het pcb geplaatst kunnen worden. De Titan wordt rond eind februari verwacht en zou dan rond de 900 dollar gaan kosten.

De huidige topkaarten van Nvidia, de GeForce GTX680 met aan boord de GK104, worden volgens Nvidia's referentieontwerp met 2GB videogeheugen geleverd. De GTX 690 met twee gpu's wordt uiteraard met tweemaal zo veel geheugen geleverd, maar sommige fabrikanten hebben ook de GTX680 met 4GB of zelfs 6GB geheugen uitgerust. AMD geeft zijn topmodel, de Radeon HD 7970, standaard 3GB gddr5-geheugen mee. Ook van deze kaart zijn varianten bekend met 6GB geheugen en de met twee Tahiti XT-gpu's uitgeruste Radeon HD 7990-kaarten hebben eveneens 6GB geheugen aan boord.

Reacties (125)

Reactiefilter:-11250122+176+23+30
Moderatie-faq Wijzig weergave
Mijn laptop heeft §799 gekost, daarin zit een i7 3610QM, 8GB ram en een Nvidia 650M kaart. Kan ik voldoende goed op gamen. Met custom settings die op medium/high/ultra staan in Far Cry 3 haal ik 28 - 34 frames/sec. Is voor mij voldoende.
Ik zie niet in waarom ik in godsnaam een videokaart van §900 nodig heb als ik voor dat geld een deftige laptop kan kopen die alle recente games ook op 1080p draait.
Omdat je geen 60 fps op ultra haalt op een triple monitor setup dan?
Je zou nog niet eens 15 fps halen.
Leuk dat Tweakers gebakken lucht overneemt van een of andere onbekende website, maar dan mogen ze dat toch wel iets duidelijker vermelden. Zwak artikel.

Ik vraag mij ook af waar ze de TDP en kloksnelheid (zowel gpu als gddr5) vandaan halen, want dat staat zelfs nergens in hun bronartikel. Eveneens, sinds wanneer loopt een 680 op 1.2 Ghz? bron bron

En ja dit is kritiek op Tweakers, ik vind namelijk dat ze (in een artikel als dit) hun bronnen wat meer mogen checken en verduidelijken.
En nee dit is geen kritiek op Nvidia.

[Reactie gewijzigd door bertp1 op 5 februari 2013 13:16]

Je hebt helemaal gelijk dat de 1.2GHz kloksnelheid niet klopt. De standaard kloksnelheid van de GTX680 is 1006MHz met een boost naar 1058MHz.
De 732MHz van de Titan doet al een tijdje de ronde op internet.

Ik vraag me overigens af waar de gigantische winst in prestaties vandaan komt. Dat moet bijna volledig uit de geheugenbandbreedte en geheugenhoeveelheid komen. De theoretische rekenkracht gaat er namelijk niet zo vreselijk veel op vooruit: (732/1006)*(2688/1536) = 27,4% meer theoretische rekenkracht dan een GTX680.

De enige reden dat deze kaart op de Xtreme settings van 3D Mark 11 sneller is dan de GTX690 komt doordat deze laatste ongelofelijk last heeft van een geheugen bottleneck. Op lagere resoluties/instellingen zal de winst nooit zo groot zijn. Maar uiteraard blijft het wachten op de benchmarks wat het verschil met andere GPU's straks daadwerkelijk gaat zijn :)
Volgens mij moet 12Ghz 1,2Ghz zijn. Of ik moet ergens wat gemist hebben ;)

Ontopic: ik ben wel benieuwd naar de perfomance verschillen tussen de 7990 en de Titan. Zeker de toename in geheugen is op dit moment nog niet rendabel. Straks met de 4K en 8K resoluties zullen de kaarten pas tot hun volledige potentieel komen.

[Reactie gewijzigd door muppet99 op 5 februari 2013 13:06]

The rumors haven't been verified since PCOnline has not named their source, but claim that it is a reliable source. Their source says that the GeForce Titan scores X7107 points in 3DMark11, in extreme mode, a massive jump above the GTX 690. The GTX 690 alone already scores just shy from X6000 points with the same benchmark under the same conditions. The most staggering part though is that the Titan, a single GPU part, outperforms the GTX 690, a dual-GPU part.

http://www.tomshardware.c...n-GK110-GTX690,20797.html
Die is al tijdje ontkracht, inverted plaatje liet zien dat het een OC 690 was.
wat bijdraagt aan de relatief lage tdp van 235W
Wat je laag noemt :X
Het is ook relatief he. ;)
Moet zeggen dat het mij meevalt. Mijn 7950 heeft een TDP van 200W. Vraag mij af hoe de Titan presteert in vergelijking met die. Hoop dat er snel benchmarks komen.

[Reactie gewijzigd door spookz0r op 5 februari 2013 13:11]

Eerst maar eens zien of die 235 watt ook klopt. Dan pas ga ik het geloven. de GTX480 zat ook ver boven zijn TDP als je hem zwaar ging belasten. Dus TDP's moet je niet altijd geloven zonder ze te controleren.
[...]
Wat je laag noemt :X
Hoger dan de 195W van de GTX 680 idd, al blijft het wel relatief natuurlijk. De GTX 580 zat nog een stuk hoger met 244W.
Er wordt inmiddels zoveel over dit beest gespeculeerd - het wordt tijd dat Nvidia met echte specificaties en benchmarks gaat komen.
Als het goed is wordt hij binnen een paar weken gelanceerd.... kan niet wachten :)

[Reactie gewijzigd door calsonic op 5 februari 2013 15:06]

ik geil op al die geruchten :)
maar het is wachten op officiŽle benchmarks.
want er zijn geruchten dat die benchmark met X7107 of zoiets een (zware) overclockte 690 was.
dan hoor ik dat er een AMD fanboy met die screenshot geklooid zou hebben.
als dit daadwerkelijk een beest van een kaart is zal amd toch met iets op de proppen moeten komen vrees ik , hopelijk hebben ze iets achter de hand zodat er toch nog wat concurrentie is wat goed is voor de consument .
ik ben zelf nog in bezit van een 5870 die nog de meeste games op max speelt (1080P) op kleine aanpassingen na die geen zware invloed hebben.
dus in theorie is upgraden niet echt nodig maarja iedereen wil wel iets nieuws als er budget voor is :9
Sommige fabrikanten hebben ook de GTX680 met 4GB of zelfs 6GB geheugen uitgerust.

Vraagje: Welke fabrikanten hebben 6GB GTX680`s gemaakt.

Volgens mij een loze claim van Tweakers, want gezien de geheugen bus onmogelijk.
Maar al er 1 bestaat hoor ik het graag.
Dit stond 2 weken geleden al op techspot, wccftech en pcper. Het is niet dat ik me stoor aan dat dit niet eerder is vertaald, alleen er staat niets nieuws bij. Dit is een artikel van slechte kwaliteit en ik zie ze de laatste weken steeds meer voorbij komen.
Dit in contrast met de gathering of tweakers afleveringen en sommige diepte artikelen waar ik van genoten heb, maar dit kan toch echt niet.....
Zou dit ook eindelijk een reden zijn om je PCI-e 2 mobo up te graden naar PCI-e 3? Tot nu toe was het geen issue als je een PCI-e 3 kaartje op een 2 slot aansloot... maar met deze kracht onder de motorkap zou je toch zeggen dat het een bottleneck gaat worden.
Benchmarks, exclusiviteit en je hoeft minder snel te upgraden wat betreft je gpu

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True