Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 53, views: 16.910 •

Nvidia zou eind februari een nieuwe consumentenvideokaart op basis van de GK110-gpu uit willen brengen. Deze gpu wordt vooralsnog alleen voor Nvidia's zakelijke videokaarten gebruikt. Om het product te onderscheiden zou de videokaart de Titan-aanduiding krijgen.

De nieuwe videokaart zou volgens Sweclockers de GK110 aan boord krijgen: de gpu die Nvidia nu uitsluitend voor zijn Tesla K20X-kaarten gebruikt. De GK110 is een gigantische gpu vergeleken met Nvidia's high-end gpu voor zijn consumentenlijn. Zo beschikt de chip over 2880 cuda-cores, waarvan er 2688 zijn ingeschakeld. Dat doet Nvidia omdat er waarschijnlijk maar weinig chips zijn waarbij alle cuda-cores naar behoren werken. De kloksnelheid is met 736MHz ook vrij laag, omdat mogelijk niet alle cuda-cores een hogere kloksnelheid aankunnen. Het tdp is vastgesteld op 235W, relatief weinig ten opzichte van bijvoorbeeld de GTX 690. De GK104-chip, de gpu van de GTX 680, heeft ter vergelijking slechts 1536 cuda-cores, met een kloksnelheid van minimaal 1006MHz.

Aangezien Nvidia al een volledige line-up heeft, met de GTX 690 die over twee GK104-chips beschikt als snelste videokaart, zou het bedrijf een nieuwe naam bedacht hebben voor de videokaart die opgetrokken wordt rond de GK110-gpu. Deze zou de naam Geforce Titan meekrijgen, om zich te kunnen onderscheiden van de GTX-kaarten. Mogelijk is de naam geïnspireerd door de supercomputer Cray Titan, die over duizenden Tesla K20X-kaarten beschikt. De chip heeft behalve 2688 cuda-cores een 384bit-geheugenbus, die de gpu verbindt met maar liefst 6GB geheugen, dat op 5200MHz tikt. De Geforce Titan komt mogelijk eind februari uit, voor een prijs van 900 dollar.Nvidia Tesla K20X

Reacties (53)

66% meer cores en 25% minder klokcycles... ik vraag me af of dat de verlaagde frequentie genoeg zal zijn om stroomverbruik/hitte van 1000 extra cudacores te compenseren. Anders wordt dit weer een straalkacheltje onder het bureau, met herrie en hitte tot gevolg.
Het is even afwachten op benchmarks lijkt me...
Ik snap het nu niet zo goed:
Nvidia zou eind februari een nieuwe consumentenvideokaart op basis van de GK110-gpu uit willen brengen. Deze gpu wordt vooralsnog alleen voor Nvidia's zakelijke videokaarten gebruikt. Om het product te onderscheiden zou de videokaart de Titan-aanduiding krijgen.

Oftewel deze kaart is voor thuisgebruik, maar vooral voor renderen, auto-cad etc.

Aangezien Nvidia al een volledige line-up heeft, met de GTX 690 die over twee GK104-chips beschikt als snelste videokaart, zouden het bedrijf een nieuwe naam bedacht hebben voor de videokaart die opgetrokken wordt rond de GK110-gpu. Deze zou de naam Geforce Titan meekrijgen, om zich te kunnen onderscheiden van de GTX-kaarten.

Aangezien deze kaart met de GTX serie wordt vergeleken is het een game videokaart...

Ik snap het niet zo goed, zou iemand mij dit kunnen uitleggen?

- Dank voor de uitleg hieronder!

[Reactie gewijzigd door Qon op 23 januari 2013 15:50]

Je hebt momenteel een Tesla K20X die gebaseerd is op de GK110-gpu.
Deze gpu wordt momenteel enkel gebruikt in die kaart, dus enkel voor de zakelijke markt.

Nvidia wilt nu de TItan uitbrengen. Deze kaart zal ruwweg dezelfde zijn als de Tesla K20X, maar zal dan de naam Geforce Titan dragen.
Waar in het artikel wordt de kaart met de GTX serie vergeleken? De GTX serie wordt er alleen naast gezet om eea een kader te geven en om Nvidia's positie voor dit product duidelijk te maken - het is dus met opzet niet een kaart in de GTX serie vanwege de totaal andere opzet van de GPU en de specs. Zie ook het woordje 'onderscheid'.

Verder, wat bepaalt of het een 'game' videokaart is of eentje voor rendering? Ik denk dat je ook op die Titan prima een spelletje kan spelen, maar de kaart is er niet voor gemaakt dus geen onderdeel van de GTX serie, en de GTX serie zal er toch beter in zijn. Dus voor de gamer is het waarschijnlijk weinig interessant.
Door het ontbreken van DVI, HDMI en Displayport aansluitingen lijkt mij dit toch overduidelijk een kaart om te renderen.
De screenshot is van de tesla (staat er ook vrij groot op ;)). De titan komt volgens de roadmap eerst uit met 3xDP.
Mooi kan ik deze lekker als physics-dedicated kaart gebruiken
Naast mijn 250Gts
men heeft deze kaart ontworpen voor het professionele publiek,
echter met geen volgende serie die klaar is maar mogelijk omdat AMD die wss wel met een HD8970 komt voelt Nvidia de neiging om toch iets op de markt te zetten. *speculatie

verder is het ook apart dat deze kaart (die bij uitstek geschikt zou zin als quadro) niet als zodanig verkocht waord maar als game kaart. niet dat ik dat erg vindt, want dan koop ik een geforce van 900 euro voor mijn zware GPU toepassingen ipv een quadro voorzeg 7000 euro.

grap is ook dat het tdp behoorlijk acceptabel is, en er dus in principe nog bijgeclocked kan worden. overall is dit een kaart die extreem goed is voor compute, en waarschijnlijk ook erg snel voor games, maar daar niet voor was ontworpen, en dus prijs/prestatie verhouding waarschijnlijk niet optimaal in zal presteren.

desalniettemin is het voor de liefhebber een erg nuttige kaart.

[Reactie gewijzigd door freaq op 22 januari 2013 10:16]

volgens de geruchten in het verleden had deze kaart(GK110-gpu)als een GTX 680 door het leven moeten gaan,maar toe de spec van de amd top kaart zo tegen vielen werd besloten om de GK104 als GTX 680 door het leven te laten gaan!
dus de GK110-gpu is bedoelt als een gamers kaart en een hele snelle ook!
maar dit zijn allemaal geruchten dus time will tell!
Het is meer andersom.

De snelheid van de GK104 viel zo mee, dat men voor nVidia gelukkig de GK110 die net zo veel of zelfs problemen had met de ontwikkeling als de GF100 (tijdelijk) heeft kunnen laten vallen als game GPU.

Deze GTX Titan word voornamelijk gemaakt van onderdelen die niet geschikt zijn voor de Tesla, een kaart met veel hogere prijs marges, of men heeft nu genoeg chips over voor een game kaart, en ik hoop ten zeerste dat het het laatste is.

Had men met de Tahiti (79x0) voor 10~20% meer prestatie gericht, dan had men met de GK104 nooit een kaart gehad die men als gelijkwaardig met de 7970 had kunnen adverteren, maar alleen tegenover de Pitcairn (78x0) kunnen zetten.

Met de GK104 heeft nVidia een briljante chip (uit nood) ontworpen met het concept, minder is meer, puur gericht op gaming, daar qua CUDA en Open CL de GK104 echt helemaal niks voorstelt in verhouding met de Tahiti en de GK110
Dit is toch geen gamers kaart? De GK110 zal waarschijnlijk met de Maxwell architectuur pas zijn intrede maken in de GTX serie.

Denk dat dit jaar weer een stille jaar zal zijn voor gaming gpus waarbij AMD en NV het rustig zullen verder doen met hun gpus van vorig jaar.
Ik heb eens gezocht maar er is geen enkele benchmark te vinden van de huidige Tesla K20X kaart die games draait. volgensmij mist deze kaart in alle opzichten de functies om fatsoenlijk games te kunnen draaien.

Daarnaast weet ik niet goed wat nvidia nu precies van plan is. enkele jaren geleden kocht ik de toen 600 euro dure 9800 GX2 dit was een high end kaart. die nu nog BF3 draait. De prijzen van tegenwoordig gaan echt helemaal nergens meer over...

de 690 ligt op een slordige 900 euro dat is omgerekend 2000 gulden. Het hele verband is eruit als je het mij vraagt. prijs dalingen ontstaan nooit bij zulke kaarten. want zodra de nieuwe opvolger komt is de oude opeens niet meer verkrijgbaar.

Erg jammer dat nvidia zich zo uit de markt prijst. als die kaarten verkocht werden voor 400 euro dan hadden ze er meer aan verdient dan nu... Ik vraag me af hoeveel van die GTX 690 kaarten er daadwerkelijk verkocht zijn... welke gamer legt er 1000 euro neer voor 1 videokaar?
Er zijn ook tesla kaarten gebasseerd op de GK104 core, ofwel die van de GTX 680. Ook was nvidia's plan om toen de GTX 680 te voorzien van de GK110 core maar vanwege wat problemen komt hij nu pas onder een andere naam.

Wat de prijs betreft heb je wel gelijk, die is echt extreem hoog.
Je snapt het niet. Een GTX 690 is complete overkill en bijna nergens nodig in gaming. Je moet meer prestatie gaan vergelijken, niet puur de plaatsing in het assortiment. Een GTX 680/670 is rond (670 goedkoper) de 500 euro en draait nu praktisch alles (onzinnige settings uitgezonderd) en is in die zin prima vergelijkbaar met je 9800GX2. Vergeet niet dat met steeds geavanceerdere technieken het produceren en ontwikkelen ook wel steeds duurder wordt; extreme high-end kaarten zijn -zeker dankzij verminderende TDP's- nog steeds mogelijk maar voor een goed potje gamen kan je net zo goed in een lager segment shoppen.
OT: dit lijkt me nou een prachtige kaart voor de liefhebber. Bepaalde types hebben in fora zich afgevraagd waar hij bleef, en nu is hij er: de GK110. (Alleen voor mij ets te duur... :9 )
Een Tesla is ook niet bedoeld om games te draaien.

Zet je deze chip echter in een Geforce kaart, waarom zou dat niet werken?

En de prijzen hebben vooral te maken met concurrentie, of gebrek daaraan.

De 8800 Ultra was ook belachelijk duur, puur omdat ze het konden flikken.

Bij de GTX295 had Ati al een antwoord, dus die was weer wat goedkoper.

Op de GTX690 had Ati geen antwoord, dus die kon weer wat duurder verkocht worden.
Waarom zou je in deze tijd nog terugrekenen naar guldens? Dat is een valuta die meer dan 10 jaar geleden is afgeschaft en daarom ook niet meer relevant genoemd kan worden (inflatie, totaal andere markt en ga zo maar door).

900 euro is inderdaad belachelijk duur voor een videokaart en de vraag is of je zo'n kaart nodig hebt op dit moment. Maar het is onzin om te zeggen dat die prijs niet in verhouding tot het product staat! Voor die 900e heb je een kaart waar je de komende paar jaar vrijwel alle games op de hoogste settings kunt draaien voor relatief weinig energieverbruik en warmte. Daarbij past hij in een kleinere kast (al zal dat niet de reden zijn om er een te kopen). Zelf ga ik de 690 zeker wel kopen omdat ik dan makkelijk een quad-sli kan gaan draaien in de toekomst om mijn 3D-vision verslaving op peil te houden.

Verder lijkt me Titan vrij nutteloos voor de 'normale' gamers onder ons. Als je inderdaad met autocad of maya oid werkt is hij van toepassing. Wat betreft de physics-dedicated kaart... Lijkt me wat overdreven!
nutteloos is hij zeker niet je ervaart echt wel een verschil of dat de kaart 50 fps doet of 100 fps! en met deze kaart kun je weer een paar jaar vooruit. eerst even de benchmarks afwachten en dan gaat die misschien wel op mijn lijstje!
60fps (v-sync) is op mijn monitor voldoende, dus wat dat betreft zou hij wel zinloos zijn ;)

Zeker met een prijskaartje van 900e is hier een hele kleine markt voor. Aan de andere kant hoeft die markt ook niet heel groot te zijn, zolang er maar vraag naar is. Het is ook maar een "kleine" aanpassing op de K20X dus tis niet dat ze het wiel opnieuw hoeven uit te vinden voor deze kaart, dus met de winstmarge zal het wel goed zitten..
Ik vraag mij inderdaad ook af wat nou de doelgroep van deze kaart zal zijn. De prijs is ook niet niks, en wat word de daadwerkelijke reallife performance van deze kaart vergeleken met een GTX690 of GTX680SLI setup.

Ik dacht ook dat die 110 meer gespecialiseerd was voor GPGPU werk in plaats van rendering (het zijn natuurlijk veelal de zelfde soort berekingen).
De GeForce naam plaatst hem dan wel weer in het gaming segment en niet in het workstation gebied waar hij voor zwaar rekenwerk ingezet kan worden.
Ja wel meer. Net als de GTX580 dat was. nVidia heeft veel compute onderdelen uit little kepler gesloopt. In Big Kepler zijn deze wel aanwezig.
Reactie was @KnetterGek bedoelt

De Tesla K20X heeft een TDP van 235W, dus de Titan zal daar in de buurt zitten.
Als je vergelijkt met een GTX690 is dat veel minder, die kaart heeft immers een TDP van 300W. De 7970 van AMD verbruikt ook al 250W volgens de TDP.
Je zal de kaart zeker wel horen blazen onder belasting, maar de TDP valt best nog wel mee voor een high end kaart.

Vergeet niet dat het verbruik lineair stijgt met de klokfrequentie, maar kwadratisch met de spanning. En als je de klokfrequentie laat dalen, kan je de spanning ook een stuk laten dalen.

[Reactie gewijzigd door Malantur op 22 januari 2013 10:15]

Anders lees je het artikel even goed, het verbruik van de Tesla variant staat gewoon genoemd:
Het tdp is vastgesteld op 235W, relatief weinig ten opzichte van bijvoorbeeld de GTX 690.
Ik vraag me eerder af of de prestaties wel goed genoeg zijn om de waarschijnlijk gigantische prijs te rechtvaardigen.

@Malantur - kwadratisch met de spanning? Dat is alleen waar voor puur ohmse schakelingen. En chip is absoluut geen ohmse schakeling. Het verbruik van een IC bestaat grofweg uit drie componenten die opgedeeld kunnen worden in 2 delen:
• Actief: Het schakelen van de gates, vooral afhankelijk van de rise/fall time van de gate.
• Passief: bestaande uit de ohmse verliezen van de sporen in het IC en de lekstroom.

Beide passieve componenten zijn inderdaad afhankelijk van de werkspanning, en zullen kwadratisch toenemen. Het actieve component (doorgaans de grootste verbruiker bij chips die niet gemaakt zijn om extreem zuinig te zijn) is maar voor een klein gedeelte afhankelijk van de werkspanning.

[Reactie gewijzigd door knirfie244 op 22 januari 2013 10:39]

In dit artikel wel, maar in het bronartikel niet ;)
Ik ga mee in de veronderstelling van tweakers dat de TDP ongeveer dezelfde zal zijn als de Tesla kaart, maar vergeet niet dat een Tesla kaart net iets anders is als een Geforce kaart.

Ik neem bijvoorbeeld aan dat ze de mogelijkheid tot ECC voor het GDDR5 eruit slopen. Dit kost je immers 10% van je 6GB, wat voor workstations aanvaardbaar is maar consumenten willen altijd zo veel mogelijk. (Dit gaat even om functionaliteit, TDP zal hier weinig door verschillen)
Ook wordt een Tesla gelevert zonder display poorten, dus is er geen ramdac nodig, dus is deze waarschijnlijk uitgeschakeld of zelfs eruit gesloopt in de Tesla kaart. De Geforce heeft die wel nodig.

Er zijn waarschijnlijk nog wel wat voorbeelden te vinden, dus het hoeft niet exact 235W te zijn voor de Geforce.


En over dat stroomverbruik: we hebben nog steeds temaken met CMOS transistors, en volgens de CMOS wiki is het dynamische verbruik van een volledige CMOS chip nog steeds rechtevenredig met de schakelfrequentie, en kwadratisch met de spanning.
Ook de wiki over CPU power dissipation zegt hetzelfde.
Voor de mensen die wikipedia niet vertrouwen, een linkje van Stanford University.
Dus ja, het verbruik van een chip is rechtevenredig met de schakelfrequentie en kwadratisch met de werkspanning.

[Reactie gewijzigd door Malantur op 22 januari 2013 11:11]

Is dit niet meer een soort Quadro achtige kaart?
Dat soort kaarten zijn +- gewone kaarten met vaak 2x zo veel geheugen en een andere bios + andere drivers. Maar ze gebruiken dezelfde chips.

Ik denk dat de Yields van deze chip gewoon niet echt geweldig zijn. En ze willen wel met iets nieuws op de markt komen.

Als je de snelste Single GPU kaart wilt hebben is dit de kaart die je wilt. CF en SLI blijven gewoon nadelen hebben en houden.
f de snelste Quad-SLI setup natuurlijk. Maar da's echt alleen voor mensen met geld teveel wegelegd (buiten dat het niet nuttig is)
Nondeju, das nogal een ding zeg. Ben benieuwd waar in het segment ze deze kaart willen positioneren, maar het lijkt erop alsof hij tussen de gaming,- en pro kaarten wordt gezet. Voor de kleine ondernemer oid? Als het een gamekaart was geweest hadden ze er gewoon een opvolgend GTX nummer aan kunnen hangen toch?
Als het een gamekaart was geweest en niet enkel een GPGPU dan hadden ze er wel wat poorten op gebouwd???... zoals je op het plaatje kunt zien is er geen ENKELE aansluiting op deze kaart voor een video output.

Deze kaart zal dus waarschijnlijk idd bedoelt zijn voor render-farms, grafisch ontwerp en video-editing en uiteraard het draaien van CUDA supported code (a la consumenten supercomputer).
(Heeft dit ding uberhaupt een SLI aansluiting?)

Dat hij op vol vermogen flink zal blazen maakt ook niet echt uit voor bovenstaand gebruik, immers indien je video-edit gebruik je toch wel een koptelefoon en ik denk dat je de absurde verhoging van productiviteit en snelheid belangrijker vind dan absolute stilte.

Men kan uiteraard ook nog opten voor waterkoeling indien dat wenselijk is.

[Reactie gewijzigd door Ayporos op 22 januari 2013 10:52]

De videokaart op de afbeelding is niet de te introduceren Titan, volgens de alt-tekst in ieder geval ;)
@ ayporos

het plaatje wat hier gepost is is van de tesla K20X
dus niet de te introduceren kaart, daar zijn nog geen foto's van beschikbaar.

je kan ook je muis over het plaatje hoveren, dan zie je K20X staan.

[Reactie gewijzigd door freaq op 22 januari 2013 11:20]

HERP DERP.

Ik lees een artikel op tweakers over een videokaart.. ik zie in datzelfde artikel een afbeelding van een videokaart... ik neem aan dat dt de videokaart is waar het artikel het over heeft...

Ga toch ook niet een artikel schrijven over de Galaxy Note 2 en er dan vervolgens een afbeelding van de S3 bij zetten :+

(ps. zie nu ook dat er met koeieletters op die graka 'TESLA' staat... was me dus ook niet opgevallen. Ik zag in eerste instantie enkel: vierkant, baksteen, geen aansluitingen, geill)
Klinkt als een zeer interessante kaart voor videobewerking.

Ik werk met DaVinci Resolve bijvoorbeeld, dat pakket werkt uberhaupt niet zonder Nvidia GPU. Wil je aan de slag met 4K video, of bijvoorbeeld 2,5K raw uit de Black Magic Cinema Camera, dan lijkt mij zo'n kaart ideaal qua prijs/prestatie.
Hij wordt dezelfde prijs als een GTX 690, maar verwacht wordt 85% van de performance (bron). De prijs/prestatie valt dus wel mee.

Echter krijgt de Titan wel een enkele gpu waar de 690 er twee heeft (samen meer cuda cores), misschien heeft dit voordelen met stroomverbruik?
dat hangt heel erg af van wat je met die kaart doet, 85% van de prestaties met gamen mischien maar als je dus echt gp gpu werk gaat doen gaat deze kaart veel sneller zijn.

de gtx690 is namelijk technisch practisch gelijk aan de Tesla K10, en deze is inderdaad sneller is sommige dingen, maar lang niet in alles. in single precision wint de K10, in double presision of meer compleze werktaken wint de K20(X) met grote overtuiging.

zoek ook even naar dynamix parralellism en HyperQ dat geeft je ook wat meer info.

hier is een paper over de verschillen, hoe waarom en waar.
http://www.nvidia.com/con...aK_Family_May_2012_LR.pdf

overigends ook een factor dat er ook geen SLI stuttering zal zijn met deze kaart, en dat waarschijnlijk met extreem hoge resoluties de kaart beter zal presteren.
kortom soms zal de kaart op pure fps in games wss iets trager zijn, maar de bewering dat de gtx690 zowieso sneller is, is incorrect.

[Reactie gewijzigd door freaq op 22 januari 2013 11:23]

Voor het gebruik wat ik noem (videobewerking en rendering) zijn cudacores en geheugengrootte van belang.

In DaVincie Resolve maakt een GTX 5XX of 6XX vrijwel geen verschil qua prestaties bijvoorbeeld. De 6-serie is zelfs wat minder gefocust op CUDA-prestaties, maar doet het beter in games.

Bij deze GPU lijkt de focus veel meer op de CUDA-prestaties te liggen en 6GB geheugen is een aardig verschil met de GTX690. Voor games waarschijnlijk zinloos, maar ga je met raw-video aan de slag, dan zou deze kaart echt een flink voordeel kunnen bieden lijkt me.
Heel leuk en aardig, maar waar sluit je je scherm hier op aan?
Dit is geen plaatje van de Geforce Titan, maar van een K20X, en daar sluit je geen schermen op aan. Er staat immers vrij groot Tesla op de kaart, niet?
Owja.. My bet.... Maar dan ben ik wel benieuwd hoe de Titan er uit komt te zien :9
ja, alleen was het de verkeerde bet :P op de titan zal wel geforce staan en er zullen ook wel uitgangen op komen. aangezien de tesla alleen voor berekeningen gebruikt word zitten daar geen schermuitgangen op.
Zoals op de afbeelding te lezen valt is dat de Tesla. Voor de Titan zullen ze uiteraard wel uitgangen voorzien.

Die Tesla kaarten zitten bijvoorbeeld in de Cray Titan: 18688 stuks in totaal. Maar aangezien het een supercomputer is moeten er geen 18688 beeldschemen aangestuurd worden, de nodes worden via een netwerk van werk voorzien en meer that's it.
Dit is geen kaart om schermen op aan te sluiten, deze kaart is enkel bedoeld als GPGPU.

Zie het als 2688 mini-cpu's die specifieke berekeningen voor hun rekening kunnen nemen wat grafisch ontwerp, video editing, rendering en/of CUDA-enabled programs enorm kunnen versnellen.
Nog steeds kunnen ze dus geen gpu op de markt brengne met 2880 cuda's die op een normale clock werken zonder productie problemen.
Ziet er slecht uit, imo.

ofwel, het GTX 480 probleempje, wederom.

Wat ik ook niet snap als je terug gaat naar de GTX 280 ... die verstookt zo'n 250w max. Dat was echter wel met een goede stille koeler!! De GTX480 verstookte ongeveer hetzelfde en maakte een tering herrie (had er zelf een en ook meerdere 280).

Seriously whats going on. En dan als klap op de vuurpijl 900 euro durven vragen... wat waarschijnlijk nog ongeveer gaat kloppen ook als je ziet hoe absurd duur de 690 nog steeds is met die 256 bit crippled rotzooi en 2gb :S. !! 256 bit en 2 gb.. lmao .. daarom kocht ik zelf de 690 dus niet, wie gaat er nou in crippled hardware investeren

Vraag me af wanneer Nvidia weer is wakker wordt .
Mijn vertouwen is echt 0,0 want ze verprutsen het de laatste tijd weer lekker met mid range producten voort high-end prijzen

[Reactie gewijzigd door A87 op 22 januari 2013 10:58]

De foto van de kaart, waar zitten de aansluitingen ?
Ik haal uit het artikel dat het een proffesionele kaart is.
Word deze dan als een soort " extra" ingezet bij de normale video uitgang ?
Even voor de duidelijkheid, deze GK110 is de traditionele grote chip die Nvidia normaal gesproken uitbrengt. De GTX 480 en 580 waren beide meer dan 500 vierkante millimeter groot, waar AMD het rond de 330/385 hield en Nvidia met hun eigen 460/560 rond de 330/360. En met die grootte van de chip komt uiteraard ook meer hitte en stroomverbruik.

Ook als je dan naar de chips op zich kijkt zie je dat er duidelijk verschillen in doelgroepen waren. De 480/580 waren allebei sterk in GPGPU, waar de 460/560 meer gaming gericht waren.

Kijk je dan naar de type nummers dan snap je waar deze vandaan komt. 480/580 waren GF110 chips, 460/560 waren GF104. De huidige GTX 680 is GK104 en 294 vierkante millimeter groot - GK110 is dus de opvolger van een GPGPU-gerichte GK100 die we nooit hebben gekregen. Betekent dat slechte gaming performance? Tuurlijk niet, het is alleen dat de kleinere chip het in verhouding beter doet in games; meer FPS met minder.


Dus, voor de mensen hierboven: het is niet meer of minder een "gaming" kaart dan de 480 en 580 dat waren.

Overigens moeten de "TDP" cijfers ook met een vrachtwagentje zout genomen worden, TDP bij Nvidia gaat namelijk niet direct over het verbruik maar over de hitte die er vanaf komt.
Op de allerhoogste resoluties is vooral de GPU geheugen bandbreedte wat de FPS nog omhoog stuwd.
Dus zou deze Titan theoretisch +/- 50% sneller zijn als de 680.
Ik verwacht dat de clock wat hoger komt te liggen dan de Tesla kaart. Als je de Tesla en Geforce kaarten vergelijkt, dan zie je dat de clock van de Geforce kaarten altijd sneller is. Ik denk dat Nvidia met de Tesla kaarten vooral de perf/watt maximaliseert, en met de Geforce kaarten iets meer de performance kant uit gaat ten koste van de perf/watt.

GF100: Tesla C2075 575 MHz --> GTX 480 700 MHz
21.74% Hoger

GF110: Tesla M2090 650 MHz --> GTX 580 772 MHz
18.77% Hoger

GK104: Tesla K10 745MHz --> GTX 690 915MHz
22.82% Hoger

Als Nvidia deze lijn blijft volgen kunnen we zo'n 890MHz verwachten voor een Geforce kaart gebaseerd op de GK110.

Op dit item kan niet meer gereageerd worden.



Populair: Mobiele netwerken Gamecontrollers Game-accessoires Smartphones Sony Microsoft Apple Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013