Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 81, views: 31.465 •

Hardwarefabrikant Nvidia heeft zijn nieuwste en tot op heden snelste videokaart, gebaseerd op de GK110-gpu, ge´ntroduceerd. De GTX Titan, zoals de kaart genoemd wordt, moet de snelste kaart met enkele gpu worden. Hij is gebaseerd op de GK110-gpu uit de Kepler-serie.

Nvidia gebruikte de GK110-gpu eerder in de Tesla K20-videokaarten, die op de Kepler-architectuur zijn gebaseerd. De Tesla-kaarten zijn echter bedoeld voor gpgpu-doeleinden en worden vooral in supercomputers gebruikt. De consumentenversie van de Kepler GK110 werd al langer verwacht en moet Nvidia de prestatiekroon teruggeven die AMD met de Radeon HD 7970 in handen had. Ook Nvidia's eigen GTX 680 wordt met de nieuwe kaart voorbijgestreefd. De videokaart kreeg als codenaam Titan en heeft naast de op 28nm geproduceerde GK110-gpu 6GB gddr5-geheugen aan boord.

De GK110 in Titan bestaat uit 7080 miljoen transistors die door TSMC op 28nm geproduceerd worden. De kloksnelheid van de 2688 streamprocessors bedraagt 837MHz, maar met de verbeterde Gpu Boost 2.0 kan dit verhoogd worden naar 876MHz. Het geheugen tikt op 1500MHz, effectief 6GHz. Het 6GB gddr5-geheugen wordt via een 384bit brede bus benaderd. Dat levert 288,4GB/s geheugenbandbreedte op. De kaart moet 4,5Tflops in single-precision berekeningen halen en in double-precision berekeningen is dat 1,3Tflops.

Veertien van de vijftien smx-units in de GK110 zijn geactiveerd; iedere smx-unit bestaat uit 192 cuda-cores, wat een totaal van 2688 cores oplevert op een die-grootte van 551mm². De kaarten zijn voorzien van twee dvi-aansluitingen, een displayport en hdmi-uitgang, en hebben een tdp van 250W. De kaarten vergen twee slots en worden gekoeld met een ventilator en koelribben die warmte aan vapor chambers onttrekken.

De kaarten kunnen uiteraard overgeklokt worden. De leverancier van de kaarten kan die feature uitschakelen om schade door verhoogde spanningen te voorkomen. Ondersteunt de fabrikant overklokken wel, dan moet ook de consument het risico van met hogere spanningen gepaard gaande hoge temperaturen aanvaarden voordat deze instellingen vrijgegeven worden.

Eerder gingen er geruchten dat de GK110 in de Titan in beperkte oplage beschikbaar zou zijn. Volgens Nvidia kunnen echter zo veel gpu's gemaakt worden als nodig is om aan de vraag te voldoen. Met een prijs van 800 euro voor de 'snelste videokaart met enkele gpu' deed Nvidia geen uitspraken over de verwachte verkoopaantallen.

Nvidia GeForce TitanNvidia GeForce TitanNvidia GeForce Titan

Reacties (81)

Jammer dat de benchmarks de hoge verwachtingen niet waarmaken... (via techpowerup althans)
Heb je voor mij een linkje daarvan want ik kan kan niet direct vinden. thx.
Als ik deze goed bekijk, lijkt deze graka zelfs nog iets beter te zijn dan verwacht?
Er werd voorl gesproken over 85% performance van een GTX690, die benchmarks lijken te zeggen dat het verschil zelfs nog iets beter presteert dan die verwachte 85% ...

Edit: ik keek even naar de 3d-mark scores van hieronder, mijn excuses.

Als ik kijk naar de beloofde benchmarks die jij linkt zou 3x titan beter presteren dan 2X690, wat ook ongeveer overeenkomt met die 85% performance van een 690 ...

[Reactie gewijzigd door psycho202 op 19 februari 2013 16:25]

Nou, het is een beetje oneerlijk, want Quad-SLI schaalt bijna altijd ˇf heel erg slecht, of helemaal niet. Dus het is eerder 3x een GK110 (Titan) tegen 3x een GK104 (GTX 680), dus zo impressive is het dan nog niet. De eerste berichten zijn dat de Titan wel stevig de kroon van single-GPU in handen heeft, maar voor de gemiddelde gamer is hij gewoon niet interessant, de kans zit er dik in dat dit beest voor meer dan 1000 euro in Nederland over de toonbank gaat, de belastingen zijn hier gewoon hoger dan in Amerika (of het was iets met de BTW die daar niet meegerekend wordt - in elk geval gaat dit niet goedkoop worden).
Prachtig !


Nvidia heeft hier echt werk van gemaakt .

Gpuboost 2.0 klinkt goed en ook dat monitor overclocking wordt nu heel wat makkelijker !

Your move , AMD !
Ik denk dat AMD hier nog geen drie seconden wakker van ligt. Dit bakbeest gaat in de verkoopcijfers nog geen deuk in een pak boter slaan, daar wordt hij sowieso veel te duur voor.
Je zou nog kunnen discussiŰren of dit een kaart voor de zware enthousiastelingen, de ware tech-junkies of de e-peen hunters is, maar de conclusie is in alle gevallen gelijk - mooi speeltje, maar net als Lamborghini's kom je ze in de praktijk zelden of nooit tegen.
Tot nu toe vind ik de prijs/kwaliteit verhouding van AMD altijd een stuk beter dan nvidia. Vergelijk maar eens de 660Ti met de 7950. Ik verwacht dan ook een marginaal slechtere kaart in de nabije toekomst voor een veel lagere prijs, maar dat moet nog blijken.

Deze kaart lijkt me wel leuk voor een fanatiekeling, mits die op 3 schermen speelt. Mij niet gezien in ieder geval. Als ik een upgrade doe wordt het waarschijnlijk een 7850/7870. Kan ik prima mee uit de voeten.
Ik heb vele kaarten gehad van zowel AMD als Nvidia, en aan beide kanten valt er kritiek op te maken. De prijs/kwaliteit verhouding van AMD is wel ietsjes beter, echter de aanwezigheid van Physx op de Nvidia kaarten is voor mij persoonlijk de reden om dan toch maar even iets meer uit te geven en voor Nvidia te gaan. Echt een geweldige feature die ik niet meer kan missen. Verder is dit natuurlijk een kaart die momenteel vrij nutteloos is om te kopen, gezien de prijs/prestatieverhouding en de aanwezige games. Eerst maar eens afwachten tot die hopeloos verouderde consoles eindelijk eens een opvolger krijgen, zodat de PC gaming markt ook eindelijk weer eens games met aan de basis al kwalitatief sterk verbeterde graphics krijgt, waardoor je de aanschaf van bovenstaande kaart nog kunt verantwoorden. Wat we nu krijgen is hooguit wat kleine extra features zoals grondige AA, betere shadows etc., daar hoef je zo'n kaart niet voor te kopen.

[Reactie gewijzigd door Kubrick op 19 februari 2013 19:33]

Mensen die deze kaart kopen zijn niet ge´nteresseerd in prijs/kwaliteit, die willen gewoon de snelste kaart en daar moet je nu eenmaal bij NVIDIA zijn.
Misschien nog even wachten tot de 21e, tot er daadwerkelijk reviews van zijn.
Want om nou uit te gaan van een marketing slide van nvidia. Al valt er natuurlijk wat voor te zeggen dat die wat rooskleuriger zullen zijn dan de reviews.
Er is nu al een review uit door LinusTechTips: http://www.youtube.com/watch?v=bgQbcQlRoNE
Review =/= als een unboxing...
Waarschijnlijk zijn de drivers nog niet geoptimaliseerd voor dit monster en zullen de prestaties in de verloop van de aankomende maanden aanzienlijk verbeteren.
Wel frappant dat ik zojuist een melding krijg voor nieuwe nvidia drivers. Ik denk dat de eerste stap met de huidige drivers (als ze deze gebruikt hebben) al gezet is.

maar ach, ik zit eigenlijk meer te wachten op een grote stap op processor gebied want dat staat voor de normale consument al jaren stil.
Rijkelui's speeltje :+

Verder wel een erg mooie kaart natuurlijk, alleen niet meer dat een "snelle" greep naar de prestatiekroon. Voor 800 euro heb je nou niet heel erg veel bang for buck verwacht ik zo. Ben benieuwd wat voor gigantische koelers Asus, MSI, e.d. erop gaan zetten.

Die waterkoeler van Asus zou er wel mooi oppassen, zeker omdat geld toch niet een heel groot issue is in deze prijsklasse. 60 euro extra valt dan wel te verantwoorden

@SinergyX Das ook weer waar, maar een single GPU heeft imho de voorkeur boven een dual GPU.

[Reactie gewijzigd door MathijsR op 19 februari 2013 15:09]

Rijkelui kunnen nog wel stapje hoger hoor ;)
reviews: Twee bazen: de GTX 690 en HD 7990
Die zijn tot bijna 200 euro duurder :P
Probleem is dat niemand zulke kaarten heeft, dus worden games gemaakt voor mid-end hardware, en als je altijd mid-end hardware koopt dan ben je goedkoper uit, zelfs al moet je vaker upgraden (GTX 660 is momenteel voor een enkele monitor toch echt genoeg om vrijwel alles op 60FPS te draaien).

Nee, deze kaarten zijn eigenlijk alleen nuttig als je 3 monitors hebt ofzo.
Hangt van de resolutie, game en settings af. Kan je echt niet zo stellen...
precies, BF3 op 2560x1440 zal je niet met 1 zo een kaart op ultra settings kunnen spelen met een constant 60fps
denk het wel 2 GTX680 in sli doen dat prima die halen gerust 90fps op die resolutie alles maxed nou is deze wel 20% zwakker dan twee GTX680 in sli maar zelfs dannog zit je zo rond de 70/60 fps

en dat is op stock snelheid als je deze jongens OC'ed dan ga je daar ruim boven zitten denk ik zo

[Reactie gewijzigd door firest0rm op 19 februari 2013 16:06]

Op een GTX 660 Ti draait Battlefield 3 op Ultra 1920x1080 op meer dan 100FPS volgens benchmarks.

EDIT:
http://www.anandtech.com/...orce-gtx-660-ti-review/13
Battlefield 3, GTX 660 Ti op 2560x1600 op ultra, 53FPS. Voor die extra 7PS ga je geen Ą600 meer betalen.

[Reactie gewijzigd door Wolfos op 19 februari 2013 16:35]

Die 100FPS slaat dus nergens op.

Average FPS in benchmarks zijn ook alleen maar leuk voor prestatiemetingen, maar je kunt niet fatsoenlijk multiplayer gamen met 53 average FPS. Bij een beetje explosie/druk gevecht zal je terugvallen naar 20-30 FPS en dat terwijl dat juist de belangrijke momenten zijn.
benchmarks moet je ook niet naar kijken, gewoon zelf een game opstarten.
Enige waar ik naar kijk is mijn eigen theorie zoals minimum fps en 64 spelers vol met chaos en explosies.

[Reactie gewijzigd door A87 op 19 februari 2013 18:33]

(GTX 660 is momenteel voor een enkele monitor toch echt genoeg om vrijwel alles op 60FPS te draaien).
Dat de kaart nog zo'n beetje alles kan trekken ben ik het met je eens, maar dat hij overal 60FPS+ haalt is niet waar

Voor mij is een game al soepel als het stabiel op 40FPS zit, dus voor mij prima
Maar er zijn mensen die dat niet prima vinden, en dus een zwaardere kaart nodig hebben
Rijkelui's speeltje :+
Een iPhone van 800 euro is normaal maar voor een grafische kaart is dat teveel? Rare redenering.
Ik ben benieuwd vanaf welke resolutie deze kaart pas echt laat zien waartoe hij in staat is..
Daarnaast zal dit wel een leuk kaartje zijn voor Folding@home ofzo :)
Waarom gebruiken ze 14 van de 15 SMX-units en niet gewoon allemaal? Hebben ze veel defecte chips ofzo?
Zodat ze minder uitval hebben. Nu kunnen ze chips met 1 defecte SMX unit toch nog verkopen.

En evt later een extreme edition ofzo releasen met alle units actief :-)
Dat zal inderdaad gedaan worden om het aantal werkbare chips te vergroten. Door ÚÚn SMX op te offeren zal het aantal bruikbare chips flink hoger zijn.

Het zou wel leuk zijn om met een cherrypicked exemplaar waar wel alle 15 SMX eenheden actief zijn te benchmarken. Kijken hoe ver deze kaart dan komt.
dat laatste heb je gelijk in, omdat er bij ÚÚn op de drie kaarten een SMX unit niet (goed) werkt naar de kwaliteitseisen van de kaart, kunnen ze beter eenvoud hebben.

het zal echter wel mogelijk zijn deze door middel van een biosflash te re-activeren. het zal me niks verbazen als fabriekanten als EVGA, XFX, Asus en MSI kaarten uitbrengen waarbij dit toegepast is.
Nou lijkt me niet (flashen)..

In eerdere modellen zijn ze ge-lasercut. (670's)
Ik denk omdat die voor de Tesla worden gebruikt.
Dit is immers gewoon een Tesla kaart, "omgebouwd" tot een consumentenkaart.
Ik heb een tijdje geleden mijn 680 lightning's hier te koop gezet, maar die zal ik er zometeen toch maar weer vanaf halen. Dit is (zeker voor het geld) geen upgrade waard....
Zo'n waardeloze luidruchtige standaard koeler op zo'n dure kaart! Echt jammer, daar mag je toch wel meer van verwachten voor dat geld. Was het niet voor het geluid dan wel voor de temperaturen voor het OC'en.
Hoezo waardeloos?


Niet luidruchtig (guru3d heeft al metingen), prima 80 graden (want dat mag ie bereiken, volgens default GPU Boost 2.0 settings) en bijna alle hitte gaat de PC uit.
" en moet Nvidia de prestatiekroon teruggeven die AMD met de Radeon HD 7970 in handen had." Volgens mij moet dit terugveroveren zijn.
Vet mooie koeler! Prachtige professionele uitstraling, mag van mij wel de standaard worden.
Vind ik ook, ben blij dat ze de 690 als reference gebruikt hebben met de design van de TITAN.
Het zal wel aan mij liggen maar volgens mij is dit gewoon een standaard koeler?.. Ik zou juist graag zien dat er bij een kaart als deze een andere, efficientere koeler op geplaatst wordt.
Gebaseerd op de standaard cooler maar heeft wat technieken die ze geleerd hebben bij de 590 en de 690. :-)

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-690

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Luchtvaart Crash Smartphones Sony Apple Games Besturingssystemen Politiek en recht Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013