Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 125 reacties, 31.204 views •

De nieuwe videokaart van Nvidia, die de codenaam Titan draagt, zou een stevige hoeveelheid geheugen aan boord krijgen. De GeForce 780 zou 6GB gddr5-geheugen krijgen, waarmee Nvidia de hoeveelheid geheugen ten opzichte van AMD's vlaggenschip verdubbelt.

Volgens een Zweedse website wordt Nvidia's GeForce Titan standaard voorzien van driemaal zo veel als de standaardhoeveelheid gddr5-geheugen voor de GTX680 en tweemaal zo veel als concurrent AMD met zijn topkaarten meelevert. De Titan, met aan boord de GK110-gpu, moet die hoeveelheid geheugen kunnen benutten dankzij de gpu-architectuur, die gebaseerd is op de Tesla K20X-kaarten. De GK110-gpu bestaat uit 2880 cuda-cores, opgedeeld in vijftien smx-units die over 1,5MB l2-cache beschikken. De gpu staat via een 384bit brede bus in verbinding met het geheugen, dat op 1,3GHz geklokt wordt.

In de Titan-gpu zouden echter 'slechts' 2688 cores geactiveerd zijn. Dat is ruim zeventig procent meer dan het aantal cores in de GK104 van de GTX680. De prestaties van de Titan zouden dan ook een stuk hoger zijn en die van de GTX690 tot op 85 procent benaderen. De kloksnelheid van de Titan-cores zou met 732MHz flink lager zijn dan de ruim 1,2GHz van de 680, wat bijdraagt aan de relatief lage tdp van 235W. Om 6GB geheugen te realiseren, zou een deel van de benodigde 24 geheugenchips op de achterkant van het pcb geplaatst kunnen worden. De Titan wordt rond eind februari verwacht en zou dan rond de 900 dollar gaan kosten.

De huidige topkaarten van Nvidia, de GeForce GTX680 met aan boord de GK104, worden volgens Nvidia's referentieontwerp met 2GB videogeheugen geleverd. De GTX 690 met twee gpu's wordt uiteraard met tweemaal zo veel geheugen geleverd, maar sommige fabrikanten hebben ook de GTX680 met 4GB of zelfs 6GB geheugen uitgerust. AMD geeft zijn topmodel, de Radeon HD 7970, standaard 3GB gddr5-geheugen mee. Ook van deze kaart zijn varianten bekend met 6GB geheugen en de met twee Tahiti XT-gpu's uitgeruste Radeon HD 7990-kaarten hebben eveneens 6GB geheugen aan boord.

Reacties (125)

Reactiefilter:-11250122+176+23+30
Moderatie-faq Wijzig weergave
Dit soort kaarten zijn absoluut niet doorgaans bedoelt voor de resolutie 1920x1080(1200) of alles daar onder, daarin komen ze niet tot hun recht.
Als je op hogere resoluties gaat gamen ligt dat toch wel anders, het klopt wel dat het aan 1 kant een forse prijs is echter als dit het top model is denk ik van zo gek is dat ook weer niet.
Kijk eens naar de huidige prijzen van de huidige top lineups van AMD en NVIDIA en dan bedoel ik niet de 7970 of de GTX 680 maar de GTX 690 en de 7990 ook al bracht AMD deze nooit zelf uit. En afgezien van dat dit dual gpu's zijn, is dit is wat mij betreft de top/vlaggenschepen die je op dit moment kan kopen.
De prijzen hiervan liggen ook op 900 euro of hoger dus als je het zo bekijkt dan is het wel vergelijkbaar ;)

Tegenwoordig kan je op de full HD resolutie prima gamen met hogere settings op kaarten die een veelvoud goedkoper zijn dan dit soort kaarten als genoemd in het artikel, dit soort dure kaarten van NVIDIA of AMD zijn op een zeer kleine doelgroep gericht, procentueel word er niet veel verkocht maar uiteindelijk is het wel een uithangbord voor een fabrikant.

Ze zijn vind ik enkel interessant als je:

1 Koste wat kost het beste van het beste wilt ongeacht de prijs.
2 Je op erg hoge resoluties gamed /en of meerdere schermen.
3 Je helemaal into benchmarking bent en hoe dan ook in de top mee wilt draaien kwa scores etc.

[Reactie gewijzigd door pino85 op 5 februari 2013 20:23]

Vraag me af hoe snel zo'n ding wel niet rendert met zoveel CUDA cores.
Dat hangt af van de toepassing. De verwerking binnen een GPU met CUDA-cores verloopt parallel. Om iets parallel te draaien moet je de data (lees: instructies, informatie in geheugen) in stukken hakken. Je kunt het niet eindeloos blijven verdelen, op een gegeven moment houdt dat gewoon op.

Het hoeft dus helemaal niet zo te zijn dat een toepassing op een GPU met 1000 CUDA-cores op 300 MHz sneller is dan een op een GPU met 500 CUDA-cores op 300 MHz. Dat hangt puur af van hoe ver het parallel gedraaid kan worden.

In veel gevallen, vooral met renderen, komt het er vaak wel op neer dat het (iets) sneller gaat. Wat bijvoorbeeld kan resulteren in meer FPS in games, of dat je 3d animaties (zoals die van Pixar etc.) een aantal minuten, misschien wel uren, sneller klaar zijn.

Het kan dus zijn dat je vooral bij nieuwe games meer FPS krijgt, terwijl het bij oude games nagenoeg gelijk blijven, omdat de huidige videokaarten nu al meer parallelle taken aankunnen dan het spel te bieden heeft (als in instructies en geheugen.)

[Reactie gewijzigd door ThomasG op 5 februari 2013 13:16]

Je verwart cpu parallellisatie met gpu parallellisatie. Een frame (voor een game) kun je opdelen in kleine stukjes. Dat schaalt dus prima en heeft verder niets met het aantal paralelle taken te maken.

De limiet waar jij op doelt zit vaak in de engine van de game en niet in de grafische kaart. Veel shooter opties hebben een instelbare engine. In een engine zit een "loop" geprogrammeerd om de frames per seconde te beperken.

Sommige van die oude game shebben een instelbare engine. Zo kun je bij de quake engine (call of duty 1 tm huidig , soldier of fortune 1/2, enz) de max fps verhogen tot bijvoorbeeld 300. Een moderne kaart zal vervolgens fluitend de 300 halen.

Vroeger had een kaart een aantal grafische kaart een aantal pixel pipelelines en vertex shaders. Tegenwoordig zijn het allemaal unified shaders en kun je dus alles inzetten (mits de engine meer frames toe staat).

[Reactie gewijzigd door sdk1985 op 5 februari 2013 15:28]

Wat de vraag dan ook brengt (aangezien je laatste allinea er ff over ging)

Welk spel heeft in hemelsnaam 6 GB video geheugen nodig.

De 7970 (heb mijn kaart als voorbeeld genomen) heeft zoals iedereen weet 3 GB VRAM, maar... Weet iedereen wel dat die bijna ALTIJD maar rond de 2048mb gebruikt? en dit op 5040x1050?

er is 1 GB eMMC moduletje op mijn kaart dat dus letterlijk nooit gebruikt wordt, ook als je volledig high-end aan het gamen bent.

Ik hoop dat CUDA programmas er meer nut aan hebben, in gaming zie ik deze kaart toch niet als aanrader.
Hmm ik denk dat ArmA 3 het wel zou kunnen gebruiken, 10 kilometer ver kunnen kijken vraagt wel wat. Daarbij gebruiken huidige games misschien wel bijna altijd maar rond de 2048, maar dat wil niet zeggen dat dat over een paar jaar heel anders is. En laten we eerlijk zijn, een kaart als deze koop je niet om over een jaar te vervangen, tenzij je echt geld teveel hebt :P
Maar dan kun je ook gewoon een bestaande 7970 met 6GB kopen. Kost je ook erg veel, maar altijd nog minder dan het beest dat hier besproken wordt.
Weet niet welke games je speelt. Maar iedere highend-game waarbij je hoge resolutie-textures kan instellen en een verre drawdistance, slokt geheugen. Zet je je schermresolutie hoog in combinatie met AA, zit je met gemak boven de 2GB. Ik zat snel aan die limiet bij oa GTA IV, Crysis 2, Battlefield 3 en Skyrim (gemod).
Ik kijk alvast uit naar meer video geheugen!
Ik heb het niet over gaming, want games gebruiken meestal geen CUDA (uitgezonderd Just Cause 2, die gebruikte het voor water simulatie).

Nee, ik heb het over raytracing, VRay of Cycles ofzo. In principe kunnen die vrijwel oneindig veel cores gebruiken voor rendering.
kan iemand mij uitleggen wat ik met al dit geweld zou willen draaien? ik ben zelf een game freak, maar kan me niet voorstellen welke games dit vereisen...

ik heb sowieso het nut van meer dan 60 frames nooit begrepen.
Games worden steeds extremer, om volgend jaar nog iets goed te kunnen spelen moet je upgraden. Kijk bijvoorbeeld even naar The Witcher 3 die eraankomt, daar heb je zo'n GPU wel voor nodig ben ik bang.
Games extremer? Sinds crysis staat de pc evolutie stil, noem mij een game die er grafisch veel beter uit ziet 5 jaar na crysis?
Het enigste wat ik zie is dat de huidige pc games extreem slecht geoptimaliseerd zijn.

Kijk wat ze uit de console kunnen persen, als ze dit ook met mijn huidige pc kunnen dan heb ik geen kaart van 900 euro nodig.
O. Jij zit te wachten op 32x AA? Ik in ieder geval niet. Ik denk dat snellere kaarten nu vrij zinloos zijn, ik hoop dat er snel 4K schermen komen, dan heeft sneller weer pas weer (echt) nut ben ik bang.
Ik bedoel, zet een game op high of op ultra, als je aan het spelen bent merk je het toch niet, terwijl die ultra vaak wel 2x zwaarder is voor je videokaart.
Toekomstige spellen worden natuurlijk weer een stuk zwaarder nu de volgende generatie consoles bijna klaar staan om verscheept te worden. Daarnaast is het toch wel fijn 120 frames te hebben wanneer je in 3D gaat spelen.

Persoonlijk zie ik liever dat ze wat aan het idle verbruik van dergelijke kaarten doen. Zelf heb ik op het moment een dual GPU opstelling en die kaarten verbruiken samen idle 200 watt. Dat is een hoop geld aan energie, voor iets wat op dat moment niet eens gebruikt wordt.

Processoren worden steeds energie efficienter. Dat is een echte trend aan het worden. Maar aan de andere kant heb je de GPU die dat weer compenseerd door een absurde hoeveelheid energie te verbruiken.
Er wordt al een tijdje gekeken naar de energieverbruiken van de GPU's en het verschil met de CPU wereld is er eigenlijk niet.

Beide onderdelen worden op dezelfde manieren energiezuiniger gemaakt en de technieken hebben ook effect. Zo heb je voor een GTX660 nog maar een kleine 140w nodig wat dus maar 1 PCIE 6 pin stekkertje is. Maar die kaart draait wel 1080p.

Zowel CPU als GPU gebruiken al:

speedstep of boost technologie - kloksnelheden tijdelijk verhogen
sleep of idle states - kloksnelheid verlagen bij idle
gpu power down - AMD gpu's hebben dit, waarbij het verbruik in idle erg laag is, vanzelfsprekend is dit bij CPU niet goed mogelijk

en belangrijkst van al, kleiner procede. Alleen AMD zit nog op een (te) oud procede en moet een die shrink doen om verbruiken terug te dringen. Kijk je naar de 22nm procedes dan zie je een sterke daling in verbruik tov geleverde performance. Net zoals AMD langzamer is op de CPU markt zijn ze dat ook op de GPU markt en loopt Nvidia net als Intel voor met een kleinere die.
Wat klets jij nou? Op gpu gebied doet AMD het nog steeds erg goed en was het eerder met 28nm dan nvidia met de HD7000 series. Ook lopen ze qua performance niet achter, want met de nieuwste drivers is de HD7970GHz de snelste videokaart atm. Cpu-wise lopen ze idd wel achter, hoewel ze price-performance het nog steeds wel goed doen.
Precies, en die GTX 660 is nou juist het verkeerde voorbeeld; ik dacht dat die kaart meer verbruikte zijn AMD-tegenhanger, maar ik ga het niet nazoeken. Neemt niet weg dat het verder een prachtig midrange kaartje is.
Voor het draaien van 3D in games zul je dus voor een effectieve 60 fps, 120 fps laten renderen door je graka.
games worden steeds mooier en we zijn nog lang niet bij fotorealistische beelden. (al ziet het er allemaal wel erg mooi uit tegenwoordig ;) )
Pas als je een 4K CG film uit hollywood in real time kunt renderen op je telefoon zal men blij zijn (of... misschien is er dan weer iets nieuws)
uit onderzoek is gebleken dat mensen bvb 120 fps soepeler vinden spelen dan 60 fps! het gaat hier natuurlijk wel om een gevoels kwestie!
Hmmm ben al even aan het rondkijken voor een nieuw game-systeem voor een maat te bouwen en zelf ook eens aan het kijken naar nieuwe 3D kaart voor mijn game pc. Dit zou dan de 780 GTX worden? Ligt de prijs dan niet veel te hoog voor in dezelfde lijn door te gaan, zou dit dan niet eerder een zuinigere 690 worden (dus 790)? Ik zou een nieuwe 780 wel zien zitten maar niet voor zo'n prijs. Ik dacht eerder tussen de 400-550 eur.

Wannneer zouden de nieuwe andere kaarten (7xx) verwacht worden? Ongeveer? Dit voorjaar?
Volgens deze site worden ze verwacht in Maart, terwijl AMD zijn nieuwe kaarten in April zou introduceren. Staan ook de specs bij van zowel de aankomende nvidia en amd series. http://www.techpowerup.com/gpudb/
Het is jammer dat er voor de rest zo weinig nieuws over is.

Als ik over twee weken een GTX 670 koop en twee weken later wordt de 700 serie aangekondigd word ik behoorlijk pissig :9
Totdat AMD ook met iets snellers komt zullen de prijzen niet echt verbeteren. Als in die Titan zal gewoon een heel stuk duurder zijn dan de GTX680.

En het zou mij niet verbazen als een eventuele HD8970 of HD9970 (hoe ze hem ook gaan noemen na de oem rebrands) gewoon 500 euro gaat kosten.

Ik verwacht dat die iets van 20-30% sneller kan zijn. Maar het is nog maar de vraag of dat gebeurd.

Dus ik denk dat als je nu een HD7950 of GTX670 koopt het wel mee valt met het waarde verlies. tov voorgaande jaren.

(maar dit is geen garantie)

[Reactie gewijzigd door Astennu op 5 februari 2013 14:56]

Als je een kaart koopt die prijs/prestatie gewoon heel sterk is, kan je er ook wel vanuit gaan dat hij behoorlijk weinig waarde verliest. Koop nu bijvoorbeeld een 7850, die erg veel prestaties biedt voor zijn prijs, zing het daarmee uit en ga dan echt high-end, als je dat graag wilt. High-end hardware gaat over het algemeen keihard naar beneden in de restwaarde.
Hier ben ik ook erg benieuwd naar.
Als dit namelijk twee maanden is dan wacht ik nog met de aanschaf van mijn GTX 670
Nee dit wordt een Niche product. Waarschijnlijk onder de noemer Geforce Titan. En niet GTX7xx.
Zie ook mijn reacties hierboven. Dit is voor nVidia gewoon een extratje.

De echte GTX780 moet nog komen. De vraag is wanneer. AMD komt met een beetje geluk begin Q2 met de nieuwe lineup. En als de geruchten kloppen halen die ook wel 20-40% prestatie winst tov de HD7970.
Wow.. wat een verschil. Ik ben echt benieuwd of de huidige high-end kaarten dus snel naar de budget mid-end kaarten doorschuiven...

Wat gaat de introductie prijs wel niet worden....

Vol verwachting klopt mijn hart...
Ik denk het niet. De hudige high-end pricerange is rond de 500/600 euro/dollar, deze zit daar bijna het dubbele boven.

Een prestige project dus, verwachte verkoop zal ook niet spectaculair zijn. Ik denk dat benchmarks met games en vergelijkingen met een vrijwel even dure SLI opstelling moeten uitwijzen of er uberhaupt een rede is om hier voor te gaan en niet voor 680SLI setup.

Qua prijs zal dit in iedergeval niet de GTX680/HD7970 in de verkoop voorbij gaan.

Een soort van premium segment zeg maar.
um ik weet niet waar je het overhebt hoor maar deze kaart is ruim sterker dan 2 GTX680 in sli en die kosten bij mekaar rond de 900 euro deze kaart mag dus echt wel dat kosten als de prestatie ook daadwerkelijk zoveel hoog licht :X
Denk dat je ff goed moet lezen:

In de Titan-gpu zouden echter 'slechts' 2688 cores geactiveerd zijn. Dat is ruim zeventig procent meer dan het aantal cores in de GK104 van de GTX680. De prestaties van de Titan zouden dan ook een stuk hoger zijn en die van de GTX690 tot op 85 procent benaderen.

Deze kaart haalt een 690 tot op 85% hij is echter ruim veel sneller dan een 680.

FF beter uitleggen waar ik het over heb ...

85% (ruim sneller?) mwa een Top editie is sowiezo al 15-20% sneller. Jouw sli setup die veel meer vermogen verstookt voor hetzelfde geld en misschien voor 50 - 100 euro meer een top model die net zo snel is dan jouw setup... nou dan weet ik het wel. Liever 1 kaart! Makkelijke afrlow = kleinere kast (mini ITX) , minder touwtjes in je kast, nieuw platform wat minder energie verbruikt, nieuwe feautures, 6GB, Veel meer cuda cores bv voor rendering / video conversie. En die kaart die op 0,7GHz wordt geklokt ipv 1,2Ghz zal een zalige overclock potentie hebben. Het is natuurlijk een ander platform en de overclock potentie moet zich nog bewijzen. Iemand zin in mijn Asus 670 Top ?

[Reactie gewijzigd door toet-toet op 5 februari 2013 14:34]

Ze hoeven niet te concureren. Want dit is gewoon een speciaal product wat momenteel nog geen concurrentie heeft. Alleen van de CF,SLI en de Dual GPU kaarten. Maar dit is verder de snelste single GPU. Zelfs de HD8970 kan (als hij de 2560 shaders krijgt die geruchten voorspellen) zal het moeilijk krijgen met deze kaart. En sowieso is die ook nog niet uit.

Kortom op dit moment is die prijs wel te rechtvaardigen. En daarnaast zijn de yields van deze chips ook niet zo goed als die van GK104's. Ze zijn echt veel groter. Ik denk dat nVidia de volledige werkende 2880 shader chips ook mooi aan het opsparen is voor andere dingen.

Tot dat AMD met een concurrent komt kunnen ze die prijs er wel voor vragen. En dat sommige mensen het niet met de prijs eens zijn zal nVidia ook een worst wezen. Die kunnen dan een GTX670 of GTX680 kopen.
Wat ik alleen niet snap is hoe nVidia tot 85 % betere prestaties komt, terwijl er 70% meer Cuda-blokken zijn, maar hun kloksnelheid is ~40% lager. Dat is natuurlijk zalig voor de prestatie/verbruik verhouding maar het absolute prestatieniveau zou dan (in theorie) niet veel hoger liggen. Hoe krijgt nVidia dit voor elkaar, of praten we nog steeds over GPGPU berekeningen, waar de GK110 gewoon veel beter voor geoptimaliseerd (bij gebrek aan een beter woord) voor zou zijn?
Een single kaart die de performance kan halen van een SLI setup heeft altijd de voorkeur. Zeker als het goed zit met vermogen en prijsstelling. 900 dollar is is 900 euro waarschijnlijk maar zal de huidige 690 tot 85% evenaren. Een 690 is ca 2 X 680 of 2 X 670TOP edities en die kosten toch altijd bijna minimaal 800 euro. Een nieuwe Titan Top editie liefst 3 slots want dan lijkt het tenminste wat staat al op mijn verlanglijstje.
Wat gaat de introductie prijs wel niet worden....
uit artikel: De Titan wordt rond eind februari verwacht en zou dan rond de 900 dollar gaan kosten.
Het lijkt me behoorlijk ongewenst dat een high end kaart 900$ gaat kosten. Het is nog niet zo lang geleden dat high-end kaarten tussen de 300 en 400 $/euro kosten, afhankelijk van hoe lang ze op de markt waren.

Zo wordt pc gamen iets voor een kleine elite, waarbij het toch al niet echt goed ging met de pc wat gamen betreft. Ik kan niet echt volgen waarom Nvidia z'n eigen markt kapot maakt.
Joh dit zijn vlaggenschip-kaarten, kaarten die de top van de technologie van 't moment zijn en waarvan de meer 'mainstream' modellen worden afgeleid. Vergis je niet: alle topmodellen worden, zodra ze uitkomen en nog nieuw zijn, maar gekocht door een kleine elite. Daar moet de winst ook niet vandaan komen, die komt wel uit het 'mainstream'-segment.

NVIDIA maakt echt z'n eigen markt niet kapot, maar introduceert gewoon een nieuwe high-end kaart die het neusje van de zalm moet zijn.

Daarnaast ben ik het pertinent niet eens met je stelling dat PC-gaming niet lekker loopt; sterker nog, door verschillende markt-omstandigheden (o.a. het Kickstarter-principe, de steeds groter wordende Steam-markt, het op zich laten wachten van de nieuwe generatie consoles) lijkt het wel alsof de PC-markt een nieuwe impuls krijgt. Eentje die het broodnodig moest hebben :X

Dit soort technologische ontwikkelingen draagt daar alleen maar aan bij.
Ik zou zeggen geen schip en geen vlag , Het is erg raar dat Nvidia deze kaart uitbrengt. Omdat het om een consumenten editie gaat van de TESLA , is de vraag gaat het nog wel zo goed met de GPGPU markt ?

En ja , deze kaart moeten ze wel in het hogere segment verkopen, kijk eens hoe duur de TESLA is ?

pricewatch: PNY NVIDIA TESLA C2050 +++

Ja de gemiddelde consument zit natuurlijk al jaren te wachten om van hun 900 euri af te komen ......
Een veelvoorkomende misvatting is dat de Tesla-kaarten zo duur zijn vanwege de gebruikte elektronica. Het is echter zo dat je met de (belachelijk) hoge prijs van zo'n kaart een stuk onmisbare service koopt. Als er bijvoorbeeld zaken anders gerenderd worden dan je verwacht/bedoelt, kun je daarvoor bellen en krijg je specialistische hulp, om maar iets te noemen.
Ook zijn de Tesla's niet geschikt om op te gamen. Normale consumentenkaarten hebben een veel hogere framerate als het gaat om ingame live action rendering.
Het is alleen jammer dat de 'superstoere' gamer die denkt dat dit nodig is om überhaupt een spel te spelen het idee geeft aan anderen dat PC gaming duur is (wat niet zo is, als je tenminste een andere videokaart dan deze neemt :P ). Verder vind ik het voor de die-hard fans leuk dat er een alternatief is voor SLI, maar voor de gemiddelde consument is deze launch inderdaad niet zo interessant, zelfs drie 7950's zijn goedkoper.
Flagshipcards zijn altijd rond de 1000 geweest, 7950GX2, 8800 Ultra. 9800GX2, GTX295, GTX590, GTX 690, Titan.
Wat Arjan ook al zei: de 8800Ultra die je noemde was ook 600 euro bij introductie, een GTX295 ook, en een HD5970 van 2 generaties terug was ook ~600 euro bij introductie.

De genoemde GTX590 was 750-800 euro geweest bij introductie.

De GTX690 is inderdaad een dure met een prijskaartje van 1000 euro bij introductie, en nog steeds zo'n 875 euro minimaal.
Een HD7990 is voor 800-1000 euro geïntroduceerd, en is ook voor zo'n 875 euro minimaal verkrijgbaar.

Doe mij maar weer de prijzen terug van de tijd dat de HD5870 uit kwam: toen kon je voor 300 euro een kaartje kopen waar je weer een aantal jaren mee vooruit kon.
óf voor (iets meer dan) 100 euro een kaart die maar weinig ervoor onderdeed, de Sapphire 5850. Jammer dat ik die tijd gemist heb!
GTX590 had een adviesprijs van 650,-
Niemand die je dwingt een kaart van 900 euro te kopen.
Mijn 2 jaar oude 6850 (2de hands 75 a 90 euro) voldoet nog steeds op 1080p

[Reactie gewijzigd door eL_Jay op 5 februari 2013 13:38]

Precies! Daarnaast zal als deze reeks.zich uitbreidt de prijzen van de 600 serie wel wat verder dalen. Ik wacht.nog wel even tot ik MIJN HD 6850 vervang.
Dit is niet zomaar een high-end kaart, dit is de top van de lineup, en de prijzen daarvan liggen al veel langer rond of zelfs boven de 900 euro.
Zo wordt pc gamen iets voor een kleine elite
Dit soort kaarten zijn inderdaad voor een kleine groep, maar voor de doorsnee gamer is er zat ander leuks te koop.
De Nvidia GTX690 kost al ruim 900 euro
@ Dr. Rockzo
Nvidia GTX 690 kost momenteel zo'n ¤ 900 tot ¤ 1000. Dus de prijs is niet verbazingwekkend.
Valt mee, een vriend van mij heeft een GTX 560, die was net geen 180 euro destijds toen die uitkwam en hij draait gewoon BF3 op FHD met alles max op 32fps.

Wat ik hiermee bedoel is dat je geen monster van een kaart nodig hebt voor nomraal gamen, kijk als je 3x FHD schermen wilt of een 2560x1600 scherm wilt dan moet je dieper in je buidel tasten maar voor gamen op een enkel FHD scherm is een kaart van max 300 euro meer dan zat.
Ik vind de prijs wel vreemd, rond de 900 dollar met 85% van de 690 prestaties. Terwijl het een 780 word. De 680 was rond de 500 dollar op launch.
Vraag me af wat dan de 790 word! een zieke, zieke monster kaart met dubbele GK110-gpu ?
Geen vraag naar denk ik, ten eerste de prijs, en het verbruik wordt hoog (zeker icm overklokken) en nVidia heeft dus naar alle waarschijnlijkheid sowieso al het vlagschip in handen*, dan is het nogal geldverspilling om nog een kaart te gaan ontwerpen.

*Omdat de 8970 hier niet overheen gaat, moet er al een 8990 komen van AMD waarvan het ten eerste nog lang niet zeker is dat er één komt (er is ook geen 7990 van AMD) en ten tweede, als de prestaties echt zo hoog liggen als nVidia beweert is het ook nog niet zeker dat hij er overheengaat.
Zoals je hieronder ook kunt lezen komt deze boven de huidige lineup te staan. Meer op hoogte van de GTX690.
900 dollar! Wat een geld.
Ik was altijd anti console, maar heb nu wat ervaring met een PS3 (en ik wordt ouder en heb kinderen) en een console is toch zo gek nog niet. Voor de PC betaal ik misschien een beetje minder per game. Maar ook op de PS3 worden de games uiteindelijk goedkoper naarmate ze langer uit zijn. En het beeld valt toch niet zo heel erg tegen. En zeker met de PS4 of nieuwe Xbox, dan zitje weer een tijdje goed.

Dit legt de lat natuurlijk wel weer lekker hoog. En hier kan een nieuwe console al niet aan tippen (denk ik) en die moeten weer 5 tot 8 jaar mee. Ik denk dat er straks geen sprake meer is van een game op verschillende platformen. Maar dat je de twee niet meer kan vergelijken. Het verschil is / wordt gewoon te groot.
Ik was altijd anti console, maar heb nu wat ervaring met een PS3 (en ik wordt ouder en heb kinderen) en een console is toch zo gek nog niet. Voor de PC betaal ik misschien een beetje minder per game. Maar ook op de PS3 worden de games uiteindelijk goedkoper naarmate ze langer uit zijn.
Alsof je minimaal 900 euro/dollar uit moet geven om goed te kunnen gamen aan alleen een videokaart, een pc met dat totaalbedrag kan alle huidige games prima draaien en met meer kwaliteit dan de PS3/Xbox kunnen en hogere FPS (60 ipv 30)...

Als je dan 1 keer per 3 jaar een nieuwe vid koopt en eens per 6 jaar de rest vervangt ben je wel wat meer kwijt als een console natuurlijk, maar je kan ook veel meer dan met een console, dat moet je natuurlijk wel willen anders is dat ze geld natuurlijk niet zo snel waard...

[Reactie gewijzigd door watercoolertje op 5 februari 2013 13:37]

Ach de meeste mensen gamen op 1080p. Dat kan prima op een HD7870 of GTX660TI.
En nog beter op een HD7950 of GTX670.

Dit is een Niche product. Niet de volgende generatie high end kaart. Dit moet je meer vergelijken met de huidige GTX690.

En mensen met dat soort kaarten hebben toch wel 2560x1600 of zelfs 5760x1080 of zo.
Met een GTX690 draaien op 1080p is gewoon dood zonde. Of je moet er nog 3-4 jaar op die resolutie games mee willen gaan spelen.

[Reactie gewijzigd door Astennu op 5 februari 2013 15:21]

@MorgothG
een 100 euro grafische kaart geeft je nog betere graphics dan een console van uit 2007..

en een "beetje minder betalen per game"?
Je kan gewoon 20-30 euro betalen voor een game die net uitgekomen is op een online key store en die key invullen in steam of origin.. ipv de volle 60 euro.
Wanneer komt die 6GB tot zijn recht, dat vraag ik me dan af ? Op 1080P zal je er denk ik weinig profijt van hebben. Kortom, zeker geen consumentenkaart die op 1920x1200 of lager speelt.
Dual en tripple-head display heb je makkelijk factor 2 tot 3 van deze resolutie, plus evt aansturing van 4k, en monitoren die al ver over deze standaard resolutie gaan.

(welke game zulke resoluties ondersteund is vraag 2 :P).
Dat snap ik ook wel, maar voorlopig is 4K er nog niet, laat staan de spellen en triplehead setups staan ook al niet bij de meesten thuis. Maw; nog steeds geen consumentenkaart; verre van!
ik denk dat ze zat spellen uit kunnen brengen op 4k maar wat heeft het van zin als er niemand is die het kan spelen(omdat de videokaarten het niet trekken)
Voor 900Eur is dit ook totaal niet bedoelt als consumentenkaart voor de massa. Eerder als consumentenkaart voor diegenen die er het maximum willen uithalen. Voor die 0,1% van de markt dus. Zie ook de ARES en MARS kaarten. Deze mensen hebben dan ook geen "normale" 1080p schermen maar 3 van 1920*1200 schermen of zelfs meer. Zo zijn er ook en deze hebben het geld er wel voor over.
De 7990 series zijn toch gewoon 2x 7970's? Zoals ik nu die Titan zie, is dat een single-GPU.

Edit, staat ook in het bericht:
AMD geeft zijn topmodel, de Radeon HD 7970, standaard 3GB gddr5-geheugen mee. Ook van deze kaart zijn varianten bekend met 6GB geheugen en de met twee Tahiti XT-gpu's uitgeruste Radeon HD 7990-kaarten hebben eveneens 6GB geheugen aan boord

[Reactie gewijzigd door SinergyX op 5 februari 2013 13:10]

Aangezien de kaart intern Crossfire gebruikt heb je dus effectief 3GB. Aangezien de huidige Crossfire en SLi technieken geen shared memory hebben moet elke GPU +- dezelfde data in het geheugen hebben staan.

Dit is bij de GTX690 ook zo. Die heeft effectief 2GB.

[Reactie gewijzigd door Astennu op 5 februari 2013 13:23]

http://geizhals.de/eu/804866
http://geizhals.de/eu/830128

Hebben beide 6gb gddr5. Single gpu kaarten. Het nut daarvan is een andere vraag :p
Ik denk dat hij iets van 50% sneller is als een GTX680 gezien de huidige specs. Op hoge resoluties kan het wat meer schelen.

Hij mag dan wel meer Cuda cores hebben maar de clocksnelheid is ook 25% lager.

1536 x 1006 = 1545216
2688 x 732 = 1967616

Ik snap dat deze berekening veel te simpel is en je dit niet met real world prestaties moet vergelijken aangezien de achitectuur aardig aangepast is. Maar je ziet wel dat de throughput van de GK110 met die clocksnelheid helemaal niet zo veel hoger is en dat het eerder richting de +25% gaat vanwegen de lage clocksnelheden)

Dus als je dan 50% winst haalt is dat al erg mooi. Op 1GHz is het natuurlijk wel een beest. zeker als je 2880 cuda cores zou hebben: 2880 x 1006 = 2897280

Maar dan moet je ook niet verbaast zijn als je tegen de 300-350 watt TDP aan zit :P
Och ik heb nu een TDP van 450 watt op turbostand (HD6990), dus als ik ongeveer 2x mijn prestaties voor bijna de helft in verbruik kan krijgen zal mijn huisbaas wel blij worden hoor! Alleen mijn portemonnee niet echt :P

[Reactie gewijzigd door watercoolertje op 5 februari 2013 13:34]

Dat kun je met een 7990 ook al een heel deel voor elkaar krijgen :)

Maar ik vermoed dat de opvolger van tahiti ook wel wat efficienter zal worden. Dit was ook pas de eerste generatie GCN. Waar dit voor nVidia eigenlijk de 2e generatie van die architectuur was.
Voordat we allemaal gaan lopen kwijlen over de specs , eerst de benchmarks afwachten

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True