Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 56, views: 14.619 •
Submitter: Thief

Nvidia zou meerdere varianten van de GTX 660 uit gaan brengen. De kaarten hebben een 192bit- of 256bit-geheugenbus en verschillen ook in de hoeveelheid cuda-cores. De kaarten moeten het opnemen tegen de HD 7870 en HD 7850.

Vorige week ging er al het gerucht dat de GTX 660 gebaseerd zou zijn op dezelfde gpu waar de GTX 670 over beschikt, met 1344 cuda-cores die op 915MHz tikken. De geheugenbus zou echter 192bits breed zijn, in plaats van 256bit. Nu zou deze variant niet snel genoeg zijn om de HD 7870 te verslaan, dus komt Nvidia ook met een GTX 660 Ti die wel over een 256bits geheugenbus beschikt, maar wel slechts 1152 cuda-cores heeft op een kloksnelheid van minimaal 980MHz. De twee varianten zouden GTX 660 en GTX 660 Ti gaan heten.

De kaarten verschillen ook in energieverbruik. Zo heeft de reguliere versie genoeg aan een zespins pci-e-connector, terwijl de Ti-variant er twee nodig heeft. Ook de boost clock verschilt, die bedraagt respectievelijk 980MHz en 1132MHz. Wel zou de geheugensnelheid bij beide varianten ingesteld staan op 6008MHz. Al met al lijkt het erop dat de twee verschillende videokaarten het op moeten nemen tegen AMD's HD 7850 en HD 7870.

 GTX 660GTX 660 TiGTX 670
GPU GK104 GK104 GK104
Cuda cores 1344 1152 1344
Kloksnelheid 915 980 915
Boost kloksnelheid 980 1132 980
Geheugen 2GB 2GB 2GB
Geheugensnelheid 6008 6008 6008
Geheugenbus 192bit 256bit 256bit
Tdp <150W 150W 170W

Reacties (56)

Die gtx 660 TI lijkt mij iets te veel bij de 670 in de buurt zitten qua specs. Ik ben heel benieuwd hoeveel verschil de +-200 cuda cores maakt.
Toch vind ik het heel vreemd te noemen dat de lichtere variant van de 660 (non-Ti dus) een gelijk aantal CUDA cores heeft aan de 670, terwijl de Ti minder heeft en alleen een hogere boostsnelheid. Moet nu de extra snelheid de beperking van cores opvangen of zo? Ik zie dan niet zo zeer de winst meer tov de non-Ti, al heb je dan nog wel een breedere geheugenbus bij de 660Ti.

Voor mijn gevoel, ja ja vanuit onderbuikgevoelens mag je je niet uitlaten, weet Nvidia ook niet zo goed wat ze aan moeten met dit segment. In de 500 serie was de prestatie van de Ti wat duidelijker gepositioneerd in mijn ogen. Nu kan je net zo goed gaan voor of de 660 of de 670... vreemd. :?


@ jesper86: dat dus, dank je!
@ dipje2: zo kan je het ook bekijken, daar had ik nog niet bij stilgestaan. Nog maar even afwachten dan. ;)

[Reactie gewijzigd door marcel87 op 31 juli 2012 12:54]

Die laatste bewering klopt dus niet.
De smallere geheugenbus ga je echt wel goed merken en dat is dan ook het grote verschil tussen een 670 en een 660.

Dus je kan zeker niet net zo goed gaan voor een 660 non-ti als voor een 670.

Overigens is de GTX 660 wellicht een erg goede kandidaat voor de DPC-ers onder ons.
Het zelfde aantal cudacores op zelfde snelheid als een 670. De bandbreedte bij dergelijke gpu-projecten is geen beperkende factor...

[Reactie gewijzigd door Arjant2 op 31 juli 2012 11:46]

Dus je kan zeker niet net zo goed gaan voor een 660 non-ti als voor een 670.
Dat zegt 'ie ook niet. Hij bedoelde dat de 660Ti versie moeilijk te plaatsen is omdat die ineens minder cuda cores heeft. Dus in zijn ogen als je de 660 niet neemt, dan neem je de 670 wel. De vraag is dus of die extra bandbreedte met een beetje boost zoveel verschil maakt dat het een paar cuda cores mag kosten.
De vraag blijft natuurlijk of dit nu de definitieve specs zijn... Maar het is allemaal niet zo vreemd... Kaarten zijn natuurlijk gewoon geplaatst op performance.

De 192 brede bus gaat de "gewone" 660 knijpen (op elke resolutie,zie quote hieronder). De 256bit bus in de 660ti lost dit probleem op. Echter er moet een verschil gemaakt worden tussen de 660ti en de 670>dus minder cores.

Impact van geheugenbandbreedte:
What is intriguing about the examples above is that both AMD and Nvidia graphics cards show similar sensitivity to the memory interface. In most of the cases we analyzed, 2X higher memory bandwidth yielded ~30% better 3DMark Vantage GPU performance. A good estimate is that performance scales with the cube root of memory bandwidth, as long the memory/computation balance is roughly intact.
http://www.realworldtech.com/gpu-memory-bandwidth/2/

Om de 660 (normaal) weer wat trager te maken kun je drie dingen doen; minder cores, minder mhz en minder bandbreedte.

Als deze specs waar zijn dan kun je afleiden dat 1152 cores met 192bit de 660 te traag zou maken. Immers er is niet gekozen voor EN 192 bit EN minder core EN minder mhz. nVidia had ook kunnen kiezen voor juist meer mhz om de beperkte bandbreedte te compenseren... Dit levert echter een probleem op... Het is marketing technisch niet uit te leggen dat een 660 meer Mhz op de doos krijgt dan een 660Ti (cores kom je daar zelden tegen).

Als je dus even bij de 660ti begint te redeneren (in plaats van bij de 660) dan is het allemaal wel te volgen.


Het zou overigens logischer zijn als de 660 (gewoon) 1536mb geheugen krijgt aangezien je dan meteen over 192bit praat. Terwijl je bij 2048mb meteen over 256bit praat. Immers 64xaantal chips=bit bus. Dus dan zou je er 3 op de 660 plaatsen en 4 op de 660 Ti.

Dit zag je ook bij de GTX 460; de modellen met 768 mb waren 192bit en de 1GB waren 256bit (msi cyclone vs msi hawk).

Het verschil in MB tussen de 660 en de 660 Ti is dan ook op gpu-z screens te zien: http://nl.hardware.info/n...evoelige-plaat-vastgelegd

*edit* breaking news
De 660Ti is (in 3dmark) dus 11% trager dan de GTX 670 en 26% sneller dan de GTX 580 (!) en 17% sneller dan de 7950. Dat is wel erg netjes!

Per game veranderen de verschillen maar de volgorde lijkt ongeveer gelijk te blijven. Dwz op 1680x1050 Metro 2033 is de 660ti 25% trager dan een gtx670 en is ook de 7950 sneller. Echter hij blijft de GTX580 en de 7870 verslaan. In Dirt 3 maakt de GTX 660 Ti gehakt van de HD 7950 met 67 vs 51 FPS. Zelfs de 7970 wordt verslagen (63).

Hier de hele review: http://www.tweaktown.com/...o_card_review/index9.html

Samenvatting van de 660 info van mij:
http://www.pcinside.info/...60-ti-en-deze-is-erg-snel

[Reactie gewijzigd door sdk1985 op 31 juli 2012 23:33]

Ze zeggen hier de specs te hebben. De eerste post meld echter fake...

http://videocardz.com/339...i-specification-confirmed
De vermindering in het aantal cores staat ongeveer in verhouding met de verhoging in kloksnelheid (14,2% minder cores / 15,5% hogere kloksnelheid).

Uiteindelijk zou met dezelfde geheugenbandbreedte de Ti dus 1,3% sneller zijn als de GTX660. Maar gezien de 660Ti veel meer bandbreedte heeft zou hij nog wel eens even snel of sneller kunnen zijn als de GTX670.

Hierbij laat ik even buiten beschouwing dat uit het artikel niet duidelijk wordt hoe het lagere aantal cores is behaald. Er zijn twee opties
• nVidia zou net als bij de 670 een nog een extra SMX uitgeschakeld kunnen hebben. Dit zou betekenen dat de Ti dus ook 16 minder texture units en één minder polymorph engine heeft als de 660 en de 670, maar de klokfrequentie van deze delen loopt gelijk met de shaders, dus dat compenseert elkaar weer.
• Als nVidia er echter voor gekozen heeft een volledige GPC (twee SMX units + 1 raster engine) uit te schakelen, dan heeft de 660 Ti dus 8 ROP's minder als z'n broertjes.

In het geval van de eerste optie zal het performance verschil tussen de GTX660 Ti en de GTX 670 minimaal zijn, er is zelfs kans dat de Ti een 1-2% beter scoort. Echter biedt deze optie waarschijnlijk meer mogelijkheden om (voor GTX 670/680) afgekeurde chips te gebruiken. Je kan immers twee willekeurige SMX units uit schakelen.

Als de tweede optie gekozen is dan zal de performance van de Ti dichter tegen dat van de gewone 660 aan liggen. Ja de Ti heeft 25% meer geheugenbandbreedte, maar ook 25% minder ROPs. Dit biedt echter niet de mogelijkheid om twee willekeurige defecte SMX units uit te schakelen, dit zouden altijd twee SMX units moeten zijn die samen één GPC vormen, echter kan je wel een Raster Engine uit schakelen (deze neemt wel minder ruimte in beslag als een SMX).

Ik vraag me af of deze specificaties kloppen. Wat in ieder geval duidelijk is is dat het verhaal niet compleet is.

edit: Deze specificaties kloppen sowieso niet! Een 192 bits bus met 2GB GDDR5 geheugen is technisch onmogelijk. 192 bit resulteerd in 6 chips (32 bit per chip), waarmee je dus 1.5GB aan geheugen zou hebben (of 3GB)!

[Reactie gewijzigd door knirfie244 op 1 augustus 2012 12:59]

kloksnelheid van de ti ligt ook zonder boost hoger hoor
Eigenlijk de reden waarom ik deze speculaties nog met een korreltje zout neem.

Ik denk dat het gerucht is ' gebruikt dezelfde gpu' maar het lijkt me logisch dat het aantal cores wel minder is, ook voor de non-ti. De 670 gebruikt immers ook dezelfde gpu als de 680 toch? Alleen een cluster minder wat aan staat.

De 560 gebruikte daadwerkelijk een ander design dan de 570 en 580. Dus er kwam een berichtje dat dezelfde gpu van de 670 nu in de 660 komt. Vervolgens maakt iedereen de aanname dat het aantal clusters gelijk blijft, wat mij erg zou verbazen.

Het zijn allemaal nog rumours natuurlijk dus het is en blijft afwachten.
*speculatiemodus=+1"

GTX 660 = chips met veel werkende cuda cores, maar gare geheugen controller / GTX 660 Ti = chips met minder werkende cuda cores maar een werkende geheugen controller? :>
kortom: best crappy :/
Meer is beter, heb nu zelf GTX 570, dus hoef vooloopig niets anders. Het is trouwens een nummer 6, dus een goed model, maar de 7 en 8 modellen worden weer monsters. Zal het prijskaartje ook wel naar zijn ;-)
Denk dat deze 660 modellen sneller zijn als jouw 570, maar dat mogen de benchmarks uitwijzen. Ik weet niet hoe je de 7 en 8 modellen bedoelt, maar de gtx7/8 serie laten nog wel even op zich wachten.
hij bedoelt de 670 & 680 vermoedelijk.
Lijkt mij niet aangezien die in computerland-termen al aardig op leeftijd zijn.
Is dat zo... met 1280mb op bijvoorbeeld 1080P reso zit je al snel genekt in je geheugen, gtx 570 is imo extreem gedateerd.

[Reactie gewijzigd door A87 op 31 juli 2012 14:36]

Als je het zou doen voor de Cuda cores en TDP zou de 670 nog interessant zijn maar verder ook niet als ik het zo zie?
Voor de TDP hoef je het niet te doen want hier geld hoe lager hoe beter. Of de GTX 670 daadwerkelijk minder interessant word is afwachten op de benchmarks en de prijsstellingen van de andere kaarten. Ik denk dat de GTX 660 Ti met zijn hogere clocks aardig in de buurt zal komen van de performance van een stock GTX 670.
Zo uit mijn hoofd heeft mijn GTX 560 Ti 384 cores met een snelheid van 900 MHz, en een 256 bits bus. Dat was een flinke upgrade vanaf een 9600GT met zijn 64 cores. Die 660 Ti zou zo te zien dus 3x zo snel worden. Niet normaal... Mijn kaart is pas een jaar oud. Gelukkig is The Witcher 2 op 1280x1024 het zwaarste dat ik erop zal draaien. Ik speel bijna geen spellen meer, en als ik dat al doe dan zijn het oude titels.

[Reactie gewijzigd door Katsunami op 31 juli 2012 17:28]

Ja, want de architectuur is totaal niet veranderd, dus je kan de cuda cores uit de vorige generatie 1 op 1 vergelijken met de cuda cores van de 6xx serie [/sarcasm] ;).
Mooi, laat ze maar lekker concurreren. Komt alleen ten goede aan de prijzen / consument!
Nvidia moet zich echt meer gaan voorbereiden op de toekomst, en dan vooral de hogere resoluties/meerdere schermen.
een 192bit geheugenbus is volgens mij te weinig om 3xfull HD lekker te ondersteunen in moeielijke spellen.
Laat staan als we op 2560x1440 of 2560x1600 over gaan. 2560x1600 is maar liefst 197% pixels meer t.o.v. 1920x1080!
Ik vind toch dat Ati het deze tijd beter aan het doen is. Maar zoals altijd hier bij de hardware is het om-en-om wie er aan de leiding is.
Deze kaartjes zijn ook niet bedoelt voor een 3 monitor game setup..
Dat kun je ook niet verwachten, dan moet je de uiterste high end kaarten pakken.
Zelfs kaartjes die er wel voor bedoeld zijn kunnen het soms niet aan; paar jaar geleden brande er nog kaarten door als je met 3 monitors MS Flight Sim op starte :)
idd, anders moet je niet eens beginnen aan 3 monitoren.
Heb je 3 monitoren minimaal 4x GTX 580

[Reactie gewijzigd door A87 op 31 juli 2012 14:36]

Denk dat de gemiddelde consument/casual gamer gewoon een enkel scherm heeft op 1920x1080 of 1920x1200 . Iets wat deze kaarten prima aankunnen

De configuratie die jij noemt is meer voor de hardcore gamers en daar is dan ook het hogere segment met de 670 en 680 voor.
Dit zijn dan ook geen high-end kaarten meer. Dit zijn concurrenten van HD 7870 en HD 7850 hiermee moet je niet verwachten dat je met alles open op zo'n resoluties in de toekomst nog kan gamen. Met een iets lagere resolutie wel. Als je de topresoluties wil zal je ook een topkaart moeten kiezen (670, 680, 7950 en 7970).

Om op zo'n resoluties te spelen met alles open hebben ze dan ook de 670 en 680.. Deze zijn toch wel zeer straffe kaarten. Nog niet overclocked (zoals de GHZ edition van de 7970) en sneller als de normale 7970, en zuiniger. Vind ik toch meer dan knap, en dit ook op de grote schermresoluties zoals jij vermeldt.
Vind ik toch meer dan knap, en dit ook op de grote schermresoluties zoals jij vermeldt.
op lagere resolutie is de GTX6xx bijna altijd snellers als de concurrent... maar op hogere resoluties was toch vaak de 79xx sterker dan de GTX6xx?
Tegenwoordig ligt alles behoorlijk dicht bij elkaar, de hd7870 hoeft nauwelijks onder te doen voor de hd7950, denk dan ook niet dat alles over 2 jaar voor een high mid-end model opeens onspeelbaar is, en dat het met een high-end kaart wel als boter in de pan gaat. Misschien dat je een of twee instellingen een tikje lager moet zetten, maar veel meer zal het ook niet uitmaken.

Voor die superhoge resoluties heb je eigenlijk al meerdere kaarten nodig om op native-resolutie met hogere instellingen te kunnen spelen, kaarten als de hd7970 en gtx680/70 (liefst 4gb) zijn dan geen overbodige luxe. De gemiddelde gamer met een full-hd scherm zal meestal kunnen voldoen met een gtx660ti, of een gtx670 als hij/zij games speelt voor de eye-candy en niet voor de gameplay.
Je hebt inderdaad gelijk. Het is inderdaad 197% pixels als 1080p 100% is maar ja dat geld niet als je het woordje meer erbij gebruikt.

Maar goed denk dat 660 idd leuk kan zijn voor mensen die CUDA cores gebruiken voor berekeningen of gewoon bitcoins aan het minen zijn (zijn tig toepassingen natuurlijk). Maar voor gamers lijkt me de Ti geschikter. Bedoel die vermindering van die cores merk je nauwelijks. Voorbeeld.. 6950 en 6970. Je kon vaak 6950 flashen om een 6970 te maken aangezien het gewoon 6970 was met shaders uitgeschakeld. Maar als je een 6950 overclockte naar stock 6970 snelheden dan was het verschil slechts 3% ongeveer. (als je natuurlijk ook de 2gb versie 6950 hebt).

Bij Ati was natuurlijk bijna alle specs hetzelfde dus ja 6950 was natuurlijk veel betere aankoop voor een Tweaker dan een 6970 :). Bij nVidia hebben ze het verschil wat groter gemaakt tussen de versies, maar merk je die verschil van Cuda cores zo erg? Néé bij het Ati verhaal in ieder geval niet en lijkt me vreemd als verschillen zo groot zullen zijn bij nVidia en Ati.
nu dus wachten op de eerste benchmarks en prijzen om te zien wat de verschillen zijn. En kijken of het echt mijn volgende kaart gaat worden. :)
Ben wel benieuwd hoe snel ze daar de eerste vruchten van kunnen plukken :)
Stel je koopt een GTX 660 (Non Ti) en klokt deze op dezelfde frequenties als de Ti versie, op een resolutie van 1920x1080 heb je dus een beter presterende kaart voor een kleiner prijsje? Je hebt immers meer CUDA cores aan boord en de geheugenbusbreedte van 192bit lijkt me niet schadelijk op full-HD resolutie tegenover 256bit.

Persoonlijk lijkt de GTX 660 (Non Ti) wel wat, waarschijnlijk wordt het een MSI branding kaart met Twin Frozer IV (of dergelijk) waarmee overclocken goed mogelijk is.
Of je probeert de overige cuda cores in de TI te unlocken. De modders zullen iig wel naar de mogelijkheden gaan kijken verwacht ik.
Lijkt me dat dit niet mogelijk gaat worden.
Voor zover ik nu kan zien, zullen ze ofwel de "uitval" gebruiken van van de GTX670's waarbij toevallig 1 shader unit niet werkt, ofwel zullen ze een shader unit kapotmaken, om dit tegen te gaan. Hoe was het niet tussen de GTX680 en GTX670?
waarom is nvidia zo aan het feesten met de memory bus? ze doen wel 2GB op de kaart maar dan via een of ander truukje met 192bit bus?
Hier staat eigenlijk alles wat je zou willen weten en wat er tussen 256 vs 192 bit bus gebeurd en hoe te berekenen.

Graphics card basics

De rest verklaart zich dan vanzelf , het zal een midden segment vormen die zicht tussen AMD zal positioneren.

De launch prijs zou ca $299 zijn volgens videocardz.com

Even het verschil : 660Ti en de 670.
Bron

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBGrand Theft Auto V

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013