Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 45, views: 13.999 •

Op de Amerikaanse website Newegg verscheen voor korte tijd een GTX 650 Ti van het merk Galaxy. De daarbij vermelde specificaties maakten melding van 768 cuda-cores, aanzienlijk meer dan de eerder gemelde 576 cuda-cores.

De Galaxy GTX 650 Ti GC, een model dat al in de fabriek is overgeklokt, zou 150 dollar moeten gaan kosten in de Verenigde Staten. Daarvoor krijg je een GK106-gpu met 768 cuda-cores die hun werk doen op 966MHz. De boost clock werd niet vermeld. De gpu staat via een 128bit-geheugenbus in verbinding met 1GB gddr5-geheugen, met een kloksnelheid van 5,4GHz.

Eerder werd nog vermeld dat de GTX 650 Ti 576 cuda-cores zou krijgen, aanzienlijk minder dan de GTX 660, die over 960 cuda-cores beschikt. Met een prijs van 150 dollar, wat zich vermoedelijk zal vertalen in 150 euro, zou de GTX 650 Ti tussen AMD's Radeon HD 7770 en HD 7850 invallen. Het gaat wel om een overgeklokt model, dus standaard GTX 650 Ti's kosten waarschijnlijk iets minder.

 GTX 650GTX 650 TiGTX 660
Gpu GK107 GK106 GK106
Cuda-cores 384 768 960
Kloksnelheid 1058MHz 960MHz 980MHz
Turbo-boost - - 1033MHz
Geheugenbus 128bit 128bit 192bit
Kloksnelheid 5000MHz 5400MHz 6000MHz

Reacties (45)

Vraag me af wie op de 650.650ti en 660 zit te wachten.
Afaik is AMD in dit segment gewoon heer en meester van de bang for buck
Dat hangt sterk af van de prijs...
'Bang for buck' neemt prijs al mee in de overweging...
Inderdaad de buck is de prijs;p
Een soort Euroknaller
gtx 660 > hd 7870 in veel spellen ;) en tikkeltje goedkoper
Waar baseer jij dit op?
Waar baseer jij dit op?
Op onzin kijk maar eens in de prijsvergelijker en benchmarks van beide kaarten dan zie je dat het met 2,5% juist andersom is.
Ik dacht dat jij een groene fanboy was Lupp? blijkbaar niet, of je weet niet wat > betekent.
De prijzen van de 1GB 7850's droppen hier wel hard (de 150,- zit er aan te komen) maar je hebt er nog zat van tegen de 200,- aan. In america is er nog steeds een groot gat (in kosten en performance) tussen de hd7770 en de hd7850, die toch voor $100 en $200 gaan. Tom's Hardware had een leuk artikel omdat ze van AMD per ongeluk een enginering sample binnen kregen van een HD7850 met 768 cores i.p.v. 1024 van een normale HD7850. Ook al claimt AMD dat er geen kaart aan komt hier mee, het zou een heel mooi price/performance segmentje kunnen invullen tussen de hd7770 en de hd7850.

Er zit dus gewoon een gat voor het $150 segment.
En als je even kijkt krijg je met deze 650-ti specs minimaal gtx560-ti performance wat toch een hele populaire kaart was. Alleen dan met stukken minder power-draw en een goedkopere introductie prijs.

Het probleem voor nvidia is hoe (zoals altijd) de yields nu zijn. Ze maken de 650-ti door een 'mislukte' 660 gpu. Als de yields ondertussen erg goed zijn (wat ik toch mag hopen) dan moeten ze goed werkende 660 gpu's verkopen als 650-ti gpu's.

Als de yields nog niet Ok zijn, kunnen ze zo van hun 'mislukte' 660 gpu's af en hebben ze een heel mooi price/performance puntje te paken, helemaal met de TDP meegenomen.
Linkje: http://www.tomshardware.c...pitcairn-review,3196.html

Je mag me best quoten hoor :+
De 7850 zit rond de 170 dus ik heb het vermoeden dat de 650 Ti een stuk goedkoper gaat worden (maar ook trager!). Ik zou zeggen rond de 150 maar dat is koffiedik kijken .

AMD heeft eigenlijk een gat, de 7770 staat voor $109 en de 7850 voor $199. Die GTX 650 Ti zou best eens in dat gat kunnen springen.
sdk1985 in 'nieuws: Nvidia werkt aan GTX 650 Ti met prijs van minder dan 200 euro'
(Is natuurlijk een geintje iedereen kan zien dat er een gat van $100 dollar zit)

Yields verhaal moeten we eens over op houden... Komt al jaren bij elk nieuwsbericht over nieuwe kaarten terug terwijl in de financiele werkelijkheid er vaker niet dan wel een relatie is te vinden. Zo had nvidia jaren lang flinke winsten (netto 797 miljoen in 2008, 448 miljoen in 2007, 301 miljoen in 2006) ondanks o.a. grotere chips terwijl tegelijkertijd AMD vrijwel niets verdiende. Even voor de duidelijkheid deze tijd staat voor veel tweakers gelijk aan de "gouden" AMD jaren met o.a. de succesen als de 4870 (2008) en de 5770 (2009). In realiteit heeft AMD het echter nooit kunnen vertalen naar een financieel succes.

Sterker nog, fiancieel gezien was het huilen met de pet op bij de Graphics divisie van AMD:
2009: 35 / 1167
2008 12 / 1165
2007: -39 / 992
2006: -6 / 189

Als we het optellen: netto 8 miljoen (2006 is flauw dus die doet niet mee). Vergelijk dit even met de 1,5 miljard netto winst die Nvidia in 2006 tm 2008 maakte en je snapt meteen waarom argumenteren op basis van yields onzinnig is.

Als je een financiele inschatting wilt maken kijk dan dus even in de jaarverslagen in plaats van naar geruchten mbt (weinig zeggende) yields.

Samenvatting 2011:
AMD: 1565 omzet 51 winst (3,2%, bruto!). nvidia: 3543 omzet 253 winst (7,1% netto). Als we kijken naar Nvidia per divisie: GPU slechts 30 op 2527 (1,2%) PSB divisie 321 op 818 (39%!). Ook bij nvidia ging het bij gpu dus niet zo lekker maar met de quadro's maken ze het meer dan goed.

Het is overigens best spannend wat er nu financieel gaat gebeuren want met deze generatie lijkt het erop dat AMD er een keer voor heeft gekozen echt winst te maken met hun producten (zie introdcutie prijzen 7xxx serie).

Nvidia heeft gelukkig al het rapport voor 2012 online staan. Wat blijkt? Kepler loopt als een trein... 581 netto winst op 3997 omzet. Volgt uit gpu: 528/2542 PSB: 327/864 CPB:-207/591

Nvidia heeft met kepler het operating income van fermi gpu's dus verhoogt van 30 miljoen naar 528 miljoen. Er is dus nog veel ruimte om te spelen met de prijzen! Des te meer aangezien gedurende fiscal year 2012 de kepler producten zijn gelanceerd en er dus nog deels fermi resultaten mee doen.

[Reactie gewijzigd door sdk1985 op 3 oktober 2012 18:51]

je quoten vanaf waar? je had geen reacties in deze post?
Nou daar ben ik het niet mee eens ik heb de laatste tijd alle benchmark's onderhand onder een vergrootglas gelegd. De 7850 komt toch net te kort op 1920x1200 (extreme settings) waar de 660 juist net voldoende power heeft. De 660 kan je ook beter vergelijken met de 7870 en dan maakt de prijs niet eens uit. Daarom wacht ik ook nog even op de 8850 voordat ik overga op aankoop. En voor iemand die op 1680x1050 gamed is de 650TI wellicht voldoende.

[Reactie gewijzigd door et36s op 3 oktober 2012 15:39]

mooi Kaartje.
Zou hem zo in mijn pc zetten,
en de prijs is ook niet overkill :)
Goede prijs/kwaliteit verhouding. Enig minpuntje is de beperkte bandbreedte (128bit ipv 192 bit).
en het povere aantal cuda cores
Ik vind 1 gigabyte geheugen anders ook wel een minpuntje...

Maarja dat is dan weer het lagere segment waar deze kaart in valt.

2 Gigabyte geheugen op een videokaart lijkt al normaal te zijn en ook nodig voor een game als Battlefield 3 op hogere settings.

[Reactie gewijzigd door HugoBoss1985 op 3 oktober 2012 10:48]

Maarja, met deze kaart kun je Battlefield 3 toch al niet op hoge settings draaien en dat is ook de bedoeling. Mensen die dat willen kopen wel een 670 of 680. Verschil moet er zijn.
Dat ben ik niet met je eens, mijn gtx 460 trekt battlefield 3 prima op hogere settings.
Maar de hoeveelheid geheugen zorgt voor schokkerigheid, dus niet zozeer de performance van de kaart.

Om die reden is de 650 ti kaart niet interessant.
voor een HD resolutie van 1080 heb je genoeg aan een 560 ti met minder dan 2 geheugen wel i.c.m. een fatsoenlijke i5 of i7.

2 gb is inderdaad voor reolutie van 2000 nogwat bij 1600 wat geen overbodige luxe. Ik nu draai en een 480 leent zich hier goed voor voor 30-40 fps met behoorlijke settings (i.c.m. 2600k)
Ik had op die resolutie echt niet genoeg aan 1 gb geheugen met bf3... aa kon niet eens aan. |:(
Draai het nu op een HD7950 op 1080p en die propt in sommige maps vrolijk meer dan 2gb van z'n geheugen vol.

Als je de 650ti in SLI wilt gaan draaien zou je kwa rekenkracht denk ik wel hoge settings aankunnen maar kwa geheugen kom je dan waarschijnlijk te kort.

Ik denk dat die 50 euro erbij voor de 660ti een betere keuze is, of een
HD7850 voor ~185.
Ik heb het bijgehouden maar me GTX670FTW gebruikt rond de 1,5GB in BF3 op ultra settings in 1080p.
Mijn MSI GTX660 (Niet de TI) draait anders prima BF3 op Ultra settings, dus het is echt niet nodig om direct naar de 670 te gaan.
je zal dat geheugen gewoon nodig hebben op hogere resolutie ;)
Ik weet dat het geen rocket-science is, maar in deze review staat de HD6950 2gb versie op precies dezelfde plek als de HD6950 1gb versie, 1920x1080 ultra Battlefield 3.

http://www.bit-tech.net/h...ld-3-technical-analysis/4
is het echt zo dat je tegenwoordig al 2 GB nodig hebt?

ik heb een 6950 met 1GB en speel op standaard Full HD... maar tot nu toe ben ik geen games tegen gekomen waar ik de instellingen drastisch naar beneden moest zetten.

Moet zeggen.. heb nog geen Battlefield 3 gespeeld
kleine geheugenbus. Bottleneck!
En niet zo'n klein beetje ook. Met deze getallen heeft de 650Ti maar 86,4 GB/s aan geheugen-bandbreedte vs. 144GB/s van de 660. Dat is 67% meer!!!

86GB/s is ongeveer hetzelfde als wat de oude GTX460-768MB had.
650ti is echt absurd langzaam, het is 2012.. niet 2009 :S Ik snap Nvidia niet meer, en AMD overigens ook niet. Gebeurd niet echt veel meer op hardware gebied laatste tijden.
- weinig geheugen
- trieste bandwith
- extreem hoge prijs, je krijgt 2009 prestaties voor de nieuwprijs van 2009.. :S

[Reactie gewijzigd door A87 op 3 oktober 2012 12:22]

Hadden ze in 2009 ZeroCore power dan?
Games worden nog steeds gehinderd door de niksbox360 en pixelstation 3. daardoor worden er geen next-gen engines gebruikt, of weinig in ieder geval, waardoor er geen behoefte is aan grote verbeteringen in performance en technologie.
Onzin, nVidia en AMD zullen hun kaarten beter maken ongeacht de games. Waar de fabrikanten nu meer op focussen is het energieverbruik. Dit is de afgelopen jaren flink teruggedraaid.
Ik denk echter wel dat als de nieuwe consoles eraan komen, waardoor de games dus veel betere graphics krijgen (en omdat developers zich focussen op consoles zullen ook dan pas de PC games betere graphics krijgen), dit de fabrikanten wel een beetje wakker zal schudden. Er zal niet opeens een explosie zijn aan geweldige graphics, maar er zal wel iets gebeuren.
Ik denk dat de waarheid in het midden ligt ;)
Nou met veel games hebben veel midend kaarten het toch wel moeilijk.
ik snap dit gezeur niet?

Je praat over een freaking _650_ mensen. Dat ding hoeft toch ook niet snel te zijn?
Als hij qua rekenkracht boven een GTX560-ti uitkomt maar op brandbreedte moet inleveren is het toch al een gigantische sprong voorwaarts?

Lijkt een beetje op een user-comment wat iemand tikte bij een bericht over de introductie van de nieuwe 'low-end' kaarten een poosje terug. Dan ging het over een HD6450 en dan tikte iemand "langzame k*tkaart, kan je geen spelletje op spelen". Hoe kortzichtig ben je dan?!
Maar het is toch zonde dat potentie van een GPU niet gebruikt wordt door een 6 euro te besparen door minder geheugen en bandbreedte te implementeren?
de breedte van de geheugen bus is ongeveer de belangrijkste kosten post naast de kosten van de gpu :).

Daarom is GDDR5 er ook juist gekomen. De ATI HD2900xt had een 512bit bus, de 8800GTX had een 384bit bus.

Ik geloof dat nvidia met de GTX280 / 260 ook weer omhoog gegaan was dus een 384bit bus of zelfs 512bit. Dat maakte die kaarten erg duur.

Bus naar beneden, geheugen-snelheid omhoog -> zelfde bandbreedte maar goedkopere kaartjes. Het suc6 van de ATI HD4xxx serie.


Anyway, dit zijn kaarten die bedoeld zijn voor het midden segment, rond de 150,- euro. Daar praat je misschien nog net over fullhd, maar ik denk dat met alle TXAA en FXAA technieken tegenwoordig MSAA ook minder gaat mee spelen (IN DIT SEGMENT). Oftewel, bandbreedte zat waarvoor hij bedoeld is. Hij heeft misschien zelfs een beetje teveel shader-performance voor het gebied waar hij in komt, wat er alleen maar voor zorgt dat hij daar hopelijk de benchmarks gaat winnen. Lijkt mij een goede gedachte van nvidia.

De gok is alleen dat AMD bereid is geld in televeren, of er een kaart voor te zetten die duurder is om te produceren. De hok is dat ze een slimmed-down HD7850 1GB gaan inzitten, en die heeft dan dezelfde shader-performance maar wel de bandbreedte van een HD7850. Dan zijn ze wel weer de benchmark-winnaar in het $150 segment, maar nvidia heeft hoger rendement op verkochte kaartjes. Ik denk dat ze alle twee dan blij zijn.
ja, laten we meer geheugen en bandbreedte implementeren voor een tientje. laten we er dan ook maar gelijk 29% extra cudacores bij doen, en turbo boost kost ook niet zo veel en de kloksnelheid van het geheugen ook niet... oh wacht, wat word dan het verschil tussen 650 ti en 660? :+
650ti is echt absurd langzaam, het is 2012.. niet 2009 Ik snap Nvidia niet meer, en AMD overigens ook nie
...
-extreem hoge prijs, je krijgt 2009 prestaties voor de nieuwprijs van 2009..
In 2009 had je de GTS 250 die vergelijkbaar was gepositioneerd:
GeForce GTS 250 1075

Deze is bijna 2x zo snel:
GeForce GTX 650 1733

Overtrokken reactie dus...

Toen de GTX260 192sp (1705 score) eruit ging was deze verkrijgbaar voor +-140 euro maar de introductieprijs van deze kaart lag gewoon op 220. Appels met peren vergelijken dus aangezien het hier over een nog te lanceren kaart gaat.

[Reactie gewijzigd door sdk1985 op 3 oktober 2012 18:56]

Als er een low profile versie van komt koop ik er een.
Zit nu met een te groote 7850 low profile die niet in me kast past omdat ie te lang is.
Casemodden, hoe lang is ie anders lust mijn HTPC hem wel als je hem gaat vervangen ;)
Als hij zich positief verhoudt t.o.v. een 7750 en ook in low profile/single slot beschikbaar kan komen zie ik hem wel zitten. (dat telt op zich voor alles boven een 7750)

De 7850 van afox is me dan nog iets te duur om hier aan te schaffen.
Geen SLi ondersteuning? Laat dan maar lekker liggen.

De GTX 660 is de "minste" kaart met SLi en kost rond de 200 euro.

Gemiste kans voor nVidia, ik had graag een 650Ti in SLi aan het werk gezien...
Veel CUDA-cores wel... Ik heb net een GTX650 2GB DDR5 gekocht, die heeft er maar 384.

Ik ga de kaart inzetten voor videobewerking (gpu-versnelling) en de keuze voor de GTX650 is vooral gebaseerd op prijs en verbruik/warmteontwikkeling. Mijn pc is zo goed als stil, een energieslurpende kaart met veel herrie komt er niet in (en ik heb geen zin om ook een nieuwe voeding te kopen).

Ben benieuwd naar de TDP van deze kaart. Zou anders voor mijn doeleinden wel geschikt lijken.

Op dit item kan niet meer gereageerd worden.



Populair: Gamescom 2014 Gamecontrollers Game-accessoires Smartphones Sony Microsoft Games Wetenschap Besturingssystemen Consoles

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013