Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 51, views: 13.207 •

Na Nvidia's introductie van de GTX 650 Ti hebben verschillende fabrikanten hun versie van de videokaart uitgebracht. De kloksnelheden variŽren licht en veel fabrikanten vervingen Nvidia's koeler voor een exemplaar uit de eigen stal.

De GTX 650 Ti is Nvidia's goedkoopste videokaart waarmee ook daadwerkelijk gegamed kan worden. De videokaart maakt gebruik van dezelfde chip als de GTX 660 en heeft dan ook meer weg van die videokaart dan van de veel langzamere GTX 650. De videokaart heeft 768 cuda-cores, met een kloksnelheid van 925MHz. Een boost clock, die de gpu automatisch overklokt, ontbreekt. Verder beschikt de videokaart over 1GB geheugen met een snelheid van 5400MHz, dat via een 128bit-geheugenbus in verbinding staat met de gpu. De videokaart zou ongeveer 110W aan energie verbruiken.

Asus GTX 650 Ti Gigabyte GTX 650 Ti MSI GTX 650 Ti

Fabrikanten zoals Gigabyte, Asus en MSI voorzagen de videokaart van een andere koeler. Zo koos Asus voor zijn DirectCU II-koeler, met twee fans, die in onze test erg stil bleek. Ook Gigabyte plaatste op een van zijn GTX 650 Ti's een koeler met twee fans, terwijl MSI het iets voorzichtiger aanpakte, met zijn Cyclone-koeler met een enkele fan. Asus en Gigabyte bieden beide modellen aan met een kloksnelheid van 1033MHz, terwijl MSI's overgeklokte variant een kloksnelheid heeft van 993MHz.

Daarnaast kwamen ook Zotac, Club3D, PNY, Galaxy, EVGA, Sparkle en Point of View met GTX 650 Ti-modellen. Vooralsnog verschillen deze videokaarten weinig, met soms licht uiteenlopende kloksnelheden of een marginaal andere koeler.

Reacties (51)

Ben wel benieuwd naar de prestatiewinst van het extra geheugen op de gigabyte kaart. Ik denk dat het zal meevallen.

edit: 2GB is op HWI wel getest, verschillen erg klein.

[Reactie gewijzigd door cantate op 10 oktober 2012 13:35]

Helaas zijn ze de SLI connector vergeten ;)

EDIT: Oh! Dat is gemeen, ik had niet op tijd op F5 gedrukt :(

[Reactie gewijzigd door Toettoetdaan op 10 oktober 2012 11:14]

ja, daar was ik zelf ook al achter gekomen :P
Niet direct nieuws te noemen, gebeurt wel met elke kaart..
een uitgebreide review waarbij ze deze modellen vergelijken is interessanter ^.^

[Reactie gewijzigd door SmokingCrop op 10 oktober 2012 11:07]

waarmee ook daadwerkelijk gegamed kan worden.
Dit vind ik nogal een relatief begrip.
Inderdaad. Ik denk dat de nieuwsposter geprobeerd heeft aan te geven dat er een dusdanis gat zit tussen de GTX650 en GTX650 TI dat je als echte gamer niet zo snel een GTX650 zou kopen, maar om nou te zeggen dat je niet kan gamen met een GTX650, dat is echt subjectief.

Je kunt op een GTX650 prima casual en wat oudere games spelen, en als je niet te veeleisend bent kun je moderne spellen ook nog wel spelen. Of 't aan te raden is, is een tweede punt, maar niet iedereen heeft geld op zijn rug groeien...

Edit: Het Tweakers artikel suggereert dat de GTX650 TI veel dichter bij de performance van een GTX660 ligt dan bij de GTX650. Toch lijken reviews van de GTX650 TI anders uit te wijzen. Zo scoren de kaarten volgens Guru3d in Farcry 2 als volgt: de GTX650 TI haalt 61 fps, waar de GTX660 er 99 scoort en de reguliere GTX 650 een knappe 50 fps. De GTX650 zit daarbij erg dicht tegen de performance van zijn (qua hardware niet zo verwante) broer de GTX650 TI aan:

http://www.guru3d.com/art..._review_reference,10.html

Andere games laten een vergelijkbaar beeld zien, 3d Mark en met name Vantage lijkt iets beter overweg te kunnen met de GTX650 TI, maar zet em nog steeds dichterbij de GTX650 (30% verschil) dan de GTX660 (40% verschil).

Erg vreemd is het ook niet, gezien de naamgeving. Architectuur zegt dus niet alles, je hebt ook te maken met bottlenecks van bv geheugen. Ook kloksnelheden en aantal cuda cores zijn allemaal belangrijk voor de uiteindelijke real life performance.

[Reactie gewijzigd door A Lurker op 10 oktober 2012 11:57]

Klopt, daarnaast heeft de GTX 650 Ti slechts een 128bit-geheugenbus, dus vloeiend gamen op een redelijke gangbare resolutie als Full HD lijkt me niet haalbaar.
De GTX 660 heeft 192-bit en 2GB (ipv 1GB) dus heb je al een stuk betere performance.
De gewenste geheugenbandbreedte komt voort uit de (snelheid) van de core, hoe sneller deze is, hoe meer geheugenbandbreedte er gewenst is.

Die geheugenbandbreedte wordt berekend als aantal bits * frequentie, en als de frequentie hoog genoeg is kies je de bus gewoon zodanig dat je geheugenbandbreedte hoog genoeg is.

Sinds de introductie van GDDR5 lijken de geheugenbussen wat karig in het aantal bits, maar als je bedenkt dat de GTX680 ook maar 256 bits tot zijn beschikking heeft waar de high end vroeger 512 bit was, relativeert dat weer. Puur op het aantal bits van de controller kun je weinig conclusies trekken over de performance.
Vergeet de cpu niet. Beide sites gebruiken zwaar overklokte, peperdure sixcores 8)7

Anand trouwens ook, en die zet de beste scores neer:
http://www.anandtech.com/...force-gtx-650-ti-review/8
Waar halen zei die extra 4 fps vandaan bij BF3 ? Anand rulez _/-\o_

Met een core i3 3450 haal je "slechts" P4689 3Dmark11 punten, waar tweakers, dankzei de overklokte sixcore er P4815 neerzet. http://www.pcgameshardwar...unkte-3D-Mark-11-1028410/

Volgens mij willen de meeste mensen weten wat zo''n videokaart kan met hun cpu, in de meeste gevallen een mainstream cpu. Daarom heb ik er moeite mee. In het beste geval zet je een paar cijfers er naast, van zo'n high end cpu. De basis zou echter juist een mainstream cpu moeten zijn, daar doe je veel meer mensen een plezier mee.

[Reactie gewijzigd door Madrox op 10 oktober 2012 13:39]

Er zijn meerdere redenen waarom er met een dikke CPU getest wordt:

- Elke videokaart heeft een ander punt waarop de CPU bottleneckt voor een toepassing, dus om een eerlijk overzicht te geven maak je de CPU zo snel mogelijk

- De meeste games hebben een vrij absolute plafond qua CPU power, alles sneller dan dat geeft nauwelijks of helelaam niet meer FPS. 3dmark is de uitzondering, maar is dan ook meer een systeemtest dan een componentbenchmark,

- Door deze manier van testen weet je wat de rauwe kracht van een videokaart is, en de relatieve performance met andere videokaarten.

Dat je in de praktijk dan niet weet welke CPU je minimaal nodig hebt voor je videokaart is op zich logisch, daarvoor moet je naar CPU benchmarks kijken en een educated guess doen (alle combinaties CPU en GPU uittesten is helaas niet te doen en zou maanden duren).

[Reactie gewijzigd door A Lurker op 10 oktober 2012 15:44]

Anand trouwens ook, en die zet de beste scores neer:
http://www.anandtech.com/...force-gtx-650-ti-review/8
Waar halen zei die extra 4 fps vandaan bij BF3 ? Anand rulez
Battlefield 3 heeft geen ingebouwde benchmark. Iedereen test het dus anders.
Vergeet de cpu niet. Beide sites gebruiken zwaar overklokte, peperdure sixcores
Irrelevant, als je gpu de bottleneck is ga je gewoon geen hogere framerate halen. Of ik mijn 2500k nu op stock (3.3) laat draaien of op 4.5, voor mijn framerate in battlefield 3 heeft het geen invloed aangezien mijn gtx 460 (@900mhz) toch altijd 99% load staat en de cpu nooit maximaal belast wordt (ook niet op 1 core).

Redenen voor het testen met dure cpu zijn bij de review comments al uitvoering behandeld.

TechPowerUp heeft overigens over het algemeen de meest uitgebreide reviews en gebruiken een overgeclockte 3770K. Misschien is dat wat voor je?
http://www.techpowerup.co...0_Ti_Power_Edition/5.html

[Reactie gewijzigd door sdk1985 op 10 oktober 2012 21:48]

Met een mainstream cpu weet je ook waar en wanneer er gpu bottlenecks optreden, daar heb je geen overklokte sixcore voor nodig.

De gpu settings zet je dan terug, en ala, de rauwe gpu kracht komt toch naar boven.
Maar goed, ik weet het; ik ben een roepende in de woestijn.

Het is helemaal niet logisch, waarom moeten we de rauwe , uiterste performance meten met peperdure systemen ? Weet je wat, gooi er nog wat stikstof overheen, hopla, 6 GHz die CPU mensen, we willen die rauwe gpu performance zien! Waar we niks aan hebben.

Echt, ik snap die logica niet. Wat je meet is relatieve performance waar bijna niemand wat aan heeft; je zegt het zelf notabene al in je laatste alinea!

- De meeste games hebben een vrij absolute plafond qua CPU power, alles sneller dan dat geeft nauwelijks of helelaam niet meer FPS
PRecies. Precies de reden waarom zo'n dure setup totaal overbodig is. Je zegt het zelf al.
Met een mainstream cpu weet je ook waar en wanneer er gpu bottlenecks optreden, daar heb je geen overklokte sixcore voor nodig.

Je lijkt in de veronderstelling dat een GPU bottleneck niet afhangt van de CPU. Onjuist! Door de snelheid van de CPU te veranderen verschuift de bottleneck van CPU naar GPU of andersom, en de mate en de plek waar dit gebeurt is ook nog eens afhankelijk van de game/toepassing. Dan moet je dus ook meteen alle mogelijkheden testen. Dus voor elke GPU laten we zeggen 10 games en 20 CPUs testen, dat zijn 200 tests. En natuurlijk willen we de GPU ook even overklokken in de review, dus dat zijn dan nog eens 200 tests.

De gpu settings zet je dan terug, en ala, de rauwe gpu kracht komt toch naar boven.
Maar goed, ik weet het; ik ben een roepende in de woestijn.


Je bedoelt het spel minder zwaar zetten? En dan interessante features als Ambient Occlusion, Hardware Tesselation of Anti Aliasing niet testen? Dat is echt de grootste onzin. Dan doe je de kaarten die daar erg snel in zijn tekort. Je beoordeelt de performance van een auto toch ook niet op alleen zijn 0-100 tijd?

Het is helemaal niet logisch, waarom moeten we de rauwe , uiterste performance meten met peperdure systemen ? Weet je wat, gooi er nog wat stikstof overheen, hopla, 6 GHz die CPU mensen, we willen die rauwe gpu performance zien! Waar we niks aan hebben.

Echt, ik snap die logica niet. Wat je meet is relatieve performance waar bijna niemand wat aan heeft; je zegt het zelf notabene al in je laatste alinea!


Je hebt zelf al de conclusie getrokken dat zo'n peperdure CPU overbodig is. Nou, bespaar lekker op je CPU zou ik zeggen. Probleem opgelost.

Ik vrees dat je het doel van een review verkeerd ziet. Het is absoluut niet om jou inzicht te geven in of de videokaart goed bij JOUW (of een ander specifiek) cpu en systeem zou passen. Een review geeft inzicht in of de videokaart goed is ONAFHANKELIJK van de andere hardware, en dat doe je toch echt op de doorgaans gebruikte manier, je zorgt namelijk dat de bottleneck zo veel mogelijk bij de GPU ligt. Het verbaast me dat je het nog niet over het gebruikte geheugen gehad hebt, dat is vaak ook verre van standaard.

Maar ja, zo gaat het in wetenschappelijk onderzoek ook. Daar zorgen ze dat alle omgevingsvariabelen die er toe doen worden geelimineerd of zo gekozen dat hun invloed wegvalt of geminimaliseerd worden. Vervolgens varieer je datgene wat je wil testen: in dit geval de videokaart. Pas dan kun je conclusies trekken, en niet als je een budget CPU gebruikt die mogelijk te langzaam is voor sommige videokaarten in sommige toepassingen, want wat is dan precies de reden dat videokaart x in game y maar 10 fps scoort? Dan weet je helemaal niks, want het kan alsnog aan de cpu liggen. Of de game is technisch gewoon slecht, maar daarom test je ook meerdere games/toepassingen.

Je bent geen beta of wel?

[Reactie gewijzigd door A Lurker op 11 oktober 2012 12:12]

Inderdaad, want ik heb liever een GTX670 in SLI: http://tweakers.net/gallery/sys/155578
Gigabyte edition, here I come ! :D
en EVGA heeft een 650 Ti SSC uitgebracht

http://eu.evga.com/articles/00703/#3652
Die EVGA ziet er gewoon bijna schattig uit!

Ben erg benieuwd naar de prestaties tussen de verschillende modellen.

Edit: de Sparkle is net zo schattig ;)

[Reactie gewijzigd door TimFelten op 10 oktober 2012 11:19]

Ben ik nu de enige die van mening is dat, als zoveel fabrikanten hun eigen versies gaan maken, je op 't gegeven moment helemaal scheel wordt van alle mogelijkheden? Er is natuurlijk op zich niks mis mee, en zal best goed zijn voor de concurrentie, maar damn, Zotac, Club3D, PNY, Galaxy, EVGA, Sparkle, Point of View, Gigabyte, Asus, MSI en Nivida zelf. Dat zijn al 11 modellen van dezelfde 'basis'kaart :S
Veel merken gebruiken de standaard koeler en deze kaarten worden vaak niet overgeklokt, het enige verschil is het stickertje. Er zijn natuurlijk altijd uitzonderingen als MSI, Gigabyte en Asus.
Zou de 2GB versie echt heel veel beter zijn? is maar §20 meer?
Meestal scheelt het alleen op hoge resoluties (>1920x1080)
Maar daar heeft deze kaart te weinig power voor, mocht je op hoge resoluties (>FHD) willen gamen zal je toch wat beters moeten nemen.
1gb is zelfs beter dan 2gb ingames, tenzij je meerdere monitoren gebruikt
Heb nu een Gforce 8800GT uit 2008. Ik heb geen idee, hoe sterk deze kaart verouderd is tv hedendaagse kaarten. Heeft iemand enig idee hoe mijn huidige kaart zich verhoud tot de GTX 650TI??
simpel gezegd, no competition
Puur op het cijferwerk, aangezien je volgens mij geen reviews gaat vinden die beiden nog met elkaar vergelijken:

De GTX 650 ti heeft 50% meer geheugen bandwidth, en kan 3 tot 4 keer meer FLOPS aan dan jouw 8800GT. Het is een nieuwe, betere architectuur, die bovendien nog eens op een hogere kloksnelheid draait. Alles bij elkaar is het wel veilig om te zeggen dat het een grote verbetering is.

Leuk budgetkaartje, wel een beetje zonde dat ze hem tussen 2 AMD kaarten parkeren, ipv rechtstreeks de concurrentie aan te gaan (wel slim gezien natuurlijk).
Zie mijn review gtx 660 vs 9800 gt (rebranded GPU, net als in deze serie gedaan is met de mobiele chips)
Het verschil kan oplopen tot een factor 6.
Zo wie zo kun je met de 650ti DX11 games gaan draaien terwijl de 8800GT een DX10 kaartje is.
ik ging van de 8800GTX naar de 280GTX en nu zit ik over deze 650TI 2GB te denken...
Laat je niet van de wijs brengen door de hoeveelheid geheugen. Dit is een moderne middensegmentkaart die je vergelijkt met een highendkaart van een aantal generaties terug.

Na een snelle blik op wat benchmarks kan ik concluderen dat ik het geen noemenswaardige upgrade vind, en er is ook geen garantie dat ie in elke game sneller is. Dan zou ik eerder voor de GTX660 gaan, of nog een generatie wachten.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013