Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 133, views: 184.231 •

Conclusie

Nvidia's claim dat de GTX 650 Ti sneller is dan de HD 7770, is niet gebaseerd op gebakken lucht. De GTX 650 Ti verslaat de HD 7770 in bijna alle benchmarks, op Metro 2033 na. De GTX 650 Ti is echter langzamer dan een HD 7850 2GB, maar ook dat had Nvidia voorzien. Een standaard-GTX 650 Ti moet namelijk rond de 130 euro gaan kosten, en dat is precies tussen een HD 7770 en een HD 7850 in. Daarmee verwerft de GTX 650 Ti zijn eigen, welverdiende plekje in de videokaartmarkt.

Iedereen kan nu afhankelijk van zijn budget een videokaart uitkiezen. De HD 7770 biedt met zijn prijs van iets meer dan 100 euro veel bang for the buck, terwijl overgeklokte varianten waarschijnlijk al heel dicht in de buurt komen van een GTX 650 Ti. En wie geen GTX 650 Ti wil kopen, kan altijd nog iets meer uitgeven aan een HD 7850 2GB, die al voor 175 euro over de toonbank gaat.

Daarbovenop laat Asus zien dat zijn DirectCU II-koeler nog steeds goed met de tijd meekan. De koeler is ongelofelijk stil, ook als de videokaart continu zwaar wordt belast. De door ons geteste Asus GTX 650 Ti DirectCU II zou ongeveer 140 euro moeten gaan kosten, en dat lijkt ons een goede prijs.

Tweakers zegt: goed!
Warmte en geluid Score: 5
Featureset Score: 4
Prestaties Score: 4


Reacties (133)

Reactiefilter:-11330133+165+29+31
Ik ga altijd meteen naar de conclusie, jammer dat ik geen plaatje zie welke waardering dit product heeft gekregen.

Ook nog een foutje van T-Net, de beschrijving van het product is:
"Asus GTX 650 Ti DirectCU II TOP // OM 15:00 PAS DOORVOEREN \\"

Maar ik ben tot nu toe nog tevreden met m'n 6870
Er staat rechts op de webpagina, onder het kopje "reviews I/O", de link "feedback". Reacties voor typfoutjes etc. mogen daar, als ik me niet vergis.
Ik denk dat ze de slecht/goed rating pas neerzetten in een onderlinge vergelijking van 650Ti's of een andere videokaart round-up. Als dat niet zo is vind ik het ook wel vreemd dat de beoordeling weggelaten wordt.
Ook jammer dat er alleen getest lijkt te zijn op de kloksnelheid van deze kaart ipv de standaard snelheid voor de GTX 650 TI... Benchmarks zijn nu beetje misleidend, omdat er niet bij vermeld staat dat dit een overklokte kaart is en dus niet voor iedere 650TI zal gelden... (ruim 10% overklok is best wat... en de 7770 komt zonder overklok waarschijnlijk toch dicht in de buurt...)
ja, dat is wel misleidend. Zo lijkt ie beter dan die is.
zelf heb ik een hd6850; als ik de test mag geloven kan deze nog goed mee met de rest...

natuurlijk is het geen superkaart meer want een videokaart wordt 3x zo snel bejaard dan een pc, maar hij blijft wel sneller dan de gewone gtx650. de TI moet ik wel voorlaten in een aantal gevallen...

ik ga er zeker niet om klagen hoor; over een paar maanden is de gtx650 ti namelijk ook weer voorbijgestoken door een andere 'bangforbuck' kaart ... en zo blijven we natuurlijk bezig...

zelf koop ik meestal om de drie generaties een nieuwe kaart die in de bovenkant van de markt ligt maar ook geen high-end van 400¤ want dat doe ik niet meer... (dat deed ik vroeger wel, maar is gewoon té kostelijk; da's als ijsblokjes kopen en dan in een pan op heet vuur gooien...)
Ik vind het toch nog altijd gek om zo'n tussenmodel uit te brengen. Ik heb dan het gevoel dat ik al iets verouderds koop, omdat ik voor 50 euro meer eigenlijk een betere kaart kan kopen.

Ik denk dat de ATI kaart ook nog eens in prijs zal dalen om deze kaart helemaal overbodig te maken....

[Reactie gewijzigd door Devroet op 10 oktober 2012 12:20]

Hangt natuurlijk af van je budget, al ben ik het met je eens dat je voor 50 euro meer een betere kaart hebt.
Het is niet alleen 50 Euro meer maar ook bijna 50WATT meer. :)
Is het niet zo dat je vrijwel altijd 50 euro meer kan uitgeven voor een betere kaart dan degene die je wilde kiezen of nu hebt?

Zo is de markt nu eenmaal...
Ach je kan altijd wel meer uitgeven om iets snellers te hebben. Met dit kaartje kan je de komende tijd een hoop games leuk spelen, prima toch voor mensen die met een budget van zo'n 130/140 een videokaart willen kopen?

Als je een iets lager budget hebt koop je een iets langzamere, en is je budget hoger een iets snellere. Voor elk wat wils ;)
Daar zijn vlak voor deze launch al prijsdalingen van geweest omdat deze kaart er aan kwam, ik verwacht niet dat hij verder zal zakken want die kaarten zijn ook duurder om te maken.
Voor 50 euro meer..... ja, als je die hebt. Voor sommige mensen is 140euro al veel, laat staan 50 euro meer.
Op deze manier hebben mensen meer keuze. Ik vindt het een goede zaak.
dit lijkt mij een ideale kaart voor de meer casual gamer
ook de geluidsproductie ziet er schitterend uit!
misschien zie jij dit anders, maar gamen met een stofzuiger of de achtergrond is niets voor mij
Ter info: dure kaarten zijn niet persé stofzuigers. Zelf heb ik een GTX670 van asus, geen goedkope jongen, maar wel erg stil :) die DirectCU2 koeling werkt echt goed!
Heb een GTX680 reference gehad en die was gewoon stil hoor, dat was zeker geen stofzuiger
Inderdaad, ik speel zo af een toe een game. Een redelijke kaart voor een leuke prijs. 100-150 euro is eigenlijk altijd zo'n beetje het budget wat ik aan een videokaart uit wil geven. Meer heb ik er niet voor over.
Lekker stil kaartje vergeleken met de concurrentie, wat dat betreft heeft Asus wel een streepje voor. De prestaties zijn stukken beter als de GTX 650, maar het verbruik is ook dubbel zo hoog.
Wel geweldig dat het tegenwoordig mogelijk is om met een "budgetkaart" (in mijn ogen is 140 euro voor een gaming videokaart toch best wel budget) de nieuwste games op FullHD resoluties te spelen! Misschien toch maar weer eens tijd voor een game pctje naast mijn Macbook (vind het zo jammer dat de Xbox versie van Battlefield 3 maar 24 spelers ondersteunt en de PC versie 64 spelers).
Een silverstone Sugu05 (300watt versie) met een 'simpele' core i3 en deze kaart er in en het staat niet verkeerd naast je xbox of naast je TV hoor :). Krijg je toch erg veel pc voor (pc standaarden) weinig geld.
Hangt af van wat je geweldig vindt. Ik persoonlijk vind het jammer dat je tegenwoordig alles met budgetkaarten kan spelen. Wil gewoon zeggen dat we stilstaan. Het is echt wachten op de Next-gen consoles, zelfs voor PC gamers. Een eerder spijtige zaak.
Euhm..??? Er staat helemaal niets stil. Jij hebt blijkbaar nooit budget kaart en high-end kaart direct met elkaar vergeleken.

Je kon altijd al met budget kaarten spelen. Het zag en ziet er alleen veel minder goed uit.

Vroeger zag je het vooral in de frame-rate.Tegenwoordig heb je alleen veel meer opties die je aan/uit kunt schakelen. Op de highend kaarten kun je de mooiste textures krijgen en ontzettend ver kijken met geweldige licht / schaduw / special effecten. Op een budget kaart moet je al deze opties uitzeten (of minder) om een beetje framerate te krijgen. Je kunt dus wel spelen, maar natuurlijk heb je veel minder mooi beeld.

Fabrikanten willen aan zoveel mensen spellen verkopen, dus zorgen ze dat je ook op een goedkoper systeem de mogelijkheid hebt om te spelen. Maar het ziet er dan niet zo mooi uit als op de high-end kaarten.

Ik speel WoW zowel op een Windows machine met een snelle nvidia GTX670 als op een Mac-mini met een toch wat tragere AMD Radeon HD 6630M(obiel). Op de Nvidia kan ik alle opties op Ultra zetten en haal ik meestal 100+fps. op de mobiele AMD zet ik alles op mid en ben ik blij als ik 40fps haal.

Ja op beide speelbaar, maar toch een heel andere ervaring.
Je kon vroeger ook al een hoop aan en uit zetten, dat is niet iets van de laatste twee jaar. Speel alles nog met een HD5750 en ja, met veel spellen van nu kan ik geen AA4/AA8 draaien bijv. Lig ik daar wakker van? Nee, daar ik me amper stoor aan het "trapeze effect".

Le Mastre'' , er is niks veranderd; vroeger kon je ook alles met een "budget" kaart spelen. Btw, dit hikt meer tegen mainstream aan. Budget kaarten zitten op/onder de 100 euro.

Wat noem je btw vooruitgang? Renderen op 4K heeft weinig zin, als iederen op 1920x1200 en lager speelt. Dan zit zo'n supergame onnodig pisels te bewerken.


ps: Hieronder, Kijk naar BF3 hier, 4 kaarten zitten dik onder de 30 fps. Dat is niet redelijk, dat is gewoon te traag. Snap dan ook niet waarom ze niet een tandje terug gingen, zoals bij een ander spel wel gedaan is.

Vroeger kan je ook best aardig mooi gamen, grootste dipper is nog altijd AA.

[Reactie gewijzigd door Madrox op 9 oktober 2012 22:06]

Dat lijkt nu dus te veranderen. Alle games in deze test staan op high of ultra, en geven met dit kaartje nog redelijke framerates. Je levert niet veel meer in tov de dure kaarten, lijkt het.
inderdaad, lijkt het..

30 fps GEMIDDELD (dus ferme fps dips ;)) vs altijd 60+ fps vind ik toch een serieus verschil..
Nee, dat klopt niet. http://www.guru3d.com/art..._review_reference,16.html
22 fps gemiddeld is gewoon te zwak. T.net haalt 27.5 gemiddeld, wat denk ik vooral met de cpu/chipset te maken heeft denk ik, anders kan ik die 5.5fps verschil niet verklaren. (guru3d gebruikt een X58 chipset met een i7 965)

Je ziet duidelijk dat voor fatsoenlijke fps je toch bij de 200 euro kaarten uitkomt.

Bovendien bewijst jouw antwoord dat benchmarks met highend cpu's, zwaar overklokt een verkleurd beeld geven. Daarom hoop ik dat T.net zich bezint op de test en meer gangbare cpu''s gebruikt, met o.a. stock clocks.

Net een 3Dmark score van ene i5 3450 gezien icm met deze GTX560 ti, die scoort pakweg 8% langzamer dan de t.net sixcore combo.

[Reactie gewijzigd door Madrox op 10 oktober 2012 13:46]

Het doel van een benchmark systeem dat GPU test is toch dat de GPU de bottleneck is, en de rest vh systeem de boel niet in de weg zit.

Volgens mij is een benchmark altijd nog iets anders als een goede indicatie van de door jouw PC haalbare framerate. Iedereen heeft toch een eigen config, wat is het nut van het creeeren van andere bottlenecks door stock te gaan benchmarken??

Het vernietigt het nut van een GPU benchmark ...
Ik kan met een GTX 550 TI alles op aan en high zetten, en dan heb ik nog steeds 80 fps in Minecraft Full HD 1080P :+
Wat ik een beetje mis bij de pagina over de geluidsmetingen is de temperatuur die de GPU onder load heeft. Nu wordt enkel de geluidsproductie bij het standaard fanspeed-profiel gemeten, maar het is goed mogelijk dat de geteste kaart veel conservatiever is met de fanspeed omhoog gooien dan de kaarten waarmee wordt vergeleken. Terwijl je probeert te meten hoe effectief de koeling is, worden de meetwaardes verstoord door het meegeleverde profiel van de fanspeed-regeling. Gezien vrijwel alle meegeleverde software de mogelijkheid biedt om aan de fanspeed-regeling te sleutelen, kun je zo een heel spectrum aan mogelijke geluidsniveaus produceren met een enkele kaart.

Een betere test, lijkt mij, is om een doel-temperatuur te kiezen en de fanspeed handmatig in te stellen zodat deze temperatuur onder load zo dicht mogelijk benadert wordt en dan geluidsmetingen te doen. Eventueel kun je dit voor meerdere temperaturen doen, om te zien of sommige coolers efficienter zijn op laag danwel hoog vermogen.
Dan moeten de andere fabrikanten ook maar eens aan de bak met fanprofielen. Feit is gewoon dat "out of the box" de ASUS kaart enorm stil is.

Als sites en een temp meting publiceren en een geluidsmeting, kun je ook zelf kijken of er nog wat ruimte is.
Je moet ook oppassen met geluidsmetingen op verschillende sites. Ieder heeft zijn eigen methode. Je kunt ze niet onderling vergelijken.
Er is een site die zelfs op 10cm afstand meet. Wie zit nu zo dicht met zijn oor op een grafische kaart?

Ik kan ook bevestigen dat een Asus directCU2 kaart gewoon erg stil is. Ik zat op mijn GTX670 ook te spelen met fan speeds en dergelijke. Allemaal geknoei in de marge. Staat nu op standaard settings. Werkt gewoon stil en goed.
Vriendelijk verzoek om de Battlefield 3 benchmark aan te passen. Op dit moment hebben 5 van de 7 kaarten een niet speelbare resolutie (<40 fps).

De "buren" hebben een medium test waarbij 61,1 fps wordt behaald. Zeker voor dit segment is dat belangrijke info. Je weet dan namelijk dat battlefield 3 goed speelbaar is, mits op lagere details. Aan de hand van de hier gebruikte methodologie (27,5 fps op Ultra) kun je deze conclusie niet trekken.

http://nl.hardware.info/r...0-ti-review-battlefield-3

Let bij de link ook even op de GTX 560, die is gewoon even snel als de 650 Ti in Battlefield 3!

[Reactie gewijzigd door sdk1985 op 9 oktober 2012 15:27]

dat is ook de bedoeling niet het is de bedoeling om de kaartjes tegen elkaar te vergelijken niet om de schijn te bewerken dat een kaart wellicht op ultra alsnog bf3 aan kan met een verlaagde resolutie...

[Reactie gewijzigd door firest0rm op 9 oktober 2012 20:53]

Die schijn word anders wel gewekt, zie ook de reacties hierboven, waar ik al op reageerde. 27.5 fps haal je dus met een 1000 euro cpu, fijn. Bij Guru 3D komen ze niet verder dan 22 fps, kijk dat is alweer een stuk minder.

Alle goede bedoelingen ten spijt, er word nu juist wel de indruk gewekt dat het kan en dat zou je eigenlijk niet moeten willen!
Een benchmark is bedoeld om kopers te informeren. Afgaande op deze benchmark is dus de conclusie dat je op zijn minst een HD7870 nodig hebt om Battlefield 3 te spelen en het dan nog steeds niet echt vloeiend loopt.....

Het is voor een koper van dit soort kaarten absoluut niet in te schatten welke performance de kaart op lagere settings haalt, noch of alle kaarten in dezelfde verhouding sneller worden.

Dus hoewel het leuk is om een tabel te hebben van alle grafische kaarten en de relatieve kracht tussen een 680 en een 650TI te kunnen vergelijken, is het veel belangrijker om te zien met welke settings games daadwerkelijk speelbaar zijn op de kaarten in een bepaalde prijs range.

Het zou dan ook veel logischer zijn om dit soort langzamere kaarten te vergelijken op lagere settings (zoals bijvoorbeeld een standaard "medium" setting die de meeste games wel aanbieden) Dit in combinatie met het gebruik van CPUs die op dezelfde soort consument gericht zijn geeft een potentiële koper van dit soort kaarten gewoon veel meer informatie.
Dus voor elk marktsegment een systeem bouwen en testen.

Dat worden leuke reviews...
Prima kaart om van een wat oudere PC weer iets te maken wat even meekan of gewoon voor de meer budget-gamesystemen. Zo te zien is er prima een potje mee te gamen en mocht één kaart niet voldoende blijken (na een tijdje) kun je er voor een schappelijk bedrag eentje bijprikken.

Ik zie overigens wel dat AMD inmiddels lang niet op alle videokaarten van Nvidia een antwoord heeft. In mijn gedachten (wellicht gedateerd?) gingen ze altijd meer gelijk op dan wat ik in de afgelopen tijd gezien heb..?
Helaas ondersteund de 650TI geen SLI.
Er is altijd wel een winnaar en een verliezer in een segment, maar meestal zijn de kaarten er ook naar geprijst. Het gebeurd juist zelden dat (bij of vlak na launch) er een concurrerende kaart is voor dezelfde prijs. Juist in mijn ervaring is het de laatste jaren zo geweest:
'Die blabla AMD kaart is misschien een paar procentjes langzamer, maar dan kost hij ook 20,- minder' of vice versa.
Eindelijk een kaart rond de ¤150. Een lange tijd zat rond deze prijsklasse een gat. Je moest of een kaart rond de ¤110 (HD7770) kopen en daarna ging je al tegen de ¤200 aan (HD7850 en (GTX560). Ik ben blij dat je nu ook een kaart ertussenin kunt kiezen. Zeker als je een laag budget hebt en toch acceptable framesrates neer wilt zetten.
VTX3D HD7850 1GB GDDR5 (X-Edition)

Dan laat je ik even de HD6850/HD6870 buiten beschouwing voor het gemak.
Als ze de GTX650TI voor meer dan 130 euro verkopen dan is hij naar mijn idee slecht geprijst.
Standaard 1GB? Wel aan de krappe kant voor de meeste spellen dacht ik zo.
De meeste spellen hebben hier juist zat aan. Het ligt ook aan de resolutie die je gebruikt en wat voor texture settings je gebruikt. Aangezien dit meer een budget kaart is en sowieso niet lekker zal lopen op 2560x1600 heb je ook niet zoveel geheugen nodig.

Met een 1 liter motor (budget) haal je met 40 tons vrachtwagen (veel ruimte) ook geen hoge snelheid.
1GB is niet genoeg voor spellen die gebruik maken van de Frostbite 2 engine
BF3 MoH warfighter NFS the run ook total war spellen hebben niet genoeg aan 1GB vram

zelfs 1080P red je niet met 1GB vram zeker als je dingen zoals Anti Aliasing aan hebt staan

[Reactie gewijzigd door firest0rm op 9 oktober 2012 20:57]

zo'n reactie (ook van jou toevallig?!) was er ook op het nieuws artikel van de 'gelekte specs van de gtx650 ti'.

Een hd6950 2gb versie haalt op 1920x1080 bf3 ultra exact dezelfde framerate als de 1gb versie. Een kaart als dit heeft dus niks aan 2gb ram.

Op het moment als de rops / shaders en zo geen (grote) bottleneck gaat zijn, gaat je ram meespelen, maar voor de specs van deze kaart past 1gb prachtig, en maakt hem weer net wat goedkoper.

2gb zou dan misschien nog wat zijn als je SLI zou gaan draaien, want _misschien_ is er dan voldoende shader power zodat hij meer RAM kan gebruiken (en je hebt dan 2gb per kaart nodig).

maar zoals in een reactie hierboven staat: hij ondersteund geen SLI, dus ik zie echt geen nut voor 2gb op een budget game-kaart.
En hoelang hebben ze gespeeld dan?

Ik merk het zelf met een GTX 560 Ti. Hij kan 2 potjes lang op max draaien, dus alles Ultra behalve AA. Na 3 potjes gaat het echter fout en stort alles finaal in, met 5 tot 8 fps als gevolg.

Laat ik textures op high staan, kan ik uren spelen zonder fps drops.
Leg dat maar eens uit.
probleem met de kaart lijkt me. Ik werd gek van de micro-stutter van m'n 2x HD5850 in BF3, en heb toen mijn kaart(en) verwisseld en er kwam een enkele gtx560-ti in. Daar heb ik tijden lang multiplayer op gedraaid tot de vervanging binnen kwam.

Het is ook niet logisch als het opeens zo hard instort na een paar potjes. Als het dezelfe map is waar het telkens gebeurd is het al logischer. Ik draaide zelf een mix van medium en ultra in de settings, wie weet. FXAA en 4xMSAA vond ik beetje dubbel op, dus heb alleen met FXAA gespeeld (wat een boel scheelt in videoram gebruik zonder 4xMSAA). Maar texture detail stond weer wel vol uit. Ik wou echt niet minder als 50fps (dus gemiddeld gewoon gelocked @ 60fps) in multiplayer potjes, daar offer ik graag wat settings aan op zoals shadow detail. texture detail vind ik juist weer belangrijk, want het is zo lelijk als je tegen een muur aan kijkt en het is een grote blur.

Maar punt is: Ze draaien een bench altijd meerdere keren, en de 6950 1GB en de 6950 2GB waren bijna overal nek-aan-nek, en juist BF3 was precies gelijk (shader limited of iets anders). Dus meerdere benches per kaart, en de twee kaarten. En trouwens ook alle review sites. Die testen dan meestal ook nog eens op caspian border of zoiets om echt een van de grootste maps te pakken.

Once again, als het instort na een x aantal keer spelen lijkt het eerder op een bug / driver issue / probleem met je systeem / probleem met de kaart. Als het elke keer op dezelfde map gebeurd (en dan dus ook gelijk de eerste keer!) zou het er nog wel eens mee te maken kunnen hebben, maar dan is een drop van 60fps -> 8fps ook niet normaal.
Warmte en airflow??
Kun je deze dan niet beter halen als we over 150 euro praten?:

pricewatch: EVGA GeForce GTX550 Ti
Nee eingelijk niet want van de 650TI komen ook 2GB kaarten uit. Verder zal je toch niet veel aan 2BG hebben gezien de GPU dan al de bottlnek word.

Op dit item kan niet meer gereageerd worden.