Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 133 reacties, 186.700 views •

Conclusie

Nvidia's claim dat de GTX 650 Ti sneller is dan de HD 7770, is niet gebaseerd op gebakken lucht. De GTX 650 Ti verslaat de HD 7770 in bijna alle benchmarks, op Metro 2033 na. De GTX 650 Ti is echter langzamer dan een HD 7850 2GB, maar ook dat had Nvidia voorzien. Een standaard-GTX 650 Ti moet namelijk rond de 130 euro gaan kosten, en dat is precies tussen een HD 7770 en een HD 7850 in. Daarmee verwerft de GTX 650 Ti zijn eigen, welverdiende plekje in de videokaartmarkt.

Iedereen kan nu afhankelijk van zijn budget een videokaart uitkiezen. De HD 7770 biedt met zijn prijs van iets meer dan 100 euro veel bang for the buck, terwijl overgeklokte varianten waarschijnlijk al heel dicht in de buurt komen van een GTX 650 Ti. En wie geen GTX 650 Ti wil kopen, kan altijd nog iets meer uitgeven aan een HD 7850 2GB, die al voor 175 euro over de toonbank gaat.

Daarbovenop laat Asus zien dat zijn DirectCU II-koeler nog steeds goed met de tijd meekan. De koeler is ongelofelijk stil, ook als de videokaart continu zwaar wordt belast. De door ons geteste Asus GTX 650 Ti DirectCU II zou ongeveer 140 euro moeten gaan kosten, en dat lijkt ons een goede prijs.

Warmte en geluid 10
Prestaties 8
Featureset 8

Eindoordeel

Tweakers zegt: 8

Verkrijgbaar vanaf: € 169,-
Geteste uitvoering: Asus GTX650TI-DC2T-1GD5

Lees ook de gebruikersreviews

Populaire gebruikersreviews

Meer gebruikersreviews over deAsus GeForce GTX 650 Ti


Reacties (133)

Reactiefilter:-11330133+165+29+31
Moderatie-faq Wijzig weergave
Vriendelijk verzoek om de Battlefield 3 benchmark aan te passen. Op dit moment hebben 5 van de 7 kaarten een niet speelbare resolutie (<40 fps).

De "buren" hebben een medium test waarbij 61,1 fps wordt behaald. Zeker voor dit segment is dat belangrijke info. Je weet dan namelijk dat battlefield 3 goed speelbaar is, mits op lagere details. Aan de hand van de hier gebruikte methodologie (27,5 fps op Ultra) kun je deze conclusie niet trekken.

http://nl.hardware.info/r...0-ti-review-battlefield-3

Let bij de link ook even op de GTX 560, die is gewoon even snel als de 650 Ti in Battlefield 3!

[Reactie gewijzigd door sdk1985 op 9 oktober 2012 15:27]

dat is ook de bedoeling niet het is de bedoeling om de kaartjes tegen elkaar te vergelijken niet om de schijn te bewerken dat een kaart wellicht op ultra alsnog bf3 aan kan met een verlaagde resolutie...

[Reactie gewijzigd door firest0rm op 9 oktober 2012 20:53]

Die schijn word anders wel gewekt, zie ook de reacties hierboven, waar ik al op reageerde. 27.5 fps haal je dus met een 1000 euro cpu, fijn. Bij Guru 3D komen ze niet verder dan 22 fps, kijk dat is alweer een stuk minder.

Alle goede bedoelingen ten spijt, er word nu juist wel de indruk gewekt dat het kan en dat zou je eigenlijk niet moeten willen!
Een benchmark is bedoeld om kopers te informeren. Afgaande op deze benchmark is dus de conclusie dat je op zijn minst een HD7870 nodig hebt om Battlefield 3 te spelen en het dan nog steeds niet echt vloeiend loopt.....

Het is voor een koper van dit soort kaarten absoluut niet in te schatten welke performance de kaart op lagere settings haalt, noch of alle kaarten in dezelfde verhouding sneller worden.

Dus hoewel het leuk is om een tabel te hebben van alle grafische kaarten en de relatieve kracht tussen een 680 en een 650TI te kunnen vergelijken, is het veel belangrijker om te zien met welke settings games daadwerkelijk speelbaar zijn op de kaarten in een bepaalde prijs range.

Het zou dan ook veel logischer zijn om dit soort langzamere kaarten te vergelijken op lagere settings (zoals bijvoorbeeld een standaard "medium" setting die de meeste games wel aanbieden) Dit in combinatie met het gebruik van CPUs die op dezelfde soort consument gericht zijn geeft een potentiële koper van dit soort kaarten gewoon veel meer informatie.
Dus voor elk marktsegment een systeem bouwen en testen.

Dat worden leuke reviews...
Gelukkig hebben de buren ook getest met een 7850 1GB versie. Concluderend, die is 13% sneller en nog geen 10 euro duurder dan de 650ti.

The end result is that most of the time the GTX 650 Ti is going to lose to the 7850 by more than the 13% price difference between the two, which means that NVIDIA is coming up short even if they are the cheaper option.

anandtech
Mwah, als de GTX 650 Ti daadwerkelijk 130 euro gaat kosten, is dat nog altijd 40 euro goedkoper dan een HD 7850 1GB. Dan is de HD 7850 het overwegen wel waard, maar maakt de GTX 650 Ti verre van overbodig. Voor 185 euro kun je dan beter een HD 7850 2GB kopen.
Dat is nog altijd maar 20 euro goedkoper.

VTX3D HD7850 1GB GDDR5 (X-Edition) voor 148 euro.

Ik mag dus hopen dat hij 130 euro gaat kosten anders zou ik nooit overwegen zo'n kaart aan te raden bij iemand.
Ga jij die kaart lekker bij Pixmania bestellen, laat het me even weten als je hem over 3 maanden binnen hebt :P

Maar even serieus, de echte marktprijs van de HD 7850 1GB is volgens mij rond de 170 euro, en niet bij 1 winkel 150 euro.
De HD's kunnen ook nog in crossfire.

650 Ti niet.
Grappig kaartje maar hij is het gewoon 'net niet' om lekker mee te kunnen gamen - tenzij je lage settings acceptabel vind.
LOL,budgetkaart getest in een superduur high end systeem.
waarom niet testen in een budgetsetup?
is nl een kaartje uit budget-range voor mensen die voor weinig geld willen gamen.
nu is de processor al bijna 1000 euro.totaal over 2000 euro is geen budget!
Dat is waar; en dit is maar een simpele review. In het ideale geval zie ik in een review dat ze kaarten van verschillende generaties in twee soorten machines testen; een uberhigh end systeem en een wat ouder systeem.

Tenslotte kan ik mij voorstellen dat sommige mensen toch een lichte idicatie willen hebben wat een kaart in een soortgelijk (langzamer) systeem doet.

Denk je eens in dat ze ook nog de volgende zaken testen:

- Pakweg 15 games van oud tot jong (sommige doen het goed op amd en andere op
nvidia hardware).
- Verschillende resoluties (1600x1200 - 1920x1080 - 2550x1440)
- Minimale en maximale framerate per resolutie per game
- Verschillende kaarten uit een reeks (tot 2 generaties terug) van twee gpu bakkers
- Verschillende kaarten temperatuur/geluid/stroom meting
- Kaarten overgeklokt/niet overgeklokt (je wilt weten of de nieuwe kaarten verder komen of de oude het "gat" dichten + nog alles wat hierboven staat over doen).
- Dan nog twee soorten machines; mid end en high end pc's.

Hoeveel maanden is de redactie dan bezig? Heb ik het nog niet eens over driver versies gehad voor amd en nvidia :). Ik kan me voorstellen dat elke review een balans is tussen uitgebreidheid en maximale tijd/mankracht en beschikbare hardware/kaarten.
Ze hoeven niet eens veel te doen, ze kunnen die sixcore langzamer laten draaien en met dualchannel ram werken en ze kunnen ook nog cores "" in en uitschakelen". Dat allemaal op 1 pc.
De mensen die en indicatie willen wat de kaart doet in een langzamer systeem hebben niet goed begrepen hoe de fps in een game tot stand komt. Systemen zijn zelden in balans en je hebt in de praktijk gewoon te maken met een cpu bottleneck of een gpu bottleneck.

Een gtx260 in mijn e-350 voegt synthetic veel toe (zie mijn e350 review), maar in de praktijk heb je er niks aan. Al zet je een GTX680 in dat systeem, die framerate blijft hetzelfde. De toegevoegde waarde van een tragere cpu testen is er dan ook niet. Het hangt namelijk puur van de cpu af in hoeverre de gpu belast wordt en dat verschilt dus per cpu en niet per gpu.

Je kunt een nieuwe kaart nooit testen voor alle beschikbare cpu's. Dit jaar zijn er 26 Ivy Bridge cpu's gelanceerd en dan praat ik alleen over de desktop varianten van Intel! Welke pak je dan? En waarom? Het word tallemaal erg arbitrair.

Daarnaast zal het ook vaak niks opleveren. Als je bijvoorbeeld een setje van ¤320 pakt (3550k) dan weet ik 100% zeker dat deze kaart de bottleneck is. Dan krijg je dus precies dezelfde framerates als met een cpu van ¤1000 euro. Het enige verschil is dat op het moment dat je een highend kaart gaat testen je resultaten niet meer representatief zijn. Niemand schiet er dus iets mee op.

Reden dat ze zo testen is dus simpel, er wordt hier een kaart getest en als je kaarten onderling zinnig wilt vergelijken dan moet je alle andere variabelen proberen uit te sluiten. Met een overkill aan cpu power ben je dit dus aan het doen.

Daarnaast wil je ook consistent blijven en kun je door steeds hetzelfde testsysteem te gebruiken beter vergelijken met nog uit te komen kaarten.

Het alternatief is een test publiceren waarbij elke kaart min of meer dezelfde score neerzet. Dat is per definitie een kansloze test want op basis daarvan kun je niets concluderen. Er zijn overigens sites die dit weleens doen. Dan zie je dus een grafiek met 20 keer evenlange balkjes :+ .


Of een kaart al dan niet overkill is zul je zelf in moeten schatten. Gelukkig is dit tegenwoordig een stuk beter te doen dan vroeger. Je kunt namelijk de gpu load uitlezen met de gratis gpu-z en msi afterburner software. Heb je momenteel <90% gpu load dan heb je een cpu bottleneck. Zit je boven de 90% (met name bij 99% maar niet alles draait altijd even efficient) dan heb je baat bij een snellere gpu.

Hoe je eigen systeem schaalt kun je zelf testen. Als je 99% gpu load hebt kun je je eigen cpu trager maken tot die load omlaag gaat. Dan weet je meteen hoeveel ruimte JIJ nog hebt. Stel je kunt je cpu 40% trager clocken dan kun je dus in ieder geval een 40% snellere gpu pakken (wiskundig niet helemaal correct maar het is een grove inschatting). Sterker nog je kunt ook gewoon naar je cpu belasting kijken en op basis daarvan een inschatting maken. Zo wordt mijn 2500k@4.0 ghz zelden meer dan 60% belast. Ik zou dus een flink snellere gpu kunnen gebruiken.

Overigens noem je best een paar leuke punten, gelukkig zijn er reviews die inderdaad zo ver gaan.

Voorbeeld TechpowerUp:
-18 games op 4 resoluties (1280, 1680,1920 en 2560)
-2 synthetics
-fan noice
-power consumption
-overclocking
-geagregeerde scores (zowel overall als per resolutie)

http://www.techpowerup.co..._Ti_Power_Edition/28.html

[Reactie gewijzigd door sdk1985 op 10 oktober 2012 18:33]

Dat is uiteraard weer het andere uiterste. Best keus vind ik een cpu die zeer gangbaar is en zeer goed verkocht word, zoals een i5 3570K bijv. Een cpu die zich allang bewezen heeft in de gaming community. Meer cpu heb je echt niet nodig.

Hoe je eigen systeem schaalt kun je zelf testen. Als je 99% gpu load hebt kun je je eigen cpu trager maken tot die load omlaag gaat. Dan weet je meteen hoeveel ruimte JIJ nog hebt. Stel je kunt je cpu 40% trager clocken dan kun je dus in ieder geval een 40% snellere gpu pakken (wiskundig niet helemaal correct maar het is een grove inschatting).
Typisch een tweakers praatje. Hoeveel mensen denk je zitten met hun cpu te "wroeten".
En ja, ik ben een tweaker, ik draai mijn hand er niet voor om.

[Reactie gewijzigd door Madrox op 10 oktober 2012 23:41]

Door te testen op een snel systeem voorkom je dat het systeem de bottleneck wordt, en test je dus echt de kaarten in plaats van de hele setup.
Drogreden daar een normale pc met bijv. een core i5 3450 dit soort kaartjes totaal niet bottleneckt.

Je test nu de kaarten op een systeem , wat bijna geen hond koopt. Zeg nou zelf, wat is de meerwaarde daaarvan ?

Waarom word ik weg gemod ?

Punt is nml, dat 95% of meer nooit zo'n ultra systeem in huis halen en die hebben veel meer aan cijfers, die betrekking hebben op hun systeem, een "normale"" quadcore uit het mainstream segment.

Nu krijg je cijfers voorgeschoteld die slechts een handjevol mensen zal halen. We willen juist weten waar de bottlenecks zitten en niet naar un-bottled grafieken kijken waar je duizenden euro''s voor mag neerleggen om diezelfd prestaties neer te zetten.

[Reactie gewijzigd door Madrox op 10 oktober 2012 13:44]

Eerlijk vergelijken de andere benches zijn ook op dit systeem gedaan.
Het boeit niks hoe overkill de cve is het gaat om de videokaart.
Anders zou je het in een sloom systeem stoppen en dan zeggen dat het een waardeloze kaart is...
Als je kaarten onderling wilt vergelijken is het geen "drogreden", dan zul je toch steeds dezelfde setup moeten hebben waarmee je de sneltste videokaart zonder problemen mee vol krijgt.

Dit is een videokaart review, geen systeem review.
Wel geweldig dat het tegenwoordig mogelijk is om met een "budgetkaart" (in mijn ogen is 140 euro voor een gaming videokaart toch best wel budget) de nieuwste games op FullHD resoluties te spelen! Misschien toch maar weer eens tijd voor een game pctje naast mijn Macbook (vind het zo jammer dat de Xbox versie van Battlefield 3 maar 24 spelers ondersteunt en de PC versie 64 spelers).
Hangt af van wat je geweldig vindt. Ik persoonlijk vind het jammer dat je tegenwoordig alles met budgetkaarten kan spelen. Wil gewoon zeggen dat we stilstaan. Het is echt wachten op de Next-gen consoles, zelfs voor PC gamers. Een eerder spijtige zaak.
Euhm..??? Er staat helemaal niets stil. Jij hebt blijkbaar nooit budget kaart en high-end kaart direct met elkaar vergeleken.

Je kon altijd al met budget kaarten spelen. Het zag en ziet er alleen veel minder goed uit.

Vroeger zag je het vooral in de frame-rate.Tegenwoordig heb je alleen veel meer opties die je aan/uit kunt schakelen. Op de highend kaarten kun je de mooiste textures krijgen en ontzettend ver kijken met geweldige licht / schaduw / special effecten. Op een budget kaart moet je al deze opties uitzeten (of minder) om een beetje framerate te krijgen. Je kunt dus wel spelen, maar natuurlijk heb je veel minder mooi beeld.

Fabrikanten willen aan zoveel mensen spellen verkopen, dus zorgen ze dat je ook op een goedkoper systeem de mogelijkheid hebt om te spelen. Maar het ziet er dan niet zo mooi uit als op de high-end kaarten.

Ik speel WoW zowel op een Windows machine met een snelle nvidia GTX670 als op een Mac-mini met een toch wat tragere AMD Radeon HD 6630M(obiel). Op de Nvidia kan ik alle opties op Ultra zetten en haal ik meestal 100+fps. op de mobiele AMD zet ik alles op mid en ben ik blij als ik 40fps haal.

Ja op beide speelbaar, maar toch een heel andere ervaring.
Dat lijkt nu dus te veranderen. Alle games in deze test staan op high of ultra, en geven met dit kaartje nog redelijke framerates. Je levert niet veel meer in tov de dure kaarten, lijkt het.
Nee, dat klopt niet. http://www.guru3d.com/art..._review_reference,16.html
22 fps gemiddeld is gewoon te zwak. T.net haalt 27.5 gemiddeld, wat denk ik vooral met de cpu/chipset te maken heeft denk ik, anders kan ik die 5.5fps verschil niet verklaren. (guru3d gebruikt een X58 chipset met een i7 965)

Je ziet duidelijk dat voor fatsoenlijke fps je toch bij de 200 euro kaarten uitkomt.

Bovendien bewijst jouw antwoord dat benchmarks met highend cpu's, zwaar overklokt een verkleurd beeld geven. Daarom hoop ik dat T.net zich bezint op de test en meer gangbare cpu''s gebruikt, met o.a. stock clocks.

Net een 3Dmark score van ene i5 3450 gezien icm met deze GTX560 ti, die scoort pakweg 8% langzamer dan de t.net sixcore combo.

[Reactie gewijzigd door Madrox op 10 oktober 2012 13:46]

Het doel van een benchmark systeem dat GPU test is toch dat de GPU de bottleneck is, en de rest vh systeem de boel niet in de weg zit.

Volgens mij is een benchmark altijd nog iets anders als een goede indicatie van de door jouw PC haalbare framerate. Iedereen heeft toch een eigen config, wat is het nut van het creeeren van andere bottlenecks door stock te gaan benchmarken??

Het vernietigt het nut van een GPU benchmark ...
inderdaad, lijkt het..

30 fps GEMIDDELD (dus ferme fps dips ;)) vs altijd 60+ fps vind ik toch een serieus verschil..
Je kon vroeger ook al een hoop aan en uit zetten, dat is niet iets van de laatste twee jaar. Speel alles nog met een HD5750 en ja, met veel spellen van nu kan ik geen AA4/AA8 draaien bijv. Lig ik daar wakker van? Nee, daar ik me amper stoor aan het "trapeze effect".

Le Mastre'' , er is niks veranderd; vroeger kon je ook alles met een "budget" kaart spelen. Btw, dit hikt meer tegen mainstream aan. Budget kaarten zitten op/onder de 100 euro.

Wat noem je btw vooruitgang? Renderen op 4K heeft weinig zin, als iederen op 1920x1200 en lager speelt. Dan zit zo'n supergame onnodig pisels te bewerken.


ps: Hieronder, Kijk naar BF3 hier, 4 kaarten zitten dik onder de 30 fps. Dat is niet redelijk, dat is gewoon te traag. Snap dan ook niet waarom ze niet een tandje terug gingen, zoals bij een ander spel wel gedaan is.

Vroeger kan je ook best aardig mooi gamen, grootste dipper is nog altijd AA.

[Reactie gewijzigd door Madrox op 9 oktober 2012 22:06]

Ik kan met een GTX 550 TI alles op aan en high zetten, en dan heb ik nog steeds 80 fps in Minecraft Full HD 1080P :+
Een silverstone Sugu05 (300watt versie) met een 'simpele' core i3 en deze kaart er in en het staat niet verkeerd naast je xbox of naast je TV hoor :). Krijg je toch erg veel pc voor (pc standaarden) weinig geld.
Ik vind het toch nog altijd gek om zo'n tussenmodel uit te brengen. Ik heb dan het gevoel dat ik al iets verouderds koop, omdat ik voor 50 euro meer eigenlijk een betere kaart kan kopen.

Ik denk dat de ATI kaart ook nog eens in prijs zal dalen om deze kaart helemaal overbodig te maken....

[Reactie gewijzigd door Devroet op 10 oktober 2012 12:20]

dit lijkt mij een ideale kaart voor de meer casual gamer
ook de geluidsproductie ziet er schitterend uit!
misschien zie jij dit anders, maar gamen met een stofzuiger of de achtergrond is niets voor mij
Ter info: dure kaarten zijn niet persé stofzuigers. Zelf heb ik een GTX670 van asus, geen goedkope jongen, maar wel erg stil :) die DirectCU2 koeling werkt echt goed!
Heb een GTX680 reference gehad en die was gewoon stil hoor, dat was zeker geen stofzuiger
Inderdaad, ik speel zo af een toe een game. Een redelijke kaart voor een leuke prijs. 100-150 euro is eigenlijk altijd zo'n beetje het budget wat ik aan een videokaart uit wil geven. Meer heb ik er niet voor over.
Hangt natuurlijk af van je budget, al ben ik het met je eens dat je voor 50 euro meer een betere kaart hebt.
Het is niet alleen 50 Euro meer maar ook bijna 50WATT meer. :)
Is het niet zo dat je vrijwel altijd 50 euro meer kan uitgeven voor een betere kaart dan degene die je wilde kiezen of nu hebt?

Zo is de markt nu eenmaal...
Ach je kan altijd wel meer uitgeven om iets snellers te hebben. Met dit kaartje kan je de komende tijd een hoop games leuk spelen, prima toch voor mensen die met een budget van zo'n 130/140 een videokaart willen kopen?

Als je een iets lager budget hebt koop je een iets langzamere, en is je budget hoger een iets snellere. Voor elk wat wils ;)
Daar zijn vlak voor deze launch al prijsdalingen van geweest omdat deze kaart er aan kwam, ik verwacht niet dat hij verder zal zakken want die kaarten zijn ook duurder om te maken.
Voor 50 euro meer..... ja, als je die hebt. Voor sommige mensen is 140euro al veel, laat staan 50 euro meer.
Op deze manier hebben mensen meer keuze. Ik vindt het een goede zaak.
Prima kaart om van een wat oudere PC weer iets te maken wat even meekan of gewoon voor de meer budget-gamesystemen. Zo te zien is er prima een potje mee te gamen en mocht één kaart niet voldoende blijken (na een tijdje) kun je er voor een schappelijk bedrag eentje bijprikken.

Ik zie overigens wel dat AMD inmiddels lang niet op alle videokaarten van Nvidia een antwoord heeft. In mijn gedachten (wellicht gedateerd?) gingen ze altijd meer gelijk op dan wat ik in de afgelopen tijd gezien heb..?
Helaas ondersteund de 650TI geen SLI.
Er is altijd wel een winnaar en een verliezer in een segment, maar meestal zijn de kaarten er ook naar geprijst. Het gebeurd juist zelden dat (bij of vlak na launch) er een concurrerende kaart is voor dezelfde prijs. Juist in mijn ervaring is het de laatste jaren zo geweest:
'Die blabla AMD kaart is misschien een paar procentjes langzamer, maar dan kost hij ook 20,- minder' of vice versa.
Ik heb zelf een AMD 7770 met een 15% overclock van sapphire die nauwelijks langzamer zal zijn dan een reguliere 650 Ti. Als nVidia echt een 7770 killer had willen maken hadden ze hem toch 10-20 euro goedkoper moeten maken. Een 7770 heb je al voor 110 euro. De 650 Ti valt nu overal tussen de 7770 en de 7850 in zonder één van beiden echt overbodig te maken.
Klopt met een budget van 140 euro is de 550TI alleen. Maar dat geldt ook veer voor de kaarten van AMD die je op noemde.
je houd geen rekening met dat dre GTX650 ti ook overklokt kan worden
als je de 2GB GTX650 ti versie overklokt kom je al snel in de buurt van een HD7850 2GB op stock snelheid!

http://www.bit-tech.net/h...orce-gtx-650-ti-review/11

[Reactie gewijzigd door firest0rm op 9 oktober 2012 21:02]

Ik heb het ook expres over een reguliere 650 Ti, natuurlijk zal een geoverclockte variant sneller zijn, maar die zal ook wel weer duurder zijn dan een reguliere 650 Ti.
Je kunt zelf overclocken, dus hoe wordt die dan duurder?
Wat ik een beetje mis bij de pagina over de geluidsmetingen is de temperatuur die de GPU onder load heeft. Nu wordt enkel de geluidsproductie bij het standaard fanspeed-profiel gemeten, maar het is goed mogelijk dat de geteste kaart veel conservatiever is met de fanspeed omhoog gooien dan de kaarten waarmee wordt vergeleken. Terwijl je probeert te meten hoe effectief de koeling is, worden de meetwaardes verstoord door het meegeleverde profiel van de fanspeed-regeling. Gezien vrijwel alle meegeleverde software de mogelijkheid biedt om aan de fanspeed-regeling te sleutelen, kun je zo een heel spectrum aan mogelijke geluidsniveaus produceren met een enkele kaart.

Een betere test, lijkt mij, is om een doel-temperatuur te kiezen en de fanspeed handmatig in te stellen zodat deze temperatuur onder load zo dicht mogelijk benadert wordt en dan geluidsmetingen te doen. Eventueel kun je dit voor meerdere temperaturen doen, om te zien of sommige coolers efficienter zijn op laag danwel hoog vermogen.
Dan moeten de andere fabrikanten ook maar eens aan de bak met fanprofielen. Feit is gewoon dat "out of the box" de ASUS kaart enorm stil is.

Als sites en een temp meting publiceren en een geluidsmeting, kun je ook zelf kijken of er nog wat ruimte is.
Je moet ook oppassen met geluidsmetingen op verschillende sites. Ieder heeft zijn eigen methode. Je kunt ze niet onderling vergelijken.
Er is een site die zelfs op 10cm afstand meet. Wie zit nu zo dicht met zijn oor op een grafische kaart?

Ik kan ook bevestigen dat een Asus directCU2 kaart gewoon erg stil is. Ik zat op mijn GTX670 ook te spelen met fan speeds en dergelijke. Allemaal geknoei in de marge. Staat nu op standaard settings. Werkt gewoon stil en goed.
34 Decibel under load??? Holy crap dat is interessant! Er zijn bijna geen kaarten in dat segment die zo stil zijn. Is het echt geen meetfout? Dat is een beregoeie koeler dan.

Dat maakt deze kaart erg interessant voor silent-pc bouwers. 34 is buitengewoon stil.
Alle ASUS DC II kaarten zijn enorm stil. MSI heeft het een beetje laten liggen de laatste tijd, maar volgens mij was hun GTX 660 Ti model ook erg stil.

Zie ook de buren. Een ASUS GTX 670 DC II produceert maar 2 dB meer dan een GTX 650 van MSI.
Ben ik het helemaal mee eens! Mijn EAH6850 DC II draait ook fluisterstil door alle spellen heen. Zeker een verbetering t.o.v. mijn vorige HD4770/HD4870 en al helemaal van de HD2900XT (maargoed, dat is elke kaart). Prima kaart voor diegene met wat gevoeligere oortjes :)

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True