Door Jelle Stuip

Redacteur

Nvidia GTX 750 Ti Review

De snelste onder de 75 watt

18-02-2014 • 15:01

87

Multipage-opmaak

Inleiding

Al sinds maart 2012 fabriceert Nvidia gpu's die op de Kepler-architectuur zijn gebaseerd, met als eerste topmodel de GTX 680. Later volgden de GTX Titan en de GTX 780 Ti. Sinds kort is de GTX Titan Black Edition het allersnelste dat Nvidia heeft uitgebracht. Voor Kepler is het ook meteen de laatste keer dat de gpu in een high-end videokaart wordt gebruikt, want opvolger Maxwell staat in de startblokken en mag uiteindelijk het stokje overnemen.

Zo ver is het voorlopig nog niet, want opmerkelijk genoeg verschijnen de eerste Maxwell-gpu's die Nvidia uitbrengt in twee bescheiden midrange-modelletjes. De GTX 750 en GTX 750 Ti moeten de GTX 650 Ti en 650 Ti Boost opvolgen en daarmee prestaties leveren waarmee ze tussen de gewone GTX 650 en de GTX 660 in vallen.

Nvidia GTX 750 Ti

De Maxwell-gpu in de GTX 750 en 750 Ti wordt net als de Kepler-processors op 28nm gebakken. Toch moet het energieverbruik een stuk lager liggen dan bij de vorige generatie gpu's, terwijl de prestaties wel gestegen zijn. Ook in vergelijking met concurrent AMD moet Maxwell veel minder energie verstoken.

Die concurrent heeft overigens niet stilgezeten en bracht, wellicht als preventieve reactie op Maxwell, de R7 265 uit. Wij ontvingen van Nvidia een GTX 750 Ti en keken naar de prestaties en het energieverbruik. Daarnaast klokten we een HD 7850 over naar de snelheden van de R7 265 en keken of AMD zich zorgen moet gaan maken over Nvidia's nieuwste.

De gpu: Maxwell

Nvidia laat de Maxwell-gpu debuteren in twee midrange-videokaarten, in de vorm van de GTX 750 en GTX 750 Ti. Tijdens de presentatie aan de pers maakte de fabrikant ook duidelijk dat het hierbij om de eerste generatie Maxwell-processors gaat. Er komt dus nog een tweede generatie en het vermoeden is dat die tweede generatie op 20nm wordt gebakken, in tegenstelling tot de 750 en 750 Ti, die op 28nm zijn blijven hangen.

GeForce lineup

Voor de chipproductie is Nvidia afhankelijk van TSMC, dat nog chips fabriceert op 28nm. Het bedrijf heeft al wel aangekondigd dat de massaproductie van 20nm-chips begin 2014 van start gaat. Nvidia kon blijkbaar niet zo lang wachten en brengt daarom in februari al twee Maxwell-videokaarten uit, in de vorm van de GTX 750 en GTX 750 Ti.

De twee Maxwell-kaarten moeten de GTX 650 Ti en 650 Ti Boost gaan vervangen. De gewone GTX 650 en GTX 660 blijven nog gewoon van de band rollen, waardoor er een nogal verwarrende line-up ontstaat. Vermoedelijk trekt Nvidia de naamgeving bij de volgende generatie GeForce-gpu's weer recht.

Nieuwe architectuur

Maxwell vormt dus Nvidia's nieuwste gpu-architectuur en is uiteraard gericht op hogere prestaties dan de Kepler-processors, maar moet vooral efficiënter met energie omgaan en een betere verhouding in prestaties per watt neerzetten.

Maxwell sm-units

De grootste verandering ten opzichte van Kepler is de opbouw van de smx-units, die Nvidia vanaf Maxwel sm-units noemt. De smx-units bevatten bij de Kepler-gpu's 192 Cuda-cores, die door een eigen control logic werden aangestuurd. Bij de Maxwell-gpu's zijn de sm-units kleiner geworden en bestaan ze uit 128 Cuda-cores. Daarnaast krijgt ieder blok van 32 cores zijn eigen control logic, waardoor er op kleinere schaal cores in- en uitgeschakeld kunnen worden, wat weer tot een gunstiger energieverbruik moet leiden.

GTX 750 Ti gpu GTX 750 Ti sm-unit

Nvidia heeft ook een groter deel van de scheduling van de hardware naar de software verplaatst. Dat heeft een iets hogere cpu-belasting tot gevolg, maar volgens Nvidia is dat een klein offer voor de energiebesparing die Maxwell met zich meebrengt. Een andere grote verandering is de vergroting van het L2-cachegeheugen, dat is toegenomen van 256KB (GK107) naar 2MB (GM107). Alles bij elkaar moet de 750 Ti per core 35 procent sneller zijn dan Kepler en een verdubbeling van de prestaties per watt opleveren.

GTX 750GTX 750 Ti
Cuda-cores 512 640
Smx-units 4 5
Texture-units 32 40
ROP-units 16 16
L2-cache 2MB 2MB
Klokfrequentie 1020MHz 1020MHz
Boostfrequentie 1085MHz 1085MHz
Geheugensnelheid 5GHz gddr5 5,4GHz gddr5
Geheugenbus 128bit 128bit
Geheugenbandbreedte 80GB/s 86,4GB/s
Tdp 55 watt 60 watt
Prijs 111 euro 139 euro

Testsysteem en drivers

We hebben de 750 Ti vergeleken met zijn voorganger, de GTX 650 Ti, en met de GTX 660 en GTX 760. Vanuit het rode kamp lieten we de R7 260X en de R9 270 aanrukken. We wilden natuurlijk ook de vergelijking trekken met de R7 265, maar omdat we van die kaart nog geen sample hadden, hebben we ervoor gekozen om een HD 7850 over te klokken, om dezelfde snelheden te halen.

Testsysteem
Moederbord Asus RoG Rampage IV Extreme
Processor Intel Core i7 4960X @ 4,4GHz
Geheugen Kingston HyperX KHX1866C9D3K4/16GX
Ssd Kingston HyperX 240GB
Koeler Intel Thermal Solution RTS2011LC
Voeding Corsair Professional Gold AX750
Monitor Dell U2713H
Besturingssysteem Windows 8.1 Enterprise

Voor zowel de AMD- als de Nvidia-kaarten hebben we gebruikgemaakt van de nieuwste bètadrivers. Bij AMD gaat het om de 14.1 beta v1.6-driver, terwijl we van Nvidia de 334.69-driver ontvingen. We hebben voor de benchmarks Nvidia's eigen referentieontwerpen van de GTX 650 Ti, GTX 750 Ti en GTX 760 gebruikt. We hebben ook een GTX 660 meegenomen, maar daarvan hadden we geen referentiekaart liggen, dus hebben we gekozen voor een standaard overgeklokte Asus GTX 660 DirectCU II.

Het vergelijkingsmateriaal van AMD komt in de vorm van de R7 260X en een R9 270 Gaming van MSI. Daarnaast hebben we gebruikgemaakt van het referentieontwerp van de HD 7850, dat ook de basis vormt voor de R7 265. We verhoogden de core-snelheid naar 925MHz en krikten de geheugensnelheid op naar 1400MHz, zodat de kaart hetzelfde presteert als een R7 265.

GTX 650 Ti en GTX 750 TiGTX 750 Ti (links) en GTX 650 Ti

Synthetische benchmarks

We stellen de Maxwell-gpu met behulp van wat benchmarks graag op de proef en zijn begonnen met 3DMark en Heaven. Beide benchmarks geven een score in punten, die weinig over framerates zegt, maar die we toch goed kunnen gebruiken om de onderlinge verhoudingen te laten zien.

3DMark Fire Strike
VideokaartIn punten, hoger is beter
GTX 760
*******
6116
R9 270
*******
5706
Asus GTX 660 DirectCU II
******
5275
HD 7850 / R7 265
******
4881
R7 260X
*****
4176
GTX 750 Ti
*****
4152
GTX 650 Ti
****
3165

In 3DMark laat de 750 Ti een dertig procent hogere score zien dan de 650 Ti en daarmee komt hij gelijk met de R7 260X.

Unigine Heaven 4.0 - normal
VideokaartIn punten, hoger is beter
GTX 760
*******
1332,00
Asus GTX 660 DirectCU II
******
1173,00
R9 270
******
1153,00
GTX 750 Ti
*****
1020,00
HD 7850 / R7 265
*****
998,00
R7 260X
****
778,00
GTX 650 Ti
****
672,00

In Heaven komt het resultaat van de 750 Ti zelfs vijftig procent hoger uit dan dat van zijn voorganger, waarmee AMD's R7 265 wordt geëvenaard. Uit de benchmarks in games zal ook blijken dat de framerates over het algemeen te vergelijken zijn met die van de 260X en 265 van AMD en tussen de framerates van de 650 Ti en GTX 660 uit eigen stal in vallen.

Gamebenchmarks: Battlefield, Crysis, Far Cry

Heaven en 3DMark geven een aardige indruk van de prestaties van de 750 Ti, maar we willen natuurlijk ook weten hoe de kaart per game presteert.

Battlefield 4 - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 760
*****
+
***
28,7 / 43,0
R9 270
****
+
***
27,3 / 41,9
Asus GTX 660 DirectCU II
****
+
**
23,4 / 37,0
HD 7850 / R7 265
****
+
**
25,7 / 36,2
GTX 750 Ti
***
+
**
19,0 / 28,2
R7 260X
***
+
**
17,0 / 28,0
GTX 650 Ti
*
+
**
8,0 / 20,2

In Battlefield 4 hebben we de framerate tijdens de laatste scène van de Shanghai-missie gemeten. We hebben voor zowel AMD- als Nvidia-kaarten de DirectX-renderer gebruikt en noteerden hele nette framerates voor de 750 Ti, zeker als we in het achterhoofd houden dat Battlefield 4 geoptimaliseerd is voor AMD-kaarten. De framerate op ultra-instellingen is niet echt speelbaar, maar met de instellingen een tandje lager vormt het spel geen probleem voor de nieuwe Nvidia-kaart.

Crysis 3 - 1920x1080 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 760
******
+
*
33,7 / 41,3
Asus GTX 660 DirectCU II
*****
+
*
29,7 / 37,0
R9 270
*****
+
*
29,0 / 35,1
HD 7850 / R7 265
****
+
*
25,0 / 30,4
R7 260X
****
+
*
23,0 / 27,2
GTX 750 Ti
***
+
*
21,0 / 26,4
GTX 650 Ti
***
+
*
15,7 / 21,3

In Crysis 3 is de nieuwe Maxwell-gpu goed voor een nette winst van 24 procent ten op zichte van de 650 Ti. De 260X is iets sneller.

Far Cry 3 - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 760
******
+
*
36,0 / 42,6
Asus GTX 660 DirectCU II
*****
+
*
32,0 / 37,6
R9 270
****
+
*
26,0 / 33,6
HD 7850 / R7 265
****
+
*
22,0 / 28,2
GTX 750 Ti
****
+
*
22,0 / 28,2
R7 260X
***
+
*
19,0 / 23,2
GTX 650 Ti
***
+
*
17,6 / 21,6

In Far Cry 3 presteert een 750 Ti exact even goed als een R7 265. De Nvidia-gpu's doen het over het algemeen in Far Cry 3 wat beter dan de AMD-concurrentie.

Gamebenchmarks: Grid, Shogun, Sleeping Dogs

Naast Battlefield 4, Crysis 3 en Far Cry 3 draaiden we Grid 2, Shogun 2 en Sleeping Dogs. Grid 2 en Sleeping Dogs zijn ook voor de wat minder snelle videokaarten soepel te draaien. Shogun 2 is het oudste spel van dit trio, maar stelt de gpu's toch het zwaarst op de proef.

Grid 2 - 1920x1080 - Ultra - 8xMSAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 760
*****
+
**
52,3 / 67,4
R9 270
*****
+
*
51,3 / 64,5
Asus GTX 660 DirectCU II
*****
+
**
45,9 / 59,7
HD 7850 / R7 265
****
+
*
43,0 / 54,5
R7 260X
****
+
*
38,4 / 47,2
GTX 750 Ti
****
+
*
34,8 / 45,6
GTX 650 Ti
***
+
*
28,9 / 37,2

Ten opzichte van de 650 Ti noteert de 750 Ti een ruime verbetering in Grid 2. De game draait het beste op AMD-gpu's en dat is te zien; de R7 260X en 265 zijn sneller.

Shogun 2: Total War - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 760
*****
+
**
38,0 / 52,3
Asus GTX 660 DirectCU II
*****
+
**
35,7 / 46,6
R9 270
****
+
*
34,0 / 42,6
HD 7850 / R7 265
****
+
*
27,3 / 35,5
GTX 750 Ti
***
+
*
25,3 / 34,0
R7 260X
**
+
*
17,0 / 23,0

In Shogun, waarin Nvidia-kaarten vaak het voordeel hebben, streeft de 750 Ti de 260X ruim voorbij en komt hij bij de R7 265 in de buurt. Onze GTX 650 Ti weigerde de benchmark te draaien, waardoor van die kaart geen resultaat is opgenomen.

Sleeping Dogs - 1920x1080 - Ultra
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 760
****
+
***
44,4 / 77,4
R9 270
****
+
**
48,5 / 70,7
Asus GTX 660 DirectCU II
****
+
***
42,6 / 68,8
GTX 750 Ti
*****
+
**
50,8 / 68,7
HD 7850 / R7 265
****
+
**
40,9 / 60,1
R7 260X
***
+
**
33,6 / 49,0
GTX 650 Ti
**
+
*
26,8 / 41,8

In Sleeping Dogs scoort de 750 Ti opvallend goed. De gemiddelde framerate ligt even hoog als die van de GTX 660, terwijl de minimale framerate de hoogste is van de geteste kaarten en daarmee hoger is dan die van de GTX 760.

Energie

Nvidia heeft zijn best gedaan om ondanks het gelijkgebleven procedé toch meer prestaties bij een lager verbruik uit het silicium te halen. De GTX 750 Ti krijgt daardoor een tdp van 60 watt mee, terwijl de GTX 650 Ti nog maximaal 110 watt zou verstoken.

Energieverbruik systeem - Idle
VideokaartVermogen in watt, lager is beter
R7 260X
******
70,00
GTX 750 Ti
*******
71,00
GTX 650 Ti
*******
72,00
GTX 760
*******
75,00
R9 270
*******
75,00
Asus GTX 660 DirectCU II
*******
76,00

Uitgangspositie van de energietest is het idle-verbruik, dat gemeten wordt als het testsysteem volledig is gestart en waarbij onnodige software is uitgeschakeld. Daarbij varieert het verbruik van de zes videokaarten onderling met 6 watt.

Energieverbruik systeem - Ingame
VideokaartVermogen in watt, lager is beter
GTX 750 Ti (60W)
****
159,00
GTX 650 Ti (110W)
*****
165,00
R7 260X (115W)
*****
167,00
HD 7850 / R7 265 (150W)
******
204,00
R9 270 (150W)
******
221,00
GTX 760 (170W)
*******
251,00

Voor de ingame-verbruikstest simuleerden we continue gamebelasting door Unigine Valley te draaien. Met behulp van een Voltcraft Energy Logger 3500 registreerden we het energieverbruik van het hele systeem gedurende de test, waarna we een gemiddelde hebben berekend. We hebben de opgegeven tdp's in de tabel genoteerd, waarbij wel opgemerkt moet worden dat AMD en Nvidia het maximale verbruik vermoedelijk op andere manieren berekenen. Desondanks valt op dat de 750 Ti in de verbruikstest nauwelijks zuiniger is dan zijn voorganger, terwijl die 650 Ti een tdp heeft die bijna twee keer zo hoog ligt.

Energieverbruik systeem - Grid 2
VideokaartVermogen (watt)
GTX 650 Ti
*******
165
GTX 750 Ti
*******
168
R7 260X
********
196
R9 270
**********
252

Omdat de 750 Ti in de normale verbruikstest opvallend veel energie nodig had, lieten we vier videokaarten ook nog eens een halfuur de benchmark van Grid 2 draaien, terwijl we het verbruik weer bijhielden. In deze test blijkt het systeem met de 750 Ti zelfs meer energie nodig te hebben dan de 650 Ti.

Energieverbruik processor - Grid 2
VideokaartVermogen (watt)
GTX 750 Ti
**********
42,8
GTX 650 Ti
*********
38,6

Hoewel we Unigine Valley en Grid 2 hebben uitgezocht om hun lage cpu- en hoge gpu-belasting, is het meten van het verbruik van het totale systeem om iets te zeggen over de videokaart niet perfect. De cpu, of andere hardware kan immers ongemerkt roet in het eten gooien, daarom hebben we met behulp van HWiNFO het verbruik van de processor bijgehouden tijdens het draaien van de Grid 2-test.

De processor blijkt inderdaad in het geval van de 750 Ti iets meer energie nodig te hebben, misschien doordat de software, zoals eerder genoemd, een groter deel van de scheduling voor zijn rekening neemt. Toch verklaart dat niet waarom het systeem met de 750 Ti tijdens games ongeveer evenveel verbruikt als een 650 Ti of R7 260X, terwijl de tdp een stuk lager ligt.

Energieverbruik systeem - Load
VideokaartVermogen in watt, lager is beter
GTX 750 Ti
****
172,00
GTX 650 Ti
*****
193,00
R7 260X
*****
213,00
Asus GTX 660 DirectCU II
******
225,00
GTX 760
*******
275,00
R9 270
*******
282,00

Tot slot gebruiken we Furmark om de gpu's volledig te belasten. Furmark levert een onrealistisch hoge belasting op en in de praktijk zullen dergelijke waarden niet gehaald worden. Toch is het interessant om te zien dat de 750 Ti in Furmark ongeveer net zo veel verbruikt als tijdens de Grid 2-energietest, terwijl de 650 Ti 28 watt meer gaat verbruiken.

Waarschijnlijk is het geringe verschil tussen de 650 Ti en 750 Ti het gevolg van Gpu Boost 2.0, waarmee de nieuwe Maxwell-gpu zijn energieverbruik binnen de gegeven tdp beter weet te maximaliseren dan de 650 Ti, die niet over die techniek beschikt. Het is in ieder geval duidelijk dat een tdp die 50 watt lager ligt niet meteen betekent dat het energieverbruik ook met 50 watt daalt.

Overklokken

Ook al is het een midrange-videokaart, we wilden de GTX 750 Ti toch eens overklokken om te zien hoeveel meer we nog uit de gpu konden persen. De gpu is er volgens Nvidia in ieder geval geschikt voor; de fabrikant noemt de headroom die de kaart nog heeft voor hogere kloksnelheden 'tremendous'.

Die bewering stelden we natuurlijk graag op de proef, vooral omdat de videokaart niet over een externe voedingsaansluiting beschikt, waardoor het verbruik niet enorm kan oplopen. We hebben dan ook niets veranderd aan spanningen of koeling.

GM107_gpu

We werden niet teleurgesteld. Het schuifje in de Afterburner-software die we gebruikten, kon op een gegeven moment niet verder naar rechts, terwijl de gpu stabiel 3DMark bleef afdraaien. Het resultaat was +135, oftewel 135MHz opgeteld bij de boost-snelheid van 1085MHz, wat neerkomt op 1220MHz. Omdat Gpu Boost ook op de kaart actief blijft, bleek de uiteindelijke gpu-frequentie tijdens benchmarks nog iets verder te kunnen oplopen, met als maximum 1267MHz.

Vervolgens hebben we gekeken of het geheugen, dat op 1350MHz tikt, nog wat harder wilde lopen. Ook dat bleek het geval en uiteindelijk bleef het schuifje hangen op 1667,5MHz, of een effectieve gddr5-snelheid van 6670MHz.

Benchmarks

3DMark Fire Strike
VideokaartIn punten, hoger is beter
GTX 760
*******
6116
R9 270
*******
5706
Asus GTX 660 DirectCU II
******
5275
HD 7850 / R7 265
******
4881
GTX 750 Ti OC
*****
4668
R7 260X
*****
4176
GTX 750 Ti
*****
4152
GTX 650 Ti
****
3165
Unigine Heaven 4.0 - normal
VideokaartIn punten, hoger is beter
GTX 760
*******
1332,00
Asus GTX 660 DirectCU II
******
1173,00
R9 270
******
1153,00
GTX 750 Ti OC
******
1139,00
GTX 750 Ti
*****
1020,00
HD 7850 / R7 265
*****
998,00
R7 260X
****
778,00
GTX 650 Ti
****
672,00

In 3DMark levert de overklok een snelheidsverhoging van iets meer dan twaalf procent op, terwijl het in Heaven net geen twaalf procent is. De 260X is dankzij de overklok geen partij meer voor de 750 Ti.

Voor de volledigheid draaiden we ook nog twee gamebenchmarks om het resultaat van de overklok in de praktijk te zien.

Crysis 3 - 1920x1080 - Very High
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 760
******
+
*
33,7 / 41,3
Asus GTX 660 DirectCU II
*****
+
*
29,7 / 37,0
R9 270
*****
+
*
29,0 / 35,1
HD 7850 / R7 265
****
+
*
25,0 / 30,4
GTX 750 Ti OC
****
+
*
24,0 / 29,7
R7 260X
****
+
*
23,0 / 27,2
GTX 750 Ti
***
+
*
21,0 / 26,4
GTX 650 Ti
***
+
*
15,7 / 21,3
Grid 2 - 1920x1080 - Ultra - 8xMSAA
VideokaartMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 760
*****
+
**
52,3 / 67,4
R9 270
*****
+
*
51,3 / 64,5
Asus GTX 660 DirectCU II
*****
+
**
45,9 / 59,7
HD 7850 / R7 265
****
+
*
43,0 / 54,5
GTX 750 Ti OC
****
+
*
40,5 / 51,1
R7 260X
****
+
*
38,4 / 47,2
GTX 750 Ti
****
+
*
34,8 / 45,6
GTX 650 Ti
***
+
*
28,9 / 37,2

Ook in Crysis 3 en Grid 2 bedraagt de winst twaalf procent. Crysis 3 wordt op de hoogste instellingen net wat beter speelbaar dankzij de overklok, en ook in deze games laat de 750 Ti AMD's 260X definitief achter zich, terwijl dat voor de overklok nog niet het geval was. Al met al een prima resultaat voor een videokaart die in principe niet op overklokken gericht is en ook niet uitgevoerd is met een extra stroomtoevoer. Bovendien leek de gpu nog sneller te kunnen lopen dan wat we tijdens onze korte overkloksessie hebben bereikt.

Conclusie

Na een klein weekje gegamed te hebben met de Maxwell-gpu houden we een enigszins dubbel gevoel over aan Nvidia's nieuwste gpu. Enerzijds zijn de prestaties prima en is de 750 Ti een mooie opvolger van de 650 Ti en de 650 Ti Boost. Anderzijds zien we het lage energieverbruik niet terug in onze metingen. Dat komt wellicht doordat Nvidia's Gpu Boost 2.0 de gpu steeds tot het uiterste weet te belasten zonder dat de tdp-limiet wordt overschreden. De 650 Ti, die niet over Gpu Boost beschikt, klokt zichzelf niet automatisch over en zoekt daardoor ook niet automatisch de limiet op.

Hoe het verbruik ook uitvalt, feit is dat de 750 en 750 Ti geen extra stroomtoevoer nodig hebben. Dat is de grootste troef van de twee Maxwell-kaarten, omdat een behoorlijke prestatiewinst daardoor nu ook voor gebruikers van oem-computers binnen handbereik is. Dergelijke systemen beschikken meestal niet over een zespinsstroomaansluiting en zijn vaak voorzien van voedingen die maximaal 300 watt leveren.

In dat licht is de 750 Ti dus een absolute topkaart, die een stuk sneller is dan Nvidia's GT 640, de vorige videokaart die zonder zespinsaansluiting werd geleverd. Ook concurrent AMD heeft op dit moment geen weerwoord. De snelste AMD-kaart zonder zespinsaansluiting is de R7 250, die een stuk langzamer is dan de 750 Ti.

GTX 650 Ti en GTX 750 Ti

GTX 650 Ti (links) en GTX 750 Ti

De stap om een zuinige gpu op 28nm uit te brengen is interessant, omdat TSMC binnenkort de overstap naar 20nm maakt en Nvidia, als grote afnemer, snel zal volgen. Door het kleinere productieprocedé kan Maxwell dus nóg zuiniger worden, en dat is ook interessant voor gebruik in laptops en in de Tegra-processors voor smartphones en tablets.

Als de sm-units ook nog eens goed schalen, kunnen we over niet al te lange tijd snelle gpu's op 20nm verwachten, waarbij de prestatie per watt-verhouding nog hoger ligt dan de verdubbeling die de GTX 750 Ti laat zien. Voorlopig is dat echter toekomstmuziek en moeten we het met de GTX 750 en 750 Ti op 28nm doen.

Tot slot kijken we nog naar de prijs-prestatieverhouding, waarbij concurrent AMD twee interessante ijzers in het vuur heeft. De prestaties van de 750 Ti, die 139 euro gaat kosten, zijn te vergelijken met die van de R7 260X en de R7 265. Die laatste videokaart werd onlangs aangekondigd door AMD en tegelijk voerde de fabrikant een prijsverlaging door voor de 260X, die 108 euro gaat kosten. De R7 265 komt op iets meer dan 130 euro uit en is sneller dan de 750 Ti.

Ga je voor snelheid, dan is de R7 265 de interessantste keuze, zo blijkt uit onze benchmarks. Wil je echter een zuinigere videokaart of biedt je computer geen ruimte voor een energieverslindende videokaart met een tdp van 150 watt, dan is de GTX 750 Ti het snelste dat op dit moment te krijgen is.

Reacties (87)

87
86
42
10
2
33
Wijzig sortering
Het schuifje in de Afterburner-software die we gebruikten, kon op een gegeven moment niet verder naar rechts, terwijl de gpu stabiel 3DMark bleef afdraaien. Het resultaat was +135 ..
Jaja, puik uitzoekwerk daar op gemiddeldegebruikers.net . Nu weten we nog niet wat het maximum is. :?

Dat limiet in MSI Afterburner kan je gewoon voorbij.

[Reactie gewijzigd door SirNobax op 22 juli 2024 14:36]

Haha, die link :+
Wat ik ook mis is de geluidsproductie van deze kaart.
Gezien het een zuinig kaartje is en waarschijnlijk in woonkamer omgevingen gebruikt gaat worden.

Ook zou de koeling / passive koelings mogelijkheden interessant vinden
Het verbruik met de overclock is natuurlijk interessant!
Op anandtech is dit wel gemeten. En overigens ook het geluid en temperatuur.
Linkje naar bron.

Uit de review van hardware.info blijken de prestaties per watt.

Radeon R7 265 22 fps 238W
GeForce GTX 750 Ti 22 fps 208W
GeForce GTX 650 Ti Boost 20 fps 259W
GeForce GT 640 10 fps 183W
Vergelijken we de 750 Ti en 650 Ti Boost, dan kan de nieuwe kaart een 10% hogere score behalen met zo'n 50W lager verbruik. Dat is echt een ongekende toename van efficiëntie als je bedenkt dat Nvidia nog steeds hetzelfde productieprocedé gebruikt. Vergelijken we met de GT 640, dan zien we dit voordeel andersom: de GTX 750 Ti kan met slechts 25W extra verbruik een score neerzetten die ruim twee keer zo hoog is.
Voor de volledigheid nog even de conclusie van HWI
Kijken we naar de prestaties, dan zien we dat de GeForce GTX 750 Ti gemiddeld iets sneller is dan de GeForce GTX 650 Ti Boost, terwijl hij zo'n 50W minder stroom verbruikt onder load. De GeForce GTX 660 blijft aanzienlijk sneller. Het is overduidelijk dat Nvidia de GTX 750 Ti en GTX 750 positioneert tegenover de Radeon R7 260X en R7 260. Wanneer je kijkt naar onze totaal score, die we baseren op de gemiddelde framerate in 11 games, zien we dat de GeForce GTX 750 Ti wat sneller is dan de Radeon R7 260X en de GeForce GTX 750 wat sneller is dan de Radeon R7 260.
Tot besluit nog maar wat linkjes naar de verschillende reviews.

[Reactie gewijzigd door dirkjesdirk op 22 juli 2024 14:36]

bij de techpowerup review die je linkt is vooral pagina 26 geinig

http://www.techpowerup.co...eForce_GTX_750_Ti/26.html
De pagina erna (niet performance per watt, maar performance per dollar) is ook aardig, want daar staat de 650ti namelijk weer bovenaan.
Wat nog mist in dit rijtje EN in de review is MINEN met deze kaart. Vandaar de volgende link : http://cryptomining-blog.com/tag/gtx-750-ti-cudaminer/

Dit is zowat het meest belangrijke aspect van deze kaart op dit moment, en waarom deze een instant-hit kan worden. AMD heeft hier lang alleen geheerst en dit is nu voorbij.

Het is nu ook nog goedkoper geworden dus voor cryptocurrency in het algemeen een goede zaak als meer mensen mee gaan doen. Waarom NIEMAND het hier nog over heeft gehad is mij een raadsel. Hoeveel % van de omzet van AMD is dit ?

Nog een goede zaak is dat scrypt asic miners nog wel een paar jaartjes in ontwikkeling gaan blijven.
Geluidsmetingen heb ik omwille van de tijd laten zitten en bovendien is de kans dat de referentiekoeler op de uiteindelijke videokaarten terugkomt vrij klein. Wellicht doen we binnenkort een roudupje van 750Ti-kaarten, waarin we ook geluid meenemen :)
Geluidsproductie is bij HWI wel gemeten, maar enkel van de Ti kaart. http://nl.hardware.info/r...ell-gpus-geluidsproductie.
Van de GTX 750 hebben we geen geluidsmeting ingevoerd aangezien we daar geen referentiekaart van hebben. De GTX 750 Ti produceert idle een een kleine 33 dB(A) geluid. Dat is bijna onhoorbaar en duidelijk stiller dan andere referentiekaarten in dit segment. Onder load blijft de GTX 750 Ti als enige ruim onder 40 dB(A), wat we echt uitstekend kunnen noemen. De efficiëntiewinst betaalt zich dus zonder meer ook uit in een lagere geluidsproductie.
Edit: op anandtech is van beide kaarten het geluid gemeten.

[Reactie gewijzigd door dirkjesdirk op 22 juli 2024 14:36]

Dat klopt, en we hadden ook nog aan de spanning kunnen rommelen en de koeling kunnen aanpassen, maar omdat we geen zeeën van tijd hadden voor het embargo verliep hebben we gekeken wat je met een beetje tweaken al kan bereiken, en dan blijkt dat er met onaangepaste hard- en software 12 procent winst te bereiken is :)
Wat ik me altijd afvraag is waarom worden zulke low end kaartjes getest met games waarbij alles op ultra staat.

Leuk BF4 op 28 FPS met ultra settings... maar wat heft de gemiddelde gamer aan deze gegevens? Laat liever zien tot welke settings de kaart een minimale FPS van 60 heeft.

Het ergste is nog dat vrijwel alle sites het op deze manier lijken te doen. waardoor je, wanneer je een game wil gaan spelen en je een nieuwe videokaart zoekt je dus eigenlijk nog geen bal weet.

In de bench staat de 760 bij bf4 op minimaal 28 FPS. terwijl als ik mijn kaart test op medium of low settings dan gaat dit kaartje ruim boven de 100 FPS. dus de game is prima speelbaar.
Erg leuke firstpost, die de spijker op een humoristische manier op de kop slaat.
De naam van de link naar de site is naar mijn mening precies de naam die het verdient.

Je hoeft daar dan ook geen uitzoek werk van te verwachten want dat is gewoon teveel gevraagd.
"De twee Maxwell-kaarten moeten de GTX 650 Ti en 650 Ti Boost gaan vervangen."

en vervolgens is de TI Boost niet meegenomen in de tests. Beetje jammer :| ...

[Reactie gewijzigd door Majin Buu op 22 juli 2024 14:36]

Ik miste ook de GTX 660, voorlopig kun je die nog voor rond de €150 aanschaffen voor een prima prijs/prestatie verhouding.

Daarnaast heb ik dit al eerder gemeld; het heeft geen nut een game op ultra te benchmarken als het resultaat vervolgens <20 fps is. Pak dan high zodat het gros van de geteste kaarten in ieder geval speelbare framerates opleveren. Zelfs de "snelste" kaart uit deze benchmark selectie voldoet nu niet.
Daarnaast heb ik dit al eerder gemeld; het heeft geen nut een game op ultra te benchmarken als het resultaat vervolgens <20 fps is
Waarom zou dat geen nut hebben, je weet nu prima dat deze kaart geen Ultra trekt en dat je dus je instellingen naar beneden moet schroeven als je van plan bent deze kaart aan te schaffen?

Ben wel mee eens dat het ook leuk was geweest als er een benchmark in zat op "normal" instellingen, dan kan je zelf perfect een schatting maken hoe sterk de kaart is

[Reactie gewijzigd door Sinester op 22 juli 2024 14:36]

Het heeft ongeveer evenveel nut als het daadwerkelijk spelen op die Ultra settings.. nu weet je nog niet op welke setings je wél smooth kan spelen. (boven de 60 fps en niet teveel dips dus)
Hangt ook van de rest van je configuratie, drivers en frisheid van je install af.
Het nut is dat je een CPU bottleneck kan uitsluiten en puur de verschillen tussen de 2 kaarten kan meten.
Onzin, op high is er ook prima scaling... Dat volgt al uit het feit dat we geen 100+ fps zien...

Maar speciaal voor jou:
1680x1050 high: van 19 tot 123 fps op http://www.anandtech.com/bench/GPU12/401
Let ook op de grote onderlingen verschillen tussen de diverse kaarten. Bij die grafiek kun je echter wel concluderen dat alles boven de GTX 560 60 fps op high draait (op 1680x1050).
Nah, echt precies mijn gedachte. Echt heel andere kaart dan de 650 Ti. Jammer.
Andere site daarvoor maar weer gebruiken dan.

750 Ti lijkt erg interessant. Al had ik niet net een 650 Ti Boost gekocht.
Zoiets is standaard bij deze site voor de gemiddelde gebriuiker.
De naam tweakers is nostalgie, heeft niets meer te maken met de realiteit.
Nog iets om in het achterhoofd te houden:

Het verbruik van zulke kaarten op de 12v lijn. Hier ben ik tegenaan gelopen toen ik een GTX650e gekocht had.

Wat blijkt is dat veel voedingen tegenwoordig 2x 12v lijnen hebben lopen, waar sommige voedingen 1x een 12v lijn hebben. Nu is het zo dat bij de dual 12v lijnen er stukken minder amperage over de lijn loopt dan een enkelvoudige.
Dit soort kaarten die tegen de max. aanzitten voor wat betreft energie zonder extra 6pins connector hebben meestal een overvloed aan amperage nodig, iets wat een dual 12v lijn meestal niet kan leveren en dus de kaart NIET gaat werken.

Het zou dus wel handig zijn om ook de gewenste amperages in de specs te laten zien.
wat ik jammer vind aan deze benchmarks is het test systeem waar ze op gedraaid worden.
Het is nou niet bepaald een realistische opstelling een goedkoop budget kaartje in een pc testen met een Intel Core i7 4960X @ 4,4GHz.. natuurlijk bevorderd de overige hardware de prestaties van de GPU.

Het zou interessanter zijn als deze GPU's bijvoorbeeld werden getest in combinatie met een I3 processor.
Er wordt al jaren getest met de snelste gpu om ze de cpu bottleneck uit te sluiten (of iig te minimaliseren).

Volgens jou logica ga je praten over de scaling van de cpu, en niet van de gpu. Het punt dat de gpu dan nuttig wordt is 100% afhankelijk van de power van die cpu. Dat is dus een cpu review...

Om een pc in balans te krijgen heb je helaas een beetje ervaring nodig. Achteraf kun je het eenvoudig controleren met wat freeware, zie
Computer balans

Een computer is altijd zo snel als het traagste onderdeel. Bij het spelen van games zijn de belangrijkste onderdelen dus de cpu en de gpu. Het geheugen is alleen een beperkende factor; indien er te weinig van is ontstaan er problemen. De hardeschijf is eigenlijk niet van invloed op de framerate. Games zijn zo geprogrammeerd dat ze de benodigde data tijdig inladen. Het komt overigens niet vaak voor dat een computer volledig in balans is.

Scenario's

In de praktijk zijn er twee scenario's mogelijk;
1.de cpu moet wachten op de gpu
2.de gpu moet wachten op de cpu

In het eerste scenario is de grafische kaart te traag. Het heeft hierdoor voor de processor geen zin om nog meer werk uit te voeren. De processor moet dus even wachten. Bij een pc systeem dat in een willekeurige winkel is gekocht (een OEM pc) is meestal sprake van het dit scenario. Zeker nu beeldschermen standaard 1920x1080 (2 miljoen beeldpunten) hebben wordt er veel gevraagd van de gpu. Er is dus bezuinigd op de gpu en de processor heeft weinig te doen.

Het tweede scenario komt vaak voor bij gebruikers die zelf een systeem hebben samengesteld zonder goed inzicht in de balans. In het tweede scenario is de grafische kaart zo snel dat deze constant moet wachten op nieuwe informatie van de processor.
Processor of de grafische kaart het traagst?

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:36]

Ik ben het helemaal met je eens, maar nu staat er het volgende in het artikel:
Nvidia heeft ook een groter deel van de scheduling van de hardware naar de software verplaatst. Dat heeft een iets hogere cpu-belasting tot gevolg,
Dat vind ik rede genoeg om eens te kijken wat dat inhoud voor de budget gamer, precies de doelgroep van deze kaart.

Ook heeft AMD nu ook Mantle, dat ervoor zorgt dat de CPU minder te doen heeft en dus een grote performance boost geeft op minder krachtige CPU icm. sterkere GPU's.

Ik zie dus steeds meer rede om ook met budget cpu's te testen.

(Sorry, pagina niet gerefreshed, had de reactie van haarbal niet gezien)

[Reactie gewijzigd door JJ White op 22 juli 2024 14:36]

Volgens nvidia minder dan 1% van je cpu. Helaas geen bron, dat werd vermeld in een filmpje van HWI.
Aan de andere kant, in dit artikel staat dat nvidia wat sceduling van hardware naar software heeft veplaatst. Misschien ben je met een langzame cpu wel beter af met een oude generatie kaart.

een beetje zoals hier
http://techreport.com/rev...rmance-in-battlefield-4/2
bij de trage A10-7850K cpu zie je dat onder direct3d de nvidia kaarten 35% beter presteren, al kan het natuurlijk ook gewoon aan een betere driver liggen ipv hardware.

[Reactie gewijzigd door haarbal op 22 juli 2024 14:36]

Fijn testen met een trage proc zodat al je GPU's het zelfde scoren door een Proc limit. Je wil zeker willen weten dat je verschillen te zien krijgt dus zal je met een te snel test systeem moeten benchen.

Wat voor budget systemen wel interessant is om te kijken welk driver model beter presteerd met een trage proc. AMD/Mantle of Intel. En of je dan een AMD of een Intel proc moet hebben.
Die doorgeslagen nadruk op energie verbruik bij Tnet snap ik echt niets van.

Voor consumenten PC's (Game / All-round / whatever) is dat helemaal niet relevant.

Alleen wanneer je consumenten PC meer dan 5 uur per dag op Load draait gaat dat voldoende aantikken om mee te nemen in de aanschaf. (Fysieke aansluit-beperkingen uitgesloten)
Die doorgeslagen nadruk op energie verbruik bij Tnet snap ik echt niets van.
Waarschijnlijk omdat dit een van de verkoop argumenten van deze kaart is, als het je weinig interesseert zijn er idd betere kaarten te krijgen

ik vind dit kaartje persoonlijk ook niet zo interessant, meeste gamers hebben echt wel een voeding met een GPU aansluiting voor stroom, uiteindelijk kijk ik toch naar Prijs / Prestatie ipv watt / Prestatie

[Reactie gewijzigd door Sinester op 22 juli 2024 14:36]

Omdat het toch netjes is om een relatief krachtige GPU uit te brengen zonder dat je er een superkrachtige voeding voor nodig hebt.
En stel je nu eens voor hoe een mobiele versie van deze GPU zou werken. Zou namelijk betekenen dat je ook een leuke batterijduur hebt naast een mooie GPU.
Er zijn zat mensen zonder 6 pins PCIE connector, dus daar is t ook interessant voor. Hoef je je broertje/vrienden/ouders geen nieuwe voeding aan te smeren.

Vind t zelf ook belangrijk om een kaart te hebben die niet zoveel watt verbruikt. Voor t milieu, al maakt t niet zoveel uit natuurlijk. En ik steun graag fabrikanten die zich daar wel voor inzetten.

[Reactie gewijzigd door - peter - op 22 juli 2024 14:36]

Misschien geen typisch gebruik, maar ik heb een Zalman TNN500af (volledig passief gekoelde kast) die ik altijd upgrade met de snelste videokaart die geen extra voeding nodig heeft. Voor mij is dit dus wel degelijk interessant.

Het gaat niet alleen om energieverbruik, maar ook hoe gemakkelijk iets te koelen is en hoeveel geluid daarmee gepaard gaat.
zoals aangegeven: gpu's zonder extra stroomconnector = koeler en stiller
laat dit nu net zeer belangrijk zijn voor tweakers met een (kleine) htpc

verder is het natuurlijk zeer interessant om zien dat nVidia's nieuwe generatie een zeer mooie prestatiewinst laat zien voor hetzelfde verbruik, dat ziet er veel belovend uit voor de GTX880!
de GTX750 is overduidelijk een "test-kaart" om het ontwerp te testen, verder verfijnenn...
Kijk dat is een mooi kaartje voor mijn HTPC! Zuinig en nog leuke prestaties ook!

Mag ik vragen waarom er altijd op Windows getest wordt, en niet bijv op steamOS/linux? Lijkt me namelijk steeds relevanter worden...

Zal weer mijn eerste Nvidia worden sinds de 8800GTX jaren terug, ben benieuwd...
ik gok dat dat is in verband met driver software die misschien niet werkt met Linux en de spellen zelf die misschien ook niet werken met Linux.

SteamOS is inderdaad wel een optie.

( ik weet steam OS is gebasseerd op Linux maar toch zit er wel verschil tussen steam OS en bv Ubuntu )
Op dit moment is zal SteamOS nog niet interessant genoeg om te testen omdat die markt nog klein is. Geef het een half jaar tot een jaar, dan zul je het wel meer tegen komen als het niet geflopt is.
Er zijn nog geen games voor die zowel native op Linux draaien alsook de GPU genoeg belasten om in een benchmark gebruikt te worden.

Wat ik mij wel afvraag is waarom er geen nog streaming-benchmarks zijn? (Windows-client naar SteamOS.) Welke prestaties zetten deze GPUs neer als er ook nog een HD-stream gecodeerd moet worden?

[Reactie gewijzigd door Mijiru op 22 juli 2024 14:36]

Ik weet dat Metro: Last Light naar linux geport is, dat is een spel dat redelijk wat graphische oemf nodig heeft.

Volgens mij (quote me er niet op) gebruikt Steam streaming voor als nog alleen de cpu om te encoden en decoden.
Dus, dan test je Battlefield 4 maar gebruik je alleen DirectX? Dat is toch onrealistisch? Als je een AMD kaart hebt, gebruik je toch Mantle in Battlefield 4?
Mantle is alleen beschikbaar voor AMD kaarten. Logisch dat er met Direct X word getest omdat je dan vergelijkbare resultaten krijgt.
Mantle is alleen beschikbaar voor AMD kaarten.
Dus? Je wilt toch weten wat sneller is? Als AMD enkel Mantle heeft en daardoor dus mogelijk sneller is is dat toch heel belangrijk...

Eerlijke vergelijkingen bestaan niet, anders hadden ze allemaal dezelfde score :)
Zoals ik al zei, Mantle is op dit moment alleen beschikbaar als Beta voor AMD kaarten. Nvidia ondersteunt dit (nog) niet.

Daarnaast zal Mantle juist slechter presteren met systemen met een zware CPU, zoals het systeem dat gebruikt is in de test. Mantle is er vooral om low-end cpu's te ontlasten.

Mantle presteert tevens ook slechter dan Direct X op low- en midrange kaarten. Precies die plek waar deze nVidia kaarten toe behoren.

[Reactie gewijzigd door Deem op 22 juli 2024 14:36]

Zoals ik al zei, Mantle is op dit moment alleen beschikbaar als Beta voor AMD kaarten. Nvidia ondersteunt dit (nog) niet.
Het complete chipontwerp is anders dus dat zou een vergelijking net zo oneerlijk moeten maken volgens z'n kromme redenering :) Wat maakt het uit dat NV dit nog niet heeft? Het zorgt er toch gewoon voor dat AMD mogelijk in het voordeel is...
Daarnaast zal Mantle juist slechter presteren met systemen met een zware CPU, zoals het systeem dat gebruikt is in de test. Mantle is er vooral om low-end cpu's te ontlasten.

Mantle presteert tevens ook slechter dan Direct X op low- en midrange kaarten. Precies die plek waar deze nVidia kaarten toe behoren.
Neemt niet weg dat ik Mantle resultaten mis, ongeacht of de resultaten beter of slechter zijn, wat imho dus totaal niet relevant is...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 14:36]

AMD heeft mogelijk onder bepaalde specifieke omstandigheden het voordeel, met Beta drivers, met beperkte Beta Mantle support in welgeteld 1(!) game.

VS

DirectX dat door beide (alle) fabrikanten ondersteund word en al jaren doorontwikkeld is, dat met vrijwel iedere game en benchmarkapplicatie te testen valt, waarbij je dus kan garanderen dat de kaarten dus de zelfde belasting moeten verwerken.

Als je wilt weten, welke nu de snelste is, dan lijkt het me logisch dat er gekozen wordt voor alleen een DirectX vergelijking op dit moment.
het is echter een indicatie voor wat er mogelijk gaat zijn,
verder komt Thief 4 ook met support en zijn er vele andere games en engines die support in gaan bouwen. kortom het is wel relevant.

verder wat je zegt is dat performance op high end cpu's lager is,
dat is niet correct, het is niet veel sneller, maar alsnog een hogere framerate. low en mid end cpu's hebben veel voordeel vooral wanneer gepaard met een high end gpu. maar ook met een mid end gpu krijg je wat extra frames.

kortom het had Tweakers.net gesierd benchmarks te hebben, echter het is makkelijk om dezelfde settings te vinden in een mantle review van BF4 en even te vergelijken.
Als je een Ferrari test, dan test je die op het circuit en niet op die zandweg, net iets korter is.
Je wilt dat die Ferrari het zelfde circuit rijd als alle andere testauto's, om zo gelijkwaardig de resultaten te kunnen vergelijken.
Je hebt gelijk, Mantle is van AMD omdat hun CPU`s al heel lang niet meer tegen intel aankunnen. Zodoende een CPU ontlastende API die in feite de GPU efficienter belast maar dus ook meer performance ervan vraagt..
mantle is nog in beta en is bij een groot aantal gebruikers instabiel/ geeft lompe sutter elke paar seconden. Nog totaal niet vanzelfsprekend.
Mantle is typisch een marketing product met in feite maar 1 game om het hot te maken nml battlefield 4.
Heb er zeer slechte ervaringen mee en ben nu weer over naar Nvidia.
ik vraag me af hoe de prestaties van deze videokaart zich verhouden tot de cpu. Er wordt gesteld dat deze kaart een mooie upgrade is voor oem systemen zonder extra voedingsaansluiting voor de gpu en 300 watt voeding. dit zijn volgens mij doorgaans niet systemen met een i7. ik had graag benchmarks gezien met een i3 en/of amd cpu. oftwel de cpu scaling.
De processor blijkt inderdaad in het geval van de 750 Ti iets meer energie nodig te hebben, misschien doordat de software, zoals eerder genoemd, een groter deel van de scheduling voor zijn rekening neemt. Toch verklaart dat niet waarom het systeem met de 750 Ti tijdens games ongeveer evenveel verbruikt als een 650 Ti of R7 260X, terwijl de tdp een stuk lager ligt.
Als dat klopt zouden de verschillen inderdaad kleiner moeten worden naarmate er minder processorkracht is...

Misschien dat je zelfs omgekeerde resultaten ziet als je echt een low-end CPU erbij pakt (atom voor de grap bijv)...
had de pagina moeten refreshen voor ik de comment poste haha, ja ik denk er dus precies het zelfde over. een simpele GPU van 100 euries in combi met een 800/900 euro CPU tja dat is niet realistisch.
Nu bidden voor Low-profile varianten...
Ook mijn gedacht, maar PCB is wel groot.

Tot nu is de Sapphire 7750 low profile de beste low profile kaart in mijn ogen.
pricewatch: Sapphire 7750 1GB GDDR5 Low Profile
Ik zou er niet te hard op hopen.

De PCBs zijn gewoon 650/650Ti ontwerpen, en kwa TDP zitten deze kaarten ook redelijk in de buurt van de 650, en uiteindelijk zijn daarvan ook nauwelijks low profile kaarten gemaakt (ik geloof 1 GTX650, maar die was niet in nederland verkrijgbaar)

Als we het over low profile kaartjes hebben zou ik eerder hopen op een GT740, die moet met een vergelijkbaar TDP als de 640 een 650 ruim kunnen verslaan, de vraag is alleen of men dan toch terug gaat vallen op 64 bits geheugen, of toch een 128 bits bus op een LP PCB-tje gaat proppern.
Zeer interessant voor een Steambox build! Met een PCIe riser en een zeer kleine voeding (pico of integrated) zal je hiermee aardig wat FPS kunnen halen in een zeer kleine formfactor.

Ik ben ook benieuwd of fabrikanten een stille uitvoering van deze kaart gaan brengen met lowRPM fans / een passief koelblok.
Integrated en pico psu's zijn vaak maar rond de 60-70 watt, de videokaart op zich is al 75 watt. Doe daar nog een cpu en andere hardware bij en je gaat het niet redden met een pico/integrated psu.....
Ehm, leuk dat er een aantal 60-70watt pico PSUs en integrated PSUs zijn, maar ik zie niet hoe dat relevant is?

Er bestaat ook namelijk gewoon een 160W PicoPSU http://www.mini-box.com/picoPSU-160-XT

Op dit item kan niet meer gereageerd worden.