Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties

De eerste informatie over de GTX 750 en GTX 750 Ti-videokaarten van Nvidia is opgedoken. De low-end modellen van de Geforce GTX 700-serie gebruiken de nieuwe Maxwell-achitectuur, die energiezuiniger zou zijn dan de huidige Kepler-architectuur.

Het nieuws viel te lezen op we website UK Gaming Computer, maar lijkt nu weer offline. Echter, videocardz.com heeft de informatie weten over te nemen. Die energiezuinigheid van beide videokaarten valt op te maken uit het feit dat zij de benodigde stroom van de pci-express-slots kunnen betrekken.

Zowel de GTX 750 als de GTX 750 Ti zijn gebaseerd op de GM107-gpu. De GTX 750 heeft 1GB aan gddr5-ram aan boord en de GTX 750 Ti heeft 2GB. Het geheugen van beide draait op 1350MHz. UKGC heeft de kaarten meteen door een benchmark gehaald en vergeleken met de GTX 650 Ti en de GTX 660. Opvallend is dat de GTX 750 en de GTX 750 Ti beter presteren in 3DMark11 dan de GTX 650 Ti. Dit terwijl de kaarten uit de 600-serie juist wel een 6-pin power connector aan boord hebben. De GTX 660 presteert nog wel beter.

Doordat de modellen die UKGC in handen heeft standaard overgeklokt zijn, valt moeilijk te zeggen wat de specificaties zullen zijn van andere GTX 750-modellen. Deze GTX 750 en GTX 750 Ti hebben gpu's van maximaal 1163MHz. De 750 heeft 768 Cuda-cores en de 750 Ti telt 960 Cuda-cores. Beide kaarten gebruiken nog wel het 28nm-fabricageproces dat de Kepler-kaarten ook gebruiken. Op 18 februari komen de twee modellen op de markt.

Nvidia GTX 750 en GTX 750 Ti

Moderatie-faq Wijzig weergave

Reacties (33)

Mooi klein kaartje, nu een mooi prijsje en het is een kandidaat voor in mijn HTPC. Knap dat ze dit voor elkaar krijgen op hetzelfde proces.
Inderdaad een mooi klein kaartje voor in een HTPC. Ik hoop alleen dat ze dan met een passief gekoelde versie komen.

Anders zelf de fan er af slopen en zorgen voor genoeg airflow in de case. Ik zie dit wel zitten mits de prijs er ook naar is.
Het kan aan mij liggen, maar de 550 en 650 waren bij release zo'n 130. Dat vind ik voor de videokaart in een HTPC toch wel veel. Bovendien doe je (de meeste mensen dan) niks met een HTPC waar je deze rekenkracht voor nodig hebt. Voor games is het misschien niet super, maar als je full hd films bekijkt is het wel een beetje overkill. (Ik weet niet hoe het met UHD zit)
Ik gebruik een HTPC ook om te gamen, vandaar dat zo een kaartje dan interessant is. (zwaardere games draai ik dan op 720p)

Bijkomend voordeel is dat je met een pcie-riser kabel je een waanzinnig compacte HTPC kan maken.
Precies, ik game ook af en toe op mijn HTPC. Riser niet nodig, ik gebruik een fractal design node 304, dus voldoende ruimte. Ik denk dat dit kaartje voldoende power bezit om de meeste games op 1080p te draaien, alle opties hoef je toch niet aan omdat je een aardig eindje van je tv afzit itt de halve meter vanaf je monitor.

Toevallig pas geleden nog Half Life 2 uitgespeeld op de IGP van mijn i5-4570S, die draait dat gewoon soepel op 1080P met alle opties volledig open :p
Wat gaat de tijd toch snel..
Ik denk niet dat dat kaartje het leuk gaat vinden als jij die fan eraf sloopt, dat ding zit er niet voor niks op. Of je nu wel of geen goede airflow hebt in je kast, die fan zit erop om dat kaartje te koelen.
Je onderschat de kracht van de betere koelblokjes. Ooit heb ik zo de fan van m'n northbridge chip gesloopt en hier een hoog blokje op gezet. Dat werd overigens gloeiend heet maar zo heeft het moederbord het nog jaren gedaan en het scheelde een heel pak lawaai. Die kleine fans kunnen gerust irritant zijn als je 's avonds film zit te kijken.
Dat die fans een hoop herrie maken ben ik met je eens. Ik heb hier ook een Nvidia kaartje in mijn PC zitten en ondanks het feit dat het niet het snelste van het snelste kaartje is (GT320 geloof ik), maakt dat kreng bij het spelen van een simpel spel al een behoorlijke herrie. Het lijkt dan vaak wel alsof er een straaljager opstijgt, omdat de fan dan in 1 klap op volle snelheid begint te draaien.
Met de S1 van Accelero koel je ook gewoon passief alles tot aan een GTX 660, dus passief koelen kan prima. Moet je wel een goede overdracht hebben, daar zal dit magere blokje niet geschikt voor zijn.

Verder lijken deze 750/750ti vooralsnog helemaal niet interessant, behalve dan de form factor. Heeft verdacht veel weg van een nieuwe Kepler rebrand qua performance, en omdat we nog steeds op 28nm zitten ook geen grote stappen in verbruik. Maar er wordt wel een 128bit bus geintroduceerd op dit prijssegment met een lagere frequentie, lage bandbreedte dus waardoor deze 750's toch wel heel hard gebottlenecked worden bij een heel aantal games, ondanks dat er 960 stream processors in zitten. Lijkt mij een slechte balans...

Kortom, lekker overslaan dit als je overwoog om een midrange gpu te kopen, want dat mag je een kaart met zo'n smalle bus niet noemen.

[Reactie gewijzigd door Vayra op 7 februari 2014 17:19]

Welke invloed zal een kleiner fabricageproces precies hebben? De prestaties blijven toch gelijk, alleen is er minder warmteontwikkeling?
Betere prestaties per cm2 chip, en minder warmteproductie.
Je krijgt dan voornamelijk meer transistoren op hetzelfde oppervlak. Dat kan twee gevolgen hebben: ofwel maak je een bestaande chipdesign goedkoper (omdat de productiekosten afhangen van het aantal chips die je op 1 wafer krijgt), ofwel geeft het ruimte om meer transistoren bij gelijke productiekosten.

Fabricageprocessen verschillen in meer dan enkel de procesgrootte. Zo zijn bepaalde processen meer geoptimaliseerd voor performance en andere voor verbruik/warmte. Bij verandering van proces kan je dan soms een hogere kloksnelheid behalen, soms kan je een lager verbruik krijgen...
Wat zal de prijs zijn? GTX 750 Ti voor rond de 180 USD? Oftewel koop gewoon een GTX 760.
Ik geef je wel gelijk mbt tot de memory-interface.
GTX 760 vs 660 Ti en de 760 die wint het ondanks minder spu's en minder tmu's.
Bus 660 Ti 192 en de 760 is 256. 128 is zeker wel een showstopper...
Ik denk dat het in dit geval komt omdat de GTX760 een nieuwe kaart is, de geheugenbus zal ongetwijfelt meespelen maar ik denk niet dat dit het grote verschil verklaard omdat de GTX660TI in sommige gevallen de GTX760 juist op hoge resoluties weet te verslaan.

Je ziet dit meestal met nieuwere kaarten dat ze met minder dezelfde of betere prestaties kunnen leveren, dit komt omdat ze het 28nm process beter onder controle hebben en de architectuur van de gpu hebben geoptimaliseerd en wellicht op bepaalde punten bottlenecks hebben weggehaald. Goede voorbeelden zijn de HD4770 vs HD4850 en de HD7790 vs de HD7850, in beide gevallen komen de nieuwere kaarten (HD4770 en HD7790) heel dicht in de buurt van de performance van hun grote broers terwijl ze minder shaders hebben en vaak een kleinere geheugenbus.
Hoezo 180 usd? Dit zijn de opvolgers van de 650 en 650 Ti, kaarten die rond de 100 en 130 waren toen ze volop te koop waren.

180 misschien als je pre-ordered maar die prijzen zijn altijd belachelijk.
Wel jammer dat de kaarten slechts gebruik maken van een 128 bit memory-interface. Het minimum tegenwoordig is toch wel 192 of 256.
Die videokaarten zijn er toch zat?,moet je alleen wat meer voor betalen. De beste prestaties en goedkoop gaan meestal niet samen.
Is 192/256 bit niet overkill voor een kaart met een relatief lage performance?
Zoals Ivy Bridge al zegt is dat hardstikke overkill, de kaart kan hier geen gebruikt van maken. Dit is hetzelfde als 4gb geheugen op een lowend kaart zeggen en daarmee adverteren, je hebt er geen barst aan.

Als je naar de specs kijkt dan zie je dat er GDDR5 geheugen op zit en dat is meer dan genoeg om die kaart te voorzien. Als het GDDR3 was geweest dan was het een ander verhaal omdat dit maar de helft van de bandbreedte heeft vergeleken met GDDR5.
De GTX 650 heeft een 192 bit memory-interface. Aangezien dit de opvolger van die kaart is kun je het als een stap terug zien. Ik denk dat er ook met deze kaarten scenarios zullen zijn waarbij de kaart tegen wordt gehouden door de nauwere memory-interface.

Maar misschien hebben jullie gelijk en benut de Maxwell architectuur de memory-interface beter dan zijn voorgangers. Ik hoop het :)
Alleen de GTX 650 Ti Boost heeft 192-bit, de gewone 650 en 650 Ti hebben allebei 128-bit. Aangezien de 650 Ti net zoveel shaders heeft als de Boost versie maar die laatste toch zo´n 25% sneller is kun je concluderen dat 128-bit een behoorlijke bottleneck is.

Ik denk dus dat de 128-bit bus weer een bottleneck is bij deze nieuwe kaarten maar dat er voor gekozen is vanwege het lagere verbruik zodat geen pci-e connector nodig is. Als de prestaties kloppen is het toch wel een indrukwekkende stroombesparing gezien ze nog op 28nm zitten.
Je vergeet hier voor het gemak dat de GTX650 TI Boost over het algemeen een clockspeed heeft van 1071 tegenover de 925 van de non-boost versie (dat is 15% sneller).
Je ziet ook dat ze trager geheugen gebruiken namelijk 5.4ghz, als ze voor 6ghz GDDR5 zouden zijn gegaan dan kan ik je verzekeren dat ze even snel zijn.

Bronnen:
http://www.anandtech.com/show/6838/nvidia-geforce-gtx-650-ti-boost-review-
http://www.anandtech.com/show/6838/nvidia-geforce-gtx-650-ti-boost-review-/13

Wat ik wel denk is dat ze ervoor hebben gezorgd dat de geheugen bus op stock snelheden geen bottleneck zal geven, ga je de core flink overclocken dan heb zal je wel merken dat het te traag is :p.
Ik ben het met je eens dat ze de keuze express hebben gemaakt om zo het stroomgebruik te verlagen en die-space te besparen :p.
Ja, voor het gemak idd, anders wordt het weer zo tl:dr.

Maar goed, kloksnelheid is idd ook hoger en verder uit diezelfde review: "ROP throughput has been boosted to 159%. Meanwhile thanks to the combination of higher memory clocks and the full 192bit memory bus, memory bandwidth has been increased to 166% of the GTX 650 Ti’s"

Uiteindelijk heb je dus 115% kloksnelheid, 159% rop's en 166% memory bus wat bij elkaar dus tot ca. 125% meer prestaties leidt. Ergens zit dus een bottleneck. Precies weten zullen we het nooit want we kunnen niet dezelfde kaart met 128 en 192-bit geheugenbus krijgen.

Het ging mij ook eigenlijk meer om je bewering dat GTX 650 192-bit bus heeft wat dus niet klopt. Alleen de GTX650 Ti Boost heeft die en dat is ook een beetje aparte kaart, meer een afgedankte GTX660 en er zijn er ook niet veel van gemaakt. In de VS is de kaart helemaal niet meer te krijgen.

Deze nieuwe kaarten zijn dus gewoon de opvolger van de 650 en 650 Ti. Misschien dat de 650 Ti Boost zijn eigen opvolger krijgt te zijner tijd.
Ah inderdaad (gelukkig beweerde ik niet dat de 650 dat had :+).

Waar ik op doelde is dat doordat het GDDR5 geheugen 600mhz sneller loopt dat dit eventueel de bottleneck kan weghalen.

Maar volgens mij zijn we het beide met elkaar eens :p, het is een combinatie van factoren.
Ben benieuwd of er low-profile varianten verschijnen.
Inderdaad. Ik heb nu 2 low profile 7750's in Crossfire (snelste wat er low profile te krijgen is, op wat 'exotische' 7850's / 650TI's na) maar ik ben wel zat van AMD en hun baggerdrivers... Ik kan geneens hardwareversnelling in Flash aanzetten omdat ik dan gewoon een BSOD krijg. En dat is al heel lang voor heel veel mensen met Crossfire een probleem...
VOlgens mij had ik dat probleem al toen ik nog 2 4870 in crossfire had draaien, beschamend dat dat probleem er blijkbaar nog steeds is?
Draai hier al een tijdje crossfire (5970), nooit problemen of wat dan ook, en crossfire optimalisaties worden steeds beter. Maar dat zal waarschijnlijk per persoon een aparte ervaring zijn... :)
Enige ervaring met crossfire voor mij was een 4870 X2 in crossfire.
Dat liep echt bagger.

Als het niet de zieke power consumptie was van 740 watt, dan was het de hitte die dat met zich mee nam.
En toen ik dat onder controle had waren het de drivers die continu problemen hadden.

Benchmark score's waren geweldig, maar je kon er voor de rest praktisch niets mee.
Kan me niet voorstellen dat het hoogtepunt van GeForce Expericence de automatische optimalisatie is. Vind persoonlijk shadowplay een iets interessante toevoeging.

On Topic:
Ben benieuwd naar de real world benchmarks van geheugen vretende games voor de non TI versie.
Je kan die Nvidia profielen ook gewoon ergens van het net plukken en toepassen binnen de driver of laden in NVinspector hoor.

Geforce Experience mag echt geen argument zijn voor aankoop van een 'hogere' gpu, tenminste dat zou ik echt weggegooid geld vinden. Als je met een GT 640 toekan, doe het dan op bovenstaande manier :) Nvidia heeft al marge genoeg.
zien er best goed uit..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True