Nvidia introduceert budgetvideokaart GT 440

Zonder veel fanfare heeft Nvidia de GT 440 geïntroduceerd voor consumenten. Deze GT 440 moet niet verward worden met de oem-versie van de GT 440, die een andere gpu gebruikt. Verschillende fabrikanten brachten al een eigen exemplaar uit.

In tegenstelling tot de GT 440 voor oem's, die gebruikt wordt door fabrikanten zoals Dell en HP, maakt de aangekondigde GT 440 gebruik van de GF108-gpu. De gpu beschikt over 96 Cuda-cores en een 128bit-geheugenbus. De gpu heeft standaard een vrij hoge kloksnelheid, van 810MHz. Over het geheugen valt weinig zinnigs te zeggen, aangezien het fabrikanten vrij staat om gddr3- of gddr5-geheugen te gebruiken.

Verschillende fabrikanten, zoals Asus, Gigabyte, MSI, EVGA, Zotac, KFA2 en Club3D, hebben een GT 440 geïntroduceerd, maar dan met hun eigen koeler. Het geheugen varieert van 512MB gddr3- tot 1GB gddr5-geheugen. De gddr5-modellen zijn door de extra geheugenbandbreedte iets sneller dan de gddr3-kaarten. Al met al is de GT 440 vooral bedoeld voor casual gaming of htpc's. Daar staat weer tegenover dat het tdp met 56W redelijk hoog is.

Nvidia GT 440

Door Marc Rademaker

Redacteur

02-02-2011 • 09:45

53

Reacties (53)

53
53
38
1
0
0
Wijzig sortering
Natuurlijk is nu de vraag wat de prestaties zijn! :p
Hier wordt de variant van asus, welke ook in het artikel wordt genoemd, eens stevig aan de tand gevoelt in de review van TechPowerUp:
http://www.techpowerup.com/reviews/ASUS/GeForce_GT_440/

Uit deze review komt naar voren dat de prestaties tussen de HD 5570 en de 5670 ligt.
Overigens zal deze kaart voor gamers niet echt een goede keuze zijn. In de review staat:
GeForce GT 440 is really not made for gaming, even though we see it manage 1024x768 at lower detail setting in older titles. If you are into 3D gaming then you should really look at GTS 450 which costs around $30 more but is 70% faster.
Wat betreft het verbruik:
Tijdens 'load' verbruikt deze kaart inderdaad behoorlijk veel stroom t.o.v. prestatie. Tijdens het gamen zou deze kaart zelfs pieken bij 62 Watt! Anderzijds, het idle verbruik van deze kaart ligt erg laag. Idle zou deze kaart slechts 7 Watt verbruiken.
De review schrijft erover:
In idle the card delivers stellar power consumption results with only 7 W. Blu-ray power is also very low with only 12 W. In 3D the card does consume quite a bit more juice than similar cards, but the overall power draw is still low enough to be handled by any PC system.
Edit wegens aanvulling m.b.t. verbruik ;)

[Reactie gewijzigd door Herman op 26 juli 2024 01:19]

Qua prestaties onder de HD5670, maar qua prijs er ruim € 15 boven.
Uit de review van TPU blijkt dan ook dat zowel de prestaties per watt als per dollar aanzienlijk slechter zijn dan van de HD5670. Voor de HTPC-er of casual gamer is de HD5670 veel aantrekkelijker, tenzij de GT440 € 20-25 in prijs gaat zakken.
Eigenlijk moet er ooit een lijst komen met de totale prestaties van alle videokaarten (vooral betrekking op nVidia I.v.m. hun rare benamingen) Zo krijg je tenminste een overzicht hoe welke serie presteerd. Vroeger was het gewoon duidelijk!

8600 GT
8600 GTS
8800 GT
8800 GTX
8800 Ultra

Duidelijker kan het toch niet? Je wist gewoon waar je aan toe was, je wist gewoon dat een GTX altijd sneller was dan een GT.(binnen hun serie)

[Reactie gewijzigd door sjanssen15 op 26 juli 2024 01:19]

Vind je? Als je deze lijst zou presenteren aan een redelijke Jan Modaal, die verdeer niet zoveel kaas heeft gegeten van computers/video kaarten, zou hij weten wat de beste kaart is?

Op nummer kan je gokken dan 8800 beter is, dan 8600. (hoeft niet waar te zijn, want een ATI Radeon 5450 is bijv een bufget low end kaart waar een 4850 toch alweer een mid-end kaart). Dus zelfs daar is geen absolute waarheid in, en dan moet die persoon gaan gokken wat die letters kunnen betekeken: is GTX beter dan GTX, is ultra beter dan GT, etc.

Zelfs ik vind het zo nu en dan nog verwarrend, laat staan dat iemand met minder kennis van zaken er wel gewoon uit kan komen.
ja ok, maar die lijst moet bestaan uit klasses:

- High end
- Mid range
- Low budget
Vervolgens kun je alle kaarten goed indelen. Dit doet AMD al met hun nieuwe labels, maar het blijft onoverzichtelijk ja. (doorsnee consument komt niet in aanraking met zo'n grote groep van verschillende GPU's, meestal maar de standaard OEMetjes

Dit doet de site http://www.notebookcheck....rce-GTX-460M.33612.0.html ook. (ff 460m als voorbeeld, maar rechts zie je van sterkste GPU naar zwakste, dit onderverdeelt in klasses.)
Die is er al, komt elk half jaar als ik het goed heb:

http://www.tomshardware.c...force-gtx-570,2834-7.html
Daarom zal Jan Modaal ook gewoon research moeten doen, of zich laten adviseren. Dat doe ik ook als ik iets nodig heb waar ik niks van weet.
En wat doe je als die verkoper ook maar wat uit zijn nek lult omdat hij het eigenlijk ook niet weet.
Een doorsnee consument of leek op hardwaregebied zou meestal afgaan op de versienummers: hoger is beter.

Overigens zijn de door de fabrikanten hoger geklokte 'super samples' nauwelijks beter te noemen dan de reguliere versies. Ze presteren een paar procent beter maar met behulp van overklok software kan een gewone versie, mits goed gekoeld natuurlijk, net zo ver, zoniet hoger geklokt worden. Dat geld kan je je dus beter besparen voor die enkele procenten meer performance..
Die 'super samples' worden daarentegen meestal weer wel met een betere koeler uitgerust, dus helemaal flauwekul is het ook niet.
Bij ATI/AMD staat het eerste cijfer voor de generatie, dus
5450 is nieuwer dan 4850/

Het tweede cijfer is de klasse of grove snelheidsindeling, dus
5450 is langzamer dan 4850 (in theorie maximaal ½ zo langzaam want 8 is twee keer 4 verminderd met de prestatiewinst van de generatie, maar het is vooral een rangorde. Als met een volgende generatie heel veel prestatiewinst geboekt wordt gaat het niet meer op, bij meerdere generaties 5850 versus 3850, of 2850 pf 1850 wordt het verschil ook te groot.)

Deze grove prestatie-indeling is min of meer de resultante van het aantal shaders e.d.,

Het derde cijfer is een gedetaïlleerdere snelheidsindeling, dus
5470 is sneller dan 5450 maar dat gaat dus alleen op binnen een generatie/klasse. Meestal is dat de resultante van kloksnelheid.

Duidelijker als dat kan nauwelijks, bij nVidia heb je helemaal geen aanknopingspunten, behalve prijs en benchmarks.

Bij ATI is het alleen verwarrend dat een mobiele gpu bv de 6350M (80:8:4@800Mhz) en een desktop gpu (bv de 6350 (160:8:4@800Mhz) dus in de verste verten niet met elkaar vergelijkbaar zijn (al hebben ze in dit geval wel dezelfde klokfrequentie. In prestatie (en in verbruik) liggen ze dus mijlenver uiteen.

Daarnaast heeft men een tijdje geleden bij de mobiele gpu's de 3-cijferige varianten 530v, 545v, 550v, 560v, 565v geïntroduceerd, waarbij de 545v nauwelijks lijkt te verschillen van de 5145 en de 550v en 560v aan weerszijden van de 5165 bevinden. Ook van de 5430, 5450 en 5470 verwacht je uit de naamgeving dat ze sneller zijn als de 5145 en 5165 terwijl dat niet zo is, daar is het verschil het fabricageproces en dus het verbruik, terwijl ze net wat langzamer zijn als de 5145 (en 545v) en vele malen langzamer als de 5165 (en 550v, 560v en 565v). Kortom ook Ati/AMD begint verwarring te creëren.
Alleen de 8-serie ging dat redelijk mee, de 7-serie had ook een 7800GTX die het echt wel van een 7900GS won, of een 7800X2 die weer bijna alle 7900 aan kan...

De 9-serie is weer een zooitje, en dan heb je nog de high end oude versie kan altijd de low end van de nieuwe serie aan.. Dus een 7900GTX kon makkelijk een 8600GT aan, een 8800GTX kan makkelijk de 9600GT aan... Dus nee duidelijkheid is gewoon onmogelijk, tenzij er een rating gebruikt wordt, de score van bijv een benchmark, maar dat is dan weer niet helemaal door te trekken anar alle games... Conclusie: zo verkoopt het beter (verwarring zorgt voor verkeerde aankoop) en daar gaat het toch om? Denk je dat nvidia het wat kan boeien hoeveel FPS jij hebt?

[Reactie gewijzigd door watercoolertje op 26 juli 2024 01:19]

Ja maar het was nog redelijk te overzien. Je wist als Tweaker wel waar je aan toe was. Ik vond dat gewoon een prettig gevoel. Ik ben toen begonnen met een 8600 GTS en wou toen naar de 9800 serie overgaan. Maar wat was toen het geval, het was vooral rebranding met wat meer geheugen over iets hogere clocks. Toen kwam de 2xx series en toen begon het toch al wat waziger te worden. Nu is het totaal neit meer te overzien, en al helemaal op laptop GPU's!
En er was trouwens ook een 8600 GS
Een oem variant die iets trager was.

Al sinds tijden is er geen duidelijkheid.

Als tweaker lees je de reviews en als leek vraag het een tweaker.

Wij zijn tenminste duidelijk...
Kijk, tot jaar terug kon ik duidelijk zijn tegen een leek. Tot kort ben ik gewoon gestopt met het ontcijferen van nVidia's geheimschrift. (nee ik ben geen ATI fanboy, heb zelf een GTX470)
In het begin, maar later niet toe kwam de 8800GTS 512MB bijvoorbeeld weer die compleet anders was dat de eerste 8800GTS, 320MB/640MB en zo kan je wel even doorgaan.
ga dan nog maar ff terug:

low end GF4 MX
mid end GF4 Ti4200 en Ti4400
high end GF4 Ti4600 en Ti4800

daarna zijn ze met allerlei overlappingen begonnen, rebranding, underperforming new gens, ...
Deze GT 440 moet niet verward worden met de oem-versie van de GT 440, die een andere gpu gebruikt.
geniaal! maak het duidelijk voor de consument....
Haha inderdaad, dat wou ik ook al zeggen. Om de verwarring compleet te maken maken we een GT440. Dat die al bestaat als OEM variant met een andere GPU kan ons niks schelen! 8)7

Maar serieus, waarom noemen ze dat ding dan niet de GT 540?
Doe dan GTS 440 ofzo.
De naam GT 540 zou suggereren dat het een kaart is van een nieuwere generatie.

Nvidia heeft trouwens al achterlijk veel types videokaarten voor de GT4xx serie. GT420, 430, 440, 450, 460, 470, allemaal bestaan ze al en allemaal zijn ze net weer wat anders...
De naam GT 540 zou suggereren dat het een kaart is van een nieuwere generatie.
Oh nee hoor, niet bij nVidia! Daar hebben namen, typenummers en specificaties opmerkelijk weinig met elkaar te maken.
Zie trouwens ook de post van sjanssan15 iets verder naar beneden.
Ja of de GT 440 LE (Light Edition) dan hou je het verschil ook duidelijk!
Ze zeggen : Gods wegen zijn ondoorgrondelijk, nou die van nVidia ook hoor.

[Reactie gewijzigd door qbig1970 op 26 juli 2024 01:19]

Ook voor ons 'tweakers' zeer onduidelijk hoor, welke is nou sneller de GT440 uit het artikel hierboven of waar naar toe wordt gelinkt onder gerelateerde producten :?
Die van de oem is sneller, dan deze consumenten versia. Er staat wel een link in het Nvidia topic hierover.
56W TDP, kan dat eventueel passief gekoeld worden?
Dat kan wel, alleen heb je daar een redelijk grote cooler voor nodig. De pricewatch: Arctic Cooling Accelero S1 Rev. 2 zal deze kaart koel moeten kunnen houden, echter is de vraag of hij in een HTPC past
Met dat ding koelde ik een HD4870 passief... Het kan makkelijk, alleen kiest nVidia er blijkbaar voor een miniatuur-ventilator mee te leveren, die waarschijnlijk veel lawaai zal maken.
1GB geheugen met een 128-bit bus? Hoe krijg je dat geheugen dan vol?
Was vroegah al zo'n truc die iedereen hier wel doorzag.

Maar nu met GDDR5...Ik weet het fijne er niet van, maar dat lijkt me niet ecth zinvol.
Zowiezo 512MB met 128-bit bus is nonsense
Gddr 5 is 2 maal zo snel dan gddr 3: dus is ongeveer gelijks als een 1 GB 256-bit gddr3 geheugen.
een TDP van 56 watt met zo'n klein koelertje, dat kan nooit een goede kaart zijn voor een HTPC, de fan zal zo snel moeten draaien dat het niet echt een stille kaart zal zijn
Een paar posts hierboven zie je dat HTPC zaken tot 12W (bluray) vereisen.
Daar hoeft geen lawaait bij te komen om dat koel te houden.

Toch zijn er altijd fabrikanten die er keihard GAMING marketing slogans op zetten.
Als ze het dan nog realistisch houden: FOR XTREME VINTAGE GAMING (aka pac man enzo).
Maar nee gaat ook nu weer niet gebeuren denk ik.

[Reactie gewijzigd door Double-X-L op 26 juli 2024 01:19]

lol waarom ondersteund deze kaart sli?
Waarom niet? De chip ondersteunt het en het kost niets extra's aan materiaal om de connector te maken.

Vroeger had je ook de 7300LE, een goedkoop en erg traag kaartje, en deze was er ook met een SLI connector, gewoon omdat het kan. Het is ook een stukje marketing natuurlijk...
TDP is volgens mij toch echt een indicatie hoeveel koeling de kaart maximaal nodig heeft, een TDP betekent niet dat deze kaart non stop 56 watt zal gebruiken, maar dat er onder zware belasting 56 watt aan warmte gekoelt moet worden.
56W aan energie alleen al omgezet in warmte en er wordt dus nog meer energie va nde voeding gevraagd!
wordt ook echt wel iets nuttigs mee gedaan?

[Reactie gewijzigd door emmerx op 26 juli 2024 01:19]

Voor de duidelijkheid: (nagenoeg) alle energie van een computer wordt omgezet in warmte.
Voor de duidelijkheid, dit is niet alleen het geval bij een computer maar bij zo'n beetje alle elektrische apparaten in huis. Uiteindelijk wordt alle elektrische energie omgezet in warmte
Een tdp van 56W voor een htpc?
Dat meer-dan- verdubbelt het stroomverbruik van mijn mediacenter ....

En het zal er ook niet stiller op worden met die fan.

Ik zou hier als Nividia ook niet te veel ruchtbaarheid aangeven :)

--edit--

Echt vernieuwend zou het zijn als Nvidia zou komen met een low budget videokaart waar je nog wel mee kunt gamen, maar die aangepast aan het gebruik de kloksnelheid (en het gebruik van de fan) terug brengt. De LED-versie onder de videokaarten; dat moet toch verkopen?

[Reactie gewijzigd door emmerx op 26 juli 2024 01:19]

Deze kaart lijkt me meer geschikt als een budgetoplossing voor de gebruiker die geen grafisch zware applicaties hoeft te draaien, dan als een praktische oplossing voor htpc's.

Met name die 56W zal niet altijd aangenaam zijn voor een htpc.

Op dit item kan niet meer gereageerd worden.