Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties

Nvidia heeft zonder veel bombarie de GT 440 geïntroduceerd. De videokaart is bedoeld voor systeembouwers, zoals Dell of HP. Met 144 Cuda-cores en een 192bit-geheugenbus mikt Nvidia vooral op casual gamers.

De GT 440 heeft de GF106-chip als basis, dezelfde chip die ook voor de GTS 450 wordt ingezet. Van de 192 Cuda-cores zijn er echter 48 uitgeschakeld, waardoor er 144 actieve Cuda-cores overblijven. Ten opzichte van de GTS 450 zijn wel alle geheugencontrollers ingeschakeld, waardoor de videokaart een 192bit-geheugenbus heeft. Daar staat tegenover dat de GT 440 alleen kan worden uitgerust met 1,5GB of 3GB gddr3-geheugen, met een kloksnelheid van 1800MHz.

De gpu heeft een kloksnelheid van 594MHz en zou mede daardoor een maximaal verbruik van 56W kennen. Het lage verbruik laat een single-slot-koeler toe. Achterop de videokaart zijn een hdmi-, een vga- en een dvi-poort aanwezig. Al met al is de GT 440 een lager geklokte versie van de GTS 450 voor oem's, met gddr3-geheugen. Of er nog een videokaart met 144 Cuda-cores voor de consumentenmarkt uitkomt, is nog niet bekend.

Nvidia GT 440

 

GTS 440 - oem

GTS 450 - oem
GTS 450 - retail
Videochip GF 106 GF106 GF106
Procedé 40nm 40nm 40nm
Technische specificaties
Cuda-cores 144 144
192
Kloksnelheid 594MHz 790MHz  783MHz
Geheugenbus 192bit 192bit  128bit
Geheugen 1,5GB / 3GB
 1,5GB
1GB
Gddr gddr3 / 1800MHz
gddr5 / 3608MHz
gddr5 / 3608MHz
Tdp 56W 106W 106W
Moderatie-faq Wijzig weergave

Reacties (42)

Het lijkt mij een uitstekende kaart, juist omdat hij zoveel geheugen heeft. Jullie vergeten vaak dat Nvidia zijn geld gezet heeft op de CUDA markt. Ze verwachten grote bedragen te verdienen aan het rekenen op de oorspronkelijk grafische chips.

Als je zo´n chip met 1,5 of liefst 3GB aan boord hebt kun je deze voor veel taken inzetten. Dat vergroot de marktacceptatie van CUDA enorm.

Voor menige toepassing is 768Mb niet genoeg dus dit haalt alle beperkingen eruit. Wie daar mee begint te werken op zijn basis systeem van Dell of HP kan dus alle CUDA applicaties ruim draaien. De gebruiker merkt een enorme versnelling, begint er dus aan te wennen en gaat dan rondkijken naar een ´echte´ Fermi op opvolger kaart. Dat zijn Quadro´s natuurlijk want die zijn a) gecertificeerd voor die toepassingen en b) in de consumentenkaartjes bestaat er geen 3Gb kaart.

Perfect instap model dus. Nietswetende thuis gebruikers denken wow, game kaart met veel geheugen, voor kantoorgebruik is het een fantastische kaart omdat deze uit de OEM doos van de huisleverancier al volop CUDA ondersteunt en voor Nvidia een prima methode om CUDA overal te krijgen en de opvolg orders binnen te halen voor de serieuze werkstation kaarten uit de Quadro en C200x serie.

Ze zijn nog zo slim geweest om te besparen op het geheugen zelf, maar niet op de bandwith zodat je rap je data naar en van de CUDA kaart kan halen. Dat het intern slechts DDR3 is maakt voor de rekenperformance niet extreem uit. Dit is genoeg om de bruikbaarheid van CUDA in een breed scala aan toepassingen te demonstreren.

Zodra je tegen de performance aanhaakt koop je een profikaart en voor ontwikkelaars loont het plotseling om maximaal CUDA te implementeren omdat het aantal kaarten ´in het wild´ zo gigantisch omhoog gaat.

Of NVidia ook nog hoopt op de hearts and minds of the game developers die nu niet staan te trappelen om het potentieel van de Nvidia te gebruiken omdat ze bang zijn slechts een klein deel van de markt te kunnen bedienen weet ik niet zeker, maar het lijkt me wel logisch.

Als game ontwikkelaar is het ook simpel rekenen: als de installed base van CUDA enabled kaarten omhoog schiet wordt het zinvol om over twee code versies te gaan denken. Belangrijk omdat ze nu allemaal wachten tot OpenCL (Nvidia en ATI in principe) eindelijk volwassen wordt, dus ze vooral van de Nvidia grafische mogelijkheden maar een klein deel gebruiken. Anyway zelfs zonder dit effect (wat ik overigens wel verwacht vooral bij nieuwe spelontwikkelaars) lijkt het mij een briljante zet.

p.s. wat veel mensen niet weten is dat als je al een ATI kaartje in je computer hebt zitten je er geen 480 of 460 naast kan prikken voor CUDA. Nvidia´s drivers blokkeren dat. Lomp natuurlijk, maar wel een argument als je nu een pc wil kopen en die route niet wil blokkeren.
p.s. wat veel mensen niet weten is dat als je al een ATI kaartje in je computer hebt zitten je er geen 480 of 460 naast kan prikken voor CUDA. Nvidia´s drivers blokkeren dat. Lomp natuurlijk, maar wel een argument als je nu een pc wil kopen en die route niet wil blokkeren.
hmm dat is wel crap, geld dat ook voor onboard kaarten?
ik zat de denken om een asrock 880GMH te halen (met Integrated AMD Radeon HD 4250 graphics)

En om daar later (als het budget het toelaat) daar een flinke kaart met cuda (vooral voor photoshop en premiere) op te zetten.
maar zoals ik dit dus lees gaat dat niet lukken?
Het wordt tijd dat ze eens overgaan naar OpenCL. Dat wordt namelijk wel door iedere kaart ondersteund. (zelfs de HD5450 in mijn server)
Ze zijn nog zo slim geweest om te besparen op het geheugen zelf, maar niet op de bandwith zodat je rap je data naar en van de CUDA kaart kan halen.
Door GDDR3 te gebruiken bespaar je toch wèl op de geheugenbandbreedte? De snelheid van je geheugen is net zo bepalend voor de bandbreedte als de geheugenbus.
Waarom in godsnaam heeft die zoveel ram?
Je zou denken vooral voor marketingdoeleinden, gezien het feit dat de doelgroep oem's zijn en je dit kaartje dus terug zal vinden in de kant-en-klare dell, hp, enz. Op zeer hoge resolutie gamen zal waarschijnlijk niet zo handig zijn met dit kaartje, aangezien die die niet de snelste is. Vooral op hogere resoluties is meer gddr nuttig.
Lijkt me een slechte kaart als je nog een 32bits OS draait, zeker die 3GB variant.
Aangezien veel bedrijven (vooral MKB) vanwege compatibiliteit niet durven over te stappen (je weet nooit of er in de aangekochte paketten nog 16 bits onderdelen zitten, de makers ondersteunen het meestal niet, (kijk als voorbeeld maar is naar de combinaties die Exact ondersteund: dat is heel erg beperkt. Oude pakket ook alleen in antieke windows/dos-versie, huidige versie pakket alleen met huidige windows versie dus als je wilt overstappen moet beide tegelijk. Daarbij willen ze het liefst dat je overstapt op de internetvariant zodat je de eigen gegevens niet meer lokaal hebt staan))
Op hogere resoluties voegt het zelfs niets toe, een kaart heeft gewoon een limiet aan wat 'ie nuttig kan besteden en dat ligt bij mid-range kaarten nog altijd ergens onder de 1GB. Zie bijvoorbeeld de HD4850, die presteerde zelfs al geen haar beter met 1GB i.p.v. 512MB. Nou werd die wel gebottlenecked door de geheugenbandbreedte, waardoor de limiet daarbij nog wat lager was, maar ik weet zeker dat ook op 2560x1600 of op multi-monitor setups 3GB echt (letterlijk) nul komma nul gaat toevoegen. Dat is bij de HD5850 2GB vs 1GB al het geval. De kaart is gewoon niet krachtig genoeg om het geheugen te benutten, hoe hoog de resolutie ook is.

Tenminste, dat is voor games en bijna alle andere grafische apps. Misschien loopt er wel ééntje rond die 3GB kan benutten en toch niet veel grafische rekenkracht nodig heeft of zo, al zal je heel goed moeten zoeken om die te vinden. :p

[Reactie gewijzigd door bwerg op 18 oktober 2010 11:07]

Meer geheugen voegt JUIST op hogere resoluties wat toe, dat is zelfs zo'n beetje de enige reden waarom extra geheugen gewenst is op een videokaart. Neem bijvoorbeeld een HD5770.. de 512MB versie presteert toch een stukje minder op 1920x1080 of hoger dan de 1GB versie; stel van beide kaarten de instellingen hetzelfde redelijk hoog in, dan krijg je met de 1GB toch echt een aantal frames p/sec meer.

Ben het wel met je eens dat het op de low-end kaartje verder weinig uitmaakt, omdat die sowieso niet geschikt zijn voor gamen op hogere resoluties. Dus ja 3GB op een dergelijk kaartje is inderdaad zware overkill.
Neem bijvoorbeeld een HD5770.. de 512MB versie presteert toch een stukje minder op 1920x1080 of hoger dan de 1GB versie
Ja, tuurlijk, het helpt tot een bepaalde limiet. Bij de HD5770 heb je wat aan meer dan 512MB. Maar zodra je eenmaal op 1GB zit heb je niets en dan ook echt niets aan meer geheugen. Misschien wat onhandig verwoordt in mijn eerste post, met "op hogere resolutie voegt het zelfs niets toe" doel ik op de grote hoeveelheid geheugen, in plaats van de standaard 512MB of 768MB.

Dus op low-end kaarten is het niet alleen onzinnig omdat je op die resoluties toch niet gamed, maar ook omdat je, zelfs op die resoluties, echt geen prestatiewinst gaat merken.
Uhm 3d cad pakketten? Daar heb je geheugen nodig voor grote samenstellingen, dit geheugen hoeft niet zo snel te zijn en wordt ook heel snel volgepakt door solidworks bijvoorbeeld. Voor gaming is deze kaart TOTAAL niet geschikt in mijn ogen aangezien alles op geheugen word gegooid en niks op snelheid.
Ga maar eens in de winkel staan, je wil niet weten hoeveel mensen de kracht van een videokaart beredeneren op het aantal geheugen dat die heeft, "zo hey, die heeft 4x zoveel RAM als me huidige videokaart, die moet wel echt snel zijn hé"
Niet alleen marketing, er moeten wel chips zitten aan die bredere RAM bus.
De bredere 192 bits i.p.v. 128 bus config zou het GDDR3 vs GDDR5 verlies enigszins moeten compenseren qua bandbreedte en vereist een andere memchip config.

Wat ik me afvraag is of de 450 OEM niet beter zal zijn als de retail.
Daar zitten dan wel minder CUDA cores op maar wel GDDR5 op een 192 bits bus.
De TDP is dan wel weer vreemd met het dubbele van de 440?
Nouja, dat verklaart niet waarom er 1,5GB of zelfs 3GB op een low-mid-range kaartje zit natuurlijk. 768MB zou voor zo'n kaartje natuurlijk prima zijn, dus ja, de enige reden dat er dan tòch vier keer zo veel op moet is marketing.

Over de geheugenbandbreedte van de GTS450 OEM tegen de cores van de GTS450 retail: ik denk eigenlijk dat extra cuda-cores toch meer verschil gaan maken, maar ik vind het sowieso raar dat de verhouding bandbreedte/cores zo ontzettend veel verschilt. Tussen de retail- en OEM-versie is dat verschil van die verhoudingen een heuse factor 2. Het kan eigenlijk niet anders dan dat één van deze kaarten een flinke overkill aan bandbreedte heeft of juist door bandbreedte gebottlenecked wordt. Maar ach, misschien hadden ze bij het uitschakelen van cores geen zin om ook de geheugenbus te verkleinen omdat het niet veel scheelde in kostprijs en verbruik of zo, al blijf ik de factor 2 verschil opmerkelijk groot vinden.

[Reactie gewijzigd door bwerg op 18 oktober 2010 11:31]

Marketing? Zie zelf anders ook geen reden...
Verkoopt beter. Want deze videokaart met 3GB ram (!!) is natuurlijk 2x zo snel als een GTX 480 met 1.5GB 8)7

Of (heel misschien) willen ze in de toekomst een Quadro kaart maken met deze GPU, dan zou het nog enigsinds nuttig kunnen zijn (voor zware professionele applicaties zoals PRO/Engineer ofzo). Meestal maken Quadro kaarten gebruik van dezelfde GPU als consumenten videokaarten, maar dan met meer RAM, andere drivers en betere ondersteuning etc.

Edit: Lekker totaal onduidelijk ook. De GTS 450 'oem' en de GTS 450 'retail' hebben totaal verschillende specificaties. De een heeft 144 cuda cores met een 192bit geheugenbus, en de andere 192 cuda cores en een 128 bit bus.

[Reactie gewijzigd door Shadow op 18 oktober 2010 10:01]

heheh In deze markt kijkt de consument vooral naar hoeveelheid geheugen op de kaart niet naar de prestaties van de videochip.
Oems doen het al eeuwen en dat levert natuurlijk veel geld op omdat je een brakke chip als een dure high-end kunt verkopen.
Tsja, ik zit mij dat nog steeds af te vragen. Is er iemand die het ooit uigerekent heeft tot hoeveel geheugen er een snelheidswinst is?

Want als je een spel 1920X1080 met 8X anti-aliasing speelt heb je volgens mij wel een bak geheugen nodig. Maar hoeveel, ik heb echt geen idee.

Toch een interessant onderwerp, al is het een beetje off-topic.
Uitrekenen kan alleen als er één eenduidige oplossing is en dat is er bij dit soort dingen niet. Ligt aan de applicatie, resolutie, settings, kaart, etc. Wat we wel hebben: benchmarks! En daaruit blijkt dat een kaart van dit kaliber gewoon niets heeft aan 1,5GB of zelfs 3GB. Zelfs de HD5850 2GB staat gemiddeld over alle benchmarks van tomshardware even hoog als 1GB (niet exact, ìetsiepietsie lager zelfs). Dus dat deze kaart wél meer dan 1GB gebruikt kan eigenlijk bijna niet. Uit technisch oogpunt gezien had deze kaart gewoon 768MB moeten krijgen, en NVidia weet dat best want als het gaat om kaarten die verkopen op basis van benchmarks (GTX460 bijvoorbeeld) dan geven ze die wel 768MB. Een OEM-kaart verkoopt echter op basis van grote schreeuwerige teksten in foldertjes met daarin extra groot "MET 3GB GEHEUGEN!!!".
Je ziet in benchmarks dan ook dat beide varianten, 768mb en de1024mb versie, van de GTX460 t/m een resolutie van 1920x1080 dicht bij elkaar in de buurt blijven.Pas bij een resolutie van 2560x1600 is er een duidelijk verschil.

@bwerg: Niet zo snel bij stil gestaan,maar dat zal zeker meetellen. :)

[Reactie gewijzigd door pcgek op 18 oktober 2010 20:50]

En het verschil dat die 256MB extra geheugen geeft is nog kleiner dan je op basis van die benchmarks zou denken, want de 1GB-versie van de GTX460 heeft een deel van zijn verhoogde prestaties ook nog eens te danken aan een grotere geheugenbus.

[Reactie gewijzigd door bwerg op 18 oktober 2010 19:44]

Soms zie je in tests wel verschillen, maar pas bij hele hoge resoluties... Als je zoiets van plan bent, zou ik nog eens een keer nadenken of je niet een pittigere kaart wilt hebben. Dit blijft toch voor gamers op een budget, en dan is 8x AA lichtelijk overkill. Geheugen is trouwens eerder een bottleneck, oftewel, meer helpt niet, minder ga je voelen in prestaties.

Ben ik de enige die zich afvraagt waarom een switch van geheugen, en het verhogen van de core-clock een verdubbeling(!) van het vermogen meebrengt? Da's toch wel wat veel, dacht ik zo, zeker als je prestaties per watt (waar deze kaarten om spelen) gaat vergelijken.
Het zijn 3 keer dezelfde chip (gf106) alleen wat cores uitgeschakeld en/of lager geklokt waardoor die minder gaat verbruiken. Ook nog eens gddr 3 tegenover gddr5.

Wat is me dat voor een onboard budgetkaart, casual gamers yeah right. Zou die kaart niet oc'ed kunnen worden tot een 450?
wat moet een kaartje als dit met 1.5/3GB geheugen. de GPU zelf zal dit nooit allemaal kunnen gebruiken ze hebben gewoon een interne bottleneck gecreëerd als de GPU sterker was zou die wel alles kunnen verbruiken met 3 tot 6 schermen.... |:( , lijkt me gewoon weer zn kaartje wat je in de Acer, Dell, hp computers gaat tegen komen, omdat de 'normale' consument nu eenmaal denkt: 'hoe meer geheugen hoe beter' -zie ook inleiding-

voor de rest wel een mooi klein kaartje, waarschijnlijk wel geschikt voor een HTPC?

wat vooral opvalt an de het tabletje is dat de gts 450 oem en retail een zelfde TDP hebben terwijl de retail meer cores heeft op bijna de zelfdesnelheid.
kan me namelijk niet voor stellen dat door de toevoeging van het geheugen de TDP van de oem versie zo hoog is.
wat vooral opvalt an de het tabletje is dat de gts 450 oem en retail een zelfde TDP hebben terwijl de retail meer cores heeft op bijna de zelfdesnelheid.
Die cores zitten op beiden, maar op de OEM-variant zijn er gewoon een aantal uitgeschakeld. Ja, ook uitgeschakelde cores kunnen meetellen voor het verbruik. Zelfde geld voor een deels uitgeschakelde geheugenbus.

edit: en wat Dreamvoid onder me zegt klopt ook wel. :P

[Reactie gewijzigd door bwerg op 18 oktober 2010 13:12]

Waarschijnlijk dezelfde reden waarom zoveel TDP ratings voor geen meter overeen komen met de werkelijkheid: de fabrikant geeft domweg 1 TDP waarde voor een hele serie produkten, die gebaseerd is op de onzuinigste in de serie.

[Reactie gewijzigd door Dreamvoid op 18 oktober 2010 12:27]

Met 144 Cuda-cores en een 192bit-geheugenbus mikt Nvidia op gebruikers als casual-gamers.

Iedere casual gamer zit te wachten op een kaart met cuda cores en een 192 bits aan bandbreedte voor het geheugen.

Tegenwoordig zijn die casuals wel behoorlijk op de hoogte. Of draaien ze alleen maar benchmarks is dat de casual gamer van vandaag ?
Eigenlijk gamed de gemiddelde casual-gamer gewoon op wat 'ie in de mediamarkt aangesmeerd krijgt. Tuurlijk lopen er inmiddels ook al aardig wat mensen op tech-sites rond die van tevoren al precies weten wat ze moeten nemen maar dat is maar een klein deel van de consumenten. Dus als dell deze in een pc stopt en erbij zet "supersterke krachtpatser voor de zwaarste games!" dan wordt 'ie gewoon verkocht aan casual gamers, jammer genoeg voor de hardwarefanaten.
Ik vraag mij af waarom de term "casual gamer" automatisch gelinkt wordt met mensen die weinig verstand van computers hebben en zich vooral laten leiden door verkopers. Alsof elke tweaker en computer-nerd automatisch hardcore gamers zijn. Ik denk dat het overgrote deel van de computer-nerds, tweakers, oftewel mensen met verstand van computers/software casual gamers zijn (tov hardcore gamers). En dus met een midrange kaartje genoegen nemen.

[Reactie gewijzigd door satoer op 18 oktober 2010 12:22]

Ik zeg: de gemiddelde casual gamer. Ik zie mezelf ook als casual-gamer die desondanks zelf een mooie niet -OEM videokaart uitzoekt, en ik weet dat er genoeg anderen zijn. Maar het grootste deel van de casual gamers zal zijn stuff gewoon OEM kopen, een groot deel van de jongeren is namelijk casual gamer en een relatief veel kleiner deel weet wat van videokaarten af, dus dat is dan logisch.

En dat een tweaker automatisch een hardcore gamer is valt uit mijn post totaal niet te concluderen. ;) Ik heb namelijk helemaal niets gezegd over hardcore gamers.

[Reactie gewijzigd door bwerg op 18 oktober 2010 12:27]

Nvidia mikt vooral op casual gamers, kom op man de 450 is all traag laat staan de 440 8)7

Ik denk dat een casual gamer eerder voor de Geforce GTX 450 of Ati HD 5770 of Geforce GTX 460 gaat.

Dit is voor HTCP en niet om mee te Gamen.
Een ''spel'' trekt die wel. mw2 moet ook nog wel lukken.

De nieuwere spellen(MoH, black ops...) dan weer niet |:(
Heeft black ops andere systeem eisen dan mw2? volgens mij namelijk niet, het zijn beiden directe copies van de console versies en die zitten grafisch (zo spel je het toch :P?) op hun max)

[Reactie gewijzigd door HesRuud op 19 oktober 2010 09:08]

3gb aan ram?...
ok... kan je de texture quality iig altijd op ultra zetten... terwijl je de rest op medium zet :P
logisch x)
Nee, daar zou ik maar niet vanuit gaan. Textures hebben niet alleen geheugen nodig om ingeladen te worden.
een echt doel heeft deze kaart denk ik dan ook niet.
veel mobo's hebben een goede igp waar je je prima mee kan redden. als je al een spel wil spelen stop je er wel een echte kaart in. deze NIEUWE kaart draait de vetste spellen waarschijnlijk bijna alleen maar op het laagst.

dat ram marketing had SIS vroeger ook zo'n handje van en de kaarten waaren niet vooruit te branden
Wat een grap, doet me denken aan al die FX5200's met 256mb ram. Een Geforce3 met 64mb trok dat ding er bijna overal uit.

Dat kaartje krijgt waarschijnlijk 512mb nog niet eens vol omdat hij niet vooruit te branden zal zijn. Eigenlijk gewoon pure afzetterij en zinloosheid ten top. Kost meteen ook 20watt TDP om al dat antieke DDR3 geheugen van sap te voorzien.

Maargoed, laat niet weg dat dit ding natuulijk overal in terug te vinden is en een goede verkoper zal worden voor Nvidia :P
Wat een schattig kaartje!
Mijn 400 serie kaart (GTX 470) ziet er nu zo uit.

Lijkt me logisch dat dit ding zonder veel bombarie is geintroduceerd want zo'n ding raak je nog makkelijk kwijt in je jaszak :P
Maar dit is dan ook niet meer voor gamen bedoelt ook al staat er van wel.
Dit gaat echt niet meer behoorlijk werken met welk DX11 spel dan ook.
Als je games speelt die geen DX11 nodig hebben kan je beter een snellere (en misschien goedkopere?) DX10 of 9 kaart kopen.
Dit is leuk voor als je beeld wilt en dat je enige wens is lijkt me. :Y)

[Reactie gewijzigd door Sunbeam-tech op 20 oktober 2010 02:15]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True