Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties

Nvidia heeft een nieuw mainstream-model aan zijn GeForce-lijn van grafische kaarten toegevoegd. De GT 240 is op 40nm geproduceerd, kost 75 tot 100 euro en moet de concurrentie aangaan met de Radeon HD 4670.

De standaardkloksnelheid van de gpu is 550MHz, terwijl het geheugen van de referentie-kaart op 900MHz is vastgesteld en de 96 shaders op 1340MHz lopen. Fabrikanten zullen goedkope versies met 512MB gddr3-geheugen uitbrengen, maar ook met duurdere varianten die 1GB gddr5 meekrijgen. De GT215-gpu van de GT 240 is op 40nm geproduceerd, de kaart ondersteunt DirectX 10.1 en het model moet de GT 9600GSO en 9600GT vervangen. De prestaties van de kaart liggen tussen die van de 9600GT en de 9800GT, en zijn vergelijkbaar met die van AMD's ATI Radeon 4670.

Verschillende fabrikanten hebben hun GT 240-modellen inmiddels aangekondigd. Gigabyte komt met de GV-N240D3-1GI en GV-N240D5-512I, die over respectievelijk 1GB gddr3- en 512MB gddr5 beschikken. Het gddr5-model heeft de standaardkloksnelheden, maar de coreklok van de gddr3-versie is op 600MHz gezet en de shaderklok staat op 1460MHz.

Galaxy komt met drie varianten: een model met 512MB gddr3, een variant met 1GB gddr3 en een kaart met 512MB gddr5; alledrie deze videokaarten hebben de standaard-kloksnelheden. ECS ten slotte komt met twee gddr5-modellen die over de standaardkloksnelheden beschikken.

 Geforce GT 240 Geforce GT 240 Geforce GT 240 Geforce GT 240 

Reacties (56)

Reactiefilter:-156056+143+23+30
Moderatie-faq Wijzig weergave
Te weinig te laat als je het mij vraagt. Performance die 20% hoger ligt dan een een HD4670. Die al een hele tijd uit is en al DX10.1 had. Zie ook:

http://www.computerbase.d...rformancerating_qualitaet

Voor 85-95 euro heb je een HD4770 of HD4850 die 40-55% sneller zijn. En voor 115 euro heb je een HD5750 die een 10% sneller is als een HD4850 en DX11 en Eyefinity heeft.

+ Begin volgend jaar zullen de Low budget DX11 versies van ATi er al aan komen. En dan kun je dus ook voor 40-50 en voor 60-80 euro een DX11 kaartje krijgen. Dus ik zie het nut van deze kaart niet echt. Dit geeft volgens mij alleen maar aan dat we nog wel even kunnen wachten tot we DX11 midrange kaarten van nVidia zullen zien.

[Reactie gewijzigd door Astennu op 17 november 2009 15:57]

Het jammere is dat er zoveel mensen zijn die nog steeds blind voor een nVidia kaart gaan. Zie ook de Steam survey waar iets van 70% van de gamers een nV kaart heeft (aantal samples is ruim voldoende, loopt in de miljoenen).

Blijkbaar blijft een merknaam toch lang hangen bij veel mensen. Helaas lijkt marketing nog steeds belangrijker dan techniek...
Ik denk niet echt dat je zonder meer kunt afleiden uit de steam gegevens dat het merendeel van de mensen "nu nog steeds blind voor een Nvidia kaart gaat"

De meeste mensen ook gamers hebben een video kaart voor een aantal jaren, dus de keus om voor nvidia te gaan is dan vaak al jaren geleden genomen. Dit zie je ook als je kijkt naar welke specifieke modellen er veel voorkomen. Vaak kaarten die al meer dan 2 jaar geleden zijn uitgebracht:

Bijvoorbeeld de 8800 gt die toendertijd een heel goede nvidia deal was. met voor die tijd laag stroomverbruik en goede performance, veel mensen wilden er zo eentje hebben.

http://store.steampowered.com/hwsurvey/videocard/

Zoals je kunt zien is bijna 10% van de kaarten die door de steam users worden gebruikt een 8800 gt. Er staan zowel bij ati en nvidia nog veel meer "oude" kaarten tussen.

Slechts een handjevol mensen koopt elke 6 maanden een nieuwe kaart. de meeste mensen kopen het als ze een nieuwe pc kopen. en dat is eens in de zoveel jaar.

Wel verwacht ik dat er als zo een survey over zeg 2 jaar weer wordt bekeken veel meer 5770 en 5750 achtige kaarten in zullen staan omdat die qua bang for the buck nu goed zijn. (in de rol die de 8800 gt dat ooit had) en fabrikanten dat ook wel zien. Bij veel deals online en in winkels worden deze kaarten ook steeds meer meegeleverd.

Het punt is dus dat er in deze grafiek een vertraging zit tussen wat men nu heeft en wat het merendeel ooit heeft gekocht. En dat je daarom dus niet zomaar iets kan afleiden over het koopgedrag -nu- uit de grafiek.

[Reactie gewijzigd door maltesersnoepie op 18 november 2009 11:18]

Och wie zegt dat het 'blind gaan' is?
Misschien ook wel een bewuste keus hoor.
En met de techniek van nVidia is niks mis.

Als er straks high end DX11 nVidia kaarten komen dan koop ik die ook.
100% zeker weten dat er geen ATI in mijn kast komt.

- Ten eerste omdat ik een nVidia kast heb van Coolermaster.
- Ten tweede omdat ik graag SLI wil draaien.
- Ten derde omdat ik een nVidia chipset heb (790iSLI)
- Ten vierde omdat nVidia 3D vision kan gebruiken met 3D bril (rood/blauw glaasje type)
wat ik ook wel eens gebruik met L4D bijvoorbeeld.
Dat is echt super vet en zo'n brilletje kost geen moer op ebay bijvoorbeeld.
En dat kan ATI niet.
- Ten vijfde ondersteund nVidia ook nog PhysX en ATI niet.
En ik vind ook de driver support van nVidia beter dan die van ATI.
Ik heb vaak genoeg gezien dat vrienden met een 4870 rare effecten hadden in games die er niet waren met nVidia tijdens een LAN.

Dus voor mij: nVidia 4 life! _/-\o_

Ja ik weet het klinkt als echte fanboy talk :P

PS: Ik heb wel een aantal ATI kaarten gehad vroeger na mijn Geforce 2 GTS en Geforce 4 Ti 4200 waaronder de 9800Pro en de X1800XT en ben daarna weer overgestapt op nVidia.

[Reactie gewijzigd door Sunbeam-tech op 17 november 2009 23:22]

1) en? Past ook een ATI-kaart in.
2) en Crossfire dan?
3) en? Past ook een ATI-kaart op.
4) / 5) zinvolle argumenten.
Drivers: Heeft iedereen zijn eigen mening over. Ik geloof dat ze in Windows beide goed zijn tegenwoordig.

En ja, je bent idd een enorme fanboy.

nVidia is een bedrijf dat jouw geld wilt hebben om de aandeehouders tevreden te stellen en de managementboni te behouden. Het interesseert zich echt niet voor je. Geef je toeweiding liever aan een mens, dan kun je nog wat terug verwachten (of koop aandelen nV, dan krijg je wat van nV terug :P).

p.s: ATI/AMD is net zo een commercieel bedrijf als nV. De tekst is niet anti-nV, alleen pro-realistisch denken bedoeld.

[Reactie gewijzigd door _Pussycat_ op 17 november 2009 23:46]

1: Ja der gaat ook een ATI kaart in maar dat vloekt enorm met m'n kast :P
2: Dat gaat niet op een nVidia chipset bord.
3: Dat klopt maar deze chipset heeft een BIOS optimalisatie voor nVidia kaarten.
4/5: gelukkig dan is er ook nog wat nuttigs in m'n post ;) .

Door de toeweiding aan mijn kast verwacht ik wel dat ie het perfekt doet en lekker gamed. :P

Doordat alles van één merk komt en samen werkt is zijn er ook minder compatibiliteits problemen. (als het goed is dan)
Misschien moet ik maar een foto naar nVidia sturen van de kast met inhoud om wat respect af te dwingen ofzo :P

Ik heb verder ook niks tegen ATI/AMD ofzo maar voel me altijd erg goed bij de nVidia spullen.
4/5: dat kan ATI ook.. je kunt zelfs HDTV aansluiten op alle ATI kaarten vanaf dx7 door een bitje in de driver te veranderen. dan gooit ie de sync op groen ipv geel.
wil ik nog aan toevoegen dat nvidia de enige is die ooit de driving-strengt van de agp-bus ging aanpassen omdat anders de kaart ondermatig presteerd, ook zoiets raars.
nvidia kaarten zijn ook flets en met 16.7 miljoen kleuren loopt t erg achter op ati met 1 miljard kleuren spectrum. bovendien klopt bij nvidia de gamma-uitsturing niet helemaal vanwege de gebruikte dac's. en zo kan je nog uren doorgaan..
anyways kijk hier eens voor je 3D behoefte : http://www.iz3d.com

edit : moest even... ati crossfire bord kan gewoon sli draaien .. andersom niet.

[Reactie gewijzigd door JoJo_nl op 18 november 2009 10:14]

1) Een nVidia kast (best mooi vind ik) en een ATI kaart staat gewoon stom.
Geen objectief argument maar toch.

2) SLI of Crossfire is mij om het even, gebruik het toch niet of het moest gaan om de hybrid variant: igp+discrete kaart. In ieder geval is dat afhankelijk van wat je mobo ondersteund.

3) Het lijkt mij dat een nVidia chipset en nNidia graka beter zal werken als een combinatie van nVidia chipset en ATI graka of ATI chipset en nVidia graka, en hetzelfde geld voor de combinatie ATI chipset en ATI graka. Het zou niet mogen, maar is waarschijnlijk zijn de merkeigen combinaties door hen beter getest.

4) 3D-vision lijkt me echt gaaf, vooral voor mijn stereo-dia's (kunnen gescand) met de d-slr heb ik nog geen stereo-opnames gemaakt, was tot nu toe weinig zinvol. Kost alleen voorlopig nog teveel moeite en geld (ook aangepast scherm)

5) PhysX, weet niet of het nuttig is voor mij.

6) Driver support. Voor Linux is die voorlopig nog echt wel beter alhoewel ATI/AMD hard aan het werken is daaraan. Echter voor oudere kaarten als de 4000 en de 3000 serie hoef je het echt niet meer te verwachten, daar stopt ATI/AMD geen moeite meer in. De gereleaste informatie heeft alleen betrekking op de R700 (4000-serie) en de R600 (3000-serie). Bij Haiku heeft voorlopig ATI dan weer een licht voordeel.

En wat Windows betreft: ik heb met de ATI drivers en de 8500DVI altijd problemen gehad. Met de meegeleverde software werkte de Remote Wonder niet. Daarbij was het een niet oplosbare puzzel welke software nog wel en welke niet meer de 8500 ondersteund. ATI/AMD's eigen informatie vermeld bij een release-package dat hij wel ondersteund wordt (ja klopt, door een onbelangerijke component) en als je dan van de onderdelen daarvan de release-notes doorleest blijkt hij toch niet meer ondersteund te worden.
(Let wel, dit zijn ervaringen vanaf datum aanschaf tot een jaar terug.) Uiteindelijk waarschijnlijk de goede gevonden, is inmiddels de kaart defect.

[Reactie gewijzigd door BeosBeing op 18 november 2009 13:36]

en ten zesde werken de nvidia drivers veel beter onder linux, toch wel relevant als je zowel windows als linux draait...
precies, da's een serieus dilemma voor mij op dit moment - ati bied betere kaarten voor je geld, maar de linux drivers... :(
ATi komt anders toch elke maand braaf uit met een nieuwe Linux driver, doorgaans 1 dag na de Windows drivers. Vandaag weer een nieuwe:

meuk: ATI Catalyst Linux Display Driver 9.11
Ja, dat heb ik zelf ook gemerkt toen ik overschakelde van een ATI naar een 8800GT.

Als arument pro ATI, vind ik dan wel weer dat oude games beter werken met de ATI kaart. Met die kon ik meer ouwe DOS/Win95-98 spullen draaien zonder compatibility modes dan nu. Op mijn nvidia moet ik echt DOSbox gebruiken....

Conclusie: de ideale kaart bestaat helaas niet...
Het is niet alsof die miljoenen mensen ieder jaar een nieuwe kaart kopen. Een grote groep zal nog een 8800gt hebben ofzo. Toen was nvidia duidelijk beter. Zoiets heeft toch een paar jaar nodig om duidelijk te worden in de statistieken. Daarnaast is een hele grote groep van de gamers geen tweaker. Als het spel wat ze willen spelen goed draait zijn ze tevreden. Of het nu een paar fps sneller is of een paar euro goedkoper zullen de meeste nooit merken.
Toen was nVidia echt niet beter hoor, qua techniek konden ze met de 8800GT echt niet op tegen de 3870, om maar een paar voorbeelden te noemen:
-HDMI met geluid
-UVD
-DX10.1
-SM 4.1

Kan nu ook niet bepaald zeggen dat ik wam liep door het prestatie verschil en heb toen bewust voor 2x 3870 gekozen. Gezien crossfire beter schaalde dan SLI was dit meestal ook nog eens sneller dan 2x 8800GT.
najah ik ben toen wel voor een 8800gt 512mb gegaan simpel weg omdat ik hem toen de beste bangs for bucks vond hebben :)
Ik ben het met je eens op de meeste punten. Weinig boeiende kaart en ATI is met de 4770 op t moment de betere keus.
Maar de prijs bij introductie is natuurlijk nog een advies prijs. Als voldoende fabrikanten hun kaart op de markt hebben zakt die prijs nog wel wat.

En DX11 op een budget kaart vind ik vrij zinloos. Leuk voor de marketing maar je hebt er niks aan. Net zoals budget kaarten met 1GB ddr2 geheugen. Het lijkt heel wat maar de gpu is toch de beperkende factor.
Ik ben het helemaal eens met de bovenstaande reacties, maar je moet niet vergeten dat het nog slechter voor Nvidia is om helemaal niets uit te brengen! Bovendien heeftd eze kaart 40nm aan boord. (wat dat dan ook uitmaakt)
mwah..... als ze niet kunnen concureren dan kunnen ze beter het geld wat nu aan productie besteed wordt naar R&D schuiven.... Iets uitbrengen wat geen doelgroep kent doordat de concurentie voor dezelfde prijs iets veel beters levert kost alleen maar geld én imago.
Voor de OEMs moest nVidia wel, anders konden ze daar helemaal geen videokaarten meer kwijt voor lange periode. Met Windows 7 is DX10.1 een 'vereiste' voor volledige hardwarematige desktop-versnelling. OEMs zullen maar al te graag stickers en kreten op hun producten plakken die kenbaar maken die versnelling te ondersteunen. Ergo, nVidia had met spoed DX10.1 kaarten nodig.

Fermi is nog ver weg, goedkopere langzamere derivaten van Fermi zelfs nog practisch onaangekondigd. Dus dit was zo ongeveer het enige wat nVdia restte. Dat ze ook naar de algemene videokaartenmarkt komen, heeft ongetwijfeld ook te maken met gebrek aan andere producten die de AIB's nog kunnen verkopen.
dan kunnen ze beter het geld wat nu aan productie besteed wordt naar R&D schuiven
Ik geloof niet dat dit van toepassing is. Met het uitbrengen van deze kaart doen ze juist aan R&D. DirectX 11 is een subset van DirectX 10.1, dus het ondersteunen van DirectX 10.1 is een leuk begin richting DirectX 11. Verder is minder nm altijd een goede vooruitgang (goedkopere chips, over het algemeen minder warmte) en van 40nm naar bijvoorbeeld 32nm is een stuk makkelijker dan van 65nm naar 32nm.
mja verkopen zal het toch wel doen hoor :)
Dat heeft hij niet "aan boord", maar dat is het gebruikte productieproces. Dit is van invloed op energieverbruik en aanverwante zaken als overklokpotentiëel. Maar als de prijs/prestatie verhouding niet goed is dan zijn zulke triviale zaken compleet irrelevant.

Het aantal nm waarop een kaart is gemaakt is een middel om het doel (prestatie) te bereiken, geen doel op zich. Alhoewel dit laatste voor nVidia wél mogelijk kan zijn, gezien hun beperkte ervaring met het productieproces.
Dat is zo. Uiteindelijk is het meer keuze voor ons dus slechter worden we er niet van. Maar het is natuurlijk niet bepaald indrukwekkend te noemen. Helaas.
Het mag dan te laat enz. enz. zijn, punt blijft dat dit een mooi kaartje is om mee te folden. Een vergelijkbare van ATi doet slechts ~20% ppd van wat deze kaart van Nvidia doet. Nvidia zal dat ook weten en heeft op deze manier toch een kaart die ca. 4000 - 4500 ppd doet voor een redelijke prijs. Ik ken er zat die hierop zaten te wachten. Folders die het parttime doen met een dedicated kaart om te folden. Mijns inziens is dit dan ook meer voor mensen die een beetje aan gpu rekenwerk doen voor een redelijke prijs met een laag energieverbruik. Wat dat betreft kan ATi nog wat leren van Nvidia. En ja ik weet dat ATi kaarten, de nieuwere, openCl Ondersteunen, maar voordat men dat gebruikt bij f@h zijn we alweer 1 of 2 jaar verder en met deze kaart heb je dan toch al een leuk aantal punten bij elkaar gefold en met je ATi niet.
alle kaarten vanaf hd4xxx ondersteunen openCL dus niet alleen de nieuwere. maar dat gaat de scores niet perse veranderen.

er kunnen 2 dingen aan de hand zijn, folding@home's workload werkt niet lekker op de architectuur van ATI (omdat die breed is, waarbij veel naast elkaar uitgevoerd kan worden maar dan moeten er weinig onderlingen afhankelijkheden zijn, dat zou een probleem kunnen zijn hier) of de folding@home cliënt is slecht geoptimaliseerd voor ATI.

maar dan nog, ik ken niet veel mensen die een kaart kopen om er alleen folding@home op te doen. leuk voor nvidia dat ze er sneller in zijn, maar dat is niet representatief voor alle GPGPU workloads(of zelfs de meeste) en zal ze niet veel extra omzet opleveren, en gaat voor niemand de 30% extra kosten rechtvaardigen.

[Reactie gewijzigd door Countess op 17 november 2009 22:24]

Ik denk dat de markt waar deze kaart voor is toch primair een spelletje speelt met een GPU. Daarna krijg je de mensen die misschien nog eens wat een PhysX willen doen en ik denk dat je een flink stuk later pas de mensen krijgt die kaarten kopen om er mee te folden.

Folden is natuurlijk leuk om wedstrijdjes mee te doen en ondertussen nog nuttig ook. Maar ik denk dat bar weinig er een kaart voor kopen.

On-topic: ik kan er niet bij dat kaarten uit compleet verschillende prijsklasses tegenover elkaar gezet worden. Hoe kan nVidia nou zeggen dat dit tegenover een 4670 staat? Hoe zijn die kaarten vergelijkbaar dan? Ze zitten niet in hetzelfde prijssegment en op technisch vlak zijn er ook meer verschillen dat overeenkomsten.
Ik snap het wel natuurlijk, de kaart ligt een beetje tussen de 4670 en de 4770 in, waarbij hij volgens mij veel dichter tegen de 4770 aan zit dan tegen de 4670. Maargoed, tegen de 4770 moet deze kaart het afleggen dus dan introduceert nVidia het maar als tegenhanger van de 4670.

Nee, nVidia, daar trappen we mooi niet in. Met 75 tot 100 euro zit je toch echt op 4770 en 4850 gebied, niet meer bij de 4670. Misschien dat de uiteindelijke winkelprijzen daar nog verandering in gaan brengen. We zullen het zien.

Edit: ben de HTPC's nog vergeten, dat is geen onbelangrijke groep. Geloof niet dat deze kaart voor die mensen veel meerwaarde biedt ten opzichte van de 4670 of 4770.

[Reactie gewijzigd door Camacha op 18 november 2009 06:59]

Voor deze prijs gaat natuurlijk niemand die kopen. Ati biedt betere en goedkopere kaarten! Nvidia is op dit gebied zeer slecht bezig. Gelukkig richtten ze zich al op workstation (met fermi) maar anders zou ik me als Nvidia zijnde zeer veel zorgen maken. Deze kaart zal niks veranderen aan de enorm sterke positie van Ati. Daarvoor zal de prijs flink omlaag moeten! Voor dat geld kan je beter een nieuwe/tweedehandse 4850, 4870 kopen. Of leg nog wat bij en koop een 5770! Ik zou op dit moment niet twijfelen als ik een nieuwe kaart moest kopen. Dat zou zonder twijfel een Ati zijn. Jammer Nvidia, volgende keer beter!(?)
Correctie: met deze prijzen zullen alleen onwetende consumenten de kaart kopen. Dat is 90% van de consumenten. Dus ja, ze zullen zeker verkopen. Al zal geen enkele tweaker zo'n kaart kopen dus die 10% die wel iets van graka's afweet die zullen ze moeten missen (ik heb nog niemand gezien hier op T.net die deze kaart positief ontving). Maar dat is geen verlies dat in verhouding staat met de prijs/kwaliteitverhouding van deze kaart.

O ja, en eens met biggydeen2 hier onder me: deze kaartjes zullen wel massaal in Dell/HP/PB-PC's worden gezet: Nvidia is nou eenmaal een mooie merknaam om je pc te verkopen. Dat je er een beter presterende kaart in kan zetten voor hetzelfde geld telt niet mee, als mensen liever een PC met NVidia kopen (Ati? Dat ken ik niet. Zal dan wel niet zo goed zijn als het bekende NVidia).

[Reactie gewijzigd door bwerg op 17 november 2009 16:31]

Zolang Nvidia nog betere ondersteuning op Linux geeft is er ook onder de tweakers nog een kleine doelgroep.
Daar zat ik ook aan te denken. Zeker omdat het grootste deel van de PCs hier Linux draait. (5 op 7 :) ) Toen ik vorige week Mint 7 op een nieuwe doos met HD4200 installeerde had ik problemen met de ATI driver, en ik maar schelden. Na wat zoeken bleek de driver die meegeleverd wordt met de distro uit april te zijn (Ubuntu 9.04 based) en de graka is pas in augustus uitgekomen. Dus dan is dat verklaarbaar.

Afgelopen weekend OpenSUSE 11.2 op een beestje met een X1300 geinstalleerd, draaide meteen met de juiste drivers. Bij 11.1 moest ik zowel de Nvidia als de ATI drivers handmatig downloaden, waarbij de Nvidia drivers wel en de ATI drivers niet werkten.

Nu is dat dus al heel anders, waardoor ik uit ervaring kan zeggen dat de Linux drivers voor ATI kaarten heel snel op de Nvidia drivers inlopen met nog maar een kleine voorsprong voor Nvidia. Het is naar mijn mening dan ook niet zoveel extra geld waard om een kaart als deze (ontopic: dus GT 240) of een andere uit de GT2xx serie te verkiezen boven een ATI kaart vanwege Linux.

Dus ik moet zeggen dat het enige voordeel dat ik nog kon verzinnen eigenlijk ook niet meer geldig is. Na onderzoek van Tweakers is ook gebleken dat deze 40nm kaarten niet zuiniger zijn dan de 55nm ATI kaarten waar ze mee te vergelijken zijn. Dus ik zou het wel weten en deze kaartjes links laten liggen. Maarja, hoeveel mensen zijn er niet die denken: "Geforce, dat heb ik nodig om te gamen. Samen met een P4 5Ghz." Ik moest wel even lachen toe ik in een folder een machine met een Q8200 en GT220 zag met de kop "Ultieme game PC" en "Supersnelle grafische kaart".
75 tot 100 euro. Zijn dat niet de kosten van een sprankelnieuwe HD4850 tegenwoordig? :P
Ja, ik zag/zie regelmatig sprankelnieuwe HD4870-512MB's voor 99 Euro voorbij vliegen in sommige webshops.
Deze kaart is gewoon veel te duur IMHO. Maarja, hetzelfde geldt voor de GT210 en GT220, belabberde prestaties vergeleken met Nvidia's eigen, gelijkgeprijsde 9600GT's of ATI's assortiment en daar nog >60E voor vragen ook. :')

[Reactie gewijzigd door SirNobax op 17 november 2009 16:13]

die HD4870 512's worden nu voor dump prijzen verkocht. Maar het kan dus ook makkelijk dat in sommige games een HD5750 1GB sneller is door zijn grotere geheugen. Die is overigens ook maar 115 euro. En ik gok 15% trager.

[Reactie gewijzigd door Astennu op 17 november 2009 16:35]

Denk dat deze meer bedoeld is als physics kaart, imho daar zou ik 'm voor kopen
wel veel te laat geintroduceerd!
Ik denk het niet als i daar voor was zouden ze er geen moeite voor gedaan hebben om er nog DX10.1 aan toe te voegen. nVidia is altijd heel erg Anti DX10.1 geweest. Was niet nodig volgens hun.

En hoeveel mensen kopen zo iets nou als dedicated physics kaart ? en al helemaal als hij niet single slot is.
Ik hoor veel negatief over deze kaart hier(boven) maar deze kaart wel voor nvidia inderdaad een goede logische stap.Dat de prestatie`s zo`n 20% hoger dan een hd4670 uitkomen is ook geen schande hoor.ik zou zo`n kaart,du`s wel willen,maar vraag mij af,omdat deze dus als directe concurent van de hd4670 (die een gddr4 versie heeft )word gezien ,is deze dan ook zonder extra stroom connector :? Want als deze wel bv 1x 6pinn`s nodig heeft,dan is het eigenlijk geen concurent meer.Dan zou die eigenlijk meer concurent van de 4770 zijn.Zo als ik al zei ,was dit best nodig ,want tussen de 9600 gtx en de gt250 zat een heel groot gat. :)
Hij wordt door nVidia als directe concurrent tegenover de HD4670 geplaatst, omdat ze weten dat ze met de GT240 de HD4670 wel aan kunnen.

Prijstechnisch echter is het al een concurrent van de HD4770/HD4850 (welke voor ~80 euro nieuw te krijgen zijn). Met een paar maanden komt daar dan de HD5650/5670 bij als refresh van de HD46xx, die waarschijnlijk moeiteloos langs de GT240 wandelen met eenzelfde prijs en zal de HD5750 ook wel richting de huidige prijs van de GT240 gaan.

Al met al is de vergelijking met de HD4670 (vanaf ~50 euro) dus ook niets anders dan marketing.
Ik vind hem een jaar te laat, en teduur... voor die 83 euro die ik nu zie bij Gerelateerde Producten kun je of een nieuwe 4770 halen, of een tweede hands 4850, en met geluk 4870...

Conclusie, mooi geprobeerd van nVidia, maar te laat en een te hoge prijs..
De hd4670 begint ook al bij de 55 euro in de prijswatch. Dus dan lijkt me de prijs van de gt240 echt veels te hoog. En de hd4670 is ook al aan vervanging toe met de nieuwe 5000 range. Wel een fijn kaartje zuinig en niet graphics intensieve spellen lopen prima oa bioshock, torchlight.

Op dit item kan niet meer gereageerd worden.



Microsoft Windows 10 Home NL Apple iPhone 6s Star Wars: Battlefront (2015) Samsung Galaxy S6 edge Apple Watch Project CARS Nest Learning Thermostat Games

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True