Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: Extreme Tech, submitter: aliencowfarm

Nvidia gaat naar verwachting op 19 juni het budgetmodel uit de GeForce 8-serie op de markt brengen. De GeForce 8400 zal vermoedelijk een prijskaartje onder de honderd dollar krijgen.

nVidia GeForce-logoOm de kaart goedkoop te kunnen produceren wordt de geheugeninterface versmald naar 64 bits. De gpu zal naar alle waarschijnlijkheid op 450MHz draaien; het geheugen is geklokt op 400MHz. De modellen beschikken weliswaar over hdcp, maar om verder kosten te besparen zal een hdmi-poort worden weggelaten. Onduidelijk is of de kaarten in een sli-opstelling gebruikt kunnen worden. De 8400-serie zal verkrijgbaar zijn in een 128MB-uitvoering voor rond de 50 dollar en een 256MB-versie voor 80 dollar. Daarmee worden de videokaarten de goedkoopste DirectX 10-kaarten die op de markt verkrijgbaar zijn. Met de nieuwe budgetserie hoopt nVidia zijn leidende positie in de markt voor losse videokaarten vasthouden.

Moderatie-faq Wijzig weergave

Reacties (53)

ook grappig, 'om kosten te besparen'.

Die connectortjes en extra onderdeeltjes kosten ze heus niet meer dan een eurootje extra. Het is niet kostenbesparing, maar waardebesparing - je kun een product misschien wel voor 10 euro produceren en voor 15 op de markt zetten, dan maak je weliswaar winst, maar creëer je een ongelooflijk slechte marktpositie voor de rest van je producten. Je moet de kaart dus 'slechter maken' dan je andere modellen om hem ook goedkoper te kunnen verkopen.
Ga er eens van uit dat je 1 miljoen van die kaarten maakt. Dat is toch 1 miljoen euro minder winst...
Wat dacht je van 'verplicht een converter naar DVI/D-Sub meeleveren' ? Dat zijn dure kabels...

Ik heb ook het idee dat HDMI connectors lang niet zo stevig zijn...
Weet iemand iets over performace per watt en of hij passief gekoeld gaat worden? DirectX kan me niets schelen, er zal toch nooit Windows op draaien... Alhoewel, ik geloof dat Wine ook bezig is met een DX10 implementatie...

Een goedkope, zuinige kaart wil ik wel hebben! :Y)

[Reactie gewijzigd door haling op 12 juni 2007 15:37]

Zitten we echt te wachten op nog een zwakkere DX10-kaart? Alle games die van DirectX10 gebruik gaan maken zullen toch redelijk zwaar zijn lijkt me, en dan is een kaart als dit al snel ongeschikt. Waarom dan een kaart met DX10-mogelijkheden die DX10-games niet kan draaien? Voor een mid-range pc of een mediacenter zou dit een leuk kaartje kunnen zijn, maar dan kun je net zo goed een DX9-kaart halen lijkt me. Die zal misschien nog sneller zijn ook.

Geef mij liever de opvolger van de 8xxx-serie, dan komen we tenminste ergens. Want zoals het nu lijkt is zelfs de 8800gtx slechts nét genoeg om Crysis straks op high settings te spelen. Zitten we een jaar later alweer op medium met de games die dan uit zijn.
Tja, zitten we echt te wachten op vacuum verpakte bloedworst? Ik niet, anderen wellicht wel. :P Er is een markt voor budget, midrange en high-end en Nvidia wil graag al deze markten bedienen. Zo af en toe moet je je productaanbod vernieuwen, anders heeft de concurrent een nagelnieuwe directx15 ¤100 kaart met wat nieuwe features, terwijl nvidia dan alleen maar verstofte directx9 kaartjes zou hebben.
dit dacht ik ook, DX10 is wel leuk maar dat draaid vast niet op zo'n kaartje.
ik denk dat de bijgeleverde demo's het niet eens normaal doen.

Dit had ik ook met een FX5200 kaarte (ofzo) hij was zo traag dat de nvidia lava demo het niet eens met 5 fps deed.

dus is het eigenlijk totaal nutteloos om DX10 features in zon budget model te doen.

[Reactie gewijzigd door Bulls op 12 juni 2007 12:03]

Waaarom nutteloos? Het is toch niet omdat de features niet in games bruikbaar zjin dat ze voor alle andere dingen nutteloos zijn? Deze kaart is ook geen game kaart en wordt zo ook niet gepositioneerd. Waarom moet deze kaart vlot dx10 games kunnen draaien als dat helemaal niet de bedoeling is van deze kaart?

Als het aan jou lag zaten we nu nog met een dx1 kaart ofzo
Wat biedt deze 8400 dan meer dan een 7600?

Als je dus DX-10 spellen buiten beschouwing laat. Wat is dan het nut van deze kaart?
Denk je nu echt dat die 7600 kaarten gaan blijven bestaan? Die zijn EOL, en worden allemaal vervangen door de 8xxxx kaarten.
Dat is geen argument, je kunt zelfs nog MX of FX kaarten kopen, dus dat gaat niet op voor deze uitgeklede 8400.

Kun je tegelijk zeggen waarom is er dan een 71/7300 gekomen, maar goed, je snapt mijn punt.
het gaat niet om de vooruitgang, ik bedoel gewoon dat die DX10 features op zich al te zwaar zijn om uberhaupt te gebruiken op deze lage snelheden.

wat heb je aan sub surface scattering met 1 fps?
Het vista glas effect heeft toch DX10 nodig ? Zo nutteloos is het dan ook weer niet...
Nee, is een veel lager Direct X effect. Direct X 9 kaarten kunnen ook met gemak het glas effect weergeven.
WAUW!

Mijn 7600GT is ineens een DX-10 kaart geworden door Vista!

COOL!

;)
Kunnen ze die niet beter als integrated graphics gaan toepassen? Denk niet dat er gruwelijk veel vraag naar zo'n kaart los zal zijn.
Ik denk het eigenlijk wel, 100 eurie voor een DX10 kaart, leuk om een oudere bak mee te up-graden.
Vista is dan ook nodig.

Dus zooo oud kan die bak niet zijn wil je behoorlijk DX-10 games draaien. Kun je beter de 85/8600 range gaan nemen. Ietsje duurder, maar meer mogelijkheden.
Nee want deze kaart is helemaal niet bedoeld om te gamen. DX10 zijn niet alleen games, ook andere software kan er gebruik van maken.

De kaart gaat trouwens lang geen 100 euro kosten want das de prijs tegenworodig van een 8500 kaart

[Reactie gewijzigd door aval0ne op 12 juni 2007 13:48]

Okee, niet voor gamen, maar waarom dan deze DX-10 kaart nemen?

Plenty andere kaarten van de oudere generatie te krijgen, voor minder.

Nee, dit is eerder een GPU voor integrated graphics.
Waaorm deze kaart nemen?

"Ja mevrouw, dit is perfect hoor, een goedkope viedokaart voor de PC van uw zoontje, maar hij is wel helemaal modern en uw zoontje kan naast zijn schoolwerk ook gewoon een spelletje psleen, dat gaat allemaal prima. Tuurlijk, niet zo goed als op deze kaart van 500 euro, maar voor zo af en toe een spelletje is dit zat,en hij is ook gelijk gereed voor de nieuwste Windows versie zodat hij alles kan. Nee, daar kunt u echt nog járen mee vooruit, in tegenstelling tot deze veel duurdere kaart die bijvoorbeeld 300 euro kost maar geen DX10 heeft zoals deze en dus geen nieuwe Windows kan. Die is dus al verouderd.

Echt mevrouwtje, dit is de beste koop voor uw zoontje. Hij zal zijn hele studie plezier hebben van uw aankoop."

Omdat de modale mens even veel snappie heeft van PCs als van auto's maar in tegenstelling tot bij auto's te bescheten is een bekende mee te nemen die aankoop advies uitbrengt. Daarom deze kaart nemen.
ik denk dat dit ook een belangrijk punt is ja.

maar verder zal hij voornamelijk uitgebracht worden voor mensen die niet gamen.
het is gewoon een goedkoop kaartje waar windows vista goed op draaid en hij is veel beter dan geintregreede zooi.
Sure, en hoeveel 'vrouwtjes' gaan zelf een losse video kaart kopen. ALS ze al zou gaan, zou gewoon een leuke kast uitkiezen in haar prijsklasse, en of er dan ATI/Nvidia of AMD/Intel of whatever inzit, dat zal d'r jeuken denk ik, als ze echt zo 'simpel' is als je wil doen voorkomen.
Jammer dat er niet bij staat of deze kaart ook hardwarematige H264 decodering heeft zoals zijn 8600 broer wel heeft. Als dat erop zit is het een erg interessant HTPC kaartje.
Jammer dat de HDMI interface weg is gelaten, misschien toch gaan voor een ATI als je een mediacenter pc wil maken.

voor de rest wel een net kaartje, maar dat deze ook misschien in SLI kan draaien, snap ik niet echt het nut van.
Waarom overstappen op ATI? Je kan toch gewoon een DVI-HDMI kabel gebruiken? :)
Nou, HDMI zonder audio is ook niet alles...
DVI = HDMI. Tenminste, het video signaal. Je kunt gewoon een verloopstukje kopen.. Beter een (eventuele dual link) dvi interface dan alleen HDMI..
Da's niet helemaal waar. HDMI signaal heeft namelijk ook een audio signaal geintegreerd, die valt zodoende weg bij een DVI naar HDMI converter. De ati kaarten hadden daar dacht ik een oplossing voor dat de audio van de PC ook doorgelust werd naar de HDMI poort.
Die 'oplossing' is een extra onboard (op de grafikaart zelf dus) geluidschip die alleen bedoeld is om digitaal geluid via de HDMI te leveren en los staat van je eventueel andere soundcard in je pc.

De oplossing via een standaard DVI-HDMI verloop omhelst vaak een doorlus SPDIF die je op de digitale uitgang van je standaard soundcard zet.

Maar HDMI lijkt me dan ook niet het argument om voor ATI te kiezen, hardwarematige H264 decoding daarentegen...

[Reactie gewijzigd door Sir Dancelot op 13 juni 2007 13:13]

ja ik denk het. maar is de kaart niet te langzaam om goed hd te ondersteunen.
Gaat 'ie wel 2 x DVI krijgen? Dan wil ik er 1!!!
Waarschijnlijk komt XFX wel weer met een 8400 met 2 × DVI. Doen ze al een tijdje met andere type's...
Dat is de 8500GT, niet de 8400 serie ;)
zal wel geen agp versie van komen of wel?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True