Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Bron: X-Bit Labs

Als we de geruchten op de site van X-Bit Labs mogen geloven, vinden we binnenkort een nieuwe telg van de GeForce 4 MX-familie in de schappen. De nieuwe MX4000, zoals de kaart mogelijk gaat heten, is een goedkope variant van de GeForce 4 MX440-8x. De MX4000 zal op 275MHz lopen, en een 128bit geheugenbus met zich meebrengen. Hierdoor kan de kaart uitgerust worden met 64 óf 128MB aan 400MHz DDR SDRAM. De videokaart heeft een standaard D-Sub-interface, een DVI-connector en een S-Video-uitgang. Met deze specificaties richt nVidia zich vooral op onderwijs- en kantoorgebruikers. X-Bit Labs benadrukt tenslotte nog dat deze gegevens puur zijn gebaseerd op speculaties, en in geen geval door nVidia zijn bevestigd.

The information about the GeForce MX4000 is fully unofficial and no NVIDIA representative has commented on it so far. Therefore, I advice the readers to take the details with a grain of salt and also keep in mind that specifications of entry-level graphics cards are always subject to vary from model to model.
GeForce 4 MX400

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (46)

Wat moet een kantoorgebruiker met zo'n kaart :?.
Een TNT2 met 32MB is echt ZAT lijkt me?
64 MB geheugen is overkill, 128 helemaal. En die S-Video mogen ze er ook wel af halen. Heeft een kantoorgebruiker ook al niets aan.

Pluspunt is wel dat-ie passief gekoeld is! 8-).
En de DVI aansluiting dan :)
Bij bedrijven zie je steeds vaker TFT's staan,
en die hebben steeds vaker ook een DVI aansluiting,
soms zelfs alleen een DVI aansluiting.
Zelfde geld voor scholen.

De oude G4 MX hebben zelde een DVI aansluiting
TNT kan wel overkill zijn, maar dan moeten ze weer TNT chips gaan bakken ? ik denk dat 't voor nvidia net zo goedkoop is om GF4mx chips te bakken
... en GF zullen ze nog wel als geavanceerd mainstream product (DX7 support!) kunnen verkopen in minder rijke landen. Kunnen ze eindelijk stoppen met TNT chips te bakken. Dus inderdaad 2 vliegen in 1 klap. En voor de consument klinkt die nieuwe naam gewoon beter. Het gebeurt trouwens vaak dat een product uiterlijk wordt veranderd (behuizing bvb.) n dat er een nieuwe naam op wordt geplakt om de verkoop terug te stimuleren. "Innovatie" kan je communiceren en belangrijker: innovation sells!
Als kantoorgebruiker gebruik je toch gewoon whatever er toevallig op je moederbord is opgeplakt aan grafische chipjes?
Op zich een goede set. Maar kunnen ze niet gewoon de oude productie modellen opnieuw uitbrengen zoals ze waren?
Ik denk niet dat mensen er dan interesse voor zouden hebben. Wij tweakers weten dat de MX4000 precies hetzelfde is en dus niets extra's brengt, maar de meeste mensen laten zich (graag) misleiden en kopen liever hetzelfde product in een nieuw jasje voor een paar euro meer.
deze geforce4 is voor de desktop markt, dit wil zeggen, DELL/COMPAQ/SIEMENS/etc.. diein bedrijven komen te staan

geen fancy 3D acceleratie nodig in 99% van de gevallen. is niet echt intressant dus voor de particulier

voor 30 heb je een Xabre 200 die tot 2x beter presteert dan een GF4MX. :)
Hou nou toch eens op met: wij weten het wel maar de klanten weten het niet. Mensen die geen games spelen zijn helemaal niet geintereseerd in videokaarten. Je kan ze alles wijsmaken. Als iemand zich er in verdiept dan komt hij er echt wel achter hoor. Deze kaart is dus niet voor losse verkoop bedoelt (als hij al komt) maar om in budget en office config te worden gebouwd. Of dat de ideale keuze is of niet het zou slim zijn van nViadia om het laatste beetje geld uit dit product te peuren en met die DVI uitgang hebben ze een sterke troef.
Een Xabre 200 presteert juist 4 keer zo slecht als een MX400. Zelfs een Xabre 400 doet onder voor de MX440.

Misschien heb je ergens een bron/benchmark ofzo?

Trouwens, waarom moet er een nog goedkopere Gef 4 MX komen? De MX440 is opzichzelf al goedkoop, voor een euro of 40 heb je er een. Meestal kan je kiezen tussen een goedkope 64bits versie van 30 a 40 euro of een 128bit versie van 40 a 50 euro. En de FX5200 kost ook niks. Vrij overbodig dus.
Juist deze systemen worden niet uitgerust met zo'n videokaart, maar met een onboard videokaart....nog eens stukken goedkoper en net zo functioneel als een Xabre 200.
Als ze er maar een fatsoenlijke TV chip op zetten op mijn GF4-MX440 kun je niet eens tegelijk een overlay op je tv en op de monitor tevoorschijn toveren, bagger kaart ....
Ik verkoop in mijn winkel veel liever de Fx5200 ... ietsje sneller, directX 9 en net zo duur.
Ik verkoop in mijn winkel veel liever de Fx5200 ... ietsje sneller, directX 9 en net zo duur.
Die snelheid boeit niet. Heeft die 5200 ook DVI-out en TV-out en passieve koeling?
Zo ja, dan is het interessant, zo nee, hou die rommel dan maar.

Mocht die MX4000, in tegenstelling tot wat wordt beweerd, daar ook niet aan voldoen, dan is deze heel nieuwspost overbodig. :)
alleen heb je niks aan die DX9 :+

het feit dat ie het KAN wil nog niet zeggen dat je het kan gebruiken ( met acceptabele frame-rates uiteraard)...
Maar een GF4 MX440 is zelfs niet DX8.1 compilant. |:(

Die is alleen DX 7.3 compilant. Dus neem maar vlug de FX5200
Ik ben benieuwd naar de benchmarks tussen de 64 en 128 mb versie. De meeste consumenten zouden denken , 128 mb, moet wel een geweldige kaart zijn. Terwijl hij er waarshijnlijk niet eens gebruik van kan maken... Tegen de tijd dat je de instellingen zo hebt gezet dat de 128 mb word gebruikt hapert de applicatie alweer als de pest.

Overigens wel relaxed dat ze een passieve koelfan erop hebben gezet :)
Overigens wel relaxed dat ze een passieve koelfan erop hebben gezet
Sinds wanneer zijn er fans om passief mee te koelen?
fans zonder stroom, natuurlijk! Wat ben jij out-dated, zeg! ;)
het word pas interessant als ze een low profile of mini pci versie uitbrengen, denk hierbij aan via's epia (low profile) platform of via's nano-ITX bordje (mini-pci)... zeker omdat de kaart passief gekoeld wordt en je dan nog steeds redelijke game/mulimedia etc performance hebt
X-Bit Labs benadrukt tenslotte nog dat deze gegevens puur zijn gebaseerd op speculaties, en in geen geval door nVidia zijn bevestigd.
Het lijkt me dus vrij stug dat het getoonde plaatje deze kaart al betreft. nVidia bevestigd niets, dus toont ook niets. Of de kaart er dus uiteindelijk komt, en of die wel of niet passief gekoeld zal zijn is dus nog de vraag.
@Liquid_Lizard:

Ik weet niet hoeveel frames ik haal met NFSU, maar ik heb alle details op het hoogst en de resolutie is 1280X1024. Misschien dat ik net boven de 24 fps zit (gaat gewoon vloeiend). Maar ik heb mijn GF4 MX hoger geklokt en mijn AMD loopt op 2400 MHz, dus misschien scheelt dat....

En ik ben idd iemand die niet meer hoeft dan 30 fps. Ik heb gewoon geen 500 over voor een vk die 100 fps haalt, terwijl ik voor 35 al 30 fps kan halen.

Het enige spel tot nu toe waar ik moeite mee had op hogere resoluties was C&C: Generals.
K hoop alleen dat ze het 2D gedeelte een b'tje gaan aanpassen bij deze release, ik verkoop zelf veel liever een radeon 9200 ofzo aan mensen die geen games spelen dan een geforce4mx ... puur omdat de 2D kwaliteit van de radeons gewoon beter is. En dat merk je gewoon enorm als je van een Geforce serie overstapt naar een Radeon serie.

ben zelf van een geforce 2ti overgestapt naar een radeon 9700, man o man wat was dat qua 2D een vooruitgang..
Wat is er volgens jou mis met de 2d kwaliteit van de gf4mmx? Ik heb er persoonlijk goede ervaringen mee, al heeft hij geen DVI out wat wel weer jammer is.
De laatste 3 Radeon 9200SE kaartjes die ik ge/verkocht heb, waren allemaal low-profile modellen waar ik pas achter kwam toen ik de doos al opengemaakt had. Gevolg van een low-profile model: de CRT aansluiting zit op een lintkabeltje vast zodat je em aan een andere bracket kunt hangen in het geval dat je er low-profile van wilt maken.

Allemaal leuk en aardig, maar denk jij dat een Radeon 9200SE, hoe goed die dan ook is qua 2D, het kan winnen van een willekeurige andere kaart als het signaal door een simpel lintkabeltje gaat? Qua DVI geef ik je misschien gelijk, maar qua CRT aansluiting, welke door het gros van de gebruikers ook gebruikt gaat worden, is zo'n ding een ramp.
geforce fx mx 4000 ??? Of zal et geforce 4 mx blijven? Lijkt me niet logisch want klanten willen geen geforce 4 meer, ze willen een geforce fx. een logische redenatie zou deze naam voortbrengen: geforce fx 4000
nee gewoon een geforce mx 4000 noemen, dus zonder geforce 4 te noemen... Lijkt weer spannend terwijl het gewoon rotzooi is...
HAHA, en de KANTOOR Gebruiker, tis goed met ze, ik heb ervaring met die mx kaarten en in 2d zijn ze echt zwaar ruk. Zeker met TFT schermen dvi of niet, ik heb nog nooit zo'n afschuwelijk beeld gezien, op de ati9200se na dan.
Dus wat ze willen met die kaart, tis mij een raadsel :S, een GF2TI trekt die kaart er nog uit. Beetje de consument misleiden is het gewoon, belachelijk, en dan nog van die Dixons mannetjes, ja meneer dat is een hele goede kaart. Kan echt woest worden om dit soort acties :(
Als je echt voor de cheap op kantoor een eenvoudig kaartje met goeie 2d wil hebben, dan ga je gewoon op zoek naar een partij Matrox G100/200-jes of zo.
G4MX is net zo duur als een Radeon 9200SE, maar de Radeon is wel DX8 en presteert 2x zo goed.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True