Informatie over nieuwe GeForce2 MX chipsets

Bij VR-Zone staat een tabel met de specs van de drie nieuwe varianten op de GeForce2 MX die dit jaar moeten verschijnen. De eerste is de MX-100, helemaal gericht op een lage prijs. Hij ondersteunt 32 bit DDR geheugen en heeft een kleinere PCB met minder pinnetjes, ook een heatsink is niet meer nodig.

De MX-200 komt een tijdje later uit en lijkt het meeste op de originele MX, maar dan waarschijnlijk met een iets geavanceerder productieproces, een heatsink is daar namelijk ook niet meer nodig. De laatste, MX-400, komt rond dezelfde tijd uit met een core-snelheid van 200MHz en ondersteuning voor 200MHz DDR of 183MHz SDR geheugen. Deze laatste kaart zal gericht worden op het marktsegment waar de GTS nu in zit:

 GF2 MXGF2 MX-100GF2 MX-200GF2 MX-400
Core snelheid175MHz?175MHz200MHz
Geheugen
snelheid
166MHz166MHz166MHz183MHz SDR
200MHz DDR
Geheugen type64,128 bit SDR
128 bit DDR
32 bit DDR64 bit SDR128 bit DDR
64 bit SDR
Wattage4,6 W???
Voltage1,9 V +/- 50mV??2,0 V +/- 50mV
HeatsinkYNNY
Packaging31x31 mm
560 PBGA
27x27 mm
484 PBGA
31x31 mm
560 PBGA
?
MarktsegmentBudgetLow price
Integrated
BudgetGTS
Releasedatum2000Maart 2001Q2-Q4Q2-Q4

Helaas nog geen informatie over óf en zoja wanneer er een GeForce3 MX komt.

Door Wouter Tinus

25-02-2001 • 14:35

49

Bron: VR-Zone

Reacties (49)

Sorteer op:

Weergave:

Hoeveel varianten KUN je bedenken.
Ik zie liever dat ze zich concentreren op een of twee varianten en proberen deze zo goedkoop mogelijk te maken.
dat is hun belang toch niet ;)

ik vind die gegevens trouwens een beetje raar... de MX-400 zou 64 bit SDR op 183 Mhz doen en 128 bit DDR op 200 Mhz... dat zou dus betekenen dat de DDR versie meer dan 4x zo snel is...

Dan staat er ook nog eens dat de huidige MX 64 of 128 bit SDR doet (klopt) en in DDR variant 128 bit doet. Dat is toch echt 64 bit, dus ik heb het vermoeden dat hier nogal wat 64's en 128's door elkaar gegooid zijn.. :?
nVidia vindt het nodig om 64 bit DDR 128 bit te noemen denk ik, anders kan ik de getallen ook niet verklaren.
Hmmzz als ik dit zo lees dan krijg ik weinig hoop op een "normale"prijs voor de G-Force 3. Als ik lees dat een budgetkaart (althans dat issie momenteel) de huidige topkaart van Nvidia gaat vervangen dan begint er bij mij wel een vermoeden te komen van de prijs van de G-Force 3 (en ik wordt er Niet, ik herhaal niet blij van )
Over de prijs... ik hoor altijd iedereen klagen over de prijs van de snelste videokaarten.
Tegenwoordig is een snelle videokaart minstens zo belangrijk als een snelle CPU. Hand in hand zorgen ze voor een fantastisch beeld.

Ik zie op tweakers veel mensen die terugkijken naar de voodoo2 kaart. Fantastisch apparaat... maar wat kostte toen een Voodoo2 SLI oplossing 2x12MB? Volgens mij zo'n 1400 piek... Maar dan had je wel iets echt FANTASTISCH! En daar hoor ik nu niemand meer over klagen.
even voor de vergelijking lordy, mijn mobo, proc EN geheugen kosten nog geen 1000 piek.
En dan vind jij 12 tot 1300 piek een goede prijs voor alleen een videokaart. :?
Ik houdt mij aan de volgende regel:
mijn video kaart mag niet duurder zijn dan mijn mobo plus proc.
Verder vind ik btw dat iedereen moet doen waar ie zelf zin in heeft. :)
Mooie regel, maar de laatste tijd zijn niet alleen de hardware ge-evolueerd, maar ook de software. De meeste spellen maken nu intensief gebruik van de 3D-hardware (=videokaart) en dat wordt alleen maar meer als straks T&L ook door de videokaart gedaan wordt.

Voor een snelle game-rig is tegenwoordig een snelle videokaart veel belangrijker dan vroeger. Voor mij is het dan ook duidelijk dat ik in mijn budget ook relatief meer geld moet uittrekken voor de videokaart dan vroeger.

De videokaarten worden inderdaad veel duurder, maar ze doen dan ook veel meer.

MetalStef
Senlle videokaart..... Ik denk dat een gewone MX al snel genoeg is als je in 1024*768*16 draai.
Waarom post je deze reactie in elke topic aangaande videokaarten van NVIDIA?? Je mening 1 keer geven is genoeg hoor.

En de SLI mode werd bijna niet ondersteund en was zeker niet fantastisch..
Een of andere topmanager van NVidia heeft het vermoeden gewekt dat de NV20 een RAMDAC gaat hebben dat zowaar scherp is. Als dat idd blijkt, dwz de GeForce 3 geeft een strak en scherp beeld op hoge refreshrates bij grote buizen (>19) dan heb ik best wel een significant stuk maandloon over voor zo'n ding :)
Maar als NVidia dat niet kan/gaat waarmaken dan ga ik echt geen dure kaart van ze kopen, da's dan zonde van het geld.
nVidia heeft eigenlijk niks te zeggen over de Ramdacs, dus het is te hopen dat de fabrikanten er iets betere Ramdacs op zetten.

Die topmanagers snappen heus wel dat wij zitten te wachten op super ramdacs, maar die kunnen er ook niks aan doen dat de fabrikanten "bagger" ramdacs gebruiken.

* 786562 TheGhostInc
Maar NVIDIA maakt wel zelf het uitgangsfilter dat de 2D kwaliteit bij hogere refresh rates zo belabberd maakt :(

Enkele reviewers hebben dat filter bij een G-force zelfs verwijderd, waarna de kaart niet meer aan de EMC richtlijnen voldoet maar wel een veel beter beeld geeft :)
De GF2 GTS is niet echt de topkaart van nVidia moemtneel. Meer een medium-range kaart. De topkaarten zijn de Pro en Ultra.
De Geforce 3 komt in april uit voor de Mac. Dan gaat ie $600 kosten. Hij zal dan wel iets later, voor ongeveer dezelfde prijs op de PC uitkomen.
De GeForce3 is niet pas later op de PC verkrijgbaar dan de Mac. In maart komen de eerste GF3 kaarten in ieder geval op de markt (voor de pc)
Oops, hij komt eind maart of begin april als BTO voor $350 voor de Mac. Los komt hij voor de Mac uit in April en kost dan $600. Maar hij komt volgens mij wel ietsje eerder uit voor de Mac dan voor de PC.

PS. Sorry voor de verkeerde info
Wel heel handig dat ze er verschillen in maken w.b. prijsklasse. Zo gebruik ik m'n pc bijna alleen voor Internet en spellen dus kan ik geld uit geven aan een product wat precies voldoet aan mijn behoeften en betaal ik niet voor meer opties die ik helemaal niet gebruik!
maar die goedkope mx-100 is alleen integrated staat er dus daar zit je ook weer aan vast :(. er bestond toch ook een intel chipset met geintegreerde agp die nog een externe agp slot had die je kon gebruiken als je de interne uitschakelde? volgens mij was dat de 850 ofzow :?
Als er een AGP slot op zit kun je hem(integrated video) wel uitschakelen. Er zullen vast wel moederbordjes komen zonder dat extra slot en kun je dus alleen de interne video gebruiken of een PCI kaart nemen.

Denk trouwens wel dat die markt steeds kleiner wordt en dat er steeds minder PCI kaartjes uitgebracht worden.
Zeker weten dat de pci markt kleiner wordt, een goede PCI kaart kost al snel zo'n 350 en dat is maar een Geforce 2 MX PCI van Prolink (niet die K*T versie van Creative)
32 bit 166 Mhz DDR da's hetzelfde als 64 bit 166 Mhz SDR. Hangt 't dus van de DDR prijs af of deze MX-100 echt veel goedkoper wordt dan z'n voorganger.

<edit>Hmm heeft zeker iemand lol om alles meteen als overbodig te moderaten</edit>
Jammer dat er nog niks gezegt wordt over NV17 aka Geforce3 MX. Ik ben wel benieuwd wat daar uit gaat komen. de combinatie van een slecht geyielde(nvidia heeft toegegeven dat de sub 0.18µ productie niet goed draait) geforce 3 chip op 166Mhz ofzo met wat minder renderpipelines en dan met 200MHz DDR ram of zelfs nog goedkoper 166MHz DDR. Dat zou sneller zijn dan de MX400 en waarschijnlijk goedkoper uit te voeren. Maar ja nvidia kennende zullen ze wel weer wat ze hebben uitgaan melken.
ik snap een ding niet, waarom een georce mx uitbrengen die moet gaan concurreren met een GTS? Die twee zijn toch niet met elkaar te vergelijken?
ik snap een ding niet, waarom een georce mx uitbrengen die moet gaan concurreren met een GTS? Die twee zijn toch niet met elkaar te vergelijken?
de geforce 2 GTS heeft 2 pipelines meer en dus veel meer transistors, de mx core is dus kleiner en goedkoper te prodeuceren, als de core clock dan omhoog zetten en ook het geheugen ala GTS erop zetten zal ie wel gelijk presteren.
en als er standaard geen heatsinks op zitten wat kan een blue orb dan wel niet voor wonderen doen }> }> }>
...GTS erop zetten zal ie wel gelijk presteren.
Ik denk niet dat ze door het verhogen van de klok en wat sneller geheugen de prestaties van een GTS gaan evenaren. Laat staan dat ze dat zouden willen. De GPU van een GTS is veel krachtiger dan die van een MX en dus blijven de prestaties, van de MX, ook altijd achter.

Een 486 met Rambus maakt nog geen P4..
Ware het niet dat bij een VGA-kaart je geheugen de bottelneck is en niet de GPU. Vooruit een efficienter beheer van het geheugen is wel beter ja, maar een grotere bandbreedte heeft meer effect dan een snellere GPU waar die bij een MOBO + CPU combo meestal niet geval is.

Je ziet het zelf al met de nieuwe DDR planken. Die zijn bijna niet sneller en een VGA-kaart met DDR is veelal wel sneller m.u.v de MX.

Een beetje gelijk heb je wel, maar je vergelijkt wel appels met peren.
:Z

Zoals ik al zei:

Een 486 met Rambus maakt nog geen Pentium4. Er zit een hele andere GPU op de GTS dus die prestaties zal hij nooit evenaren. Komt bij dat ze de bandbreedte niet vergroten maar alleen het geheugen wat sneller klokken..
Een 486 met Rambus maakt nog geen Pentium4
Hier is de CPU de bottelneck en niet het geheugen bij bij een VGA-kaart is het net andersom.

Mijn punt is dat de MX chip wel meer wil, maar dat het geheugen niet mee wil werken. De MX chip is idd een verkrachte GTS, maar als er nu een veel sneller geheugen op zetten kan hij mischien wel een GTS inhalen. Dat zal echter nog moeten blijken, want volgens mij is het wel haalbaar. Ik snap ook niet dat er zoveel tijd in een nieuwe GPU gestoken wordt terwijl het veel beter zou zijn op de bandbreedte te vergroten. Maar kan het aan mij liggen over vergroot je de bandbreedte niet als je het geugen sneller maakt. PC133 heeft toch zeker een grotere bandbreedte dan PC100, bij DDR is dit net zo.
das waar maar toch vindt ik het wel vaag, zo'n mx is tenslotte een *verkrachte* GTS die stukken goedkoper is
ik denk dat NVIDIA afstapt van alle andere GeForce 2 kaarten. Dus het aanbod van NVIDIA zal bestaan uit de diverse GF2 MX varianten en daarboven de GF3.
misschien houden ze de GF2 ultra er nog wel in want de GF3 gaat flink duurder worden dan de MX400 naar alle waarschijnlijkheid
Da's toch gewoon hetzelfde als de TNT-II chip. Die is nu alleen nog maar verkrijgbaar in M64 (brr) en VANTA :r uitvoering... De gewone mooie TNT-II chip zoals die toegepast is op viper770 is niet meer...
Da's toch gewoon hetzelfde als de TNT-II chip. Die is nu alleen nog maar verkrijgbaar in M64 (brr) en VANTA
Hoeveel "gewone" TNT 2tjes wil je hebben??

De Asus 3800 serie is nog steeds leverbaar en heeft naast de M64 ook de gewone TNT2 en de TNT2 Ultra.

http://www.asus.com/products/Addon/Vga/Agpv3800/inde x.html

/edit

Dit hoor je toch te weten als je in een computershop werkt lijkt me..
Volgens mij staat er een foutje in de tabel:
[q]
GF2 MX
Geheugen type:
64,128 bit SDR
128 bit DDR
dit laatste moet volgens mij 64 bit DDR zijn.

De Creative MX kaartjes hebben DDR en dat zou net zo snel zijn als 128 bit SDR (ware het niet dat ze het slechts op 143 Mhz clocken)
Zo staat het op de originele site ook... nVidia meet overigens met twee maten wat dat betreft, zo noemen ze in dit geval 64 bit DDR 128 bit en zo hebben ze ook iedereen laten geloven dat de GeForce256 256 bit is (hadden ze een heel leuk verhaaltje over, maar het blijft misleidend).
mjah, maar die creative kaartjes hebben geen heatsink, waardoor ze dus affikken zodra je iets gaat overclocken. niet echt aan te raden dus
200MHz DDR dus dat is dan toch 400mhz?
zo ja, dan scheelt dat errug veel meet de 166 mhz van de mx-200 versie. :P
Ligt eraan wat de busbreedte is. Bij de huide MX versie is het zelfs zo dat de SDRAM sneller is dan de DDR versie. Ze hebben dan wel DDR maar de busbredte is gehalveerd waardoor je in princiepe weer op het SDRAM niveau komt. Helaas ging er nog wat van de prestaies af omdat het geheugen lager geklocked is.

Conclusie: DDR heeft alleen een voordeel boven SDRAM als de busbreedte gelijk blijft.
Ik vind dit overzicht een beetje raar voor Nvidia, zij hebben toch de instelling van elk jaar een nieuwe chip en elk halfjaar een nieuwe kaart. Dit lijkt meer op het uitmelken van het succes van de Geforce 2 MX :(
Het is markttechnisch gezien veel handiger om een door de consument bekende naam als Geforce 2 MX te behouden om dan iedereen al weet waarvoor deze kaart zal gaan staan, snel en goedkoop.
Ehh wat heeft AMD met dit verhaal te maken??

En tegen de tijd dat je deze chip op een moederbord zit, is hij alweer aardig verouderd.
das waar maar toch vindt ik het wel vaag, zo'n mx is tenslotte een *verkrachte* GTS die stukken goedkoper is
die mx-400 core waarschijnlijk kleiner dan die van de GTS en dus goedkoper te produceren, dus verdient nvidia met een zelfde product meer geld
zelfde als matrox met de G400/G450 al zijn de yields nu stukken beter
dus verdient nvidia met een zelfde product meer geld
:? De MX is toch ook een stuk aantrekkelijker geprijsd. De kostprijs is lager ja maar de marge zal echt niet hoger zijn dan die van een GTS.
als matrox met de G400/G450
Beetje appels met peren vergelijken. Een Panda is goedkoper dan een BMW.. zegt nix lijkt me..

Op dit item kan niet meer gereageerd worden.