GeForce2 MX image quality tweaking

Een één of andere wazige gast heeft op een Geocities site een interessant stukje online gezet over het modden van een GeForce2 MX om zo de image kwaliteit te tweaken. Volgens de site hebben de meeste GeForce2 MX kaarten een output filter die meer kwaad dan goed doet. Daarom kan het uitzetten van deze filter de beeldkwaliteit op hoge resoluties flink verbeteren. Om dit te bewerkstelligen hoef je alleen maar paar dingen van je videokaart te slopen, en een paar dingetje verbinden. Op de site wordt beschreven hoe je deze operatie uit kan voeren voor de Prolink Pixelview GeForce2 MX, voor de Asus V7100 en voor de Elsa Gladiac MX. Verrassend genoeg is het volgens de maker van de site niet nodig om je Hercules 3D Prophet II MX onderhanden te nemen, aangezien die wel een fatsoenlijk werkende output filter heeft :

Below you see a closeup near the VGA connector of the Prolink Pixelview GeForce 2 MX. This card, in my experience, suffers very badly about image blurriness above 1024x768@75Hz, which is equivalent of videobandwidth of only ~65MHz. The card (like any other MX card) has a 350MHz RAMDAC, requiring at least 175MHz of video BW to usable sharp image quality on all supported resolutions.

GeForce2 MX mod

The videobandwidth is limited by the components indicated in above image. Removing the capacitors, marked with red, and shorting the inductors (soldering a piece of wire between the ends), marked with blue will disable this filter totally. Doing so improved image quality dramatically in my case. I left the rightmost capacitors in place (3 of them) .. removing them may improve the picture in the case of long monitor cabling.
The part numbers on this card are:
1st row: C84, L10, C85, L11, C86
2nd row: C101, L12, C102, L13, C103
3rd row: C111, L14, C112, L15, C113

I removed C84, C101, C111, C85, C102, C112 and shorted L10, L12, L14, L11, L13, L15 and left C86, C103, C113 in place. With this modification the videobandwidth, estimated visually on monitor, is at least over 120MHz giving a sharp image at 1280x1024@85Hz. I Can't test any higher because my monitor is the limiting factor above this but I guess that 1600x1200@75Hz should not be bad (It would require VideoBW around 145MHz). This mod caused no RFI problems for me. I have a radio (with antenna), a TV/VCR set and image scanners under 2 meters distance from the computer and they all work as well as before.

Door Hielko van der Hoorn

23-09-2000 • 09:43

20

Bron: Geocities

Reacties (20)

20
20
17
3
1
1
Wijzig sortering
Zo te zien verwijder je een laagdoorlaat filter voor de uitgang van je videokaart, lijkt me een vrij eenvoudige ingreep die inderdaad een dergelijk resultaat tot gevolg heeft. Ik zou me dus niet zoveel zorgen maken over het wel of niet goed zijn van deze info. Vertrouw je het niet doe dan het volgende: pak je multimeter en kijk of de spoeltjes en de condensatortjes met 1 pootje aan elkaar zitten. Het andere pootje van de condensator moet aan aarde zitten en het andere pootje van de spoel moet naar de RAMDAC gaan (geintegreerd met de chipset neem ik aan) De pootjes die aan elkaar zitten moeten naar je VGA connector gaan.
Maar dan vraag ik me toch af waarom dat op de asus en pixelview kaartjes een te laage frequentie is gekozen om op af te filteren, zo moeilijk is het echt niet om een goed filtertje te berekenen, het kantelpunt ligt op 1/sqrt(LC) bij een lekker laagomige uitgang van de ramdac en een hoogomige ingang van de monitor. Ik heb het vermoeden dat er bij het reference design van de GeFore2MX kaartjes geen rekening gehouden is met de werkelijke impedanties van de ramdac en de monitor en dan krijg je dit soort problemen.
Elsa is blijkbaar slim genoeg geweest om hun huiswerk zelf te doen en daardoor een veel netter kaartje te produceren :) Weet je meteen waar je voor betaald.
www.nvchips-fr.com/ heeft ook daarnaar gelinkt. Een bezoeker heeft aan de hand van die info zijn kaart getweakt (met succes).
Ik vind het toch raar. Hij zegt dat de Hercules 3D Prophet II MX veel beter beeld geeft dan de andere kaarten en het dus niet nodig is om aan die kaart te gaan sleutelen. Maar waarom is dat dan nog nooit in roundups naar voren gekomen? We klagen hier wel eens dat er in reviews teveel naar 3D gekeken wordt en te weinig naar beeldkwaliteit, maar als de Hercules een duidelijk zichtbaar beter beeld heeft dan de andere kaarten had dat volgens mij toch al lang opgemerkt moeten zijn en gemeld in roundups.
Ik vraag me daarom af of deze gast niet een videofiel is die dingen ziet die normale stervelingen helemaal niet opvallen.
Dit is een mooi moment om critisch te blijven.
Idd BrZ heeft een mooi puntje. Iedere leip kan Iets dergelijks posten. Zolang het niet van een wat meer gerespecteerde site afkomt zou ik niet al te snel aan je Gfx kaartje gaan solderen.

Trouwens, waar is het enthousiasme? Hij beschrijft wel hoe, maar matig waarom. Nergens een mooi verhaal over hoe fantastisch de kaart werkt NA de operatie.

Wat ook vreemd is, dat er niets gezegd wordt over de Gforce II GTS. Er zit niet zo heel veel verschil tussen gts en mx. Behalve geheugen en GPU. Filters zouden gelijk kunnen zijn. Of zou dit een goedkoper principe zijn om de kosten te drukken?

IIG is het maar een vaag verhaal. iemand bewijs dat z`n gf II mx opvallend slecht beeld geeft, en wellicht een testje heeft uitgevoerd?
Banshax:
Hij beschrijft wel waarom je dit moet doen, en ook de resultaten worden genoemd. Daarnaast lijkt het alsof deze goser wel wat kennis van zaken heeft.

Maar je hebt gelijk, er is altiijd een risico dat dit gewoon onzin is.
Ik ben zeker niet van plan om te gaan solderen en dergelijke mijn kaartje doet het nog perfect..

Het zal mij echter niets verbazen als Nvidea gekozen is om dit te doen. Zoals al gezegd wordt in het artikel is het voldoende om een paar componenten weg te halen en andere door te verbinden. Aangezien de GF2 Mx een budget(?!) chipset is zou het besty wel kunnen zijn dat dit gedaan is om de 'echte' GF2 beter voor te latenkomen (vooral in de hoger resoluties wat het belangerijkste verschil tussen de GF2 en de GF2 Mx is)
Aangezien het niet van een "bekende site" aafkomt, zou ik het niet echt doen als ik zo'n kaart had.

Elke idioot kan dit als zeer mislukt geintje op een geocitie-pagina plaatsen.... Misschien heb ik het er wel voor de grap neer gezet ;)
Toen Tweakers met dit artikel: www.tweakers.net/reviews.dsp?Document=148 kwam was het internationaal waarschijnlijk ook (nog) niet zo bekend. Dat wil dan niet zeggen dat 'we' niet betrouwbaar zijn. En in dat artikel wordt behalve een processor ook nog 's een mobo onder handen genomen.

Gezonde argwaan is OK, maar je moet zo nu en dan durven te gokken, zeker als je een "Grootmeester" status hebt zoals jij. Dat haal je niet alleen maar door posten, maar ook door daadwerkelijk tweaken. ;) (no flame intended)
Hmm ik heb een hercules prophet II 64 mb, nu snap ik eindelijk waarom het op hogere resoluties het beeld zo wazig is op mijn kwalitatief toch wel goede monitor :(

Alleen ik ben zelf veeeeeeeeel te onhandig om op me videokaart te gaan solderen. Dus ik hou het wel bij 1024x768@100Hz dat werkt ook prima :)
Eeehhhmmmm, basb....
Ik zou ook niet gaan solderen op een niet-MX-kaart. Daar zou de image kwaliteit best wel 's behoorlijk van achteruit kunnen gaan. :o
Elsa heeft zijn huiswerk ook niet goed gedaan.
Alleen de Hercules komt goed uit de bus: [quote]I have not yet heard any negative comments about the picture quality of this card![/quoyte]
Elsa heeft zijn huiswerk niet goed gedaan, Hercules wel! Dus met de Elsa moet je wel aan het klussen.
Ok voor iedereen die denkt dat die geocities site nep is. check dit:

www.avsforum.com/ubb/Forum12/HTML/004554.html

Op dit forum zitten echt super aso hometheater fanaten. Die alles doen om maar een beter beeld op hun crt projector te krijgen. Dus zowieso een geforce gebruiken in je HTPC. Want ja, iedereen wil toch progressive scan dvd output!? :)
Het lijkt mij bijzonder sterk dat door het verwijderen van enkele zaken en her en der wat aan elkaar te solderen je een betere image kwaliteit krijgt. Dan zouden de kaartenmakers dit zelf toch wel gedaan hebben? En mocht het zo zijn, dan zal er wel een reden voor zijn. Ik zie het nut er niet van in om een kaart expres een slechtere beeldkwaliteit te geven; er treed geen kanibalisme op, de diverse GeForce kaarten zijn eigenlijk alleen verschillend in snelheid.

/spellings mode
Boris van hierboven: 'sowieso' wordt niet met een 'z' geschreven.

Op dit item kan niet meer gereageerd worden.