2D-kwaliteit GeForce3 beter zonder filters?

Op Guru3D beweert iemand dat ook de beeldkwaliteit van de GeForce3 in hoge resoluties merkbaar verbeterd kan worden door de RFI filters compleet te verwijderen. Inderdaad, niet door andere weerstanden te plaatsen of door signalen om te leiden, maar door botweg het hele ding van de printplaat te trekken. Het beeld zou door deze relatief simpele operatie kristalhelder worden, wat natuurlijk een goed vooruitzicht is voor mensen die Matrox gewend zijn. De filters zijn in eerste instantie geplaatst om hoge frequenties uit het signaal te halen, zodat aan de standaarden van de FCC voldaan wordt. Nadeel is dat daardoor het beeld onscherp kan worden, tot grote ergernis van mensen die hoge resoluties en refreshrates draaien. Het sleutelen aan de kaart kost je wel je garantie en bovendien is er alleen een vage guide beschikbaar voor de GeForce2 MX:

You wouldn't notice this on a 17" or some 21" monitors…only large VGA monitors/projectors capable of displaying 1600x1200 at 120hz or similar. I own both a Geforce 2 Ultra (RFI removed) which displays extremely crisp and clear 2d images at 1376x768 at 63hz on my 50" LCD monitor. Before the modification, the image was very soft and not sharp. Im afraid the GF3’s are no exception... possibly worse. They possibly have even more strict RFI filters on them. FCC requires all display board manufacturers to include RFI filters. Matrox and ATI make excellent RFI filters and need not be removed.
nVidia GeForce3 reference kaart

Thanks MM(stefana3a).

Door Wouter Tinus

14-08-2001 • 16:30

36

Bron: Guru3D

Reacties (36)

36
36
27
16
5
4
Wijzig sortering
Ik weet niet wat ik hier van moet denken:
I own both a Geforce 2 Ultra (RFI removed) which displays extremely crisp and clear 2d images at 1376x768 at 63hz on my 50” LCD monitor. Before the modification, the image was very soft and not sharp.
Zover als ik weet is 'n LCD monitor altijd scherp! Hoewel... hij heeft het over 'n 50" LCD monitor? Zou hij het over 'n plasmascherm hebben? Maar die werken toch ook met afzonderlijke pixels? Dus zijn ze per definitie scherp?

Theoretisch gezien klopt z'n verhaal over de RFI filters wel. 'n monitor heeft het liefste 'n mooie blokgolf als signaal, en die filters maken 'n soort van sinus van de blokgolf. Dus daar heeft hij gelijk in. Maar voor de rest vind ik het toch nogal wazig....
Erg simpel, zo'n plasmascherm heeft een ADC welke een horizontale lijn van het videosignaal onderverdeeld in 1376 puntjes.
Het RAMDAC van een GF2Ultra in combinatie met het RFI filter geeft echter een horizontaal uitgesmeerd beeld. Dus geen keurig blokgolfsignaal bij een testbeeld met alleen vertikale lijnen, maar iets wat lijkt op een uitgesmeerde sinus ofzow.
Dan is de schade aan de signaalkwaliteit al aangericht en weer digitizen geeft niet opeens een scherp beeld... ;(

* 786562 mr_a

edit: ik had niet gelezen dat je jezelf al aanvult in je eigen post |:(
Ik zal eens even haarfijn uit de doeken hoe het nu zit met die filtering. Delen heb je in eerdere reakties al kunnen lezen:

Bij toepassing van beeldschermen met een 'analoge' VGA aansluiting wordt voor het genereren van het bruikbare VGA signaal de alom bekende RAMDAC gebruikt. De snelheid van deze RAMDAC bepaalt in belangrijke mate te maximaal weer te geven refreshrate versus resolutie. Anders gezegd: hoe sneller de RAMDAC, des te hogere refreshrates kan je VGA kaart genereren bij de allerhoogste ingestelde resoluties. Over het algemeen geldt dus hoe sneller hoe beter (maar meestal is het beeldscherm de fysieke beperking).

Tegenwoordig zie je veel RAMDAC's met een klok van zelfs al 350 MHz. Dit getal geeft de klokfrequentie weer waarop de RAMDAC de bitstroom die het VGA signaal vertegenwoordigd omzet naar het analoge signaal wat uit je VGA konnektor komt.

Het probleem van de hoge RAMDAC frequentie is, dat de uitgang van deze chip vrijwel direct naar de VGA konnektor gaat van de kaart. Hier verlaat het signaal dus de PC en daar zit m nu net de kneep: De absolute klokfrequentie van de RAMDAC is afhankelijk van de door jou ingestelde resolutie en refreshrate. Laten we als voorbeeld nu eens roepen dat de werkelijke RAMDAC klok precies een resulterende 100 MHz VGA bandbreedte tot gevolg heeft. Da's wel leuk, maar wanneer je nu toevallig een radio naast je PC hebt staan die op die zelfde 100 MHz probeert een radiozender te ontvangen, bestaat een goede kans dat je alleen nog maar storing ontvangt....

Omdat er steeds meer elektrische produkten op de markt kwamen die mogelijk electromagnetische emissie uitstralen (oftewel radiogolven opwekken) is in 1993 door de EC aangestuurd op een verscherping van de eisen ten aanzien van Electromagnetische Compatibiliteit (EMC). Als gevolg hiervan heeft de FCC een aantal normen ontwikkelt die de mate van uitstraling definieert (Bijvoorbeeld EN55021 en EN55022 en andere huishoudelijke en industriele normen). Deze normen zijn opgedeeld in categorieen; in medische omgevingen worden bijvoorbeeld veel strengere eisen gesteld als in huishoudelijke omgevingen zoals bij ons thuis. Verder zeer complexe materie waar ik jullie niet mee zal vermoeien.

Per 1 januari 1993 zijn de verscherpte regels dus van kracht die dit soort storing moeten verminderen. De EMC richtlijn is daarom opgenomen als onderdeel van de CE markering waar vrijwel ieder (veelal elektrisch) produkt aan moet voldoen. Ook op je PC hoort zo'n bekend CE stickertje te zitten die aangeeft dat t ding aan de eisen voldoet.

Terug naar de techniek:

Op het moment dat je een monitorkabel aansluit op je VGA kaart zou de kans bestaan dat deze kabel als antenne gaat dienen voor het signaal wat uit je kaart komt. Er zijn een aantal manieren om dit effect tegen te gaan:

1. Gebruik een afgeschermde kabel
2. Leg een flinke ferrietclamp om je kabel
3. Filter het signaal wat uit je VGA kaart komt zo goed mogelijk zodat er alvast zo weinig mogelijk buiten de PC komt.

Om deze laatste gaat het nu. Iedere hoogfrequent specialist zal weten dat een snel schakelend IC als een RAMDAC nog veel meer signalen genereert als de maximale 350 MHz (intermodulatie, harmonics, etc). Daarom is het hier besproken filter zo belangrijk: in theorie is het RFI (Radio Frequente Interferentie) filter zodanig ontworpen dat het alle signalen die BOVEN de maximale bandbreedte uitkomen (bij 350 MHz krijg je een resultante van zo'n 120 MHz) keurig afsnijdt. Een goed ontworpen filter laat alle gewenste signalen onverminderd door. En hier zit m nu net de kneep: Het RFI filter (eigenlijk een gewoon lowpass filter) van veel VGA kaarten is niet zo geweldig. Dit komt veelal doordat de toegepaste RAMDAC nogal veel troep veroorzaakt waardoor sterk gefiltert moet worden. Dit flinke filteren heeft tot gevolg dat vaak al ver onder de gebruikte bandbreedte gefilterd wordt. Het gevolg hiervan is dat de deelsignalen die in het hogere frequentiesegment horen verzwakt gaan worden, dit zie je gedeeltelijk als een vaag wordend beeld op je PC.

Het verklaart ook waarom het vager worden toeneemt naarmate je refresh en resolutie hoger worden: de bandbreedte van het VGA signaal neemt toe en er wordt dus steeds meer weg gefiltert.

Waarom nu zo slecht filteren ? Hier zijn een paar antwoorden op:

1. Goede filters vereisen kostbare componenten en zijn dus duur
2. De steeds snellere RAMDAC's veroorzaken steeds meer RFI waardoor scherper filteren noodzakelijk is. Een steeds uitgekiender filter is dus noodzakelijk.
3. Vaak hangt het beschikbaar komen van een VGA kaart op de EMC metingen die aan de kaart zijn verricht. Indien het RFI filter niet afdoende blijkt te werken zal men al gauw rigoreus te werk gaan om het ding binnen de EMC richtlijnen te laten vallen, immers het produkt moet zo snel mogelijk de markt op....

Het verwijderen van het RFI filter is dus in vrijwel alle gevallen DE oplossing voor het verkrijgen van een superscherp beeld. EMI (ElectroMagnetische Interferentie) kan daarna het gevolg zijn. Je hoeft hierbij niet bang te zijn dat het stralingsniveau gevaarlijk is of zo, want het gaat nog steeds over hele kleine signaaltjes (maar wel groot genoeg om ontvangers te storen).

Ik heb zelf vanwege 'vaag beeld' ook mijn RFI filter om zeep geholpen op mijn VGA kaart. Hiervoor in de plaats heb ik echter een prachtig filter gemaakt met een kantelfrequentie van 120 MHz die in een metalen kastje zit die ik rechtstreeks op mijn VGA uitgang prik. Vervolgens komt het gefilterde signaal weer uit het kastje en gaat naar mijn beeldscherm. Gevolg - Matrox kwaliteit uit mijn Geforce2MX.

Er bestaan veel problemen met kaarten die het Nvidia Reference design gebruiken; het RFI filter is hier zo ontworpen dat iedere fabrikant zonder problemen de CE markering op zijn produkt kan plakken. Voor thuisgebruik kun je dit filter rustig overbruggen (de condensatortjes van de print halen en de spoeltjes met een kort draadje overbruggen). Zolang je een goede VGA kabel gebruikt met ferrietclamps zul je in de praktijk weinig problemen ondervinden.

Overigens zijn alle in- en uitgangen van een goede PC gefiltert (zelfs de 220V aansluiting). In de praktijk heb je daar echter geen last van bij normaal gebruik. VGA signalen kennen namelijk zo'n grote bandbreedte dat het filteren hier veel kritischer wordt.

Hopelijk hebben jullie er iets aan...
mischien dat je ons allen een pleziertje zou kunnen doen en hier een mooie guide van maken, dan wel een schemaatje neer gooien, dan wel een leuk handeltje begint?
Sorry, maar 1376x768 op een 50" monitor. Erm, ik denk toch werkelijk dat hier sprake is van een typefout hoor... Stel dat-ie al een 50" monitor heeft, wat moet je dan in jezusnaam met zo'n resolutie?

voor de minder begiftigden onder ons: 50 inch = meer dan 125 centimeter :)
hallo? LCD he, die kunnen nog niet zo'n hoge resoluties aan, (ze zijn er wel, kijk maar naar dell laptops: 15"1600x1200). Ze zijn ontzettend duur om ze zo te maken, dus 50" lcds met een hoge resoluties zijn er nog niet.
Ondanks het vage verhaal zou die het hier natuurlijk kunnen hebben over 50" plasma schermen, want die zijn er wel (ook in breedbeeld).
Goed voor presentaties. Ongeacht de resolutie veel scherper dan een overhead-projector, en veel gemakkelijker dan een beamer met zo'n wapper-scherm.

Maar wel een ongebruikelijke resolutie. En als hij daarop wil gamen, ach, ik hou hem niet tegen...
Dat zijn dus pixels van ongeveer een milimeter. Dat is ruim voldoende voor een presentatie in een zaaltje...die monitor is echt niet om op zijn desktopje te zetten.


< OK...Metal stef was me voor>
Anoniem: 4632 @Japs14 augustus 2001 22:17
Nee, die zakt dwars door z'n desktop heen :P
Die FCC norm is er niet voor niks. Zelfde als je bromer opvoeren.
Maar iedereen die z'n brommer opvoert, heeft er meer plezier van. :Y) Behalve als hij toevallig de polisie tegenkomt, maar goed, naar mijn weten is er nog geen nVidia-politie. :)
Sorry, mag ik effe

Dit is al lang bekend probleem van de GeForce serie.
Dus lijkt me ook sterk dat dit bij de GeForce3 niet zo zou zijn.

Op de volgende site staat het al lang beschreven.
http://www.geocities.com/porotuner/imagequali ty.html
(wat idd word vermeld in post http://www.tweakers.net/nieuws/13382)

Ik heb deze mod ook op mijn Asus v7700 Deluxe gedaan. En die werkt echt nog wel hoor! Ook mijn TV en Radio die er naast staan doen het ook gewoon goed.

Een collega van me die video grabbers ontwerp zij het volgende (met mijn eigen interpetatie dan, ik weet er ook niet alles van, maar probeer mijn visie erop te geven):

Dat een Radeon en Matrox beter in 2D komt voornamelijk, omdat deze geen of gedeeltelijk verwijderde uitgang filters op hun videokaart hebben.

Alle GeForce kaarten hebben dat dus wel. Deze hebben een R-C netwerk en een transistor tussen de videochip en de monitor uitgang zitten. Een R-C netwerk word gebruikt, omdat een videokaart geen omgevings storingen mag veroorzaken. En een transistor om de videokaart te beveiligen tegen spaningpieken op de VGA uitgang. Deze filters verkloten de bandbreedte (die filteren alle hoge frequenties eruit). Die je vooral op hoge resoluties nodig hebt (je krijgt anders een onscherp beeld).

Wat doet Ati en Matrox: ze laten deze kaart met deze componenten (R-C netwerk en transistor) FCC keuren. Anders kom je dus niet door de FCC keuring heen. Daarna "vergeten" ze deze componenten op de videokaarten te zetten. [wat ik overigens heel raar vind waarom nVidea dit wel heeft en Matrox en Ati niet? Als je toch aan de FCC regels wil houden moet dat er toch op :? ] (Kijk maar eens op je Ati / Matrox kaartje, je zult zien dat je componenten mist bij de VGA uitgang. Nu heb je een lekkere bandbreedte en dus een mooi scherp 2D beeld

Wat doen die Taiwaneese fabriekanten.. die houden zich netjes aan de FCC regels en verklote hun bandbreedte. Oftewel soldeer deze RC-netwerkjes eraf (R's verwijderen en C's doorverbinden) en je hebt zeker weten een strak 2D beeld (op een goeie monitor natuurlijk!) Dit 2D probleem heeft dus (bijna?) niets te maken met de videochip de RamDac is meestal wel hoog genoeg.

Sorry, als het technisch niet 100% is maar bij mijn weten is dit het probleem. Please correct me if I'm wrong }>

/edit

Ik bedoelde dus wat Okzel zei }> :7, maar zo veel weet ik er ook weer niet van!
Maar Okzel weet jij dan mischien waarom Ati en Matrox hier geen/weinig last van hebben :?
Maar Okzel weet jij dan mischien waarom Ati en Matrox hier geen/weinig last van hebben
Zoals gezegd volgen de meeste fabrikanten het Nvidia reference design. Dit reference design bevat een RFI filter dat al bij 70 MHz een demping begint te vertonen. Waarom dit zo is weet ik niet, maar het moet bijna wel te maken hebben met de EMC eigenschappen. Vraag mij niet waarom Nvidia geen betere filters heeft ontwikkelt, maar vrijwel alle ontwerpen die van het reference design afwijken hebben WEL een kei goed beeld.

Kom nu niet met "maar mijn reference design kaartje heeft wel een goed beeld". Alle merken met dit design zijn gelijk en vertonen wederom bij hoger res en refresh een steeds vager wordend beeld...

edit:

[quote]
En een transistor om de videokaart te beveiligen tegen spaningpieken op de VGA uitgang.
[/quote]
Dit zijn geen transistoren maar protectie diodes.

[edit2]
Overigens is het RFI filter op mijn Geforce 3 kaart EXACT gelijk aan die op mijn Geforce 2MX !!! Beide reference design...
[/edit2]
Zou het dan niet mogelijk zijn om die van een ati of een matrox af te halen en daar op te plaatsen.

Zal wel niet? Maar lijkt me dat zo'n filter wel nut heeft? OF niet
ik denk dat hij vooral "gevaarlijke" signalen uit het signaal wegfiltert. (gevaarlijk voor de monitor dan)

dus als je morgen het bericht krijgt dat de monitor van die gast is overleden....
Het filtert signalen weg die anders storing in andere apparaten zou veroorzaken. Storing op je stereo bv. Of het wegdrukken van radio zenders. Je kent het effect van een GSM die op je radio legt vast wel. Dat is iets soortgelijks. Het is een wettelijke eis om dat te voorkomen of te minimaliseren.
Kijk, als Matrox en nVidia Žs gingen samenwerken... }>
Zouden we dan misschien de ultieme (gamers-) videokaart krijgen?
Dat heb je toch... zoiets heet Ati Radeon...
Hmm, eerst maar ff de reacties van de anderen afwachten ;).

Die FCC standaard, heeft dat nog te maken met straling ofzo? Is tweaken ongezond voor de tweaker aan het worden? ;)
Waarschijnlijk staat RFI voor Radio Frequency Interference. Deze filters zorgen er waarfschijnlijk voor dat je in de buurt van je computer nog steeds radio kunt luisteren. Het heeft dus (hopelijk) niets te maken met de bescherming van je monitor.

Als je de link naar de vorige 'guide' volgt in het artikel dan heeft die tweaker het erover dat hij nog steeds binnen een straal van 2 meter geen last heeft met andere apparaten.
his mod caused no RFI problems for me. I have a radio (with antenna), a TV/VCR set and image scanners under 2 meters distance from the computer and they all work as well as before.
Ik denk niet dat het straling is, volgens mij is het om de monitor te beschermen. Voortaan dus zo'n las-ding opzetten als je voor je scherm gaat zitten, voor je het weet vliegt er overal glas rond 8-)
Volgens mij hebben die signalen die worden weggefilterd geen invloed op de monitor. Het gaat er volgens mij om hoogfrequente signalen weg te filteren, omdat deze kunnen ongezond kunnen interfereren met met andere electronica.
De FCC is de Federal Communications Committee ofzo, in ieder geval gaan die over elektromagnetische straling. In principe niet ongezond, maar het is toch vervelend als je binnen 10 meter van je computer geen radio kunt luisteren ;)
dat lukt me nu ook al niet... :+
maar het is toch vervelend als je binnen 10 meter van je computer geen radio kunt luisteren
Hoezo ?? De kaart zit toch in een gesloten computer kast (bij de meeste althans ;) ) En die houdt echt wel de straling tegen. Ik denk dat het meer gaat om het storen van overige onderdelen in je pc.
I own both a Geforce 2 Ultra (RFI removed) which displays extremely crisp and clear 2d images at 1376x768 at 63hz on my 50" LCD monitor.
Op zijn LCD monitor ....
Dan gebruik je toch het digitale signaal en dat signaal gaat toch helemaal niet via de filters .... of zie'k da soms nie goed :?
Je kunt toch geen RFI van een digitaal signaal afhalen...

Volgens mij dienen die filters er ook voor om de overshoot van de DAC converter (heb je nodig voor VGA) te elimineren. Volgens mij krijg je dan een onstabiel beeld in egale kleur oppervlakten.
Ik weet niet of dat een goed idee is om die filters eruit te slopen.
Uhhhmmm, wie zegt dat zijn LCD met een digitaal signaal word aangestuurd :? hier in Nederland komt het zelfs nog haast niet voor...
Dus straks krijg je je GF3 kaart geleverd met soldeerbout, loep en tangetjes :? :? :?
You wouldn't notice this on a 17" or some 21" monitors…only large VGA monitors/projectors capable of displaying 1600x1200 at 120hz or similar.
...en aangezien bijna niemand zo'n enorme monitor of een beamer gebruikt, heeft dit totaal geen zin...
ik wel :)

weet het, nutteloze post | :(
Het was ook al bij de GeForce2 het geval. Het is de reden dat ik nog geen nieuwe grafische kaart heb gekocht. Met zo'n monitor wil ik goede 2D.

Op dit item kan niet meer gereageerd worden.