Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Bron: The Inquirer

The Inquirer heeft een gesprek gehad met David Kirk, de technische man achter alle nVidia chipsets sinds de Riva 128. Omdat hij natuurlijk niets los kan laten over de features van NV30 of andere toekomstige producten, voelde men hem aan de tand over de 2D beeldkwaliteit van kaarten met een nVidia chip. Deze wordt door veel mensen beschouwd als inferieur aan die van kaarten met een chipset van een ander merk. Volgens Kirk is dit probleem echter al lang niet meer af te schuiven op de chipsets die het bedrijf produceert. In GeForce3 Ti, GeForce4 en NV30 is er zelfs speciale aandacht aan besteed. Het probleem zit hem echter in de (vaak zo goedkoop mogelijke) componenten die bepaalde kaartenmakers gebruiken. Daarom is nVidia van plan om deze derde partijen te onderwerpen aan een kwaliteitscontrole:

nVidia GeForce4 heatsinkfan The company realises that the problem comes from some of their 15 or more partners who still have the freedom to use capacitors, resistors, RF filer parts or any other small component when making that Geforce cards. Some use cheap low quality components, you'll be horrified to learn.

[...] Please bear in mind that the cards that Nvidia ships to journalists and reviewers have pretty sharp picture quality which sometimes far exceeds the cheap and cheerful cards that some of its partners may make.
Moderatie-faq Wijzig weergave

Reacties (62)

Dus ze beweren dat de de bedrijven die die ati kaarten uitbrengen eigenlijk allemaal betere componenten gebruiken? Lijkt mij een beetje vaag
Tjah, misschien eist, net als nVidia van plan is, Ati wel een hogere kwaliteit van hun afnemers. Ik zie in de fora weinig slechte image klachten over Ati's en zat over de bekende noname MX kaartjes.

Wel goede stap.. echt jammer dat als je een vette GF4 koopt je nog met crappy 2d kan blijven zitten.

* 786562 NiGeLaToR
De echte miereneukers (like me) zullen het alleen wel met me eens zijn dat het wel degelijk uit maakt of je desktop mooi is of mooier.
Niet alleen miereneukers zullen een scherpe desktop belangrijk vinden.

Veel budget MX kaartjes worden aangeschaft omdat ze een mooie multipurpose oplossing bieden: prima 2D versnelling, hoge resoluties, en ook (redelijk) lekker gamen.

Juist dat multipurpose zorgt voor redelijk wat 2D gebruik (office, internet, grafisch etc.). Hierin blinken deze kaarten nou niet bepaald uit.

Verder lijkt het me sterk dat het door slechte componenten komt, over asus Geforce kaartjes hoorde je ook slechte verhalen over de 2D kwaliteit, deze gebruiken echter over het algemeen prima kwaliteit componenten (zie de rest van hun producten en de naam die ze hebben).
over asus Geforce kaartjes hoorde je ook slechte verhalen over de 2D kwaliteit, deze gebruiken echter over het algemeen prima kwaliteit componenten
Die verhalen zijn in 9 van de 10 keren onzin, en het is mij ook opgevallen dat ook dure merken slechtere componenten gebruiken.
Een snelle test om snel te kijken wat het effect van slechte beeldkwaliteit is, is om in Windows verkenner een selectierechthoek te tekenen. Op een witte achtergrond wordt dat een reeks wit/zwarte puntjes. Op de meeste no-name kaartjes zal de bovenste en onderste rand grijs lijken (ipv wit/zwarte stippen), omdat het signaal uitgesmeerd wordt (een scherm wordt van links naar rechts, en dan van boven naar onder getekend, daarom enkel horizontaal). Echt wel erg eigelijk, op sommige kaartjes zie je 100% grijs.
Ati maakt pas net gebruik van andere fabrikanten, daarvoor maakten ze de volledige kaart zelf. En konden ze dus zelf uitkiezen wat voor een kwaliteit componenten erop gingen.
Dikke kans dat ati beter afspraken over kwaliteit maakt.
Ik denk dat er vooral wordt vergeleken met Matrox, die de kaarten compleet zelf fabriceert en bekend staat voor ultieme scherpte en helderheid in 2D.
ATI heeft in het verleden alle kaarten zelf geproduceert, nvidia was daarintegen voor zijn reputatie afhankelijk van andere producenten, die het concept kunnen wijzigen....dus dat kan.

Heb zelf altijd of Diamond of Creative of Asus kaarten gehad....nooit problemen met 2D...
dit heeft niks met ati temaken...

ati heeft ook een andere chip dus..
2d beeldkwaliteit wordt verkregen door het gebruik van een snelle ( op hoge snelheid draaiende) ramdac.
Een ramdac van een Matrox G400 is 300Hz/Mhz (1 vd 2) :?
die van een GeforceII veel lager.
feit is, dat het gebruik van hogere snelheden wel een bepaalde eis steld aan het gebruikte geheugen, transitoren, etc..
gebruik je relatief goedkopere componenten, dan zijn deze sneller gevoelig voor storingen. Wat resulteerd in een slechtere beeldkwaliteit.
Voorbeeld: neem een erg slechte VGA verlengkabel, zo een zonder een smoorspoel. Dan merk je dat meteen aan je beeldkwaliteit. Schaduw van letters etc. erg irri. Neem je een betere/duurdere dan heb je over het algemeen (bij normale lengtes en afstanden) geen kwaliteitsverlies.
Waar onze Dirk het hier over heeft zijn de RF filters. Een goede RAMDAC kan omzeep geholpen worden door een te langzaam filter. De RAMDAC zit in de chip dus daar is niks aan te doen door de fabrikant. Leadtek heeft bijvoorbeeld hele goede beeldkwaliteit. Dit houdt dus in dat met de RAMDAC van een GF3 niks mis is. Wat de VGA kabel betreft, dat is geen smoorspoel maar een ferriet kraal. Het doel is om Hoog frequent te verwijderen wanneer het filter dit niet zou doen. Eigenlijk is zo'n kraal overbodig wanneer je een goed filter hebt. Het probleem is de CE markering die alle electronica moet hebben. RAMDAC signalen zijn blokgolven dus een hele steile flank, wat veel HF genereerd. (een blok is namelijk de som van een x-aantal sinus golven) Het LPF filter gooit dus de allerhoogste (in frequentie) sinussen uit het signaal waardoor de flank minder stijl wordt en je beeld dus minderscherp. Hoe slechter het filter, hoe meer die eruit gooit wat eigenlijk niet de bedoeling is en dus een waziger beeld.
Wat voor problemen zou het eigenlijk opleveren als nvidia deze filters softwarematig uitschakelbaar zou maken? Ik heb een tijd geleden een 'tweak' gezien waar men de filters hardwarematig uitschakelde met als resultaat een veel beter beeld.

Die extra electronische ruis kan toch geen kwaad?
Dat is te hopen ja, net zoals te hopen is dat GSM's niet gevaarlijk zijn. Maar echt zeker weet niemand dat.
Die ferrietkraal werkt hetzelfde als een smoorspoel.
een spoel verzet zich tegen frequentie wisselingen.
De ferrietkraal zoals jij het noemt, wordt door de kabel die er doorheen loopt en de daardoor optredende magnetische stroom een smoorspoel.
Zoals al vaker gezegd:

"De snelheid van de RAMDAC heeft niet te maken met de kwaliteit van het uitgangs-signaal' |:(

De snelheid van de Nvidia RAMDACS is vanaf de GF2 al ruim voldoende.
Nou, leg jij dan maar uit waar het dan aan ligt. ;)
No flame intended.. Maar naar mijn idee was dat toch wel een behoorlijk belangrijke factor.
Erik,

het klopt inderdaad redelijk. Het probleem met de RAMDAC is dat als je in de buurt van zijn limiet komt, de kwaliteit sterk achteruit gaat.
Als je echter daar geen last van hebt, zijn de beeldfilters (dus de kleine componentjes) bepalend.
En het monitorsignaal moet op een bepaalde manier gefilterd worden omdat dat gezonder voor je is. Als je die filtertjes eruit haalt, gaat de beeldkwaliteit vooruit. Maar das dus toch niet zo heel slim (maar goed, als je al een kwik-koeling hebt zou zoiets er ook wel bij kunnen :))
Alleen de kwaliteit van de componenten is van belang.
Een Millenium I of II geeft nog steeds een goed beeld terwijl de snelheid van de RAMDAC aan de magere kant is. (Voor huidige begrippen)
Er is een tijd geleden, een lang verhaal geweest over de kwaliteit van het beeld van een GeForce..
Daar kwam in langs dat de snelheid van de RAMDAC (Of van een andere chip, correct me if I'm wrong..) erg belangrijk was voor de geleverde kwaliteit.

Het had ook te maken met bepaalde kristallen, en flters. Ook waren er enekel milieuregels aan verbonden meen ik. :?.
Was het zoiets dan ;)
Matrox G400 heeft een RamDac van 300Mhz, de G400MAX heeft een RamDac van 360Mhz. (Dacht dat dat de snelste RamDac was toendertijd.. misschien nu nog :? )
Die zit nu op de Radeon 8500, nl een 400Mhz RAMDAC.
En de G400 heeft in mijn ogen ook nog steeds de beste kwaliteit 2d beeld. }>
Nou dat dacht ik niet. De ramdac heeft vooral te maken bij welke resolutie kleurdiepte combinatie je nog een bepaalde refreshrate kan krijgen.

Mijn Gf3 heeft een snellere ramdac dan mijn G400max, is hij daardoor scherper??? No way, de Matrox verslaat hem makkelijk, vooral op hogere resoluties.

De filters daar gaat het om. Hoe snel kan uitgang van maximaal naar minimale uitgangsspanning gaan??? Dit maakt het verschil tussen een haarscherpe letter of niet.

Uiteraard zijn alle componenten daarachter net zo belangrijk zoals de kabel en monitor. Heb je echter een slecht uitgangssignaal wordt de invloed van deze andere componenten steeds minder
And I stand corrected :o
Ik was inderdaad in de war met refreshratees en kleuren en scherpte..
Ik herinnerde mij alweer dat er ook bepaalde filters waren die de scherpte bepaalden.. (zie een paar reacties hierboven..)

Een man is pas een man, als hij zijn fouten toe durft te geven.. ;)
Met al het 3d geweld blijft de 2d kwaliteit toch een onderbelicht onderwerp. Ik gebruik zowel thuis als op mijn werk een GeForce256, maar de Hercules die ik thuis op een 17" Sony Trinitron heb is duidelijk minder scherp dan de Asus die ik op mijn werk op een 22" Iiyama Diamondtron gebruik. Ik heb ze ook omgewisseld maar dat was dus door de schermgrootte geen succes, 17" is toch wat minder kritisch :*)
er gaan steeds meer mensen op ATI af omdat beeld kwaliteit veel mooier isen is ook snel je hebt de ati r8500 met core van 300 memory hetzelfde
ik heb zelf ok der een ik zie het veshil een van de mooiste feutures is treu form vind ik zelf
bij half-life counterstrike speel ik vaak bij open gl
de hoofd van de opetjes zijn rond en sommog eobjecten ok dus hij ondersteund treu form
ik had de geforce 2 gts pro die heb ik aan de muur gespijkerd omdat de beeld kwalietit niet zoo mooi was
[vertaling]
Er gaan steeds meer mensen op ATI af omdat de beeldkwaliteit veel mooier is.

De ATI kaart is ook snel, met een core van 300 Mhz en een memory van 300 Mhz (effectief 600)

Ik heb er zelf ook 1 ik zie het verschil 1 van de mooiste features is true form vind ik.

bij half life counterstrike speel ik vaak met openGL, het hoofd van de poppetjes zijn rond en sommige objecten ook dus hij ondesteund true form

ik had de GeForce2 GTS Pro :? die heb ik aan de muur gespijkerd omdat de beeld kwaliteit niet zo mooi was
[/vertaling]

offtopic:
hmmm DENIZ, een directX8.1 kaart vergelijken met een DirectX7 kaart is net als appels en peren. En kan je dat ding nog van de muur afhalen ???


2d kwaliteit is bij mij ook een belangrijk punt om op te letten bij een nieuwe aanschaf tegenwoordig. Helemaal als NVidia zometeen met hardwarematig dual screen op de proppen komt, is dit ook voor de kantoorwereld een belangrijke overweging.

Matrox is nog steeds -ook al wordt het minder- heerser in de dual screen opstelling. niet zozeer de 3d kwaliteit, maar ze zijn inferieur binnen 2d omgevingen. heb er zelf ook een tijdje mee mogen werken (550 dual head :9).

Nou afw88 wat NVidia haar antwoord is.

ook het keuren van diverse merken kan ik erg in de hand werken zoals al eerder gemeld worden er toch veel verschillen opgemerkt door diverse mensen. Zelf heb ik er geen verschil in mogen merken. maar goed, das IMO ofcourse
niet zozeer de 3d kwaliteit, maar ze zijn inferieur binnen 2d

behulpzaam:
inferieur is dat je minderwaardig bent.
Jij bedoelt denk ik superieur.

NVidia komt er nu ook achter waar anderen ook achter zijn. Een mooie chip met een goed reference design. Alleen diegene die het product maken gaan weer inferieure compomenten gebruiken.
Gaat toch je naam achteruit zonder dat je daar direkt invloed op hebt.
true form moet het spel wel ondersteunen he dat werkt niet bij standaard halflive

test het eens met castle wolfenstein die heeft die feature wel (waarschijnlijk komt het door andere nieuwe feature dat je geforce 2 minder goed beeld gaf voor die dingen

true form is op een makkelijk manier een mooie vorm te krijgen (minder polygons voor bv een donut-vorm die echt rond lijkt)

of de nieuwe versie van serious sam heeft dit ook (ook in de techniek test ruimte (kun je alle grafische funsties zien))

mijn geforce geeft wel goed beeld dus ligt echt aan de makers van de kaart (hoewel ik geen 24" beeldscherm heb jammergenoeg kan ik dus niet echt testen)
[flame]
Leer eens schrijven man!
[/flame]
[flame]
Leer eens schrijven man!
[/flame]
Het bericht van _Pussycat_ mag dan wel met flame worden betiteld (zoals ie zelf al aangeeft), maar het bericht van Deniz overtreft wel alles wat mij betreft. Ik vindt het een zwakte van dit moderatiesysteem, daar heb ik graag een flamebait voor over, ook al is dat het niet... :(
ati, 3d sucks...
trilinear filter en anisotropic filter tegelijkertijd is a definite nono...

Als dat al niet kan kan je net zo goed alleen maar bilinear ondersteunen, zonder trilinear dan heeft het verbeteren van de diepte verwerking van 3d geen enkele zin.
De 2D en 3D (digitale) signalen moeten nog steeds worden omgezet naar analoge signalen. Even niet over een digitale uitgang gesproken.

Het is inderdaad wel zo dat je weinig meer hoort van 2D, maar de kwaliteit van het signaal wat de kaart "zuiver" maakt is waar het om gaat. Dus ook voor 3D!

En zoals al hierboven gemeld, de kosten spelen altijd een grote rol. Eigenlijk zou de ramdac extern moeten zijn van de videochip. Maar ja, dat brengt weer hogere kosten met zich mee, en dus slechtere concurrentie.

Vooral bij de hogere resoluties en hoge verversings frequenties merk je bijvoorbeeld verschil bij het gebruik van een mooiere kabel tussen videokaart en monitor.

Persoonlijk vind ik het dus een heel goed punt om de eisen te stellen aan de kwaliteit van de gebruikte componenten, om zo de kwaliteit te waarborgen.
maar de Hercules die ik thuis op een 17" Sony Trinitron heb is duidelijk minder scherp dan de Asus die ik op mijn werk op een 22" Iiyama Diamondtron gebruik.
Dat is natuurlijk een verre van optimale testmethode. WIl je dit goed kunnen vergelijken dan moet je de twee kaarten met dezelfde monitor testen. Nu speelt de kwaliteit van de verschillende beeldbuizen en maten ook een rol en ben je eigenlijk bezig appels met peren te vergelijken.
WIl je dit goed kunnen vergelijken dan moet je de twee kaarten met dezelfde monitor testen.
Dh. Daarom heb ik ze dus zoals ik al zei ook eens omgewisseld en de Asus gaf op zowel de 17" als op de 22" beter beeld dan de Hercules. Specifiek: de Hercules is bij dezelfde resoluties en refresh rates verticaal wat waziger dan de Asus, iets dat bij de verticale dotmatrix van Trinitron en Diamondtron buizen wat meer opvalt. Verder zijn mijn PC op werk en thuis vrijwel identiek qua specs en andere kaarten, wat betreft storing door de rest van het systeem, dus, conclusie: het merk maakt nogal uit bij een Geforce kaartje ;)

Om de test volledig te maken: geprobeerd bij 1024x768x32 @ 75hz op de 17", en op 1280x1024 @ 75hz op de 22". Niet schrikbarend hoge res of refresh dus :P en idd, ik wacht met de aanschaf van een nieuwe kaart totdat ik een test zie waarin beeldkwaliteit meespeelt, zowel in 2d (scherpte, helderheid, kleur, geometrie e.d.) als in 3d (kwaliteit rendering en effecten, ondersteuning van DirectX en OpenGL). Framerates zijn ook niet alles :*)

* 786562 PowerFlower
Of Sony roeleert gewoon..... ;)
En wat gaat Nvidia er dan aandoen wanneer 1 van de fabrikanten een slechte 2D implementatie heeft????

De klant kiest toch ook bewust voor een goedkoper merk... dan weet je toch dat deze naar alle waarschijnlijkheid minder in kwaliteit is tov een duurdere fabrikant (zoals Gainward)

Je hoeft mijn stuk niet te bekritiseren door met RAMDAC verhalen aan te komen... doe dan maar eerst eens je huiswerk goed
't gaat niet om de "2D implementatie" want er is no such thing denk ik voor een kaartenbakker...

't probleem zit hem naar mijn idee puur in wat onderdelen die in de buurt van de RAMDAC opereren..
En wat gaat Nvidia er dan aandoen wanneer 1 van de fabrikanten een slechte 2D implementatie heeft????

nVidia zou ze bijvoorbeeld geen chips meer kunne leveren als ze niet goed zijn.

De klant kiest toch ook bewust voor een goedkoper merk

Het zou 1-2 gulden schelen om hier fatsoenlijke onderdelen voor te gebruiken. Bovendien heeft nVidia een slechte naam door de matige 2d-kwaliteit en wil dat kwijt, ook al merken de meeste klanten (die hun scherm op 640*480 @ 60 Hz draaien, want dat 'was al zo') er weinig van.
Net zoals bedrijven die n pakje vervuilde boter hebben gemaakt ze vervolgens allemaal uit de roulatie nemen - gewoon image oppoetsten.
Nog een hint voor Nvidia: Let ook eens op de TV out kwaliteit. Daar valt bij de Geforce ook wel een en ander aan te verbeteren.
Tja, dan moet je volgens mij eerder bij Coxenant of bij Crontel zijn.... Die maken namelijk de tv-out chips die op nVidia gebaseerde kaarten gebruikt worden.

Ati maakt de bij hun chips horende tv-out chip (Rage Theather) overgens zelf. En als ik het goed heb hebben de Matrox kaarten tv-out zelfs al helemaal onchip net als de Ati Radeon 7500.
Of toch bij nvidia... mij interesseerd het niet waar en hoe ze hun chips vandaan halen, als het maar goed is... is het niet genoeg en je koopt het ergens in: ergens anders inkopen dan maar he :)
Het hangt er natuurlijk ook vanaf wat voor soort monitor je hebt en op welke resolutie je draait. Ik heb mijn Ati kaartje (nog een oude Rage Fury 32Mb Tv-out) wel eens in het systeem van een vriend van mij gedouwt die een Iiyama 17" (Geforce 256) heeft (1024x 768) en daar is het verschil in 2D minimaal.

Terwijl als hij zijn kaartje op mijn monitor aansluit (Eizo Flexscan T761 19" 1280x1024) dan is er echt een heel groot verschil, waarbij mijn Ati kaart een veel scherper beeld geeft. :)

Zodra ik beide kaarten test via de BNC connectors van mijn monitor dan is het verschil nog dramatischer.
Bullshit excuus. Ik heb een Hercules GF2 MX, en Hercules gaat er zelfs prat op dat zij de GF2 kaarten met de beste beeldkwaliteit leveren. Toch ziet het beeld er niet uit. Vooral als je via een KVM switch gaat, merk je dat het GF2 beeld veel slechter wordt dan het beeld van andere videokaarten (ATI Rage bijvoorbeeld).

Volgens mij gebruiken ze gewoon te kleine driver transistors in de chip en kan die chip gewoon niet genoeg stroom leveren, waardoor de beeldkwaliteit bij langere kabellengte al snel inzakt.

Natuurlijk kunnen de fabrikanten zelf externe driver-transistors toevoegen, maar ja, dan worden de kaarten idd. duurder. Daarbij zal een kaartenbouwer vast niet gaan zitten experimenteren met output-drivers, daar hebben ze geen tijd voor. Tegen de tijd dat ze klaar zijn met experimenteren komt nVidia al weer met een nieuwe chip uit.

Daarnaast is natuurlijk de ramdac van belang, en ik geloof best wel dat nVidia op de ramdac heeft bespaard. Op de features van de chips hebben ze amper gespaard, maar de beeldkwaliteit was gewoon niet belangrijk voor het marktsegment dat ze wilden bereiken.

Overigens zou nVidia in de GF2 MX200 en MX400 serie al dit probleem aanpakken, maar volgens alle reviews is de beeldkwaliteit zelfs in de GF3 niet beter dan in de oude GF2.

Het is allemaal besparing. Ik vind het wel HEEL ERG frappant dat nu ATI met z'n Radeon 8500 is gekomen, met prima 2D beeldkwaliteit, er bij nVidia ineens ook weer over de 2D beeldkwaliteit gesproken wordt. Ik denk namelijk dat er heel wat mensen zijn die van bijvoorbeeld een Matrox G400 overstappen naar een ATI en niet naar een nVidia, puur vanwege de beeldkwaliteit. Dat is natuurlijk iets dat ze bij nVidia willen voorkomen...

edit:


Ik zie overigens verhalen over die ramdac... Bedenk wel dat de snelheid van de ramdac subjectief gemeten wordt. Een ramdac die bij nVidia voor 300MHz moet doorgaan is op de manier waarop Matrox meet misschien maar 200MHz. Het ligt er maar aan wat voor kwaliteitseisen je aan het uitgangssignaal oplegt. Er is geen standaard namelijk.

Ik ben het er toch voor een groot deel mee eens. Op aanraden van mensen op het technische forum ben ik ooit maar naar een Elsa GF2MX gaan uitkijken. De scherpte van het beeld kan makkelijk met een Matrox G200 Marvel concurreren, en is zelfs beter boven de 1024x768 resolutie. (Hoger is die G200 niet echt lekker..)

Na wat reviews dacht ik dat Gainward best goed was, en heb een GF3Ti200 (Zij klokken hem bijna als een Ti500) 128MB Golden Sample geprobeerd.

Maar niet dus, dat ding heeft echt een slechter beeld dan die Elsa Gladiac GF2MX. En als je op het forum zoekt, kun je van b.v. DaBit de geslaagde experimenten vinden om met een Asus kaart een betere beeldkwaliteit te krijgen door het filter te vervangen of verwijderen.. NVidia draagt wel wat schuld door vroegere problemen, en het genereren van hoge benchmark scores door te knoeien in de drivers met de texture filtering, maar de fabrikanten beknibbelen duidelijk op de onderdelen, en niet alleen bij de goedkopere kaarten.....
Dat het niet aan de chips ligt is wel duidelijk. Er zijn namelijk genoeg guides op het internet te vinden om de beeldkwaliteit van een GF3 kaart enorm op te schroeven in hoge resoluties. DIt doet men door een paar draadjes te solderen bij de uitgang naar je monitor. Dit is om de eindfilters over te slaan. Deze vormen namelijk het probleem in hogere resoluties.

Hier is een guide te vinden om de filters buiten te sluiten.

Nog maals, het geeft alleen een verbetering in kwaliteit in de resoluties 1600x1200 en hoger, dus zeg maar voor mensen met een 19" monitor of beter. Er zijn idd ook 17" monitoren die die hoge resolutie weer kunnen geven, maar daar zal het verschil bijna niet zichtbaar zijn omdat de monitor de beperkende factor is.

edit:
Dat plaatje van de eindfilters doet het niet, komt door geocities. Copy/paste deze link in een nieuw venster en je zal hem zien:
http://www.geocities.com/porotuner/prolink_gf2_mx.jpg
Wat je daarmee in principe OOK doet is er voor zorgen dat je kaart niet meer legaal is volgens de Kema norm.

Ik merk dat de beeldkwaliteit afhankelijk is van welke monitor je er aan hangt. Dat betekent dat de filters niet het (enige) probleem kunnen zijn. Het zal wel helpen als ze weg zijn, maar volgens mij niet om de reden dat ze een te lage doorlaatfrequentie hebben. De waardes voor de filters komen al bij nVidia vandaan, en die hebben die waardes genomen om aan de eisen van de FCC te voldoen. Andere waardes voor de componenten zullen niets in de kosten uitmaken, dus is er een andere reden voor waarom ze de bandbreedte hebben beperkt.

Anyway, nVidia heeft zelf toegegeven dat het probleem op de core zit en dat ze er iets aan zouden doen bij de GF2 GTS, maar dat is er nooit van gekomen. Zelfs de GF3 had de gebruikelijke belachelijke beeldkwaliteit.

Maar.... Dat neemt niet weg dat het weghalen van de filters zal helpen. Ook zul je er buiten je PC ook geen last van krijgen, want alles wordt netjes afgeschermd door je kast (tenzij je geen slotafdekblikjes gebruikt voor de lege slots). Maar dat het extra straling teweeg brengt is een feit. Het zou kunnen dat je computer er instabiel van wordt...
Ik heb nog even een vraagje. Ik heb op het moment een Asus V8200 en een IIyama Visionmaster Pro 510. En ik ben niet echt tevreden over de 2D kwaliteit. Ik heb de monitor gekocht om zeker op 1600x1200 te werken alleen het is niet scherp genoeg heb ik het idee. Ik gebruik nog een gewone DSUB kabel die bij de monitor zat.

Ik speel niet vaak spellen maar als ik speel wil ik toch wel vette prestaties dus ik heb liever wel een Geforce4 welke kan ik dan het beste nemen?
Waarschijnlijk heb je je refreshrate op optimaal staan , bij mij geeft de monitor namelijk een onscherp beeld als de refreshrate op optimaal staa wat dus moet betekenen dat het dus optimaal is , niet dus.

Want ik weet niet hoe het komt maar als ik het handmatig naar bijvoorbeeld de max refreshrate van 85 hz zet is het beeld veel scherper, optimaal is eigenlijk onzin want het is helemaal niet optimaal. :)
Nee dat heb ik niet hoor, ik heb hm gewoon op 85 Hz staan. Met powerstrip geforceerd ook voorin de games.

Ik zal es zo'n BNC kabel halen, iemand nog tips welke een goed is.
BNC kabels (goeie kwaliteit) doen ook wonderen trouwens, zou ik eerst een proberen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True