Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 13 reacties
Bron: Tresh's Vuurpeleton

Op Tresh's site staat een review van Tim Hsu over de Matrox G450. De prestaties van het kaartje zijn niet echt goed te noemen, de GeForce2MX die was meegenomen in de test ter vergelijking blijkt een hoger aantal fps te halen in alle benchmarks. De uiteindelijke conclusie kan je hier vinden.

Besides the die-shrink to 0.18 micron and the 64-bit memory bus change, there are several additional changes that differentiate the G450 from its older brother, the G400. Most of these changes involve the integration of components onto the card.

Secondary RAMDAC
One of Matrox's big points for the G400, and now for the G450, is the quality of the RAMDAC that is used. What the heck is a RAMDAC? A RAMDAC converts digital signals into analog ones, which are then used by an analog. The G450 has a 360 MHz primary RAMDAC, and a 230 MHz secondary RAMDAC. One of the prime advantages of having a faster RAMDAC is getting very sharp and very fast 2D, with high resolutions and color depths.
Directly related to this are the two integrated CRTCs on the G450. CRTC stands for CRT (Cathode Ray Tube) Controller. Each of the CRTCs can retrieve data from the G450's frame buffer (basically onboard memory) or from system memory via AGP from different locations. Having two integrated CRTCs allows Matrox to offer what is probably the primary selling feature for the G450, their "DualHead" technology.
Quake3 1280x1024x32


TwinView?
A lot of people have been wondering what the differences are between Matrox's DualHead technology and NVIDIA's TwinView technology that is going to be offered on some GeForce2 MX cards. The GeForce2 MX does not have an integrated second RAMDAC or TV encoder, so this does require some external hardware. Matrox is building quite a case up of other instances where TwinView can't do everything that DualHead can do, but without TwinView-capable GeForce2 MX cards available, we haven't been able to see or verify too much.

Price
It's hard to drop a new product much lower, as $149 is not an obscene price for a new video card, but for consumers who want 2D and 3D performance rolled into one, a GeForce2 MX presents itself as a better choice. However, this analysis on price really only takes consumers into account. Matrox's concern is going to be how $149 factors into IT/procurement spending by corporations.

Zoals we al in eerdere reviews hebben kunnen lezen zijn de 3D prestaties niet echt goed. Als je echt een die-hard Matrox fanaat bent kun je misschien beter wachten tot de G450MAX of de G800... Anders is de GeForce2Mx misschien een leuke kandidaat, hoewel de beeldkwaliteit misschien wat minder goed is.

Moderatie-faq Wijzig weergave

Reacties (13)

Jaaaaaaa, alweer een reviewer die niet snapt dat het kaartje NIET voor 3D games gemaakt is.

Het is voor bedrijven, cad/cam toepassingen e.d. waar 2 monitoren een erg groot voordeel zijn.

De TwinView van nvidia is gewoon te sneu voor woorden in dat opzicht.
Ik hoor vaak dat de 2d beeld kwaliteit beter is van Matrox.

Hoeveel beter is de beeld kwaliteit van zo'n Matrox ?

Kan je dat in procenten uitdrukken ?
Het verschil in scherpte tussen een Matrox en een NVidia kaart is een verschil tussen dag en nacht. Het verschil is vooral goed te zien op de hogere resoluties (1600*1200), het beeld van de NVidia kaartjes is dan gewoon waziger. Ook heb ik het idee dat de Matrox kaarten wat 'levendigere' kleuren hebben (meer contrast?).
Op een of andere manier zijn het alleen de Matrox voorstanders die dat zogenaamd zien. Het is inderdaad zo dat de TNT, TNT2 en Geforce kaarten inderdaad waziger zijn op hoge resoluties (boven de 1600x1200).

Echter iedere review op het internet zegt dat de beeldkwaliteit van de Geforce2 tov. de Geforce zwaar verbetert is en dat er geen fatsoenlijk zichtbaar verschil meer is tussen Matrox kaarten en de Geforce2.
Ik schaf dus ook een Matrox aan vanwege de DualHead, en de scherpte. Als je de hele dag aan het hacken bent aan web-apps, wil je dus ECHT wel een scherp beeld hebben... Heeft iemand trouwens ervaring met de iiyama 19 monitoren. En hoe zijn die in vergelijking met de Sony monitors?
Tja, dit is dus weer een herhaling van zetten ;)

Helaas vergeet de reviewer de sterke punten van Matrox op een rijtje te zetten, nl:

1 - DualHead (dat noemt 'ie nog wel)
2 - Linux-ondersteuning (zie ik nergens staan)
3 - Hoge kwaliteit van de gebruikte componenten

Als je 't zo terugleest stelt het misschien allemaal niets voor, maar probeer maar eens een testbeeld van 1600*1200 / 32-bits bij 95Hz te genereren met een Matrox en met een nVidia: de verschillen zijn rg goed zichtbaar, en natuurlijk ook meetbaar (signaalkwaliteit). Dit zegt dus genoeg over de Matrox!

En het feit dat de Matrox al zijn kunstjes ook onder Linux kan vertonen maakt hem in die sector vrijwel zonder concurrentie natuurlijk ;)

* 786562 Reinaert
ik ben het niet met punt 2 van je eens reinaert. als je naar de nvidia site gaat staan er tenslotte toch ook linux drivers.

Het lijkt mij trouwens inderdaad dat dit een kaartje is voor de bedrijven want 2D schijnt ( ik heb er geen ervaring mee ) hij veel beter te zjin als welke nvidia kaat dan ook.

Daarentegen voor ons tweakers is hij naar mijn idee niet interressant watn wij spelen tenslotte allemaal Quake ;).
Wat ik bedoelde is voornamelijk dat de drivers van Matrox inmiddels de volledige functionaliteit van de kaart ook onder Linux mogelijk maken.

Dus k onder Linux kun je inmiddels DualHead draaien, bovendien zijn die drivers inmiddels al behoorlijk stabiel (voor zover ik ze zelf ken).
Ja, leuk kaartje dus als je een goeie monitor hebt.
Ik zelf heb een merkloos kreng en dan heeft het dus vrij weinig zin. Die gasten van de firingsquad zeiden het al, ze zijn een gamers site. Al die "prof" toepassingen zoals Cad/cam interesseert ze geen zier.

Ik begrijp ook niet helemaal wat de fuss is about. * 786562 Edjekadetje
Je hoeft niet per se een goede monitor te hebben om voordeel te hebben van een Matrox kaart, althans dat is mijn ervaring. Ik heb eens een TNT door de G400 laten vervangen; het oude 19" scherm (merk x) werd zowaar scherper. Maar toegegeven: om zoveel guldens voor een kaart te betalen met een achterhaalde 3D performance heeft alleen zin wanneer je een goede (lees: dure) monitor hebt en veel 2D toepassingen gebruikt bij 1600x1200+.
Hangt er ook een beetje vanaf welk merk kaart het is. De Ramdac van de Mijn Creative Geforce DDR was erg slecht boven de 1280x960, maar die van de Elsa Gladiac (Geforce 2) is stukken beter.
Minstens zo goed als van een G200 Millenium.
(Getest op een Sony G500 21")
Beetje vreemd om deze Matrox te benchmarken met Quake 3 ! De kaartjes van Matrox zijn gewoon voor het die-hard 2D werk. Grafisch ontwerpers zweren er vaak bij. Met 3D loopt Matrox nog steeds een beetje achter.

sven.tweakers.net
En de Matrox is een Direct3D kaartje dus Q3 is zowieso unfair. Misschien omdat dat spel veel gespeelt wordt wordt het daarin getest, maar mensen die vinden dat Q3 zuigt denken nu dat het een kut kaart is :'(, WAT het zeker niet is... :9

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True