Matrox Millennium P750 videokaart review

Bij Icrontic is een review verschenen over de laatste videokaart van Matrox, de P750. Deze videokaart is een budget-versie van de Parhelia en hoewel er DirectX 8.1 ondersteuning aanwezig is, is de kaart niet bedoeld voor gamers. Matrox mikt op de 2D-workstationmarkt en dankzij een prijskaartje van 235 dollar is de kaart een betere keus dan de Parhelia als je niet geïnteresseerd bent in 3D-prestaties. De reviewer is positief over de kaart, maar mensen die met 3D-applicaties werken kunnen beter verder kijken naar een andere kaart:

The casual gamer will be able to enjoy the latest games but with a few concessions. I recommend Matrox products for multi-monitor environments but would obviously hesitate for gaming enthusiasts and 3D designers who require massive GPU processing power. 2D graphic enthusiasts will love the flexibility and no-hassle desktop that Matrox provides.

I can't help but respect Matrox for their multi-monitor expertise. I work on multi-monitor computers day in and day out. G450/G550 lovers who are looking for an upgrade will be very pleased with the Millennium P650 or P750 and especially pleased with the price point in comparison to the Parhelia. Matrox have targeted productivity enthusiasts and once you go dual (or even triple) you won't go back.
Matrox Millennium P650 / P750

Door Hielko van der Hoorn

11-05-2003 • 14:23

41

Submitter: T.T.

Bron: Icrontic

Reacties (41)

41
41
39
20
2
0
Wijzig sortering
Heb de review gelezen en kan je deze kaart ALLEEN aanraden als je 3 monitoren door een kaart gestuurd wilt hebben.

De voordelen van 1 kaart is :
-je spaart 1 tot 2 pci sloten.
-kleuren, gamma, scherpte, beeldkwaliteit, snelheid en refresh rate verschillen "opgelost"
-compatibiliteit, niet alle configuraties kan 3monitoren goed sturen.
-goedkoper ( misschien niet nu )

Anders raad ik je aan een gewonen DUAL out kaart te nemen. Een van de goede 2D kwaliteits kaart is ATI, neem wel een van de originele maker. De 7500 serie heeft ongeveer dezelfde performance.
Vrijwel alle OEM makers van nVidia en ATI zetten minder goede onderdelen onboard waardoor het op een grote monitor minder goed (scherpte/kleur) uitzien.

Des noods met een PCI kaart erbij! Ben je nog goedkoper uit met een beter 3D performance.
dion_b Moderator Harde Waren @onno211 mei 2003 15:42
Anders raad ik je aan een gewonen DUAL out kaart te nemen. Een van de goede 2D kwaliteits kaart is ATI, neem wel een van de originele maker. De 7500 serie heeft ongeveer dezelfde performance.
Vrijwel alle OEM makers van nVidia en ATI zetten minder goede onderdelen onboard waardoor het op een grote monitor minder goed (scherpte/kleur) uitzien.
Daar geef je net aan wat de niche van deze kaart is: mensen die meerder monitoren willen, die 3D niets interesseert en die niet eerst tig reviews door willen lezen om te achterhalen welke ATi/nVidia nou wel fatsoenlijk beeld geeft. Met Matrox heb je dat al gegarandeerd.
Bovendien heb je de dual-DVI mogelijkheid (dat die reviewers dat niet noemen geeft IMHO al een erg negatief beeld over ze, zoals Madman2003 al zei), nodig voor DVI resoluties boven de 1600x1200, wat geen enkel ATi/nVidia kaart in dezelfde prijsclasse heeft.
Maar bovenal is de multimon driver support van Matrox onovertroffen- als je op verschillende resoluties EN verschillende refresh rates wil draaien kan dat alleen met Matrox kaarten.
<edit: onder Win2K>
Ik heb zelf dualhead met twee kaarten geprobeerd, maar ben ondertussen volledig overgegaan op Matrox- juist omdat je er niet bij stil hoeft te staan- het werkt gewoon :)
Anoniem: 300 @dion_b11 mei 2003 18:12
Maar bovenal is de multimon driver support van Matrox onovertroffen- als je op verschillende resoluties EN verschillende refresh rates wil draaien kan dat alleen met Matrox kaarten
Nope, kan ook op een gewone Club3D Ti4200.
Ik heb hier 2 monitoren, 2 verschillende resoluties en 2 verschillende refresh rates. :)
Matrox is in mijn ogen een 'gewone dual out kaart'.

De meeste van die kaarten van ATI en nVidia zie ik toch als 'je kunt er als je perse wilt een tweede monitor op aansluiten'. Kan zijn dat dat voor nVidia ondertussen achterhaald is, maar in de enige recente test van dual monitor prestaties die ik gezien heb storte de ATI kaarten qua prestatie allen als 'n plumppudding in bij aansluiting van het tweede scherm (sorry; kon die test zo helaas niet terug te vinden -- iemand?).
Anoniem: 1788 @onno211 mei 2003 23:47
matrox heb ik al jaren om diverse redenen die ik jullie niet wil onthouden: :)
- goede support
- goede kwaliteit van drivers (denk aan stabiliteit)
- goede beeldkwaliteit
- goede ondersteuning voor meerdere besturingssytemen
- levensduur van de kaart is goed (ondanks overklokken)
Slaan ze hier niet heel erg de plank mis?
Geen TV-out of TV-in
Geen echte gamers kaart
Dan kan je voor veel minder al terecht bij Ati en NVidia
Voor het zelfde geld kan je een hele luxe gamers kaart met alle toeters en bellen kopen
...of mis ik iets...
Anoniem: 55473 @Leutje11 mei 2003 14:39
Ja, je mist wel iets. Namelijk de superieure beeldkwaliteit en multimonitormogelijkheden van Matrox.
Ik gebruik tot nu toe zelf een G550 voor mijn DAW. Ik heb geen enkele interesse in 3D mogelijkheden. Waar de g550 al perfecte 2D heeft, zou deze P-serie daar weer aardig overheen moeten gaan. Een betaalbare fanless triplehead videokaart is toch een gat in de markt.
superieure beeldkwaliteit en multimonitormogelijkheden
nou,... superieur...
De 8500 van Ati heeft betere 2D dan de Parhelia. De 550 is beter dan de Ph. (zie test tecchannel.de waar ze zeer gedegen testen met de duurste analysers).

Leutje heeft gewoon gelijk: ze slaan de plank mis. Niet dat de kaart niet goed is voor het beoogde doel, maar hij is gewon minstens 2x te duur!

op Jimmy pop --v
(ik snap je niet helemaal, niet eenduidig) Je hebt gelijk als je zegt dat Ati een alternatief is.
ik heb zelf net een G400 vervangen door een radeon 8500, maar de 8500 is zelfs nog beter. Mèt meer mogelijkheden! En ik doe nogal wat grafisch werk.
Ik heb zelf de ATI 8500 er uit gehaald en parhelia er in gezet en die ATI komt er niet meer in. Mijn persoonlijke mening is dat de 2D prestaties gewoon veel beter zijn.

Ik doe namelijk nogal wat grafisch werk en elke keer stellen ATI en Nvidea me teleur met hun 2D mogelijkheden.
Je moet even de review lezen. Matrox levert allemaal verloopstukjes mee waardoor je o.a ook een tv-out hebt :)
Dat weet ik wel maar dan ben je meteen je dual-monitor systeem kwijt ;)
En dat kan ik met mijn club3d kaartje wel in samenwerking met TV-out
Nee, dat is niet waar. Zelf als je van de TV-out gebruikt maakt kan je ook nog eens twee andere beeldschermen gelijktijdig aansturen. Dus tripplehead :)
TV-out gaat waarschijnlijk dmv een verloopje op de 2e DVI aansluiting. En deze kaart is helemaal niet gericht op de gamersmarkt.
Verder moet erbij worden gezegt dat de TV-out van Matrox in verhouding tot de concurentie veruit superieur is. Waar bij Nvidia en ATI de videobrandreedte rond de 2,5 Mhz is, is die bij Matrox ongeveer het dubbele.

Beeld is dus veel scherper, en het is dus echt bruikbaar als alternatief voor bv een DVD player.
Anoniem: 13443 @voodooless11 mei 2003 23:41
wat bedoel je nou met videobandbreedte? Zolang als hij op dezelfde band zit maakt het niks uit hoor.

Ik gebruik nu dus de tv-uit van de 8500 en die is echt super. Netjes beeldvullend zonder randen. Scherp. Geen rare artifacts of gewriemel in een hoek zoals bij mijn oude G400. Het zwart is zwart en lichte kleuren lopen niet door. Gewoon allemaal erg goed.
Zolang als hij op dezelfde band zit maakt het niks uit hoor.
Dit vind ik een erg vage uitspraak :?

Een videosignaal gebruikt een bepaalde bandbreedte om zijn informatie te versturen, voor de volledige PAL resolutie heb je BV 5.5 tot 6 Mhz nodig. Veel TV-encoders encoderen echter maar met een bandbreedte van rond de 2.5 Mhz, waardoor de resolutie en de sherpte van het beeld achteruit gaat, net als bij een VHS videorecorder, die ook bandbreedte spaart om zo minder tape te gebruiken.

kijk ook hier nog eens
http://www.alkenmrs.com/video/standards.html:
Heb ook een 8500pro, en daarvoor een G400. Beeld van de 8500 is zeker niet scherper en de TV-out van de G400 is superieur. Hoezo geen zwarte rande? Ech wel, alleen kan je het een beetje "opblazen" waardoor de randjes iets minder worden. Maar boven/onder blijven toch echt randen. En als je die "opblaast" zie je je taakbalk verdwijnen in de zwarte rand die volgens jou niet bestaat |:(
Hoewel ATI wellicht een alternatief biedt met onder andere de 7500 als je de 3D mogelijkheden erbij wilt kun je onmogelijk beweren dat ATI noch Nvidia een echt goed alternatief bieden voor 2D oplossingen. En geloof me, er zijn zat lui die vaker Photosjoppen dan Quake3 spelen, en dan is die standaard MX440 die je bij je PC hebt gekregen toch niet echt een goeie oplossing.
De prijs is natuurlijk gunstig...
En ohja: dual monitor he, nuf sed....
De Parhelia is wel sneller dan de 7500 in 3d hoor... hij ligt net onder de 8500, GF3 ti 200 niveau.
dankzij een prijskaartje van 235 dollar is de monitor een betere keus
Ik neem aan dat daar P750 moet staan?

Ik vind hem nog steeds erg duur.
na de zin 3x gelezen te hebben denk ik dat ze bedoelen dat je beter je geld in een goede monitor kunt stoppen dan in de dure videokaart. ff voor de mensen die het hele artikel niet willen lezen, deze kaart scoort in 3d omgevingen net zo goed als een xabre 400.
Een goede monitor is idd niet te versmaden, nochtans de Matrox kaartjes presteren toch duidelijk scherper op heel hoge resoluties zoals 2000x1500...

Het enige wat niet meevalt, zijn de drivers, ik heb zowel een G400 als een G550, beide in multi monitor omgevingen, een Iiyama 22", een Phillips 19" met als bijzet enkele 2e hands IBM beeldbuizen. Prima beeld, als de drivers meewillen.
Hij is idd nog steeds niet goedkoop moet ik zeggen. Jammer dat het koelblokje er niet opzit. Vind ik altijd interessant :P
Hier zie je m wel met fan.. :?
http://www.icrontic.com/images/reviews/mm/Reviews/Hardware/Video/matro xp750/p750/angle.jpg

Edit: De 650 heeft een passive cooling, de 750 een active cooling :Y)
De chip heeft dan ook een erg hoog 'photoshop' gehalte....of zie ik dat helemaal verkeerd :?

Een blauwe core heb ik anders nog niet zo vaak gezien :D
das de core niet, das het silicum om de core heen. En er kan toch ook gewoon een stikkertje op zitten? Niemand heeft toch gezegd dat de kaart van het plaatje daadwerkelijk zo in een computer draait? Das gewoon een persfoto... Op de kaarten die straks in de winkel liggen zitten wel koelblokken en dan zie je de kleur toch niet... Lekker belangrijk allemaal...
Ik heb al een tijdje terug me GF2Ti Pro in de la gelegd en er een G550 ingestoken. 3D is ie wel stukkie langzamer maar het is gewoon veel mooier beeld en een mooie dual head :)
De dual head in windows was echt crap trouwens. Of dat aan windows of aan de drivers ligt weet ik niet (denk m$) maar in linux doet ie het uitstekend :D
ligt aan windows, met mijn kaartjes kan ik in windows ook maar dual gebruiken en in linux werkt het zonder problemen in triple opstelling }>
Drivers van windows crap?? ik draai hier triple monitor, 1x G450 dualhead en een Nvidia vanta allemaal op 17" monitoren en draait hier als een beest.
Als de 3dmark benchmarks bekijkt verslaat de P750 (met the Nforce2 chipset) bijna the 9700 Pro ??

en dan bij de andere benchmarks gebruiken ze kt400....

ok er staat wel vermeld dat er wat probleempjes waren met p750 en Nforce2, maar dan is het toch nog verwarrend vind ik.
Goed lezen

de p750 op een nforce2 verslaat bijna een 9700pro op een kt400

als je het verschil ziet tussen de p750 op een nforce2 en de p750 op een kt400 dan moet je toch concluderen dat
de 9700pro een flink stuk sneller is. (8>
Anoniem: 81352 11 mei 2003 14:38
Je merkt niet op dat de kaart dual dvi en dus echt een grafische workstation kaart is.(Ati Z1 en X1 hebben dat ook)
Anoniem: 84097 11 mei 2003 20:49
Deze kaart maakt zo te zien in ieder geval een heleboel emoties los bij een aantal bezoekers van tweakers. :) Ik vind het overigens vreemd dat iedereen de kaart gaat lopen vergelijken met Radeons en andere gamekaarten. Het gaat hier om een kaart die gericht is op de professionele (grafische/ CADCAM) markt. Je gaat een 3D-labs- kaart als de Wildcat toch ook niet met een gamekaart vergelijken?? De professionele markt kent nu eenmaal andere eisen dan de die-hard gamers thuis op de bank. En vanuit dit perspectief kan ik dan toch ook weer stellen dat de prijs ook nog wel meevalt. Je krijgt voor de prijs een degelijke kaart met degelijke prestaties zoals we dat van Matrox gewend zijn. Kleine kanttekening die ik hier dan wel wil plaatsen is dat ik het een beetje vreemd vindt dat de kaart niet beschikt over 128MB DDR maar over "slechts" 64MB. Van de andere kant: het is ook natuurlijk geen echte 3D-kaart.

Aanvullend wil ik nog melden dat als we dan toch persé appels met peren moeten gaan vergelijken, de Parhelia 256MB bijvoorbeeld volgens de reviews en benchmarks toch in de buurt komt van de snelle gamekaarten tijdens het spelen van een spelletje. Dit terwijl de core van de gamekaarten draaien op 400Mhz en die van de Parhelia op 200Mhz. Daarmee wil ik dan maar 2 dingen zeggen:
1. Matrox heeft met de P-serie de plank zeker niet misgeslagen maar wederom een knappe prestatie geleverd!
2. Ik heb een goede aankoop gedaan met de Parhelia 256MB :Y)
Anoniem: 84214 11 mei 2003 17:01
waarom 2 dvi's?
Flatscreens?
Als je dan toch 2 of 3 beeldschermen gaat gebruiken dan is 2-3 CRT's bijna niet meer te doen. Een modaal bureau is daar niet op berekend, qua ruimte en gewicht, zeker niet als het om 21" schermen gaat.

Met 2-3 TFT's is dat geen probleem. Dus is het handig om meerdere DVI aansluitingen te hebben. Als het moet kun je via een verloop toch gewone CRT's aansluiten maar TFT's hebben natuurlijk de voorkeur.
Anoniem: 79837 @downtime13 mei 2003 10:57
als jij zo druk bezig bent met 2d bewerken (reclamebureau bijvoorbeeld) dan heb je geen drol aan een tft scherm. deze geven namelijk de kleuren niet natuurlijk weer. zodra je de reclame maakt zal je opvallen dat de kleuren een heel stuk minder helder zullen zijn als op het scherm. enig idee waarom apple zo weinig tft schermen verkoopt?????
Nu in ieder geval wel.
Naast het feit dat je ook TFT's wil kunnen aansluiten, is DVI ook een iets makkelijkere aansluiting. Je hebt meer pinnetjes en kan zo met twee aansluitingen toch drie schermen aansturen, omdat er blijkbaar door een Dvi kabel signalen voor twee schermen kunnen :)

Ook kan je door een kabel een DVI en een analoog signaal laten lopen, of een analoog signaal en een los TV-out signaal. Het is dus wat flexibeler (en je kan er met een convertertje dus ook gewoon analoog vga signaal op gebruiken).

Met twee analoge VGA aansluitingen kan dat niet, dan kan je alleen twee 'analoge' monitoren aansluiten of een monitor en een TV-out (dat kan een G550 ook). Dat signaal kan wel over de VGA uitgangpinnetjes gezet worden en omgevormd met een speciaal kabeltje.
dion_b Moderator Harde Waren @Anoniem: 8421411 mei 2003 21:15
Zie posts hierboven van Madman2003 en mezelf- je kunt bij echte high-end digitale monitoren twee DVI uitgangen samen gebruiken om zeer hoge resoluties mogelijk te maken (gewoon enkel DVI trekt niet meer dan 1600x1200)- en natuurlijk leuk als je twee kleintjes gebruikt :z
Dit lijkt een uitgelezen kaart voor de grafisch ontwerper van websites, tijdschriften etc.
Uitstekende kwaliteit over meerdere monitors.

Maar dan vind ik het vreemd dat de kaart twee DVI-aansluitingen heeft. Alleen TFT's maken gebruik van DVI, en een grafisch ontwerper die betrouwbare kleuren op zijn scherm wil gebruikt juist geen TFT's.

Dit omdat de kleur die je ziet steeds anders is bij een TFT. Verplaats je hoofd enkele centimeters naar opzij of naar boven/onder en kleuren kunnen er weer anders uitzien, ondanks de grote kijkhoek die in de folder werd aangeprezen.

Bijna perfect beeld (zowel 2D als 3D) krijg je mijns inziens door een goede CRT aan te sturen met analoge BNC-kabel. En als je zoals op deze kaart met extra verloopstukjes moet gaan werken, gaat dat ten koste van je analoge signaal naar de monitor toe.
Anoniem: 84721 13 mei 2003 15:52
Iemand enig idee waar deze te koop is in Nederland?????

Op dit item kan niet meer gereageerd worden.