Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 122 reacties

De Canadese hardwarefabrikant Matrox heeft twee nieuwe videokaarten voor multimonitor-setups aangekondigd. Het duurste model, de M9188, kan maximaal acht beeldschermen aansturen via evenzoveel displayport-aansluitingen.

De 22,9cm lange M9188 is voorzien van een pci-e x16-interface en beschikt over 2GB videogeheugen. De videokaart beschikt over acht mini-displayport-aansluitingen waarmee per desktop een maximale resolutie van 2560x1600 pixels uitgestuurd kan worden. Met de meegeleverde verloopjes kunnen de uitgangen ook omgevormd worden tot een dvi-aansluiting, maar dan zakt de maximaal haalbare resolutie wel terug naar 1920x1200 pixels.

Met twee M9188-kaarten kunnen zelfs 16 beeldschermen van beeld worden voorzien, zo stelt de fabrikant. De M9188 is verder compatibel met OpenGL 2.0 en de PowerDesk-drivers van Matrox moeten het aansturen van meerdere displays vereenvoudigen. De drivers werken onder Windows XP, Vista en 7, Windows Server 2003 en 2008 en Linux.

De M9128-videokaart kan maximaal twee displays met elk een maximale resolutie van 2560x1600 pixels aansturen via zijn twee displayport-aansluitingen. De passief gekoelde kaart is uitgerust met 1GB videogeheugen. De M9128 moet 259 dollar opbrengen, terwijl de M9188 van Matrox een adviesprijs meekrijgt van 1995 dollar. Beide videokaarten moeten nog dit jaar op de markt komen.

Matrox M9188 PCIe x16

Moderatie-faq Wijzig weergave

Reacties (122)

Eerste dacht ik WTF.
Toen dacht ik, mooi maar wie heeft er nu 8displays aan zijn pc hangen? Wel handig voor die bedrijven die allemaal schermen hebben hangen, dit is tuurlijk uit eindelijk goedkoper dan 4x een videokaart met 2poorten te kopen.. :P
Want een videokaart met 2 uitgangen kost tegenwoordig $500? Dat model van $259 heeft slechts twee displayport uitgangen, het model van $1995 heeft er inderdaad 8.

Je zou natuurlijk kunnen zeggen dat je dit kunt gebruiken in situaties waarin het moederbord beschikt over slechts 1 PCI-e x16 poort, maar volgens mij is het dan nog steeds goedkoper om een nieuwe mobo + 4x midstream videokaarten te kopen. Hell, voor dat geld koop je zelfs 4x high-end kaarten + i7 moederbord + i7 CPU + geheugen.

Matrox is altijd goed voor een beetje mosterd na de maaltijd... too little too late (and too expensive!).

De tijden dat Matrox stond voor superieure 2D-kwaliteit is met de komst van DVI (en uitfasering van VGA) volledig teniet gedaan. Tenslotte is nu de kwaliteit niet meer afhankelijk van de DAC op de GPU, maar van het scherm zelf. Het lijkt me beter als Matrox gewoon kapt met fabriceren van eigen GPU's en zich stort op het maken van custom modellen van de mainstream chips, voorzien van extra aansluitingen en aangepaste drivers/software...
Matrox is nog steeds vrij groot in de medische wereld en nog wat niche markten, waarbij dit soort dingen juist wenselijk zijn. Natuuurlijk is het goedkoper om een zut losse systemen te kopen als je kijkt naar het aanschaffen van de hardware, maar het kan goed zijn dat als je servicekosten, stroomkosten, licentiekosten van software en beheersbaarheid meeneemt dat er best markten zijn waar dit een prima oplossing voor is.

Mainstream is Matrox idd afgeschreven, sinds het prima mogelijk is op een willekeurige Nvidia of ATI kaart dual/multimonitor te draaien is het belangrijkste punt van Matrox (nl multimonitor support met goede drivers) langzaam maar zeker komen te vervallen.
De beeldkwaliteit werd door goede kaarten ook langzaam maar zeker benadert (goede analoge filters waren lang niet op iedere kaart te vinden, maar wel zeker aanwezig), dus daarvoor hoef je ook geen matrox meer te hebben. Maar als je ging kijken naar de gemiddelde geforce of TNT2 kaart en een Matrox, dan wilde je zeker op hoge resoluties (zeg 1600*1200 op 20" CRT) echt wel een Matrox hebben.

Maar ook dat is niet meer nodig. Echter, ik denk niet dat Matrox er verstandig aan zou doen om hun chiplijn volledig te laten vallen. Het is dan niet meer de grote speler op de desktopmarkt zoals het 10 jaar geleden nog was, maar ik denk dat ze zeker nog wel bestaansrecht hebben, op markten waar wij misschien heel weinig mee te maken hebben.
Matrox doet het heel goed op de markten voor controle kamers. Denk aan vluchtleiding centra en politie controle kamers. Een groot voordeel van matrox is dat ze hun producten veel langer blijven leveren dat een AMD of Nvidia. Een matrox kaart blijft over het algemeen een jaar of 3 wel leverbaar dat is bij een matrox kaart niet het geval. Voor veel branches waar veel regelgeving en certificering op van toepassing is, is dit een groot voordeel. Bij verandering van de hardware of software moet daar meestal weer een dure keuring uitgevoerd worden voor de systemen gebruikt moeten worden (denk hierbij aan de scheepvaart en luchtvaart).

Ikzelf werk in de scheepvaart automatisering, waar matrox voor toepassingen waar enige grafische versnelling nodig is (niet veel verder dan 2D door gebruik van OpenGL) het over het algemeen matrox is wat de klok slaat. Betrouwbare passief gekoelde hardware, die lang meegaat.
Matrox is nog steeds vrij groot in de medische wereld
Vroeger was dit inderdaad het geval. De laatste jaren is het echter sterk achteruit gegaan. Zo wordt er -althans in België- veel meer Barco gebruikt. En die gebruikt op zijn beurt gewoon ATi chips.
Lees mijn eerste post en je snapt dat Eyefinity op bepaalde terreinen het onderspit delft tegenover deze Matrox kaart. Jammer dat iedereen maar gelijkt begint te blaten terwijl men duidelijk niet weet waar men over praat.

-Matrox stuurt met twee kaarten 16 schemen onafhankelijk aan
-Eyefinity stuurt er slechts 12 aan met 4 kaarten (en je moet rekening houden met de aansluitingen, bij de AMD kaarten moet je altijd met verschillende aansluitinge/verloopje werken; daar elke kaart twee dvi en 1 displayport heeft)
Nog nooit van Eyefinity 6 edition gehoord? ;)
Bij bedrijven speelt minder wat goedkoop is, als het maar functioneel is. Dat een andere oplossing goedkoper is gaat langs iedereen heen.
Denk je dat serieus?

Ok, het moet werken. Maar als twee opties beiden werken, wordt echt wel de goedkopere gekozen hoor.
Ok, het moet werken. Maar als twee opties beiden werken, wordt echt wel de goedkopere gekozen hoor.
Dat weet ik wel zeker, zeker in deze tijden dat mensen/bedrijven het slechter (denken te) hebben. Natuurlijk kijkt een bedrijf eerder naar de TOC dan enkel de aanschafprijs wat een consument misschien doet, maar prijs is en blijft natuurlijk een belangrijk punt.
Dit hangt natuurlijk van bedrijf tot bedrijf af.

Gewenning aan een bepaald merk is ook een zeer belangrijk iets bij bedrijven, omdat je dan weet welke service je krijgt. Wij kopen ook vaak onderdelen aan waarvan we weten dat ze bij de concurrentie even goed zijn (zelfde normeringen) en tot 25% goedkoper, maar waarvan we gewoon de vertegenwoordiger niet goed af kunnen / niet helemaal overtuigd zijn van de service na verkoop (terwijl we nog geen ervaring hebben met dat bedrijf; enkel perceptie van). Zeg nu zelf; als je als bedrijf al moet beginnen kijken op een paar 1000'jes dan moet je geen projecten opstarten waarbij je dergelijke multimonitor support gaat neerpoten (of het moet je corebusiness in een familiebedrijfje zijn).

Ook al is het crisis; de vraag naar plaatsing van "luxeproducten" (zoals airco's, automatische reclameborden) door bedrijven stijgt alleen maar. Wij kijken vb enkel naar of het snel terugverdiend is. Indien ja dan kopen we bij onze gekende leverancier, indien neen kijken we toch even ergens anders. Maw; meestal kopen wij gewoon bij dezelfde leveranciers, en speelt de prijs niet zo'n grote rol. Materiaal factureer je toch gewoon door naar de klant.

[Reactie gewijzigd door Athmozz op 11 november 2009 22:57]

Voor 1200 euries kun je toch een zeer aardige xxodd pc kopen met 2x vga, 2x dvi en 1 hdmi aansluiting.
haha, een mooi staaltje one-upmanship (2-upmanship?) van matrox hier.

ik betwijfel echter of deze kaart genoeg kracht heeft om een beetje 3d toepassing te renderen op alle 8 schermen. maar er zijn natuurlijk veel andere toepassingen, en met 2x8 schermen (in een 4x4 opstelling) heb je een mooi rechthoek met de juiste verhouding (die van de schermen) voor een videomuur.

het is wel een flinke meerprijs die ze vragen voor 2 extra schermen ivm de ATI kaart, al valt dat ivm de fireGL kaarten dan wel weer mee.

[Reactie gewijzigd door Countess op 11 november 2009 18:45]

ik betwijfel echter of deze kaart genoeg kracht heeft om een beetje 3d toepassing te renderen op alle 8 schermen.
Dat vraag ik mij dus ook af, want om nou 2000 euro te lappen voor een kaart die 8 beeldschermen kan aansturen... Dat kan je namelijk ook anders oplossen met de een 2tal 6koppige Ati kaarten.
En waar is die 1Gb geheugen voor, als deze kaart geen 3d-power heeft?
En waar is die 1Gb geheugen voor, als deze kaart geen 3d-power heeft?
Simpel toch? 2560x1600x32x8 = 1 GB om alle pixels bij te houden.
Uhm, ik kom dan precies op 125 MiB. (Het is overigens niet maal 32, maar maal 4.)
Dan heb je toch iets niet goed gedaan.... 32 bits per pixel is de standaard voor high end graphics. 4 bits per pixel ga je terug naar EGA met 16 kleuren.

Dus de berekening van mashell klopt als een bus.
32 bits = 4 bytes dus er is inderdaad maar minimaal 125MB nodig.
Ja maar deze kaart heeft zo te zien maar 2 ( of toch maar 1, foto is te klein) PCI-e power leads nodig en zal dus nog redelijk met een normale voeding te voeden zijn.
Maar met een tig aantal ATI/Nvidia kaarten mag je ook meteen aan een minimaal 1000watt voeding (kost ook nog steeds aardig wat) en om nog maar te zwijgen over de warmte productie. Dat soort dingen had matrox meestal redelijk voor elkaar en Matrox was altijd heer en meester qua 2D. De 3D / Performance stond nooit echt hoog op het Matrox lijstje.

Voor aansturen op een normale manier likt me dit toch een redelijke keuze, voor de gaming exp. zou ik ook gaan voor een tri opstelling van ATI/Nvidia :)

[Reactie gewijzigd door bonus op 11 november 2009 20:49]

1000 watt?? Voor een enkele kaart is 450 watt voldoende, en wil je er vier, dan heb je 1000 watt nodig. Maar anders echt niet hoor. En er zijn ook genoeg goedkopere modellen waar 6 schermen op aangesloten kunnen worden die dat niet nodig hebben. Beetje onzin uitkramen wat je doet nu.
wat staat er dan? Juist bij een tig aantal ati/nvidiakaarten ... lezen is zo lastig he?
Het gaat erom dat dit kaartje gewoon de monitoren aanstuurt met een v(ideo)beeld niet een of andere game of 3d renderprogramma. Natuurlijk kan die kaart niet veel presteren maar daar is die ook niet voor.
Stel dat je maar 450 Watt voor je Video kaart hebt, dan moet je ook de rest van je pc voorzien :) Nu heb ik toevallig 10 x 1TB en een paar flinke dual 1gbps kaartjes er in zitten en twee cpu's met elk 4 cores.. Maar dan nog, een voeding voedt meer dan alleen die video kaart!
Toch denk ik dat Matrox nu wel mee moet op de 3D-tour, dankzij Aero en al die prul.

De Matrox M3D add-on, en de Pharelia deden het ruim boven hun onboard tegenhangertjes op het het gebied van 3D, en ja, matrox maakt kwaliteitskaarten voor weergave, geen rendermonsters.
als je bedenkt dat compiz op 1600x1200 prima draait op een 64mb geforce3 kaartje denk ik dat t wel mee zal vallen.
Matrox kaarten zijn geen goede 3D renderkaarten. Daar zijn ze ook niet voor bedoeld. Matrox is meer voor CAD toepassingen. Dus voornamelijk snelle transfer tussen PC en videokaart, meerdere display uitgangen, zeer hoge resoluties en stabiele drivers.
Er is toch ook zo'n Asus moederbord waar 6 PCIe sloten op zitten? Als je dan in elk slot een dualhead PCIe videokaart stopt, dan kun je ook redelijk wat schermen aansturen. Want voor 2000 dollar kun je ook wel 6 mainstream videokaarten kopen. Of zit ik er helemaal langs? :)
En toch, als die 6 ATI kaarten 6 x 110W verstoken en deze maar 50 dan verdien je die hogere aanschaf snel terug :) laat staan de herrie die je nu niet hebt en matrox was gewoon een goede kaartenmaker voor meerdere monitoren aansturen en 2D, ooit kon je enkel bij hun terecht voor een eenvoudige multimonitoroplossing.
Idle verstoken ze dat bij lange na niet. En daarnaast, met een ATI kaart kan je 6 schermen aansturen. Hoe snel wil jij dat dan terug verdienen als je slechts 2 ATI kaarten nodig hebt? Volgens mij duurt dat wel een tijdje.
ja maar helemaal monsterachtig wordt het al je al die sloten volstopt met dit soort videokaarten. Vervolgens achter elke uitgang een displayport --> DVI converter stopt, en daar nog eens zo'n triple head geval achter hangt. dan wordt het 6 x 8 x 3 = 144 schermen aan 1 systeem...
Klopt, maar je wil een marktgerichte oplossing. Die bieden deze kaarten.

Ooit een auto met overtuned motorblok aan elkaar hangend van ducktape mee zien rijden in de Formule 1?
Ligt het nou aan mij of zijn de opgegeven resoluties relatief laag voor 8 schermen. 2560*1600 voor acht schermen is toch ontzettend weinig? Bij eye-finity lagen deze getallen iig veel hoger.
Is er iemand die hier misschien meer vanaf weet?
-
edit: tikfoutje

[Reactie gewijzigd door Urza- op 11 november 2009 20:15]

Er staat per desktop, ik vermoed dat ze per beeldscherm bedoelen.
Wie weet klopt per desktop ook wel. Als zo'n kaart met drivers daadwerkelijk 8 desktops kan renderen (en zo ongeloofwaardig is dat op zich niet).
Ah, dus deze kaart heeft niet de mogelijkheid meerdere schermen samen te voegen tot een geheel. Dus 1 desktop met een resolutie van 5xxx * 4xxx verdeeld over de verschillende schermen (à la eyefinity dus). In ieder geval, als dat maximum per desktop inderdaad klopt.
Nee hoor, dit kan zeker wel. De drivers van Matrox zijn heel uitgebreid; helemaal aan de Linux-kant.
Wat CaVeFiSh zegt, en het nieuwsberichtje zelf: "De videokaart beschikt over acht mini-displayport-aansluitingen waarmee per desktop een maximale resolutie van 2560x1600 pixels uitgestuurd kan worden."

Wat dus inhoudt dat per beeldscherm er 2560x1600 beeldpuntjes kunnen worden aangestuurd :)
Ofwel, de Matrox kaart rent rondjes om de Eyefinity van AMD, omdat het voor een heel ander doel geoptimaliseerd is.
Maar kennelijk is hij niet in staat ze samen te voegen zoals eye-finity. Misschien dat mensen die opzoek zijn naar een dergelijke kaart niet naar op zoek zijn, maar het is wel iets dat deze veel duurdere kaart NIET kan wat met eye-finity wel mogelijk is (en in de toekomst zelfs met crossfire).
Erg leuk maar het samenvoegen van schermen tot één desktop is een software truukje.... Wellicht dat de Matrox driver dit nu nog niet heeft maar dan gaat het zeker binnenkort wel komen (als er in hun markt vraag naar is).....
Ipv kennelijk iets beweren, zou het handig zijn als je ook ff de moeite neemt om iets uit ze zoeken. Het koste me twee minuten om dat voor je te doen: Kijk eens goed naar plaatje drie bijv. bij deze link naar Matrox:
http://www.matrox.com/gra...ds/m_series/m9188pciex16/

Ziet er verdacht veel uit als samenvoegen, vind je ook niet ?

Eyefinity heeft een doelgroep, Matrox heeft een andere doelgroep. Zo simpel is het. Eyefinity kan dingen die Matrox niet kan en andersom. Dat mag nu wel duidelijk zijn (zie ook mijn eerdere posts).
Hoezo rent rondjes?

AMD eyefinity kan 6 x 2500x1600 aansturen. Twee schermen meer noem ik niet direct rondjes rennen om. Zeker niet als je de prijzen vergelijkt.

Het lijkt meer op een noodsprong van Matrox, een kat in het nauw. Want met de introductie van eyefinity was hun bestaande lijn voor een groot gedeelte achterhaalt geworden. Nu kunnen ze weer twee schermen extra aansturen en ze kunnen het met een passief gekoelde kaart. Of die twee schermen extra nou nog veel uit maakt valt te betwijfelen (er zullen heus wel toepassingen zijn, maar er zijn waarschijnlijk veel meer toepassingen waar 4 of 6 schermen ook voldoende zijn).

Wel jammer voor Matrox. Ze maakten vroeger prima producten. Op zich doen ze dat nog steeds natuurlijk, maar met Eyefinity van AMD wordt het bestaansrecht van Matrox toch wel bedreigt. Zeker mocht AMD besluiten om nog met een low-end eyefinity kaart te komen (net als de kaart van Matrox: niet zo goed in 3d, wel passief gekoeld en laag stroom verbruik).
lol waar deze kaarten voor gebruikt worden is een opstelling van 10-20 monitoren niet ongewoon.... dan gaat het toch snel uitmaken.
Amd eyefinity kan dan 6x 2560x1600 aansturen, maar niet met de 58** modellen!
Even opletten a.u.b. voor je weer zulke generaliteiten eruit gooit. De enige die dat voorlopig gaat (hij is nog niet op de markt) kunnen is de HD5970; die is gebaseerd op de HD5870.

Die HD5970 gaat zeker weten een bak meer stroom slurpen en wat die gaat kosten; ik weet het niet maar iig duurder dan de HD5870. Er zal zeker een markt voor zijn maar dat geld net zo goed voor deze Matrox kaarten.

Waarom denk je dat het een noodsprong is, denk je dat Matrox binnen enkele maanden ff zo'n kaart uit de mouw tovert; omdat Eyefinity het licht heeft gezien ? Natuurlijk niet, zou ik zeggen. Net als Nvidia en Ati, moet Matrox ook gewoon door blijven ontwikkelen; niks doen is gegarandeerd je graf graven.

Snap daarom ook al die klaagzang niet. Het is nu net zoals altijd; business al usual.
Bedreigingen liggen altijd op de loer, dat geld voor Matrox net zoals elk ander bedrijf. Kijk naar Nvidia bijv., die heeft de laatste tijd ook flinke klappen te verduren gehad.
Ze konden moeilijk anders doen door AMD. Nu kan je toch weer 8schermen aansturen met een Matrox, 2 beter dan AMD doet met 1kaart.
Idd...what AMD can do, we can do better, aldus Matrox

Altijd al afgevraagd: Is matrox nou een anagram van maxtor, of andersom?
Het is uiteindelijk ook maar wat je beter noemt dan. Ze kunnen nu inderdaad 2 schermen meer aansturen op 1 kaart. Daarentegen kan je met AMD 4 kaarten gebruiken en dus in totaal 24 schermen, tegenover 16 van Matrox. Daarnaast kun je ze bij AMD ook nog zo instellen alsof het 1 heel erg grote desktop is.

Dan hoeven we natuurlijk nog niet eens te beginnen over de prijs, want voor 1 zo'n Matrox kaart, koop je dus 4 AMD-kaarten.
Laat je eerst eens goed inlichten eer je zulke opmerkingen plaatst. Eyefinity kan nml maar drie schermen onafkankelijk van elkaar aansturen, waar deze Matrox elk van de acht onafhankelijk kan aansturen. Groot verschil: 16 onafhankelijke schermen(Matrox/ 2kaarten) tegenover 12 onafhankelijke schermen (AMD/ 4 kaarten).

5800 kaarten specificaties :

ATI Eyefinity multi-display technology2,3
-Three independent display controllers
-Drive three displays simultaneously with independent resolutions, refresh rates, color controls, and video overlays
-
Display grouping
Combine multiple displays to behave like a single large display

MATROX:
-Support for stretched or independent desktop modes across all monitors

Oja, dan heb ik het nog niet eens over het feit, dat je bij de AMD kaarten minstens drie display-port videoschermen moet hebben; anders kan je er geeneens drie aansluiten per kaart. (of je moet per kaart een dure actieve dvinaar Displayport adapter kopen).

Maar goed, ik snap niet waarom er hier zo negatief gereageerd word. Het is duidelijk geen consumenten produkt en voor de zakelijke markt is dit denk ik een zeer aantrekkelijk produkt. De prijs is niet goedkoop, maar dan krijg je er wel de uitstekende Matrox support bij.

Dat Matrox op 3D niet is doorgebroken, heeft een geschiedenis. ALs je die niet kent, zoals dat Matrox een relatief klein familie bedrijf is en in het verleden veel goede IT mensen zijn weggekaapt door o.a Nvidia, snap je beter waarom ze in het 3D wereldje de grote jongens niet meer konden bijbenen.

Eyefinity is nog het meest interressant (of competatief) als je de schermen gaan bundelelen tot een groot beeld. Voor onafhankelijk aansturing ben je beter af met deze Matrox kaarten.
Matrox was/is absoluut geen klein familiebedrijfje te noemen, en de hoogtij dagen, (voor- en in het begin van de 3D revolutie), was Matrox een heel groot bedrijf (wel privé eigendom), en deden ze zowel in videokaarten, als videoediting hardware/software en netwerkapparatuur.

Ten tijde van het begin van de 3D revolutie ging het nog best aardig, ze hadden een misstapje gemaakt met de Millenium en Mystique, maar de opvolgers G200 en G400 konden perfect met de concurrentie meekomen, waren vaak zelfs wat beter, alleen ook iets later op de markt.

Bij de G200 ging het echter ook al mis, voornamelijk door mismanagement, in plaats van te investeren in het bedrijf, en tooling/hardware/software aan te schaffen zodat alle ontwikkelaars door konden gaan met grotere chips te ontwerpen, en hun bedrijf goed te runnen, vonden de eigenaren het belangrijker om geld aan goede doelen te geven, fundraisers te hosten en populair te doen in Canada.

De concurrenten waren ondertussen al bezig hele ingewikkelde chips te ontwikkelen met nieuwe software en het gebruik van FPGA's, terwijl ze bij Matrox veel nog met de hand moesten doen, zelfs de Parhelia is grotendeels ontworpen zonder het gebruik van simulatie/verificatie software/hardware. Een onmogelijke taak.

Hier is het bedrijf op 3D gebied dus aan ten onder gegaan. Niet aan het feit dat het klein was, ofdat er mensen weggekaapt werden (wat gebeurde door schuld van de eigenaren). Als het kwam doordat het een klein bedrijf was, dan hadden nVidia en 3DFx ook nooit wat moeten worden, die zijn beide opgericht aan het begin van de 3D revolutie.
Wat je nu zegt is nieuw voor me(vooral de laatste twee alinea's), het kan idd allemaal waar zijn. Interressant leesvoer iig.
Neemt niet weg dat Matrox nog lang niet dood is ;)

Heb nml zo'n beetje het hele assortiment van Matrox Millenium en G200/G400 in huis gehad.
De G400, die ik persoonlijk trouwens beter vond dat de TNT2 van Nvidia.

[Reactie gewijzigd door Madrox op 12 november 2009 11:00]

Smaken verschillen, ik had ooit via een verkeerde levering een Ati Rage Fury 32MB binnengekregen, die een veel mooier en stabieler beeld over zijn TV-out EN op mijn monitor gaf, een duidelijk verschil met de kaart die ik daarvoor had, een STB TNT(daarvoor had ik een STB Nvidia Riva128, en daarvoor Tseng Lab kaarten.

Na wat gepruts met 3d party rage drivers kon ik alles doen wat ik destijds met zijn tegenhanger, een TNT2 ultra kon, alleen met een duidelijk verschil in beeldkwaliteit. Sinds die tijd altijd ATI kaarten genomen(Met een succesvol uitstapje naar PowerVR, en een heel kort slecht uitstapje richting XGI).

De Matrox G200, G450, en G550 heb ik nog in mijn desktop gehad als oplossing voor meerdere monitoren, topspul, maar een spelletje spelen... euh, doe maar niet ;)

[Reactie gewijzigd door Maikel_1976 op 12 november 2009 18:14]

TV-out gebruikte ik toen niet, maar wat ik me ervan herinner was die van de Matrox heel goed. Wat de games aangaat, de G400 draaide bijna alle spellen die erop los liet zonder problemen, waar ik met de TNT2 kaart regelmatig tegen bugs aanliep; vandaar de voorkeur toen voor de G400. Het gebeurde op op zowel Intel als AMD pc's; waar de G400 het spel zonder rare dingen draaide, viel de TNT2 door de mand. Qua snelheid waren ze aan elkaar gewaagt dus de keus is dan algauw gemaakt.

Een spelletje spelen met de G400 ? Superrrrrrrr!

Zo zie je maar, de ervaringen lopen ver uiteen. Waar dat aan ligt, ik weet het niet.
Mij viel de TNT2 tegen, vanwege de genoemde problemen. Dat zou jij precies zo vinden, als je mijn ervaringen mee maakte. Andersom kan het precies hetzelfde zijn.
Als je het nieuwe rond Ati een beetje gevolgt had kon je weten dat Ati al een 5xxx kaart heeft laten zien met zes display port aansluitingen, toen nog 5870 SIX genoemd, maar deze komt waarschijnlijk op de markt als de 5970.
nieuws: Radeon HD 5970-benchmarks gelekt en HD 5950 is geen dual-gpu-kaart
Oja, dan heb ik het nog niet eens over het feit, dat je bij de AMD kaarten minstens drie display-port videoschermen moet hebben; anders kan je er geeneens drie aansluiten per kaart. (of je moet per kaart een dure actieve dvinaar Displayport adapter kopen).
Jup, Matrox levert deze (de goedkope low-res uitvoering) gratis mee.... mag ook wel voor die 2k euro...

[Reactie gewijzigd door Zer0 op 11 november 2009 22:33]

Dat lees ik nu net, en het is nog steeds geen directe concurrent; de 5970 is nml. gebaseerd op de 5870; een beest van een 3D kaart. Er zullen genoeg bedrijven zijn die zo'n 3D-monster niet nodig hebben en beter af zijn met een zuinige kaart.

Neemt niet weg dat die kaart er ook nog niet is en dat veel mensen hier dachten dat eyefinity ook zo ff zes schermen aanstuurt. Dat kunnen ze wel, maar niet alle zes onafhankelijk. Daar zit het addertje ;)

[Reactie gewijzigd door Madrox op 12 november 2009 10:48]

http://www.amd.com/us/pro...nity/Pages/eyefinity.aspx

ATI Eyefinity technology with DisplayPort connectivity, enables a single GPU to support up to six independent display outputs simultaneously

Operate up to six high-resolution displays simultaneously and independently, flexibly configured in various combinations of landscape and portrait orientations.
UP to, staat er. Het is trouwens een algemeen persbericht, waar de exacte specificaties van elk model niet in word genoemt. Ze wisten toen al dat ze zes schermen kunnen/willen aansturen, wat er niet bij staat is dat dat alleen lukt met de 5970 die nog uitgebracht moet worden.

Persberichten zijn leuk maar zeggen lang niet alles, specificaties; daar moet je wezen. Daar staan de uiteindelijke features en mogelijkheden exact weergegeven.
@Madrox
Voor je anderen beschuldigt, moet je je eerst zelf eens beter inlichten.

ATI's 5000 Radeon gpu kan gewoon 6 display onafhankelijk aansturen. De videokaarten die nu op de markt zijn, kunnen er drie aansturen, maar dat is gewoon een marketing keuze. Er is al aangekondigd dat er ook zogenaamde Six varianten van de videokaarten komen, waarbij je wel alle 6 kunt aansturen.

AMD heeft al op beursen gedemonstreerd dat de gpu er 6 tegelijk kan aansturen. Sterker, ze hebben ook al 4x Crossfire met 24 schermen laten zien.
Wel, de eerste marketingsheets van de HD5970 laten niets zien wat een zes scherm oplossing aantoont. Er staat duidelijk 3x 2560x1600 max!

ATI's kaarten die NU op de markt zijn kunnen het niet, ik hoef me dan ook niet te verontschuldigen. De 5970 kan het blijkbaar ook niet, waar blijven viedokaarten dan ?

Matrox heeft ze nu en ATI niet, zo simpel is het.
Het is uiteindelijk ook maar wat je beter noemt dan. Ze kunnen nu inderdaad 2 schermen meer aansturen op 1 kaart. Daarentegen kan je met AMD 4 kaarten gebruiken en dus in totaal 24 schermen, tegenover 16 van Matrox. Daarnaast kun je ze bij AMD ook nog zo instellen alsof het 1 heel erg grote desktop is.
Wat hij zegt klopt niet, het kan nog niet met 4 kaarten/24schermen; wat hij gewoon letterlijk zegt. Nergens laat hij blijken dat je nog op die 6x scherm videokaarten moet wachten.

Het laatste wat die zegt, kan met Matrox ook; dat is totaal geen win punt voor AMD.

[Reactie gewijzigd door Madrox op 17 november 2009 12:40]

Volgens mij hebben ze totaal niets met elkaar te maken, namen lijken alleen op elkaar.

Naam van Matrox komt van de namen van de 2 oprichters + een x aldus wikipedia:

"The "ma" from Matić and "tro" from Trottier, combined with an "x" for excellence, forms the Matrox name."

http://en.wikipedia.org/wiki/Matrox
En wat zijn we weer aardig..
Matrox is ouder als Maxtor. En het verhaal zoals afvalzak het vertelt klopt.

Tevens bestaat Maxtor eigenlijk niet meer dus het doet er helemaal niet toe :)
Zo hey, jij vraagt wat, je krijgt een duidelijk antwoord en dan ga je zeuren dat het te diepzinnig voor je is! :X
In de DTP-wereld is Matrox(voor PC-gebruikers) altijd al geroemd geweest.

Helderheid, kleursterkte, degelijke kaarten, nooit gezeur met drivers. Matrox leverde al jaren standaard de multi-monitor oplossingen. Wilde je daar een kaart voor, kocht je een Matrox.
Qua prestaties in die tijd waren de enige kaarten die er(met 1 monitor) een beetje tegen op konden boksen de Tseng Labs kaarten, die later ingelijfd zijn door ATI.
Het is wel een niche markt, waar je niet snel mee in aanraking zou komen in de gemiddelde omgeving.
Matrox is dood in het laatste kwartaal had het 0.0% marktaandeel.
En nu Eyefinity uit is kunnen ze helemaal de handdoek in de ring gooien..

Hier lijstje van Marktaandeel:

Matrox 0.0%
Sis 1,1%
Via/S3 1.5%
Amd 19,8%
Nvidia 24,9%
Intel 51,1%

[Reactie gewijzigd door deregtx op 11 november 2009 20:21]

Marktaandeel van welke markt? Matrox zie je immers voornamelijk in nichemarkten, die weliswaar een klein deel van de markt vormen, maar waar toch nog wel wat geld zit.

Als Matrox echt dood was gingen ze niet dit soort kaarten doorontwikkelen.
JA ok maar Matrox heeft al jaren 0.1% tot 0.2% dus ik denk niet dat het goed met ze gaat..
Ik denk dat bij Matrox het winst percentage per kaart hoger ligt dan bij de Geforce of Radeon kaarten. Bekijk maar eens de prijzen van de Matrox kaarten.

Veel onkosten die ATi en Nvidia moeten maken voor de Geforce en Radeon kaarten heeft Matrox niet.
Ze hoeven geen games te ondersteunen, ze hoeven geen snel duur geheugen op hun kaarten te gooien, ze hoeven niet continu door te ontwikkelen om elk 2 a 3 jaar met een volledig nieuwe GPU te komen.

Ik neem aan dat het design van de Matrox GPU ook eenvoudiger is dan dat van ATI en Nvidias high end waardoor Matrox betere yields heeft en dus nooit echte productie problemen kent.

Ze verkopen niet veel maar maken wel een leuke winst op elk product en verder kennen ze geen echte concurrentie in hun markt.
Aan de andere kant is de afzetmarkt een stuk kleiner, dus wordt er minder verkocht. Als er minder verkocht wordt dan moeten de vaste kosten over een kleiner aantal producten verdeeld worden. Het zou best wel eens zo kunnen zijn dat ze evenveel of zelfs minder per kaart verdienen dan ati of nvidia en degelijken.
Mwa 0.2% van 100 miljoen verkochte kaarten per jaar is alsnog een afzet waar heel wat bedrijven blij mee zouden zijn. Ik wou dat ik een bedrijf had die 0.2% van de wereldwijde videokaartmarkt in handen heeft ;)

[Reactie gewijzigd door Shadow op 11 november 2009 21:55]

JA ok maar Matrox heeft al jaren 0.1% tot 0.2% dus ik denk niet dat het goed met ze gaat..
Een klein marktaandeel wil niet zeggen dat het slecht gaat. Als ze winst maken dan maakt het niet uit of ze nu 50% of 0.2% van de markt in handen hebben.
Zelf denk ik ook, dagelijks. Maar of dat nou allemaal zo zinnig is; ik denk het niet. Ojee, nou doe ik het weer. Weetje, waarom kijk je niet eens in de boeken bij ze ? Dan weten we meer.

De zakelijke markt waar Matrox in opereert, is nml. niet groot. Hoe goed of slecht ze het niet doen, ik zou het niet weten. Wat ik wel weet is dat het "dode bedrijf" zoals jij ze gemakzuchtig omschrijft blijkbaar nog steeds in staat is om met bijzondere produkten te komen waar blijkbaar een markt voor is.

Dan denk ik; Matrox leeft! Het is een familie bedrijf(je) btw, zolang ze in hun onderhoud kunnen voorzien hebben ze niks te klagen.
Als een bedrijf jarenlang een bepaald percentage van de markt heeft maakt het geen zak uit wat dat percentage is. Het feit dat ze jarenlang op diezelfde lijn zit zegt dat ze vrij constant zijn qua marktaandeel, maar helemaal niets over de gezondheid van het bedrijf zelf. Er zijn heel veel bedrijven die momenteel winst boeken qua marktaandeel/verkopen waar echter wel een verlies in inkomsten tegenover staat. De reden hiervoor is heel simpel: er is een crisis gaande dus gaan er nu heel veel bedrijven bezuinigen, uitgaven annuleren, dingen op de lange baan schuiven, etc. Een van de dingen die men probeert is de prijs omlaag praten. Dat lukt ze veelal ook. Daardoor heb je de situatie dat men meer verkoopt/marktaandeel heeft terwijl de inkomsten minder zijn. Die prijsverlaging is een afweging die bedrijven maken om meer winst te krijgen/het verlies te matigen. Het is onderdeel van hun overlevingsstrategie. Kortom, in die gevallen gaat het dus helemaal niet zo goed met een bedrijf en kan er zelfs sprake zijn van een bedrijf dat op de grond van het faillissement staat.
Waarom geen support voor OSx ?
Dit zou perfect zijn voor iemand die veel in finalcut/color werkt :)
Of Aftereffects over 3 of 4 schermen verdelen.
Ik denk dat het logisch is dat ze geen support uitbrengen voor OSx.
Apple bouwt de eigen laptops en daar is er ook de mogelijkheid om tot 8 uitgangen te gaan (Ondersteuning voor aansluiting van maximaal acht 30-inch beeldschermen http://www.apple.com/nl/macpro/specs.html)

Bij gevolg gaat Apple deze kaart waarschijnlijk nooit implementeren en is het dus verloren moeite om een programma te schrijven voor Osx.
Mag je in die Apple torens tegenwoordig ook al niet meer zelf je videokaart vervangen?

Wat doen apple gebruikers nog hier op tweakers.net? :?
Tweaking is zoveel meer dan alleen je cpu overclocking en er zoveel mogelijk supersnelle videokaarten in proppen. OS X is een UNIX en derhalve heb je ook heel veel tweaking mogelijkheden naast dat het al komt met dingen als Services, AppleScript en Automator (waarbij je ook nog eens de combinatie kunt maken). Qua hardware valt er voor een tweaker wellicht geen eer te behalen maar qua software des te meer.

Verder is voor een professioneel werkstation als de Mac Pro het publiek nou ook niet bepaald geinteresseerd in het tweaken van de hardware. Ze willen gewoon een goed werkend en snel systeem dat doet wat het moet doen. In dit geval kun je het ding ook prima aanpassen met een RAID kaart, ssd's en meerdere videokaarten (die weliswaar beperkt zijn omdat je ze van Apple af moet nemen, eigen spul kan er met geknutsel op zich ook nog wel in mits je je aan bepaalde punten houdt).

[Reactie gewijzigd door ppl op 12 november 2009 00:16]

Met een professioneel werkstation ga je niet tweaken. Dat doe je thuis.
Moet het toch even kwijt: os/x is geen UNIX. Het is gebaseerd op BSD wat een compleet onafhankelijke implementatie is van een UNIX-like OS. Veel commando's werken min of meer hetzelfde als de UNIX commando's maar er is geen gemeenschappelijke codebase.
Jij denkt zeker dat Apple alleen maar laptops maakt, hoewel je dus verwijst naar een desktop waar dus gewoon 4 van deze kaarten gewoon in passen.
Ik denk dat die nog wel komen. Apple is niet de enige leverancier van video kaarten (en stel dat je een bepaalde kaart erg graag wil gebruiken, dan kan je altijd nog een gewone standaard PC-video kaart nemen en flashen met een Mac rom/bios.)

Verder zijn Mac Pro's ook erg goed met windows te gebruiken, hoewel we 'em daar voor natuurlijk niet gekocht hebben.. (Neemt niet weg dat Windows op een Mac een stuk beter draait dan alle OEM troep die je bijv. @ MediaMarkt, Dixons of MyCom kan vinden)
Ik neem aan dat dit een enterprise kaart is wat dus betekent dat deze lagere TDP's hebben. Misschien is de prijs daardoor wel zo hoog.

Ik snap eigenlijk nog steeds niet dat Matrox het nog zo goed volhoudt tussen al die gevechten van Nvidia en ATI.
Ze hebben een hele andere afzet markt, Matrox richt zich op bedrijven en overheid waarbij veel 2d content op een groot aantal schermen weergegeven moet worden.

Nvidia en Ati richten zich op de consumenten markt, waar het meer om zware 3d content op weinig schermen gaat.

Daarbij zijn alle producten in het enterprise segment veel duurder dan die voor de gewone consument, kijk ook eens naar bijvoorbeeld de nvidia quadro fx of de tesla, die zitten ook rond de 2k per stuk en die worden ook verkocht.
Beeldschermoverkill?
Voor een gewone huisinstallatie jazeker. Maar deze kaart is bedoeld voor de professionele omgeving. Tijdens een operatie is het bijvoorbeeld interessant dat je meerdere beeldschermen ziet.
Traders gebruiken ook heel vaak multi monitor setups. Wij gebruiken dan ook bijna altijd Matrox kaarten daarvoor, maar dit is wel nieuw :D
Traders (aandelen/optiehandelaren) zijn inderdaad een apart volk. Zodra bekent is dat er nog meer schermen aan hun computers kunnen dan willen ze dat gelijk hebben!
8 beeldschermen? 8)7

Haha, pas had apple op zo'n beurs 30 30" cinema display's gezet, waarop alle apps stonden, en als ze werden gekocht kwamen ze een soort van omhoog

Daar hadden ze heel wat mac pro's voor nodig, nu kan je het met 2 pc's (ieder 2*8 schermen) alles aansturen:P
ik denk eerder dat dit interessant kan zijn voor videowalls in bijvoorbeeld controlekamers van laten we zeggen de metro/vliegvelden
Ik denk vooral videowalls an sich.. Denk aan Muziekstudio's, cameratoezicht, Drive-in shows, Flightsimaltor freaks :P

Onder, boven, voor links, rechts achter, en instrumenten
Dan heb je er nog 2 over voor MSN, en je Pr0n :P
Ik denk niet dat flightsim op hoge resolutie zo lekker draait op deze kaartjes eerlijk gezegd.
Daarom moet je die combineren met een Lucid Hydra :D
Ik heb weleens computers vervangen in een controlekamer bij een fabriek, daar stonden gewoon 3 Dell Windows machines die onafhankelijk konden monitoren en aansturen.
(overigens wel veilig en stofvrij in een serverkast)
En als er 1 PC uitvalt, ben je dan gelijk onthand in zo'n controlekamer.
Gewoon redundant uitvoeren. Overigens, (ik ben Mac gebruiker) kan Windows in een industriëel netwerk bést stabiel zijn, omdat het daar niet aan het internet hangt en er maar 1 applicatie op draait.
Met de stabiliteit van Windows is niks mis tegenwoordig, veel instabiliteit wordt door drivers en 3rd party software veroorzaakt.
Inderdaad, op mijn huidige win7 installatie nog maar 1 bluescreen gehad door beta drivers van nVidia (iets wat dus "mijn schuld" is)
Dit soort opmerkingen voegen dus echt niets toe aan het nieuwsbericht. Windows, over welke Windows heb je het dan? Je hebt Windows 95, 98, ME, 2000, XP, Vista, 7, NT, Server, dus je bent niet specifiek.
Ik werk nu een jaar met Vista op mijn werk en ik kan je melden dat ik nog 0 crashes te verwerken gehad heb, terwijl wij om het half uur metingen doen met behulp van medische software en dat 14 uur achter elkaar. Inderdaad offtopic, maar dat windows gebash kan me echt mateloos irriteren.
Een Macpro kun je bestellen met 4 videokaarten met elk 2 uitgangen, dus plek voor 8 30" schermen.
ze worden aardig wat gebruikt in museums om alle tv schermen tegelijk aan te sturen.
Denk aan een dealingroom van een bank, die hebben zo 8 schermen hangen per werkplek.
Niet alleen banken. Wel eens op Beursplein geweest? 9 schermen per werkplek is normaal, de grote jongens krijgen er nog 4 bij en een lcd tv.
Wij hebben hier bij de control room van een niet met name genoemde verzekeraar meerdere cockpits. Elk bestaande uit elk 2 x 4 schermen.
Ik kan je verzekeren dat dit erg fijn werkt.
Beter dan 1 of 2 30" monitoren. Dit omdat je het nu rondom kan bouwen. De naam cockpit wordt niet voor niets gebruikt
Laatste kans tegen eyefinity?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True