Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties
Bron: Matrox

Matrox heeft een eind gemaakt aan de geruchten rondom de specificaties van de Matrox Parhelia-512 GPU. Op hun website kunnen we de definitieve specificaties van de GPU vinden die de opgenoemde features in de Tweakers.net preview bevestigen. Voor degenen die geen tijd hebben om de uitgebreide preview te lezen volgt hier een opsomming van alle features:

  • 0,15micron 512bit GPU
    Gekoppeld via een 256bits datapad aan maximaal 256MB DDR geheugen.
  • 10bit GigaColor Technology
    In plaats van 8bits heeft elk RGB kanaal 10bits wat voor meer natuurgetrouwe afbeeldingen moet zorgen.
  • UltraSharp Display Output Technology
    Door een aantal verbeteringen in de RAMDAC en de filters is de beeldkwaliteit flink verbeterd.
  • 64 Super Sample Texture Filtering
    Zorgt ervoor dat de Parhelia 64 textures per klok kan verwerken. Dit is twee keer zoveel als vergelijkbare GPUs.
  • Glyph Antialiasing
    Is vergelijkbaar met de Chrystal fonts van Windows XP, maar dan in hardware.
  • 16x Fragment Antialiasing
    Een methode vergelijkbaar met FSAA die minder bandbreedte verbruikt door alleen op de randen van polygonen FSAA toe te passen.
  • Quad Vertex Shader Array
    Vier vertex shaders in plaats van twee zoals bij de meeste GPUs gebruikelijk is.
  • Quad Texturing
    Zorgt ervoor dat er vier textures per pixel per klok gerenderd kunnen worden.
  • 36-Stage Shader Array
    Met vier programmeerbare texture stages en vijf programmeerbare pixel shaders stages in alle vier de pipelines is de Parhelia-512 voorzien van de meest geavanceerde shader die tot nu toe is ontworpen.
  • Hardware Displacement Mapping
    Maakt het mogelijk om bijvoorbeeld landschappen makkelijker te renderen doormiddel van een XYZ kaart.
  • Surround Gaming
    Het gerenderde beeld kan over drie monitors verspreid worden voor een nog realistischere gameplay.
  • DualHead High Fidelity
    Een verbeterde versie van het bekende DualHead systeem.
  • TripleHead Desktop Mode
    Drie monitors kunnen door de Parhelia-512 onder Windows worden aangestuurd.
  • PC-Theatre DVD Playback
    Verbeterde DVD weergave door toepassing van 10bits per RGB kanaal.
  • Matrox PowerDesk-High Fidelity
    Is niks anders dan een verbeterde GUI om de instellingen van de Parhelia-512 te beheren.

Helaas wordt de snelheid van 350Mhz niet bevestigd op de website van Matrox. Ook wordt er geen een datum genoemd, het blijft dus gissen naar waneer we deze kaart in de winkel kunnen kopen. Echter, gezien het feit dat de DirectX 9.0 demo van Microsoft op een Matrox kaart draaide is het vrijwel zeker dat Matrox werkend silicium heeft:

Matrox Parhelia (klein) The revolutionary new Matrox Parhelia-512 high-fidelity GPU delivers a new level of visual quality, excellent performance and a wide range of innovative technologies. Parhelia-512 is an 80 million transistor, 0.15µ, 2D, 3D and DVD/video GPU with a true 256-bit DDR memory interface providing over 20 gigabytes per second (GB/s) of raw memory bandwidth. This AGP device supports unified frame buffers up to 256MB in size and integrates two RAMDACs, a TV encoder and support for dual TMDS transmitters. Designed to surpass the expectations of the most demanding professional users and PC enthusiasts, Parhelia-512 has three major goals: to dramatically increase the quality of all aspects of visualization, to sustain high performance for the most complex and demanding graphics rendering and to deliver a number of innovative and substantive features

Naar aanleiding van de officiële presentatie hebben ook de volgende sites een preview online gezet:

Met dank aan jwver voor de tip.

Moderatie-faq Wijzig weergave

Reacties (85)

Doordat de EX 3D team van Matrox grotendeels naar nVidia is verhuist. Heeft Matrox heel lang over gedaan om weer boven op te komen,

Ik heb Matrox al lange tijd als een INNOVEREND, CREATIEF en heel belangrijk een bedrijf met EIGEN SMAAK & STIJL beschouwd.
Matrox stijl, sherp, doel gericht en succesvol.
Kijk naar de G200 en G400. Het was innoverend en stond creatief voor aan de lijst en hoog waardig kwaliteit hardware als software ( & goede drivers :) )

Hoop echt dat ze deze keer mee kunnen komen met de strijd, want na de G400 core is dit zijn "echte nieuwe" video kaart!!!
Om er echt bij te horen hoor je wel regelmatig met High end produkten op de proppen te komen zoals nVidia
'n Produkt Cycle van 6Mnd vs 2Jaar vind ik falen aangezien nVidia drootendeels de markt heeft kunnen voorzien met in geringere mate concurentie ATI kan het nog niet overtuigend meekomen met hun release history.

Dus in mijn ogen is MAtrox met deze even bij maar hoe zit het dan met de volgende deze zou 1Jaar mee moeten gaan volgen Matrox, dus over 9maanden is er al 'n nV35 ofzo en dan zijn ze weer even weg uit het 3D top segment
Aangezien nVidia hun produkten wel met strakke produktCycles kan leveren en tot nu to op dit gebied geen tegen stand hebben want 'n produkt release van 3Maanden of meer te laat is in deze markt achter het net vissen.
Is dat belangrijk dat ze dan weg zijn uit het top-segment? Dat betekent dan dat de kaart op dat moment goedkoper zal worden en betaalbaar voor de meeste mensen. Bovendien zal je waarschijnlijk veel langer support krijgen ivm drivers (matrox heeft in het verleden toch wat bewezen door de beste linux-drivers te schrijven wat videokaarten betreft).

Als je om de 6 maanden een nieuwe high-end kaart koopt omdat je je games wil spelen met 3x de framerate die je eigenlijk nodig hebt dan moet je voor nvidia gaan... zoniet hoeft het eigenlijk niet, dan kan je die parhelia kopen en zit je goed voor een jaar of 2,3...

OF je doet zoals ik en koopt telkens een kaartje dat een generatie of 2/3 achterloopt maar ruim voldoet...
Om er echt bij te horen hoor je wel regelmatig met High end produkten op de proppen te komen zoals nVidia
Ik noem de Geforce 4 geen Hi-End en zeker niet vernieuwend, het is gewoon een iets snellere Geforce3 + T&L unit......
Elke 6 maanden dat is al helemaal niet waar....
Geforce2 => Geforce3 => Geforce4 en dit zou allemaal binnen een 1,5 jaar elkaar opgevolgd moeten hebben...... Ik dacht het niet :) Het is tegenwoordig naar 9 maanden opgeschoven.....en misschien zelfs naar 1 jaar... tussentijds komen ze bijv. met G3 met een ti200 en ti500 maar verder is er echt niet elk half jaar iets nieuws.....
ps hoe lang duurt het eigenlijk voordat de nv30 en de r300 komen ??

r300 = begin 2003
nv30 = aug. sept.
Een kinderhand is gauw gevult :o
goede drivers moet inderdaad tussen haakjes staan want dat heeft voor de G400 zeker even geduurt.

Maar fijn dat matrox weer terug is, maar ik vrees dat de kaart toch niet snel genoeg zal blijken.
Jammer opzich dat ik nog niets heb gehoord van een versie met ondersteuning voor slechts één CRT monitor en een tv-out..
Dit zou waarschijnlijk erg schelen in de prijs (al was het alleen al vanwege de marketing), en de meeste mensen hebben die extra CRT mogelijkheid niet nodig...

Okey, vele tweakers vinden het leuk dat het erop zit en ook zeker leuk om mee te spelen, maar als het geld scheelt zou ik toch voor een kaart met één CRT uitgang kiezen...
De kaart heeft 2 aanluitingen: (een stukje naar boven scollen en je komt foto's ervan tegen)

eerste aansluiting voor 1 dvi of crt
tweede aansluiting voor 1 dvi of 2 crt's (of 1 mag ook natuurlijk) of tv out..

Ik ben al sinds de matrox millenium fan van matrox kaarten, maarja ik speel ook geen spelletjes. De DVD max optie van matrox op de dualhead kaarten is gewoon de mooiste tv out optie die er bestaat. (althans ik heb geen andere kaarten gezien die het zo mooi doen als matrox)
Zowiezo ben ik heel blij met de komst van deze kaart. De reden dat ik nog steeds een -inmiddels zwaar verouderde- G400 gebruik, is de onberispelijke beeldkwaliteit. De over het algemeen slechte beeldkwaliteit van de GeForce kaarten heeft mij altijd weerhouden er een te kopen. ATi doet het wat dat betreft wel beter, maar toch, als je eenmaal de crispscherpe, kleurrijke en heldere beeldkwaliteit van Matrox bent gewend, wil je niet anders meer. En straks met de Parhelia kunnen eindelijk ook Matrox gebruikers eens een leuk (3D) spelletje meespelen :)
Laat maar komen die kaart!
Ik heb ook jarenlang matrox kaarten gebruikt (heb hier nog ergens een goeie ouwe Millennium II liggen), maar wegens het extreme achterblijven op 3D performance gebied ben ik uiteindelijk toch overgestapt. In eerste instantie op een nVidia kaartje, nu heb ik een KyroII. De beeldkwaliteit is gewoon goed (VEEL beter dan m'n ouwe TNT2Ultra) performance is redelijk en hij is gewoon goedkoop :+

Als Matrox een kaart uitbrengt met een alleszins degelijke 3D performance (ook als dat betekent dat de Ti4600 sneller is) dan zal ik, en met mij vele oude Matrox fans, onmiddelijk overstappen! Het gaat mij er niet om de aller-allersnelste videokaart van dit moment te hebben, ik wil er gewoon een waar je behoorlijk de nieuwste spellen op kan spelen, verder gaan voor mij beeldkwaliteit, driverstabiliteit (was SUPERB op m'n millennium II) en goede dualhead ondersteuning voor...

Dat geld ook voor veel van m'n collega's (IT specialisten) en vrienden overigens.
Oh ja, geld speelt gelukkig in mijn geval geen rol, maar da's een instelling die je voor Matrox altijd nodig hebt gehad :)
Ik denk (hoop) dat we bijna op een performancelevel zijn aanbeland waarbij niet meer het aantal fps/sec maatgevend is, maar het aantal coole, beeldkwaliteit verbeterende, feautures wat een kaart heeft.

Ik bedoel Q3 met 250 of 350 fps maakt toch ook geen hol meer uit.

Later wanneer de nieuwe generatie engines uitkomen (UT, Q4, Doom) en DX9 titels beschikbaar worden (dit laaste duurt altijd wat langer) zijn hopenlijk dit soort GPU's mainstream (betaalbaar) geworden (dus +100 fps in de zwaardste scene's)


Samenvattend:

Ik hoop dat we binnenkort onze keuze van een kaart niet meer baseren op 300 of 400 fps, maar bv op 100fps maar wel met alle :9~ die er maar zijn!
daar kan ik het nou hevig mee eens zijn.

maar kben eigenlijk bang dat doom 3 heel ontzettend verschrikkelijk zwaar gaat zijn.

dr was toch sprake van 30 fps met effecten aan en redelijke resolutie op een 1600 mHz met geforce 3 ti 500 ofzo?
kijk, mn volgende machine ofzo kan em dan wel flitsend spelen, maar over mn netwerkje wordt t dan matig, aangezien dr verder een geforce 2 en een geforce 3 classic bijzitten. nu zijn ze goed voor over de 100 in Q3 nqatuurlijk, maar volgend jaar wordt t huilen met de pet op :'(
of ben ik nou gewoon pessimistisch?
maar idd over de 100 fps met effecten aan is het algemen streven denkik en daar moeten de nieuwe kaarten toch wel goed voor zijn (?) :)
kijk, mn volgende machine ofzo kan em dan wel flitsend spelen, maar over mn netwerkje wordt t dan matig, aangezien dr verder een geforce 2 en een geforce 3 classic bijzitten. nu zijn ze goed voor over de 100 in Q3 nqatuurlijk, maar volgend jaar wordt t huilen met de pet op
Dan zet je op die computer met geforce 2 en 3 toch niet alle settings op max in Doom III ? Als je dingen als die levensechte schaduwen - die Doom III zou gaan krijgen - uitzet dan scheelt dat bijvoorbeeld al behoorlijk volgensmij.
Helaas kan ik je niet meer modereren of je kreeg ipv die 0 off-topic die er staat een dikke +1 inzichtvol van mij...

Ik draai Q3 op een p3-650 met gf2mx aan +200fps, laat het dan 800x600 zijn en 16bit... het speelplezier is er niet minder om. Alle opties open is wel leuk om single player games te spelen maar in single player games heb je niet meer dan 30 fps nodig, 60 is dan erg leuk, 100+ is gewoonweg overkill
Nou, van de prijzen is eigenlijk al eens iets hier op Tweakers aangegeven hoor... En dat zou je by the way redelijk kunnen tegenvallen, die matrox kaarten worden namelijk redelijk duur, de goedkoopste zou rond de prijs van een Geforce 4 Ti 4600 moeten zijn....
Helaas, nalezen van de userfora laat weten dat een van de developers aldaar wist dat het goedkoopste model rond de $199 zou liggen.... Dat scheelt nogal met wat jij nu noemt.. Misschien is het verstandiger om eerst alle feiten door te lezen alvorens je een post plaatst.. Dat scheelt mij de moeite van het tikken dat je post niet klopt, alsmede dat andere mensen die dat lezen en daarna niet terugkomen op deze thread van verkeerde informatie worden beschermd.
Mja, en jij denkt dat de hele berg met goodies zal zitten op het goedkoopste model? |:( Het zal me weinig verbazen dat de eerste modellen voor dat geld bijvoorbeeld maar 1 DVI output krijgt en een beperkt datapad.

En verder geen kwaad woord over developers in welke branch dan ook, maar die bepalen de prijs niet. Dat doet de frisse-glimlach-en-in-het-pak afdeling.

Nog even wachten, we weten het snel genoeg. ;)

//Moderators: Flamebait? :?
64 Super Sample Texture Filtering
Zorgt ervoor dat de Parhelia 64 textures per klok kan verwerken. Dit is twee keer zoveel als vergelijkbare GPUs.

Quad Texturing
Zorgt ervoor dat er vier textures per pixel per klok gerenderd kunnen worden.
Hoeveel is het nouw 4 of 64 :) Volgens mij zijn er nl. 4 pipelines zodat hij 16 texture pixels per klok gerenderd kunnen worden met (ansitropic) filtering schijnt dit op te kunnen lopen tot 64 per klok maar hoe dit werkt is met nog niet helemaal duidelijk.
Hardware Displacement Mapping
Maakt het mogelijk om bijvoorbeeld landschappen makkelijker te renderen doormiddel van een XYZ kaart.
Het gaat om een displacement map ten opzichte van de Normal van de texture. Dus een 2D reliëf map met Z waarden behorend bij een texture dit lijkt op bump mapping, alleen wordt de waarde daar alleen gebruikt voor licht (schaduw) effecten en hier wordt er dus echt extra geometrische data gegenereerd waardoor het ook toepasabaar is op grote dingen zoals b.v.landschappen . XYZ kaart is wel een erg vage uitdrukking voor zoiets.

Al met al nog een hoop speculatie eerst maar eens reviews zien en graag spellen die dit ondersteunen/benutten en ook nog interesant zijn om te spelen. Anders wordt dit weer een hele mooie matrox preview die wacht op software voor de ondersteuning voor al dit moois, en tegen de tijd dat die software er is loopt de concurentie weg met de klanten door middel van snellere kaarten die dit ook ondersteunen.

edit:

dubbelpost ??? kijk toch naar tijd voordat je dat mod of ik plaats ook al mijn postings onder de eerste message die ik in de thread kan vinden :)
* 786562 Bunny"Bij aankoop van een top-model Parhelia een UT2003 cd kado!" ofzo... en dan liefst al in Q3-2002 ofzo, hehehe!

Waarmee ik gelijk de grootste problemen aanstip:
- Wanneer ligt ie echt in de winkels?
- Wat gaat dat grapje kosten?
- Is er dan wel voldoende software die dit alles ook nuttig gebruikt?

De specs zijn in elk geval in orde, nvidia gaat het zwaar krijgen: aan de onderkant begint SiS te knagen, de middenmoot wordt door ATi aangevallen en het top-segment wordt door Matrox bedreigd... het wordt weer gezellig spannend in hardware-land! :9~
(Lijkt de politiek wel, ineens onverwachte bedreigingen die de bestaande verdeling weer geheel overhoop gooien!)
PC-Theatre DVD Playback
Verbeterde DVD weergave door toepassing van <b>10bits</b> per RGB kanaal.
DVD's zijn toch standaard 32 bits/ 8 per RGB?
Wat is hier dan het nut van :?
3 (Rood, Groen en Blauw) x 8 = 24. Wat doe je dan met die overige 8 bits ?!? |:(
Nee grapje, volgens mij ligt het voor DVD's iets anders en kan je niet van bits/pixel uitgaan. Het beeld wordt berekend en de uitkomst wordt door deze kaart dus als 10 bits/kanaal doorgeven, ipv 8 bits/kanaal. Dus in plaats van 256 gradaties per kanaal levert 10 bits 1024 gradaties per kanaal.
Veel standalone DVD spelers zijn bijvoorbeeld gerust met een 10 bits DAC, welke er dus voor zorgt dat het analoge uitgangssignaal veel nauwkeuriger is dan van een spelers met een 8 bits DAC.
Heel vet allemaal. En nu nog software die deze functies allemaal ondersteund. :7
Eerst maar eens braaf afwachten.

De G200, G400 en de rest zouden ook allemaal 'killers'
zijn maar in de praktijk bleek dat toch niet zo te zijn :(
de meeste kaarten van Matrox zijn ook niet bedoeld als 'killers'. Ik heb een G400 en die doet het best. Voor de game-performance hoef je 'm niet te kopen en ik verwacht dat dit ook niet zo zal zijn met de Parhelia.

Ik wacht zeker op deze kaart, matrox levert meestal goed werk af. Ik heb eigenlijk nooit problemen met drivers en dergelijke. De G400 gaat verhuizen naar een linux bak waar hij een dual-console gaat voorschotelen.
Ik heb nog niets gezien van de 3d van deze nieuwe kaart dus zeggen dar de 3d beeldkwaliteit top is zonder dat er een kaart op de markt is lijkt me onzinnig
Je kennis van grafische kaarten en bedrijven staat hoog aangeschreven }>

Wil je wel een beetje bijspijkeren:
Het enige wat eigenlijk aan de G400 ontbrak, was een goede OpenGL-driver. Waardoor de OPEN_GL speed tegenviel. DIRECT-3D was echter gelijk, zoniet superieur aan alles wat er toen beschikbaar was.
Je weet wel Direct-3D, van de Direct-x Bieb van ome Bill. Daar toch minstens 70% a 80% van de spellen toendertijd Direct-X geschikt was, was het niet zo'n errug groot probleem. Behalve voor de QUAAKErs en Doomers toendertijd. Heb zelf de nodige kaarten en merken versleten maar zit nu toch nog steeds met een G400. In 2D kan niets eraan tippen, op de high-end cad-cam kaarten na dan.

Ach, en ik fraggte ook mijn potje mee, in 1024-32bit met framerates van tegen de 80. Dat ging best wel smooth.

Enne die TNT2, die had ik zegge en schrijven nog geen 2 weken in mijn systeem. Wat een verdriet op een 17inch.....

Maarja, ieder zijn meug. De een wil absolute speed, waarbij de rest bijzaak en "aardig" is. En de ander kiest voor meer kwaliteit, feutures en een redelijke speed. Smaken veschillen. Daarom word ik een beetje moe van die nvidioten, altijd maar afzeiken...altijd maar weer gericht op een ding. En gewoon niet toe willen geven dat er ook andere mensen die gewoon wat anders willen dan alleen maar speed.

Hoor nu al weer commentaar bij Anand , Tom en andere.. zou die in Quake2 misschien niet zo snel zijn als de GF Ti4600 , de Parhelia...nuja, ik vraag je
als je met de GF 250 frames zou draaien (1024!) 32bit en die parhelia doet er 240. Wie ziet, merkt , ruikt het verschil ? (behalve de benchgeile puberale types)

Feit is, zodra het ingewikkeld word. Zoals FAA , Quake3 engines of hoger trekt de Parhelia die GF Ti4600 er helemaal uit. Dat kan je proeven uit de specificaties, je voelt het gewoon aankomen.

En dat telt! De spellen van morgen, niet die antieke uit het museum.

Tuurlijk is die Parhelia maar voor een klein groepje weggelegd, niet iedereen legt even vrolijk 400,- euro of meer neer. Dat is ook precies de doelgroep die Matrox aanspreekt. Ze willen helemaal niet in het budget-segment met Nvidia. Dat is nou Matrox, al 25 jaar.

;( is het toch een beetje flamebate geworden, sorry hoor.
Voor de game-performance hoef je 'm niet te kopen en ik verwacht dat dit ook niet zo zal zijn met de Parhelia.
:? Als je dit al niet genoeg vind voor een goede game performance. en daarbij is het al vaker gezegd, toen de g400(max) uitkwam, was het een regelrechte killer. Alleen toen die leverbaar was wat minder. En 1 groot voordeel van de Matrox-kaarten wordt vreemd genoeg altijd over het hoofd gezien. Niet alleen de 2d-kwaliteit is top, maar ook de 3d beeldkwaliteit. Veel beter dan de fletse beelden die mijn geforce 2 uitspuugt. En dat maakt het juist een goede gamerskaart.
Misschien is de 3d kwaliteit van deze g1000 verbeterd, maar de g400 was na zn intriductie een van de kaarten met de slechtste 3d-kwaliteit (test staat nog ergens op deze site, 1-1,5 jr geleden oid), samen met s3 en 3dfx (v3), ati was destijds het beste, direct gevolgd door nvidia..

Ik heb nog niets gezien van de 3d van deze nieuwe kaart dus zeggen dar de 3d beeldkwaliteit top is zonder dat er een kaart op de markt is lijkt me onzinnig
Je kennis van grafische kaarten en bedrijven staat hoog aangeschreven
Als je mijn reactie goed had gelezen had je kunnen zien dat ik het niet over de g400 had, dat die een mindere 3d kwaliteit als de nvidia en ati kaarten had werd destijds mooi uiteengezet (kan het artikel in de tweakers.net db niet zo gauw meer vinden btw), het enige mooie aan de g400 vond ik destijds zn env. bump mapping (en zn linux drivers), van de g1000 is qua 3d nog weinig bekend (beter mag ik hopen)
Het lijkt net alsof je over meisjes hebt.

Smaken verschillen, de een is vlotter & smoother ( gladder? glijdt beter?). De ander is mooier & heeft meer in zicht...inzich... khumm,khumm.

Ja, ja, smaken verschillen... :D :D :D
Nou we toch over meisjes hebben.

Matrox is 25 (?)
nVidia wordt volgend jaar januari 10(!)

Wat kies jij?? :9
Ja, smaken verschillen...( Niet vies bedoeld hoor )
Hoezo? De G200 en G400 (als 450 en 550) hebben het jarenlang nog goed gedaan en werden nog steeds goed verkocht. Tijdgenoten van de G400 als de nVidia TNT2 en ATi Rage zijn allang verdwenen. De G550 is nog steeds de beste 2D kaart met de meest uitgebreide multi-monitor features. Het is alleen de 3D features die nu weer op 2002 niveau zitten.
ja voor 2d wassie wel ok, maar voor 3d echt drie keer nix, nja, naar mijn mening, maar kben misschien wat pietluttig :)
een tnt2 heeft betere 3d prestaties, ieg in opengl, naar mijn weten (lees ervaring), maar isser uitgegooid (voornamelijk) doordat de geforces erbij kwamen, maar voor de g400 is nooit echt een opvolger gekomen, ja de 5xx, maar veel verschil is er niet echt voor de meeste gebruikers.
mar kben voor gewoon windowsgebruik niet otevreden over dat oude dingetje, maar voor spellen :*)
dat is dan toch echt mn ti500 :)

overbodig?? kgeeft gewoon wat algemene info, sorry hoor, maarja, aan een ieder z'n mening :)
nu eerst nog de kaart wil je bedoelen :P
Of nu nog de prijs ? ;)
Volgens Tom's Hardware gaat de goedkoopste versie (met 128 MB RAM) zo'n 400 dollar kosten.
Er kwam afaik ook een 64 MB versie.
Dus geen goedkoop grapje zo'n kaartje, zeker niet als je er nog 3 monitoren aan wil hangen van 19"ofzo.
De GeForce 3 kostte wel meer toen die geintroduceerd werd, en die kon geen 3 monitoren aansturen.

Als deze kaart ook de snelheid heeft die hij volgens de geruchten zou hebben, dan vind ik $400 bij introductie nog best redelijk; de prijs zakt toch nog.
We gebruiken meestal inderdaad 32bit kleur, maar dat is 8bit per RGB kanaal, en dan nog 8 bit voor alpha kleurenmeuk (transparantie)
Nee. Het is 8 bit R, 8 bit G, 8 bit B en 8 bit padding. Die padding doet niks nuttigs behalve ruimte innemen - weggegooide bytes dus.
De reden dat dat gedaan wordt is dat pixels zo op 32 bits (4 bytes - een DWORD) gealigned zijn, waardoor ze veel sneller te addresseren zijn en de adressen van pixels veel sneller te berekenen zijn (immers: vermenigvuldigen met 4 in plaats van 3, en voor *3 is een echte vermenigvuldiging nodig, terwijl voor *4 een eenvoudige bitshift volstaat).

Het formaat waar jij het over hebt is RGBA, maar dat is totaal irrelevant voor wat videokaarten weergeven; een monitor kan immers geen 'alpha uitstralen', terwijl hij wel rood, groen en blauw uitstraalt. Alpha channels worden alleen intern gebruikt (dus voor het op het scherm staat).
Dit word nu dus 10 bit per kanaal, in totaal dus 40 bit.
Of deze 10-bit precisie is alleen intern (dus de computer stuurt nog altijd 32 bits RGBpad, en de Matrox kaart rekent intern met 10 bits per colochannel), of het wordt 10 bit R, 10 bit G, 10 bit B en 2 bit padding lijkt mij.

[edit] Ik heb even wat gelezen en die 10-bit van de Parhelia wordt dus niet alleen intern; ook de framebuffer (het videogeheugen dat vanuit de software te beschrijven is) wordt 10-bit. [/edit]
da's spotgoedkoop zul je bedoelen. Stel je voor dat je de hele dag zwaar zit te modellen. Dan zijn 3 monitoren wel prettig. 1 voor de menu's 1 voor de grove raster plaatjes en 1 voor het uiteindelijke resultaat.

dan is $400 echt helemaal nix. Alleen de monitoren bepalen dan eigenlijk de prijs want voor $133 per grafische kaart per monitor ben je dan wel errrug goedkoop uit.
Volgens Tom's Hardware gaat de goedkoopste versie (met 128 MB RAM) zo'n 400 dollar kosten.

Dus geen goedkoop grapje zo'n kaartje, zeker niet als je er nog 3 monitoren aan wil hangen van 19"ofzo. :(
De prijs zal echt niet laag zijn als ik de specs zie.
Bovendien zal matrox kennende deze kaart vooral naar het bedrijfsleven gemarketed worden. Een kaart met 256 MB heel rap DDR geheugen zal ech nie tsjiep sijn...

Verder vind ik "10 bit per RGB kanaal" een beetje verwarrend. Dit zou 30-bits kleur opleveren, maar leven we niet al jaren met 32-bits kleurdiepte ?
I mean, what's the difference ?
We gebruiken meestal inderdaad 32bit kleur, maar dat is 8bit per RGB kanaal, en dan nog 8 bit voor alpha kleurenmeuk (transparantie)

Dit word nu dus 10 bit per kanaal, in totaal dus 40 bit :)
dubbelpost
:r nou zeg is die kaart zo machtig dat er geen koelers dr op moeten op het gpu :7
Telkens als ik die flitsende koelers zie op de nieuwste videokaarten, krijg ik het gevoel dat die dingen er vooral zitten ter compensatie van het gebrek aan écht interessante techniek. Ik begrijp best dat koeling belangrijk kan zijn, maar voor mij vallen veel van die dingen in de categorie 'spoilers en dubbele uitlaten'. :r

* 786562 tomatoman
Nu nog genoeg power om de features zelf te kunnen ondersteunen :P

Al die specs zijn leuk, maar als de kracht er gewoon niet is in de kaart om alle features toe te passen..
Woh, nu ik dit gelezen heb, denk ik bij mijzelf wat Ati en Nvidia willen doen tegen de matroz Paehelia 512...
Ik zou zeggen, dat Nvidia en Ati en nieuwe stevige concurent erbij hebben. Dat betekent ook goedkoper GPU's. Ik ben versteld van de performance...
En Matrox Is Back! ;)
Woh, nu ik dit gelezen heb, denk ik bij mijzelf wat Ati en Nvidia willen doen tegen de matroz Paehelia 512...
Simpel, de NV30 en de R300 uitbrengen, liefst voordat de Parhelia verkrijgbaar is en liefst tegen een lagere prijs.

Ik ben van mening dat de inpact die de Parhelia zal hebben overdreven wordt, natuurlijk heeft de kaart op papier fantastische feature's, maar weten we op welke snelheid de kaart draait? Of weten we hoe duur de prijs zal worden? Nee, net zoals we ook niet weten hoe de kwailteit van de drivers zullen zijn als de kaart uit komt.

Zo is de support van 3 beeldschermen leuk, maar niet bruikbaar voor de gemiddelde koper. Die heeft geen drie monitoren. Die feature zal dus alleen aftrek vinden op de proffesionele markt.

Zolang we niet weten welke feature's en snelheden de NV30 en de R300 zullen hebben kunnen we absoluut niet zeggen welke kaart zal "winnen".

Zo noemt nVIDIA de NV30 de grootste revolutie sinds het bestaan van het bedrijf (dat zullen ze niet zomaar zeggen, want als het een "normale" upgrade van de GF4 wordt zullen ze op die uitspraak hard afgerekend worden).

ATi zegt dat de R300 sneller zal zijn dan de NV30 en bovendien sneller zal uitkomen, dus ook van die kant mogen we iets verwachten.

Kortom, op GPU gebied wacht ons een spannende tijd, en die is absoluut niet te voorspellen.

Ik ben het wel eens met de mening dat de Parhelia een fantastische GPU wordt met erg mooie en handige feature's, maar we mogen op voorhand nVIDIA, ATi en 3DLabs niet uitvlakken.
De inpact van de Parhelia overdreven?

Er komt even een fabrikant langs, die bouwt (redelijk uit het niets, want de G550 stelde nog maar weinig voor) "even" een kaartje dat mee kan doen met de andere topspelers.
Dat is voor Ati, nVidia en 3DLabs een flinke tegenslag, die moeten ineens opgaan boksen tegen een extra speler, dat gaat ze stuk voor stuk marktaandeel kosten.
Zeker als je bedenkt dat Matrox eigenlijk een hele goede naam heeft, itt. Ati toen ze net begonnen met leuke kaarten maken.

Voor de andere spelers wordt het weer een tandje lastiger om "hun features" te verkopen, want als je monopolist bent, dan kun je nog een keer met MS gaan kletsen, maar als je met 4 spelers op de markt zit, dan moet je ook echt de beste implementatie maken, en kun je niet een net ander systeem bedenken wat ook goed werkt.
Er komt even een fabrikant langs, die bouwt (redelijk uit het niets, want de G550 stelde nog maar weinig voor) "even" een kaartje dat mee kan doen met de andere topspelers.
Met alle respect, maar heb jij al benchmarks gezien van de Parhelia? Of van de NV30 of R300?

De feature's zien er leuk uit, en ik wil absoluut niet flamen, maar niemand weet (behalve Matrox) weet hoe snel de GPU gaat worden. De specificatie zijn een leuke indicatie, en de kaart beloofd heel snel te worden met hele leuke feature's, maar aangezien het nog minimaal twee maanden duurt voordat de kaart uitkomt lijkt het me een beetje vroeg om nu al te zeggen dat de kaart mee kan doen met de dan bestaande concurentie.
Dat is voor Ati, nVidia en 3DLabs een flinke tegenslag, die moeten ineens opgaan boksen tegen een extra speler, dat gaat ze stuk voor stuk marktaandeel kosten.
Dan ga je er vanuit dat de GPU straks (hij komt pas over een paar maanden uit), tegen de NV30 en de R300 op kan boksen. Dat kan hij waarschijnlijk ook, maar nogmaals, laten we eerst nou maar op de benchmarks wachten totdat we Matrox de hemel gaan inprijzen en nVIDIA, ATi en 3DLabs tot verliezers bombarderen.
Zeker als je bedenkt dat Matrox eigenlijk een hele goede naam heeft, itt. Ati toen ze net begonnen met leuke kaarten maken.
Ik denk dat de gemiddelde pv eigenaar eerder van nVIDIA en ATi gehoord heeft dan van Matrox, die eigelijk alleen bij de wat gevorderde gebruiker en professional bekend is.
Voor de andere spelers wordt het weer een tandje lastiger om "hun features" te verkopen, want als je monopolist bent, dan kun je nog een keer met MS gaan kletsen, maar als je met 4 spelers op de markt zit, dan moet je ook echt de beste implementatie maken, en kun je niet een net ander systeem bedenken wat ook goed werkt.
MS kan er ook voor kiezen om alle feature's (dus de verschillende oplossingen) in DirectX te stoppen, ze hoeven echt geen keus te maken.

De echte uitdaging voor de producenten ligt bij de games, want als de verschillende games de feature's niet ondersteunen, kan het zo zijn dat de kaart ineens een stuk langzamer wordt. Maar dan nog, als de game gewoon DirectX gebruikt die dan alle mogelijke feature's ondersteund is er nog geen probleem.
De inpact van de Parhelia overdreven?

Er komt even een fabrikant langs, die bouwt (redelijk uit het niets, want de G550 stelde nog maar weinig voor) "even" een kaartje dat mee kan doen met de andere topspelers.
Zo hadden de Bitboys al in 1999 hoog van de toren lopen blaten over hun revolutionaire Glaze3D. Inmiddels zijn we drie jaar verder en ik heb nog geen Glaze3D gezien.

Dus ook voor de Parhelia geldt (net als voor de NV30 en de R300 en alle andere mooie beloftes): Eerst reviews, benches en prijzen zien, dan pas geloven.

Want dit zijn dan wel officiële cijfertjes van Matrox, maar voordat onafhankelijke hardware-sites daadwerkelijk met een echt eindproduct hebben mogen stoeien, blijft het voor mij gewoon marketing-bull.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True