Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties
Bron: X-bit Laboratories, submitter: T.T.

Matrox heeft volgens een bericht op X-bit Labs, alle uitingen over DirectX 9.0-support door de Parhelia 512 videokaart verwijderd. Omdat er nooit drivers zijn uitgegeven met ondersteuning voor Vertex Shaders 2.0, is met het opgeven van enige DirectX 9.0-support alle hoop verdwenen dat eigenaars van Matrox Parhelia-kaarten ooit nog de volledige hardwarecapaciteiten van de GPU zullen kunnen benutten, aldus X-bit Labs. Matrox had eerder al laten doorschemeren dat het alsnog DirectX 9.0-support bieden door de Parhelia niet waarschijnlijk was, door aan te geven dat de meeste games een 'fall back path' kennen, waardoor bijvoorbeeld op DirectX 8.1 teruggevallen kan worden.

Matrox logoNa de productlancering van de Parhelia 512 in 2002 werd door Matrox nog geadverteerd met de mogelijkheiden van de zogeheten Quad DirectX 9.0 Vertex Shader Array. Bezitters van een Matrox Parhelia 512 zijn teleurgesteld over het ontbreken van deze features, en klagen in diverse fora dat Matrox zijn beloftes niet nakomt. Ondertussen wordt van Matrox-zijde alvast een nieuwe belofte gedaan; volgend jaar moet er een nieuwe GPU-generatie uitkomen. Die zou hoogst waarschijnlijk wel Pixel Shader 2.0-compliant zijn, alleen al vanwege het feit dat Windows aanstaande besturingsysteem - met de codenaam 'Longhorn' - dit vereist, aldus X-bit Labs.

Parhelia Reef-demo (klein)

Gerelateerde content

Alle gerelateerde content (27)
Moderatie-faq Wijzig weergave

Reacties (42)

Wellicht lichtelijk offtopic maar... waarom gaat Longhorn Vertex Shader 2.0 vereisen? Is het tekenen van knopjes tegen de tijd dat Longhorn uitkomt dusdanig complex dat je er een dure GPU voor nodig zult hebben???
En dat je dus met Longhorn ook een nieuwe videokaart moet kopen omdat de oude die je al had niet meer gebruikt kan worden ??

Lijkt me een slechte zaak, ik was al zo blij met m'n ATI All-in-wonder 8500DV, maar kan dan weer een nieuwe kaart gaan kopen .... oftewel we blijven gewoon w2k of XP gebruiken ....
Die grafische pracht kan je natuurlijk gewoon uitzetten.
Voor zover ik weet zal Longhorn niet PS 2.0 vereisen:
er komen twee versies van de grafische interface bij Longhorn. De eerste versie is gewoon 2D zoals WindowsXP. De screenshots van de afgelopen dagen maken allemaal gebruik van deze interface.

Daarnaast komt er nog een versie met allerlei grafische hoogstandjes. De mogelijkheden liggen nog niet vast, maar in het verleden is er wel een artikel over wat mogelijke effecten verschenen hier op tweakers. Deze versie vereist dus wel PS 2.0
Longhorn komt met een geheel nieuwe grafische shell (Aero). Deze is 3D geacceleerd. Als je naar je desktop tuurt, of wat aan het "verkennen" bent, gebruik je al die kracht van je 3D kaart niet. Longhorn brengt daar verandering in. Is dit nuttig? Mwoah, de problemen van GDI vallen eindelijk weg. Geen witte schermen omdat een update achterwege blijft. Geen immense vertraging omdat je een window verschuift. In- en uit kunnen zoomen op windows, zodat je een Panther-overzicht van je actieve applicaties kan krijgen. En vensters kunnen overelkaar heen schuiven met correcte transparency effecten. Is dit allemaal noodzakelijk? Nee tuurlijk niet. Unix kan je geheel besturen via een command-shell. Longhorn ook, maar het heft niet.
Natuurlijk zal Microsoft ook wat "nuttelozere" effecten voor de eyecandy bijmaken. Ik heb al tollende, spinnende en fladderende windows gezien. Maar ach, dat maakt het alleen maar leuker. En zoals ik eerder al zei: normaal gesproken zit die 3D kaart toch maar stof te happen. Nu doet ie tenminste iets.

Voor de mensen die niet beschikken over een DirectX9 kaart, bestaat er ook een lichtere variant van Aero, die gebaseerd is op DirectX8. GDI problemen wel opgelost, geen eyecandy en nieuwe effecten. Voor mensen die zelfs dat niet in hun machine hebben zitten, of er geen gebruik van willen maken, zal in ieder geval Luna terugkomen (als versie 2 dan wel), zodat de XP interface gebruikt kan worden. En Luna kun je ook een Win2k interfaceje laten renderen, dus geen probleem.

* 786562 Bugu
Volgens mij heb je geen 3D accellerator nodig om 2D te accellereren. 2D hardware accelleratie wordt al sinds jaar en dag gebruikt op de Macintosh. Ik kan me niet voorstellen dat de PC daarop achtergebleven is.
Geen witte schermen omdat een update achterwege blijft.
Alleen heeft dat geen fluit te maken met 2D of 3D zijn van de GUI, maar alles met slecht programmeerwerk (blocked vs non-blocked / threaded vs non-threaded, etc.).

Maar goed, dat verhaal wordt een beetje erg off-topic ;)
en Longhorn komt pas eind 2005 - begin 2006 uit. dat is nog -+ 2 jaar. Tegen die tijd zal Matrox wel een Directx 9 compatable videokaart hebben
Het lijkt gewoon zo te zijn tegenwoordig dat de softwaremakers er voor zorgen dat de hardwaremakers steeds nieuwe hardware kunnen slijten. En op hun beurt gaan de hardwaremakers weer dingen uitvinden waardoor er nieuwe software nodig is. Zo kunnen ze lekker winsten blijven maken omdat men nu steeds alles nieuw moet hebben om de zoveel tijd.

Zelf vind ik dat een Operating System totaal minimaal moet kunnen zijn wat de besturing van de computer betreft. Dat je heftige effecten aan zou kunnen zetten, ok. Maar maak dat niet verplicht. Die effecten zijn ook meestal totaal niet bevorderlijk voor het werk wat je ermee doet. Alles wordt alleen maar langzamer.
Zelf vind ik dat een Operating System totaal minimaal moet kunnen zijn .........
Is maar net waar je vanuit gaat. Ik vindt zelf eigenlijk dat dit bij de diverse windows versies al een tijdje misloopt. Zelfs als je XP zo sober mogelijk maakt heb je een redelijk moderne compu nodig als je er ook nog iets op wil doen. Op mijn P||| 500 met een slootlading geheugen is het in ieder geval niet vooruit te krijgen.

<font color=#786562>* iw@n heeft trouwens zelf een matrox G400 en is daar tevreden mee. Ben dus geen gamer.</font>
Het antwoord op de vraag waarom Microsoft Pixel 2.0 vereist voor Longhorn is heel simpel.

Longhorn krijgt 3D features en jullie weten vast nog wel hoe directX 7 games er vroeger uitzagen.
Deze hadden alleen polygone shaders.
Dat betekende dat je alleen per polygone een shade(eigenschappelijke schaduwovergang van een bepaald materiaal) kon toepassen op je 3D graphics.

Dit zou er in windows NIET uitzien, je zou dan heel duidelijk de polygonen herkennen en windows zou er dan uitzien als een retro directX 7 game uit de jaren '90.
Niets mis mee voor de "classic fans", maar een gemiddelde consument zou dat afschuwelijk eruit vinden zien.

Daarom wil men Pixel Shaders gebruiken, want dan kun je elke pixel op zich shaden.
Dat beteken dat je de harde overgang tussen hoeken van polygonen weg kan "shaden", wat er veel beter uit ziet, veel "smoother" om het maar in termen van 3D te zeggen.

Ik hoop dat dit het voor jullie verklaart.
Weet je zeker dat je per polygoon bedoelt? Volgens mij was het ook toen al heel gewoon om per vertex (hoekpunten dus) schaduw/kleur enz te berekenen en dan te interpoleren over de zijden van het polygoon.
Jij beschrijft meer flat-shading, terwijl met interpolatie op de hoekpunten van polygonen best redelijke effecten te bereiken zijn.

De effecten die ik me herinner waren echter een "waai" effect, transparantie enz. Dit zijn dingen die niet zozeer geschikt zijn per polygoon, maar per pixel.

Wat jij dus zegt over dat het er niet uit zou zien... dat klopt niet, de effecten zijn gewoonweg niet mogelijk (op een redelijke snelheid) zonder Pixel Shaders.
Ja dat weet ik wel zeker, want Vertex Shaders werden pas geintroduceerd met de nVidia Geforce 3.

Er waren natuurlijk al wel algoritmen om hele "groups" van polygonen te shaden, zoals je dat ook bijvoorbeeld in 3DS Max kan, waar het "shading groups" heet.
Dan kun je "per group polygonen" een shading algoritme toepassen, maar dat was eigenlijk een meer een soort brakke halfoplossing, want dit kon niet in game engines gebruikt worden omdat het de flow van de game te erg zou vertragen.

In apps als 3DS Max zit dat natuurlijk wel, want professionals worden geacht een professionele krachtige videokaart te hebben om niet teveel "slow down" van de framerate door dit soort fancy algoritmes te ervaren.

Maar met hardware support voor pixel shading is dit nu ook toegankelijk voor de gewone consument in de nieuwere 3D games.

De gemiddelde consument is eigenlijk net een 3D newby, die willen alles glad, smooth en shiney en het liefst nog met een overkill aan reflecties....pixels shaders geven deze optie.
Dat Vertex Shader tussen Polygone Shaders en Pixel Shaders inzaten zegt nauwelijks iets.

Waar ik op doelde was dat je met Pixel Shaders hardwarematig de harde edges weg kan werken(shaden) tussen polygonen.
Dit was al wel mogelijk, maar dat was met "group shading" een soort hogere vorm van polygone shaden.

Vertex Shaden heeft nauwelijks iets te maken met "smoothheid" tussen polygonen.
Wat je met Vertex Shaders kan is de vertics zoals je die uit 3DS Max kent shaden en vanuit die vertexes de shading in hoeken van polygonen beinvloeden.
Dit is soms wel handig als je of in 3DS Max zeer gedetailleerde vertices met shading wilt of voor bepaalde lichteffecten op de hoeken van polygonen.
Dus dit is niet van toepassing op de discussie over een "smooth" 3D interface in Longhorn.

Zie hier bij vertex shading zou de vertic op zich geshade kunnen worden en de hoeken van de polygonen die grenzen aan die vertex.
Je ziet op dit plaatje weliswaar geen Vertex Shading, maar het is ter visualisatie van wat ik bedoel.
http://www.devworld.com/microsites/javaworld/legacy/jw-08-1998/step/co mputingNormals.gif


En zie hier een voorbeeld van Vertex Shading/Coloring.
De hoeken van de polygone worden gekleurd ipv de gehele polygone te kleuren/shaden.
De vertics zijn hier op zich niet geshade maar de hoeken v/d polygonen worden wel shadingewijs/kleurgewijs beinvloed.
http://opendx.npaci.edu/mail/opendx-users/2000.12/gif00000.gif


Dus ik moet eigenlijk aan jou vragen hoe je erbij komt dat vertex shading van toepassing is op een "smoother" 3D interface in Longhorn.
Want dit heeft daar totaal niets mee te maken.
Polygone Shading, Polygone Group Shading en Pixel Shading wel.
En daarom heb ik die dingen uitgelegd.
Er waren natuurlijk al wel algoritmen om hele "groups" van polygonen te shaden, zoals je dat ook bijvoorbeeld in 3DS Max kan, waar het "shading groups" heet.
Dat gaat over iets heel anders, hoe kom je daar nu opeens weer bij? Je had eerst per polygoon shading, toen kreeg je per vertex en nu krijg je per pixel. Dat is de juiste volgorde en het is onzin om te stellen dat we direct van per polygoon over zijn gestapt op per pixel (en dat er niets tussen zat). Neem bijvoorbeeld Gouraud shading, dat is gewoon in spellen gebruikt hoor en een per vertex algoritme.
In apps als 3DS Max zit dat natuurlijk wel, want professionals worden geacht een professionele krachtige videokaart te hebben om niet teveel "slow down" van de framerate door dit soort fancy algoritmes te ervaren.
Volgens mij haal je toch dingen door elkaar, jij zegt namelijk dat effecten zoals in Quake2 niet bestonden en dat ze alleen flat-shading (dat is per polygoon) gebruikten. Ik weet zeker dat hierbij per vertex werd geshade en niet per polygon. Dan zouden de overgangen er namelijk nog een stuk gekker uit zien.

Vertex Shaders zijn slechts een hardwarematige oplossing voor een algoritme dat al veel langer werd gebruikt.
Waar ik op doelde was dat je met Pixel Shaders hardwarematig de harde edges weg kan werken(shaden) tussen polygonen.
Dat ontken ik ook niet, jij deed het echter voorkomen alsof alleen pixelshading kan voorkomen dat je polygonen duidelijk ziet.
Vertex Shaden heeft nauwelijks iets te maken met "smoothheid" tussen polygonen.
Dat is onzin:
flat shading
gouraud shading
Dus dit is niet van toepassing op de discussie over een "smooth" 3D interface in Longhorn.
Dat hangt van de effecten af, maar hier ben ik het ook mee eens. Dat zei ik ook in mijn eerste reactie:
de effecten zijn gewoonweg niet mogelijk (op een redelijke snelheid) zonder Pixel Shaders.
Dus ik moet eigenlijk aan jou vragen hoe je erbij komt dat vertex shading van toepassing is op een "smoother" 3D interface in Longhorn.
Zoals ik al aangaf: jij stelde eerst dat je alleen flat-shading had. Hiermee zijn inderdaad geen bijzondere effecten mogelijk. Ik stel dat je echter met Vertex shading wel bepaalde effecten kunt bereiken, maar niet alles. Jij zegt letterlijk:
Dit zou er in windows NIET uitzien, je zou dan heel duidelijk de polygonen herkennen en windows zou er dan uitzien als een retro directX 7 game uit de jaren '90.
Dat hoeft dus niet, zoals ik al aangaf met het voorbeeld van Gouraud shading. Wij weten immers beiden niet welke effecten Microsoft precies in gedachten heeft.

Samengevat: jij stelt je in DirectX 7 alleen polygoon shaders had, dat is dus onzin gezien het feit dat je gewoon Gouraud shading had bijvoorbeeld. Ik ben het met je eens dat Windows effecten pixel shaders zullen vereisen, maar het is en blijft onzin om te stellen dat Vertex Shading nauwelijks te maken heeft met een zachte overgang tussen polygonen.
Hier een link/plaatje nog duidelijker voorbeeld van vertex shading.

This is a screenshot of the Cg vertex shader sample. A Cg vertex shader is used to dynamically change the vertex colors of the rotating cube.

http://xengine.sourceforge.net/images/screenshots/screenshot03.jpg


Je ziet hier dat vertex shading niets toevoegt aan de smoothheid van de cube.
Je kunt er natuurlijk wel een soort smoothheid mee "faken" als je dit algoritme slim toepast.
Dit zal ongetwijfeld ook wel worden gedaan.

Goed discussie btw T.T. :)
Misschien gebruik ik de term vertex shading wel verkeerd bedenk ik me net?

Ik zie Gouraud shading bijvoorbeeld als een vorm van Vertex Shading, als dat niet zo is, begrijp ik jouw bezwaren. Mijn belangrijkste punt was namelijk dat je met bijvoorbeeld Gouraud shading (dat al lang bestond) kon voorkomen dat polygonen erg opvielen en dat je daar niet perse per pixel technieken voor nodig had.

Hier een plaatje om mijn betoog te ondersteunen:
Flat vs Gouraud

Misschien zijn we het toch wel meer met elkaar eens dan ik dacht :)
Het is inderdaad mogelijk zoals T.T. het beschrijft om kleuren to te kennen per vertex en dan de rest interpolerend te laten berekenen.
( Open gl : glEnable(GL_BLEND); en de rest doet openGL voor je ... , uiteraard is dit erg zwaar en kan dit geoptimaliseerd worden met gebruik van pixelshaders maar dat is niet het punt ...)
Matrox had eerder al laten doorschemeren dat het alsnog DirectX 9.0-support bieden door de Parhelia niet waarschijnlijk was, door aan te geven dat de meeste games een 'fall back path' kennen, waardoor bijvoorbeeld op DirectX 8.1 teruggevallen kan worden.
Wie de Matrox Parhelia heeft aangeschaft wegens games komt bedrogen uit. De kaart presteert namelijk uit diverse 3Dmark2001se benchmarks onder de maat van een snelle videokaart die geschikt is voor gamen. De Matrox Parhelia is juist speciaal gemaakt om meerdere monitoren aan te kunnen sluiten. Perfect voor video/modelling/mapping/foto/studio editing
De Matrox Parhelia is juist speciaal gemaakt om meerdere monitoren aan te kunnen sluiten. Perfect voor video/modelling/mapping/foto/studio editing
Matrox heeft de Parhelia juist gepositioneerd als een snelle game kaart die zou moeten kunnen concurreren met de top DX9.0 nVidia GeforceFX en ATi Radeon 9700 kaarten.
Allereerst maakt Matrox de belofte van serieuze concurrentie niet waar qua snelheid, en nu worden ook de beloften qua features (DX9 ondersteuning) niet waargemaakt.

Het is jammer dit te moeten constateren, maar Matrox is van zijn positie als een van de beste videokaartproducenten afgezakt naar een van de onbetrouwbaardere, en lijkt dezelfde kant op te gaan als S3/Diamond. Ik (en ik vrees voor Matrox velen met mij) zal er dan ook 3x over nadenken voor ik in de (nabije) toekomst een Matrox kaart verkies boven een gelijkwaardig geprijsde kaart van ATi of nVidia.
ze kunnen toch pixelshader2 emuleren, dan is de directx9 ondersteuning al compleet
Zoiets was ook met de G200 serie... eerst maandenlang roepen dat er OpenGL support kwam... en dat kwam maar niet.

Toen tot de conclusie gekomen dat je hard- en software moet kopen op basis van wat er NU supported wordt, en niet wat het bedrijf beloofd in de toekomst te gaan ondersteunen....
Bezitters van eenMatrox Parhelia 512 zijn teleurgesteld over het ontbreken van deze features, en klagen in diverse fora dat Matrox zijn beloftes niet nakomt. Ondertussen wordt van Matrox-zijde alvast een nieuwe belofte gedaan; volgend jaar moet er een nieuwe GPU-generatie uitkomen. Die zou hoogst waarschijnlijk wel Pixel Shader 2.0-compliant zijn, alleen al vanwege het feit dat Windows aanstaande besturingsysteem - met de codenaam 'Longhorn' - dit vereist, aldus X-bit Labs.
Ik snap Matrox even niet. Het lijkt mij handiger als ze wl die functionaliteit van de huidige GPU volledig gaan benutten, ik denk dat de ontwikkelkosten voor nieuwe drivers vl lager zijn dan de gemiste inkomsten omdat mensen lopen te klagen dat ze niet krijgen wat ooit beloofd is door Matrox. Door dat klagen zullen er ook veel minder mensen hun volgende generatie gaan kopen, helemaal omdat de concurrentie steeds beter uit de verf komt ook wat betreft de algehele beeldkwaliteit op zowel 2D- als 3D gebied en multi onitor support.. Slechte zet in mijn ogen.
De reden dat ze dat doen is dat Vertex shaders 2.0 alleen samen werken met Pixelshaders 2.0 . Toen Matrox the Parhelia aan het ontwikkelen was, was dit nog niet vast gelegd. Dus ze zouden het kunnen doen, maar je zou ze niet kunnen gebruiken, omdat dx9 dan ook PS2.0 verreist. Het is niet plezant, maar je kan er toch niets meer aan veranderen.

En Matrox is niet de enigste die dit aan de hand heeft. De eerste radeon had 3 texture units -> maar 80% van de gevallen werden er maar 2 gebruikt. En de radeon was als eerste kaart met pixelshaders, slechts enkele probleempjes: ze werkten niet 100% en ze waren niet echt compatble met de microsoft standaard. Ik heb ze alleen maar in werking gezien in hun eigen demos
Dat heeft Matrox aan zichzelf te danken. Het is perfect mogelijk een spel te ontwikkelen met VS 2.0 en PS 1.4, maar eh, welke spelontwikkelaar houdt er rekening met matrox. Met andere woorden, DX9 functionaliteit wordt door spellen alleen ingeschakeld als ze zowel PS 2.0 als VS 2.0 aantreffen.
Ten eerste heeft Matrox die kaart wel gepromoot als zijnde 3d kaart met tripple head ondersteuning en als dx9 kaart. Als ze dat claimen moeten ze het maar waarmaken ook , wat mij betreft kunnen gedupeerde klanten zelfs klacht indienen voor het kopen van een product onder valse voorwaarden.

Ten tweede, als je in een winkel een fototoestel koopt waar een sticker ophangt USB2.0 en waarvan de fabrikant blijkt nadien geen ondersteuning te geven voor usb2.0 omdat zijn hardware het eigenlijk niet aankon, of het ontwikkelen van drivers te duur blijkt. Dan moet je het usb-consortium toch ook niet verwijten dat USB2.0 te snel is en eigenlijk USB1.1 al snel genoeg is |:( . Die fabrikant moest die sticker er maar niet ophangen !

Hoe kortzichtig is dat nu weer gereageerd |:( ?
DirectX3 had al texturemapping. :)

Het komt er gewoon op neer dat je alle bewerkelijke dingen op het scherm door de videkaart laat doen.

Mar 90% van de tijd staat de CPU toch uit z'n neus te eten dus het kan makkelijk gedaan worden door de CPU. Weer een typische Microsoft oplossing.
Ik heb zo het idee dat de CPU het nog druk genoeg krijgt, het instellen en renderen van pixel shaders kost ook nog aardig wat CPU tijd. De processor minder belasten bij een nieuwe windows release zou een streven zijn die veel te nobel is Microsoft kennende :-)
De linux community heeft anders ook nog geen OpenGL interface gemaakt.
Sterker nog: XFree / KDE blijft een tragere combo dan WinXP.

* 786562 tweakerbee
Daar is matrox goed in , chips bakken en functie creeeren, en die later niet kunnen aansturen..

Ik heb hier nog een G400 Marvel liggen met HW encoder chip voor MJPEG .. en natuurlijk na veel geklooi geen support in de driver..

Geeft niet hoor Matrox dat hebben de gebruikers zelf wel opgelost..
Wellicht ook een beetje off-toppic, maar weet iemand waar die demo/screensaver van die vissen is te vinden/downloaden? (Dat plaatje die onder het toppic staat)

Die ziet er namelijk wel erg :9~ uit.
Volgens mij is dat van matrox zelf, en ondersteund alleen de Parphellia dat. Bij MyCom hadden ze 3 monitoeren uitgestalt met die screensaver.. zag er onwijs gaaf uit! check www.matrox.com voor meer info ;)
Check de link in het artikel naar Matrox' Quad DirectX 9.0 Vertex Shader Array advertentie.

http://web.archive.org/web/20030202212520/http://www.matrox.com/mga/pr oducts/parhelia512/technology/quad_shader.cfm
Matrox had toch al aangekodigd zich terug te trekken uit gamers kaarten. Nadeel enkelt wel dat het hun naam schaad, maar zo zal dat niet zijn voor de professionele wereld lijkt me, gamers daarintegen die een kaart hebben zullen het niet leuk vinden. Ik vind dan ook dat er wettelijk mogelijkheden moeten zijn om ze aan te pakken.
In 3d-modelling wordt toch ook gebruikgemaakt van DirectX 9? Dus niet alleen gamers blijven zo verstoken van deze support.
Denk dat je eerder aan OpenGL moet gaan denken voor 3D programma's

Vergeet niet dat er 3D programma's zijn die bij Linux/Unix/Irix/Mac weg komen.

Kan mij eigenlijk zo 123 geen 3D programma bedenken die DirectX gebruikt.
Wacht maar af, dat hele Matrox staat binnenkort in de uitverkoop.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True