Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 48 reacties
Bron: Reactor Critical

De mannen van Reactor Critical hebben meer informatie weten te bemachtigen over de Matrox G1000, ook bekend onder de codenaam Parhelia. Volgens hun bronnen zal deze kaart de veertiende van mei aangekondigd worden, dus over negen dagen zullen we ook weten in hoeverre de informatie van van Reactor Critical klopt.

Matrox logoDe chip wordt uitgerust met vier rendering pipelines die elk vier textures per kloktik kunnen verwerken. De kaart is gedeeltelijk compatible met Microsoft's DirectX 9 en ondersteunt onder andere vertex shaders 2.0 en displacement mapping. Aangezien de nieuwe generatie vertex shaders ingewikkelder zijn, zijn er een viertal vertex shaders pipelines aanwezig om alles in goede banen te leiden.

Op het 2D-front zijn ook enkele verbeteringen doorgevoerd. Volgens Reactor Critical krijgt de kaart de beschikking over een 512-bit 2D video core en een tweetal RAMDAC's die elk lopen op 400MHz. De kaart zal in plaats van het bekende DualHead TrippleHead ondersteunen (één maal CRT samen met twee maal LCD). Het geheugen zal synchroon lopen met de core en wel op een kloksnelheid van 350MHz. De kaart krijgt evenals de onlangs aangekondigde P10 van 3DLabs een 256-bit brede bus wat een bandbreedte van 22,4GB/sec betekent. Verder zou de kaart uitgerust zijn met ondersteuning voor 40-bit kleuren en AGP 8x.

Hoewel de officiële introductie al over een ruime week is, zal het nog wel even duren voordat de kaart in de winkels zal verschijnen. Reactor Critical spreekt over één à twee maanden en tevens zal het product een relatief hoog prijskaartje meekrijgen.

Moderatie-faq Wijzig weergave

Reacties (48)

paar opmerkingen:
ReactorCritical mag dan wel informatie hebben bemachtigt, maar deze is deels incorrect (of ze hebben er zelf wat bijverzonnen).

Zo zal de kaart sowieso geen G1000 gaan heten. Verder is de reden waarom op dit moment geen DX9 kaarten kunnen worden gereleased, dat je daarvoor 0.13 of 0.10 micron chip technology voor nodig hebt, en deze chip waarschijnlijk op 1 proces 'groter' wordt gefabriceerd dan het proces waarop je genoeg transistoren kwijt kan voor Pixel Shader v2.0 (dus de DX9 versie van Pixel shaders). Zie ook hier voor meer informatie:
http://www.extremetech.com/article/0,3396,s=1017&a=26271,00.asp
ik vond het nogal een sterk verhaal, dus ben ik ff gaan checken...

en je blijkt gelijk te hebben ;)
It's unlikely, posits Trevett, that any graphics hardware shipping this year can support Pixel Shader 2.0, however
"It will take 0.13 micron at a minimum, and possibly even 0.10 micron process technology before we see Pixel Shader 2.0 hardware".
maar het is niet zo dat DX9 0.13 of 0.10 micron MOET hebben, wat ze zeggen is dus dat Pixel Shader 2.0 waarschijnlijk niet te realiseren is met 0.15 GPUs
Staat er dan ergens met wat voor process de Matrox GPUs gebakken worden? Ik kan het namelijk niet vinden. Het zou mij niets verbazen als Matrox opeens wel op de proppen komt Pixel Shader 2.0, ze hebben namelijk de neiging om zo nu en dan technologisch er goed uit de hoek te komen (kan me nog herinneren dat m'n G400MAX het beste kaartje op de markt was, heb m'n Viper770Ultra vervangen)...
Ik ben van een tnt1 naar een geforce 2mx gegaan en een kleine maand geleden heb ik een matrox g400 max gekocht voor 50 euro. Ik ben niet bereid om meer dan 200 euro voor een videokaart te betalen, en dat vind ik al veel.
Persoonlijk vind ik de g400max veeeeeeeeel fijner dan de g2mx. Ok in 3d wat langzamer, maar wat een beeld en wat een geweldige dualhead!

nVidia heeft een cycle van 6 maanden voor het uitbrengen van hun spul, matrox doet daar heel wat langer over, maar waar ze mee komen kan wel heel erg lang mee en hun doelgroep is net iets anders dan nVidia. En als ze dan af en toe wat mee kunnen snoepen van diezelfde doelgroep dan moeten ze dat gewoon doen. Wellicht dat dat met deze nieuwe kaart weer even gebeurt.

Een ding is zeker, dit 2dehandsje is niet de laatste matrox kaart in mijn eigendom!
Als ik dat allemaal lees dan denk ik: dat zal wel een heel duur kaartje worden :(.

Als ik het goed heb begrepen komt er ook een kleinere versie uit, ik bedoel een soort g1000mx, daar hoop ik op, want het enige wat ik wil is top-notch 2d en een TnL unit voor de spelletjes..

Eerst maar 'ns ff wachten op 14mei, want tot dan zijn deze specs alleen maar geruchten.
/256-bit brede bus wat een bandbreedte van 22,4GB/sec betekend/
Das meer dan 2keer zo hoog dan de gf4ti4600, jammer dat de kaart dus geen tile based redering heeft, zou toch zeer grote performance boost zijn met zon fat geheugen, verwacht allesinds maar 60-70% sneller dan een gf4ti4600 in 1600*1200 8-)
Op Hardware.no:

350 MHz kjernefrekvens
350 MHz minnefrekvens (DDR)
256 MB DDR SDRAM
256-bit bred minnebuss
4 rendering pipelines med 4 TMU-er (Texture Mapping Units) hver
Delevis eller full DirectX9-støtte (inkluderer bl.a. Pixel Shaders og Vertex Shaders versjon 2.0, Displacement Mapping og 40-bit fargedybde)
512-bit 2D grafikkjerne
Doble 400 MHz RAMDACs
AGP 8x
TripleHead (2x DVI, 1x CRT)

Ook op de matroxusersforum is veel interessants te lezen over de komende matroxkaart.

edit:
Ow deez heeft ook als bron Reactor critical, beetje loos, maar volgens mij zeggen die noren dat ie volledig DX9 support krijgt
Wat ik nog wel van Matrox zou verwachten is een chip die gewoon grotendeels programmable is, en dan niet alleen pixel shaders enzo, maar gewoon een soort van Crusoe design, zodat je zodra dx9 uitkomt alleen maar even je firmware hoeft te flashen en tada, volledig dx9 compatible. Nadeel is wel dat je hiermee niet de snelheid kunt halen van een dedicated chip, maar je design is wel stukken meer futureproof.

Aangezien de dx9 features nog helemaal niet vast staan kan het gewoon niet dat het ding volledig dx9 compatible is, tenzij mijn hersenspinsel waar is.
Lijkt me niet echt een goedkope oplossing als je 3 monitoren wilt gebruiken.. Maar het resultaat lijkt me niet slecht..
De kaart is gedeeltelijk compatible met Microsoft's DirectX 9
Wat DirectX betreft had Matrox beter kunnen wachten tot het voor hen mogelijk was om volledige ondersteuning te geven! Dit maakt de kaart stukken aantrekkelijker!
Matrox kaarten zijn nog nooit goedkoop geweest.
DirectX is ook niet het enige in deze wereld. Zeker niet als je bedenkt dat de nieuwere versies ervan nagenoeg alleen dienen ten behoeve van het 3D gamen, iets waar Matrox zich ook nog nooit ECHT serieus druk over heeft gemaakt of mee bemoeit, zal waarschijnlijk niet veel anders zijn nu. Mijn G400Max kostte ooit ook een (klein) vermogen in verhouding tot andere kaarten, heb er echter nooit spijt van gehad en hij gaat toch alweer een jaartje of 2,5 mee... tijd voor een nieuwe, kom maar op Matrox!
Deze kaart wordt dus wel iets voor gemers, door het 256-bit geheugeninterface (wat hem dubbel zo snel maakt als een GF4Ti4600) en antialias-compressie (wat 8xAA qua snelheid gelijk moet maken aan 2xAA op een GF4Ti4600).
Wat DirectX betreft had Matrox beter kunnen wachten tot het voor hen mogelijk was om volledige ondersteuning te geven! Dit maakt de kaart stukken aantrekkelijker!
Want?

Noem 3 dingen die DX8 gebruiken op een manier die niet met DX7 zou kunnen.


Voor mensen die graag het verkeerde willen lezen, het volgende.
Ik bedoel: DX voortgang en ondersteuning is goed, maar het hoeft echt niet extreem snel (geen hardware die software al volledig ondersteund voordat het uit is, dat 'moet' andersom). Ze kunnen ook altijd nog een G1100 maken ofzo. Anders hadden zo ook wel even kunnen wachten op DX-X ofzo...

(edit: ik was 'niet' vergeten... :o)
Nou ja, dat is dus volgens mij ook het geval met de 3dlabs chip... Ze kunnen nog geen volledige ondersteuning leveren, omdat Microsoft de specs nog niet voltooid heeft. Maar waar ik wel weer mijn kanttekeningen bij zet, is dat een tijd geleden het gerucht rond ging dat de kaart van Matrox, DX9 zou moeten gaan showcasen.
tripplehead sounds nice :) nu alleen nog 3 monitoren :)

Ik wacht met spanning af.
Die drie monitoren heb ik al :Y)

Maar 3 connectoren op een bracket. Lijkt me we een beetje veel. 3x vga kan denk ik nog wel, maar 2x dvi en een analoge vga past echt niet.

Ik denk dat ze een oplossing gaan maken met breakout cable.

Ik bedenk net trouwens dat het bericht zichzelf tegen spreekt op dat punt. 2 Ramdacs duidt op 2 analoge uitgangen. Dat strookt niet met 2xlcd en 1xcrt.

Nou ja, als ie komt ben ik zeker geinterseerd in de kaart. Als alle voorspellingen over de sneldheid ook nog eens uitkomen heeft matrox eindelijk weer de markt aangeboord waar ze met de g400 MAX mee begonnen waren. Daarna konden ze weer overnieuw beginnen toen alle designers weggekocht waren door een concurent.

Al met al nog 9 nachten wachten en we zien wat er waar is van de geruchten. En ik heb nu al moeite met slapen.
Matrox heeft al G200 PCI kaartjes met quad monitor support...

linkje

Maximaal 4x4=16 monitoren (alleen met NT) :9
NT (2000 iig) ondersteunt "slechts" 10 monitoren. :P
Maximaal 4x4=16 monitoren (alleen met NT)
En met GNU/Linux, NetBSD, FreeBSD, OpenBSD en nog wel meer OSsen.
Maar die oudere matrox multi-heads zijn gewoon 4 stuks G200 chipjes plus bijbehorende geheugen en ramdacs plus een PCI-PCI bridge om de hele zooi aan elkaar te knopen.. en daarnaast kosten ze heel, heel erg veel geld. Je hebt ook kaartjes met 8 (!) ati rage chipjes, IIRC.
DVI connectors bieden ook optioneel analoog aan waar dus 'n ramdac voor nodig is.

Dus Maximaal twee CRT of LCD, Minimaal één van 'n andere type ipv 3 deCRT

Dus 3x CRT gaat niet
LCD gaat dus niet 3x digitaal ene moet analoog aangestuurd worden.
Ik heb al een demonstratie gehad van deze chipset op een alpha-board, ik mag niets zeggen over deze demonstratie, maar wat SG hier zegt kan wel eens niet helemaal kloppen. ;)
DVI connectors bieden ook optioneel analoog aan waar dus 'n ramdac voor nodig is.
Daar vergis je je in. Dat is niet zomaar standaard bij een DVI aansluiting. Je hebt nl DVI-D en DVI-I. Op de DVI-I kan je wel met een verloop een CRT monitor aansluiten, maar dat kan dus met DVI-D niet.
Ik bedenk net trouwens dat het bericht zichzelf tegen spreekt op dat punt. 2 Ramdacs duidt op 2 analoge uitgangen. Dat strookt niet met 2xlcd en 1xcrt.
Waarschijnlijk gaat dat alleen maar over de aansluitingen, je kunt dan zelf beslissen of je er een crt of een lcd aan hangt. Reken maar dat je er ook 3 crt's aan kunt hangen.
Eerst maar eens afwachten, als we de geruchten van de G200 mochten geloven zou dat een Voodoo 2 killer worden. Het nog spijt dit ik hem toen gekocht heb :(.
Ik ben nog steeds erg tevreden met de Millenium in m'n oude PC. Is al weer een oudje, maar in die tijd waren de 2D prestaties echt superieur.

Ik vind dit (erg!) goed klinken. Ik ben iemand van kwaliteit boven kwantiteit en dan ben je bij matrox aan het goede adres. En als ik het zo zie zit het met de kwantiteit bij deze kaart ook wel goed :)
Ik ben nog iedere dag hardstikke blij met de G200's in de oudere systeempjes (en met de G400MAX-en in de nieuwere systeem) (elk twee).

Maar ikke niet driedee doen. Scherm is plat, dus driedee is onzinnig. Eerst 3D-monitor, dan 3D-kaart. }>

Effe serieus: betere 2D-kaarten heb ik nog niet in handen gehad. Met een Pro510 is het absolute top, behalve voor die-hard MS-kijkers.
Unfortunately, no one can be told what the Matrox is. You have to see it for yourself :)
de komende kaart van nvidia .... rond augustus
http://www.tweakers.net/nieuws/21349

Ten eerste bestaat Omen niet uit één maar uit twee chips. Beide zijn koperen 0,13 micron processors met een snelheid van 450MHz. De GPU alleen al bestaat uit 73 miljoen transistors, en deze wordt in zijn taken gesteund door een losse TT&L (True Time & Lighting) unit. Het tweetal deelt samen 128MB 750MHz DDR geheugen met een 256 bit brede databus, voor 22,4GB/s aan bandbreedte. Deze wordt efficiënt beheerd door Quad Cache, Lightspeed Memory Architecture III, een dubbele Z-Buffer, AGP8x naar het systeemgeheugen en nieuwe precaching systemen die ook door de ontwikkelaars ingezet kunnen worden.

Omen zou acht pixel pipelines hebben voor 3,6 gigapixels per seconde, en op iedere pixel vier textures per pass aan kunnen brengen. Er zouden twee pixel shader units aanwezig zijn in de GPU, waarmee onder andere hardwarematige bumpmapping en hardwarematige anisotropic filtering mogelijk zijn. De TT&L processor bestaat onder andere uit vier vertex shaders, en als we extrapoleren vanuit de GeForce4 zal dit in totaal ruim 400 miljoen vertices per seconde opleveren. Nieuw is dat de hardware met skeletten van 85 'botten' om kan gaan, iets dat lijkt op ATi's TruForm. Het geheel wordt afgemaakt met een 370MHz RAMDAC, nView multi-display technologie en een programmeerbare DVD/TV decoder. NV30 zou compatible zijn met DirectX 9.x, de laatste versie van OpenGL en zelfs met de 3dfx Glide API, die nieuw leven in is geblazen onder de naam NvBlur.

en dan hier de ati r300 van een noorse site ofzo :S
.... ergens eind 4e kwartaal

http://www.hardware.no/nyheter/april02/r300_specs.html

R300 er etterfølgeren til dagens R200 (Radeon 8500) og er ventet å bli lansert på Comdex-messen senere i år:

0.15 micron technology
350 MHz core speed
8 rendering pipelines
256 MB memory
800 MHz DDR memory speed
12,6 GB/s bandwidth
2 TRUFORM processing units
HydraVision support
DirectX 9 support (PixelShader 2.0, displacement mapping...)

HyperZ III
Pixel fillrate: 2.8 mill/s
Texel fillrate: 8.4 mill/s
Support for 256 bit memory


ik weet dat dit bericht 1 april i geplaats, maar heb nog geen andere specificaties kunnen winden.Zouden al deze specs kloppen, zou matrox een eindje mee kunnen doen de 3d-oorlog ja. maar het lijkt me zeer onwaarschijnlijk dat de ati r300 maar 12,6 GB/s bandwidth heeft.
maar wil matrox een beetje meedoen, zullen ze toch wel direct X 9.0 moeten ondertsteunen, alleen al omdat de nieuwe spellen dat zullen vragen. Bovendien vind ik het wel mee-vallen al die extra futers die matrox ondersteund, de meeste zijn ook van toepassing op de 2 andere 'concurenten'.
Ik ben niet zeker, maar ati en nvidia houden de ontwikkeling van hun grafische kaartne misschien wel een beetje bewust tegen. ze gooien hun eigen ruiten in met de consoles die ze verkopen.maken ze namenlijk kaarten voor de pc die betere performences opleveren dan hun consoles, wie koopt er dan nog zo'n ding.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True