Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties
Bron: Aikiba

Aikiba Japan heeft plaatjes geschoten van een videokaart gebaseerd op de recent aangekondigde Matrox Parhelia 512 videochip. De features van deze nieuwe chip werden na de val van de NDA op 13 mei jongstleden snel wereldwijd verspreid, maar foto's van de kaart zelf waren niet in de perskits opgenomen. Het eerste wat opvalt is grote heatsink-fan combinatie, die eruit ziet alsof hij zonder moeite een gemiddelde Athlon XP processor op een redelijke temperatuur kan houden, en minstens één PCI slot blokkeert. Dit zou echter te wijten kunnen zijn aan een vroege versie van de chip. Een andere mogelijkheid is dat er nog geen efficiënte platte fan is ontwikkeld; Matrox heeft immers weinig ervaring met actieve koeling. De twee DVI connectors en de in een soort boog rond de core geplaatste - ongekoelde - µBGA geheugenchips zijn ook duidelijk zichbaar.

Matrox Parhelia 512

Bedankt voor de tip user692.

Moderatie-faq Wijzig weergave

Reacties (78)

Wordt het niet eens tijd (met z'n gewicht aan je kaart) om een nieuw bevestigingmanier te zoeken ?? Ik bedoel Afdekklepjes dateren nog uit XT tijd... misschien tijd voor een nieuw montage systeem ??
iets van .. klik klak, rits klaar ;) Maar deze Matroxkaart ziet er qua prestaties goed uit :D is het niet Mamaloe ??
en niet alleen dat. Je bent zo te zien je 1ste slot onder je AGP slot kwijt. Misschien zelfs je 2de. Maar wel leuk klein vierkant kaartje zo.

Ik zie alleen DVI aansluitingen?
Ja klopt zie je goed. Er zijn connectoren om deze naar een "gewone" monitorkabel om te zetten, maar dan wordt de ruimte achter je kast weer zo groot. Deze connector worden door mycom ook bij de G450 geleverd (die heeft namelijk 1 gewone en 1 DVI aansluiting)
Dat is dan denk ik de G550. De G450 heeft twee anal. (db15) aansluitingen, waavan er een (de tweede) voorzien kan worden van een tv out-kabel.
Over die ruimte achter je kast hoef je je niet druk te maken denk ik. Ik zie bar weinig mensen doodleuk een set-upje van 3 flat panels thuis neerzetten. Maar niet iedere thuisgebruiker zal deze kaart aanschaffen natuurlijk.
plaatje waaraan een dvi een kabel hangt met 2 vga-aansluitingen:
http://www.pcpop.com.cn/popimages/2002-5-15-15-40-52.jpg
ik vind 't nooit zo'n tof idee dat er van je videokaart blijkbaar onwijze hitte komt die hij dan vervolgens op de volgende pci kaart blaast (alsof die wel graag in de 60 graden celcius ligt te baden)
Is het niet beter dat de warmte wordt geblazen richting de andere PCI kaarten (die daar normaal gezien perfect tegen bestand zijn) ipv naar boven te blazen richting CPU (waardoor de luchtdoorstroming en warmteafvoer veel moeilijker zal verlopen en je een veel warmer "centrale" temperatuur krijgt rond je CPU en HD's)?

Is gewoon een ideetje hoor, kan zijn dat ik de bal totaal mis slaag waarvoor sorry dan :)
die vent houdt de kaart nu "op zijn kop" ten opzichte van hoe je hem in het AGP slot steekt.
De kaart zal dan met GPU en koeler naar benee in het slot zitten en dus inderdaad de hitte naar de pci kaarten blazen (ook niet zo heel mooi als je bedenkt dat de 64bit-66mhz pci kaarten best wel heet kunnen worden...)
Die zijn er wel al maar worden voornamelijk in de server omgeving gebruikt
Ideaal voor 'n ABIT MAX plank daar ligt de eerste PCI slot erg ver van de agp slot af.

Maar denk dat dit niet in produktie gaat maar meer met iets lowprofyl koeler.
Dat je eerste PCI slot niet gebruikt kan worden is niet zo erg, anders krijg je hoogstwaarschijnlijk IRQ sharing.
dit is een hele vroege sample van de kaart, wat 2 dingen kan betekenen:
1. De chip is in een dermate vroeg stadium van ontwikkeling dat hij teveel warmte produceert.
2. Matrox is simpelweg nog niet toegekomen aan het ontwerpen/uitkiezen van een geschikte heatsink/fan combo voor op de kaart.
De heatsink ziet er erg basic uit. Niet zo over nagedacht als bijvoorbeeld een GlobalWin WBK68.
Klopt wel, maar ik twijfel er sterk aan dat ze deze heatsink/fan combo gaan behouden.

Al is het maar dat deze combo helemaal niet mooi oogt (en tot nu toe heb ik op alle matrox kaarten mooie heatsinks en/of fans gezien) en Matrox maakt er meestal werk van mooi ogende combo's mee te leveren.

Dit is wederom een persoonlijke mening, en kan deze ook niet staven :)
Dat staat ook al in de tekst. En toch modden naar inzichtvol :?
Hmm inderdaad, ik ben benieuwd of zo'n bedrijf zoals koolance hier ook peltiers op gaat zetten, en wanneer de eerste benchmarks beschikbaar zijn. Die in vergelijking met een Geforce (3 of 4) staan en dan ook nog icm verschillende procs / etc etc.

edit:

Ah ik zie hier al een vage benchmark staan, maar daar is niet uit af te leiden wat voor systeem ze hebben gebruikt, aan de plaatjes is alleen af te lezen dat ze Windows XP draaiden.
http://www.watch.impress.co.jp/pc/docs/2002/0514/matrox_5.jpg
http://www.watch.impress.co.jp/pc/docs/2002/0514/matrox_6.jpg

verder zie je ook een coole pic van een flightsim & een mooie vis
http://www.watch.impress.co.jp/pc/docs/2002/0514/matrox_10.jpg
http://www.watch.impress.co.jp/pc/docs/2002/0514/matrox_12.jpg
Dat is geen vage benchmark. Wat ze daar doen is de kwaliteit van het signaal meten. En zoals er staat doet de Parhelia het daar een stuk beter dan de radeon8500 en de geforce4. Wat ze hier dus meten uit zich in de kwaliteit van het beeld, waar Matrox dus ook goed bekend staat, dus echt verassend is de uitslag ook niet.

Onder welk os je dit test maakt dus ook niet uit, het gaat puur om de kwaliteit van de electronica die de signalen naar de monitor genereert.
die "flightsim" is natuurlijk geen flightsim maar gewoon een demo van hun displacement map engine waarbij ze de camera natuurlijk hoog hangen omdat je anders geen fuck ziet.. dat maakt dit geen flightsim :P

andere plaatje is een vis, die ze tot nu toe bij iedere demo gebruiken om hun "sublieme" (i don't get it wat er zo bijzonder aan is, kan toch al lang ?) multi-texturing te laten zien..
Kijk eens naar de eerste fotos van de matrox kaart op UT2003.

http://home.attbi.com/~kruzin-kenny/UT2003-3.jpg
Bewijs eens dat dit met de Parhelia gemaakt is, er zijn nog geen eens goed werkende drivers voor deze kaart laat staan dat Unreal Tournament 2003 werkt met deze kaart.

Die multihead screenshot kan ook met een andere kaart gemaakt zijn (of zelfs met een oude matrox kaart). Ik zie dat er geen gebruik wordt gemaakt van Hardware Displacement Mapping (te zien aan de FOV) en Quad Textures met Bump Mapping terwijl de Unreal 2003 deze echter wel ondersteund.
WOW! Some grass! Dat ziet er echt heel erg strak uit.
* 786562 Concrete
Same here...... komt allemaal leuk spul aan...

mijn sinterklaas verlanglijstje

Parhelia
3 tft's
hammer
lots of ram

Kan me niet herinneren wanneer ik voor het laatst zo enthausiast over nieuwe ontwikkelingen ben geweest..

lijkt net of iedereen ineens nieuwe ontwikkelingen de markt in wil schoppen, zou dat iets te maken hebben met de economie van de laatste tijd?

edit:
typo's
Wat een neppe videokaart.

Sorry hoor maar met de eerdere geruchten van het supersnelle geheugen... en dan zie ik er nu GEEN koellichaam opzitten, Yea right

Ook GEEN Tv-out :?

En ook de combinatie koellichaam en fannetje klopt ook niet.... zo ziet dat erbij mij ook uit op mijn GF4mx440.

Volgens mij is dit GEEN Parhelia
Geheugen koelen is totale onzin, zoals iedereen weet die verstand van videokaarten heeft (jij dus niet, troll intended).
Het ziet er alleen stoer uit. Als je het eraf sloopt, kun je precies even ver OC'en.

Bij ATi is het geheugen ook nooit gekoeld, en toch is het behoorlijk snel.
Asus is met hun ti4400/ti4600 ook maar gekapt met koelen.. Sterker nog, alle merken die zich aan het reference model houden (en dat zijn er nogal wat) want nVidia heeft de RAM koeling er ook maar afgehaald..
Slaat ook nergens op.... geheugen koelen heeft wel degelijk zin zeker bij hedendaagse computers waar ook casetemps. hoog oplopen.

bij dit soort hoge clock speeds van het mem. wordt dan een stabiele omgeving gecreeerd.
ok KOD, begin jij maar eens te lezen voor je zoiets zegt
http://www.matrox.com/mga/products/parhelia512/home.cfm

De parhelia maakt gebruik van 256 Bit geheugenbus en niet van een 128 Bit , dus kunnen ze dubbele bandbreedte krijgen met het zelfde soort geheugen
Ik weet echt wel dat de kaart een 256bits mem interface heeft maar dit heeft niks te maken met de temp. van het geheugen.

Als dit geheugen nog steeds rond de 400MHz loopt zal koeling geen overbodige luxe zijn
[FLAME]
ff dimmen KOD!!, niet zomaar gaan schelden als (zoals blijkt) je er niks/niet veel vanaf weet.
[/FLAME]

-het geheugen kan supersnel zijn zonder dat er koellichamen op moeten zitten, gewoon een kwestie van de chips op een kleiner proces bakken wat het stroomverbruik ebn dus ook de warmteontwikkeling verminderd
-ik denk dat je niet echt verstand van matrox kaarten hebt, anders had je wel geweten dat matrox hun tv-out via een verloop kabeltje vanaf 1 van de VGA/DVI connectors uitvoert
-waarom zou de verhouding HSF niet kloppen?? dat et op jou GF4 MX (!) er anders uitziet, zegt niks... wat ik op de foto zie is gewoon een CPU koeling, waarschijnlijk hebben ze gewoon zoveel koelvermogen nodig omdat de GPU een preproduction sample is, dat op een groter proces gebakken is dan waarmee ie uiteindelijk in produktie genomen wordt en kunnen ze dan een wat normalere koeling erop zetten
Doe ff rustig man....

ik scheldt niet eens
dan weet ik niet wat voor GeForce4MX440 jij hebt, maar de mijne lijkt er helemaal niet op :?
Valt me een beetje tegen van Wouter. Op zijn eigen Forum staan die pics al een week. Zelfs nog betere zoals deze:
http://www.pcpop.com.cn/popimages/2002-5-15-15-41-18.jpg

en een gebruikte core (de heatsink is eraf)
http://www.pcpop.com.cn/popimages/2002-5-15-15-40-38.jpg


Spice bedankt! :)
Yep. en voor de modders komt er een cOOL-setje bij, met chromen strips, neon-lampjes, lucht-alarm sirenes en een 102-toetsig frontpanel. Voor al je wensen :+

Voor de overclockers komt er een SUPER-TOWER-fan construktie bij, compleet met STEIGERS :o

Ghi, er is altijd wel wat te zeiken. Waar praten we over? Vage plaatjes van vage figuren van een nog niet AF produkt (wie zei er vapor?) |:( |:(

Even geduld nog. Over een paar maanden weten we meer, kom dan maar es terug. Valt er misschien wat zinnigs te zeggen.
Hoe kan ie nou 3 monitoren aansturen als ie maar 2 dvi connectoren heeft??
Elke DVI aansluiting biedt ruimte voor twee kanalen (of misschien meer, dat weet ik niet zeker). Die kun je bundelen voor extra hoge resoluties, of gebruiken voor dual monitor via één uitgang. Matrox doet dat ook bij de G200 multimonitor, daat heb je 2 x DVI connector waar je maximaal 4 monitoren op aan kunt sluiten.

Daarnaast heeft een DVI aansluiting ook nog altijd extra pinnen voor analoog signaal, mits het DVI-D is natuurlijk. Je zou dus theoretisch zelfs drie schermen aan één connector kunnen hangen.
Tja als je toch minimaal 1 pci slot kwijt bent. Kan die heel gemakkelijk een optioneel, derde DVI / analog / TV-out panel erbij doen!
Je bent alleen 1 AGP slot kwijt, want het splitten gebeurt met een Y-kabel. De HSF worden vervangen door zo'n plat GF4 model.
Bent dus geen PCI slot(en) kwijt als je een parhelia installeert.
...Het gaat om een alpha versie van de kaart. Pre-productie. Prototype. Niet-definitief ontwerp. ...
Weet ik wel. Toch vermoed ik dat dit wel de kant is die we, misschien niet al bij deze kaart, dan toch wel in de nabije toekomst, opgaan.

Videokaarten worden steeds warmer, hebben steeds meer en grotere koeling nodig. Door de opbouw van moederborden (1e pci-slot meteen naast agp-slot) voelen videokaart-bakkers zich wel gedwongen die koeling zo klein mogelijk te houden, maar dat wordt steeds moeilijker, vooral omdat een eventuele kaart in dat pci-slot ook nog eens de airflow ernstig belemmerd.

Het zal mij niets verbazen als op langere termijn het eerste pci slot 'verdwijnt' (of achteraan wordt bijgeplaatst natuurlijk), omdat toch niemand daar een kaart meer kwijtkan.
Ze moeten gewoon de gpu met koeling aan de andere kant van de agp kaart plaatsen. Daar heb je geen pci sloten meer zitten. Moeten ze wel even uit gaan kijken met de ruimte tussen de processor en de gpu.

Heb het trouwens altijd stom gevonden dat ze de agp kaart niet wat vrijer in het systeem bouwden, wellicht komt er een atx2 formaat waarbij de agpkaart een andere plek krijgt??
Dat is een leuk idee die gpu aan de andere kant van de kaart maar dan komt die koeler weer in de buurt (of er zelfs tegen aan) van mijn proc dus dat gaat ook niet in alle gevallen passen.
Het zal mij niets verbazen als op langere termijn het eerste pci slot 'verdwijnt' (of achteraan wordt bijgeplaatst natuurlijk), omdat toch niemand daar een kaart meer kwijtkan.
Persoonlijk zie ik het er eerder van komen, dat we een wat meer CPU-achtige oplossing gaan krijgen...

Een standaard-aansluiting op het moederboard voor danwel DVI, danwel ´gewone´ aansluiting. Verder in plaats van alleen een socket voor de CPU, ook een socket voor de GPU, zodat ook gelijk de bandbreedte-issues zo goed als opgelost worden.

Misschien zelfs dat er voor de volgende generatie videokaarten een wedergeboorte van het slot-1 concept uit de kast gehaald kan worden?
In dit geval ben je geen aansluitplaatje aan de achterkant van je kast kwijt, maar (bij 99% van de moederborden) wel een PCI slot, omdat die dikke heatsink in de weg zit. Zelfs een miniscuul netwerkkaartje pas daar niet meer onder schat ik.
In dit geval ben je geen aansluitplaatje aan de achterkant van je kast kwijt, maar (bij 99% van de moederborden) wel een PCI slot, omdat die dikke heatsink in de weg zit.
Zucht, dan zal ik het nog maar een keer vertellen (het staat al minstens 5 keer in deze reacties:

Het gaat om een alpha versie van de kaart. Pre-productie. Prototype. Niet-definitief ontwerp.


(Ja, deze reactie is wat fel van toon. Wat moet je anders...)
Hoe de kaart eruit ziet vind ik weinig interessant.
Wat 't ding op mijn scherm pleurt des te meer...
Nou, hier heb je dan een plaatje van Unreal 2003 in 3840x1024:
http://home.attbi.com/~kruzin-kenny/UT2003-3.jpg

:9~ :9~ :9~

het "~" teken veroorzaakt een breuk in de link. Ff copy-paste...
Dat ziet er inderdaad heel er leuk uit jah.
Maar hoe ziet dat er in beweging uit ?
Kun je ook even vertellen of je ook echt elk grassprietje wat op zichtafstand scherp moet zijn ook daadwerkelijk scherp IS ?

:)
[offtopic] k vind die gebouwen eigenlijk nog minder gemodeled dan het gras, het gras is geweldig.. jpg-compressie doet de rest [/o]

Ik neem aan dat die 3840x1024 op 3 monitoren naast elkaar is, elk op 1280x1024? Als je dat op 60 fps voor elkaar krijgt is dat VET gamen :9~ :9~ (mhh, geen framerate)
Als ik een videokaart van ¤ 500 koop wil ik ook wel wat moois in me kast hebben zitten. :)
Dan doe je er zelf toch een mooie cadeauverpakking omheen :+
nou geweldig een videokaart met een onmundig groot koelblok, moet ik niet geloven dat die een compleet nieuw ontwerp is of de niet uitgekomen g800 flink overgeklokt en gemod.

zo'n ding met die koeling komt niet in me pc nu nog, ben al aan het klagen over het geluidsniveau van me cpu koeler komt er nog en bij
Als je een beetje nadenkt, kune je wel raden dat dit geen eindversie is... Pre-production: misschien zegt je dat iets...
Echt ongelofelijk dat dat hier tien keer gezegd moet worden. Zijn ze hier allemaal zo dom da ze het plaatje zien, op 'reageer' klikken en ze 'Nou, die keoler is wel heel groot hoor. Volgens mij past dat niet!' :? :?

Dikke flame intended, en niet alleen naar StraracZ.
SodeJ#,, Hadden ze niet een Peltier oplossing kunnen maken net zoals de I-Mac systemen? Dit zou erg veel ruimte schelen & nog lekker mee clocken ook. Verder is het sexy kaart om mee te "showen" want zo'n blokje heb ik nu ook op m'n gf2 maar dan zonder fan. Nu nog ff de wereldweide benchmarks.


-
:Z :Z :Z
lees de draad voordat je blaat

FI :(

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True