Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties
Bron: PC Perspective

Ook de mannen van PC Perspective hebben op E3 de prototypes van de nieuwe Alienware ALX-machines - waar we al eerder melding van maakten - gezien. Hun beschrijving biedt nog wat extra informatie. De eerste getoonde Alienware ALX-systemen zijn gebaseerd op Intels aanstaande Turnwater-platform voor single en dual Xeon Nocona-processors en DDR2-geheugen. Iedere component wordt door Alienware 'af fabriek' getweakt en overklokt, maar dan met behoud van garantie. Omdat een dergelijk tot maximale prestaties gekieteld systeem ook warmer wil worden dan normaal, biedt Alienware een custom vloeistofkoelingsysteem aan van een niet bij name genoemde fabrikant. Ook de behuizing laat door enige koelaanpassingen aan de bovenkant zien dat het hier niet om een 'gewoon' Alienware-systeem gaat.

Alienware ALX-systeemHet meest bijzondere aan de Alienware ALX-systemen is de implementatie van 'Video Array', een grafische technologie waarvoor patent is aangevraagd. Video Array is een techniek die twee PCI Express-kaarten tegelijkertijd kan benutten om tot hogere grafische prestaties te komen. Alhoewel het doet denken aan de SLI-technologie die op Voodoo-kaarten te vinden was, worden hier toch andere wegen bewandeld. Wat er in principe gebeurt is dat het te produceren beeld horizontaal in tweeën wordt gehakt en ieder deel wordt toegewezen aan een aparte grafische kaart (zie schema). Dit toewijzen wordt gedaan door een zogenaamde 'video merger hub' op een PCI-kaart, die ook zorgdraagt voor het weer samenvoegen van de twee delen. Deze hub stuurt uiteindelijk een compleet analoog beeldsignaal naar de monitor. Dat opdelen in twee segmenten is goed te zien in een kort videofragment waarin beurtelings de hub wordt in- en uitgeschakeld en iedere PCI Express-kaart apart aan het werk wordt gezet.

Door het verdelen van de 'werklast' hoopt men tot aan veertig procent hogere prestaties te komen ten opzichte van andere systemen in de meeste applicaties. Des te zwaarder de grafische voorstelling, des te meer voordeel biedt het systeem, zo stelt men. Uitgerust met twee Xeons en twee high-end 3d-gamingkaarten is het nodige aan voedingsappen vereist. Geschreven wordt dat ALX-systemen een voeding van 800W tot 1KW aan boord zullen hebben. Dan is knikkeren toch een milieuvriendelijkere manier van spelen

Moderatie-faq Wijzig weergave

Reacties (44)

De "niet nader te noemen fabrikant" is volgens mij Koolance. Ik zag het in het vorige bericht aan de waterblokjes, ook de bovenkant van de kast (met display en knopjes) doet me sterk denken aan de PC2-601.
Ja, was me bij vorige item over deze producten ook al opgevallen.
Ik vind het niet echt een heel erg goede (eerder cheape) oplossing/gadget.
Ik had liever een asetek setje erin gezien, als je dan toch besluit zo'n pc te kopen/maken doe het dan meteen helemaal top performance.
RAIG: Redundant Array of Inexpensive Graphics cards :)

Als ze er patent op krijgen hoop ik wel dat ze het ook los op de markt brengen, het is een heel mooi systeem. Neem bijvoorbeeld de radeon 9500pro, een hele snelle kaart met veel DX9 opties maar hij mist gewoonweg de Mhz kracht. Zet er daar 2 (of zelfs 4 :D) van in RAIG en je hebt supersnel beeld!
en RAIG 1 voor de wedstrijd gamer die niet ineens zn beeld kwijt wil zijn ;)
Wat ik me afvraag is, hoeveel performance loss geeft die hub? Want in feite was SLI op de voodoo kaarten toch een directe link tussen de video kaarten?

En daarbij. De hub hakt het beeld in tweeen. De videokaart zal nog steeds volledig het beeld renderen. Waardoor het dus in feite nutteloos is 2 videokaarten te gebruiken aangezien dan 2 videokaarten beide een volledig beeld renderen, dat beeld wordt door midden geknipt, en daarna weer samengevoegd.

Of wordt drivermatig dan ook ECHT maar 50% van het beeld gerenderd door een videokaart?
Je mag aanemen dat beide videaokaarten slechts de helft berekenen, anders is de verwachte performancewinst natuurlijk 0.
Dan moeten de driverprogrammeurs bij ALX zelf zitten? Want aangezien (atm) alleen hun systemen dit ondersteunen. Of het moeten hele aparte graphische kaarten zijn die ze zelf ontwikkeld hebben.

Of zie ik iets boven het hoofd?

Hoe ik het nu zie iig, is dat er zijn 2 pci-express graphische kaarten. Die zijn van een merk, eg; ATi/nVidia oid. En ALX schrijft daar drivers voor, zodat maar de helft wordt berekend.

-> Dat is een hell of a job, voor tig videokaarten drivers schrijven.

Dan lijkt het me logischer dat de hub de videokaarten aanstuurt. Maar hoe doet hij dit? Calibreert deze de kaarten zo dat alleen de bovenkant op kaart 1 gerenderd wordt en dat kaart 2 alleen onderkant rendert?

Iets van een omgekeerde twinview dus?
Misschien valt het aanpassen van de nVidia drivers wel mee. Het enige wat ze hoeven te veranderen is dat maar de helft van het beeld wordt meegnomen in de berekening. Klinkt niet zo moeilijk...
Sterker nog, het systeem bekijkt waar het het drukst is op het scherm, en verdeelt de load over de videokaarten dan zo dat ze allebei evenveel te doen hebben (tenminste, dat roept men....)

Inderdaad wordt in totaal maar 100% van het beeld gegenereerd, de kaarten gaan natuurlijk geen stukken beeld genereren die toch niet te zien zijn...
Het lijkt er helemaal niet op dat er een soort van load balancing in zit.

Kijk maar naa die Q3 demo, exact in het middel gesplitst terwijl alle activiteit op het onderste gedeelte van het beeld plaats vind.

Ik denk dat het horizontaal splitsen zoiezo slechter is voor load balancing dan vertikaal.
Als je het goed gelezen hebt, dan wist je dat het beeld horizontaal in tweeen wordt gehakt en dan dat de ene videokaart 50% op zich neem en de andere ook 50% op zicht neemt, en er was ook uitgelegd dat er een programma (driver) is geschreven door alienware die dit doet

edit - reactie op reinhrst - edit
Uit Alienware persbericht:
The Alienware Video Array and X2 motherboard will debut in Q3/Q4, exclusively through Alienwares new ALX brand, a family of extreme performance systems catering to the demands of the most hardcore PC enthusiasts. ALX systems will be sold only in the United States, directly through www.alienware.com/alx or 1-800-ALIENWARE.
Voor diegenen met suikeroompjes: ik hoop dat ze in de VS wonen......

Overigens houden ze in hun FAQ weer een ander tijdstip aan:
When launched, Alienware’s Video Array and X2 motherboard will be available only on ALX systems. It will launch in Q4 of 2004.
Mochten ze ooit op dat besluit terug komen, dan zal het systeem aan deze kant van de plas te bestellen zijn via Alienware UK
De hoeveelheid snelheid winst zal zeer beperkt zijn. Aantal redenen:

Het beeld in twee delen splitsen betekend dus dat bijna de gehele scene gerenderd moet worden door beide kaarten. Elke kaart zal dus alle textures en polygons in het geheugen moeten zetten. Een half scherm renderen betekend namelijk niet automatisch een dubbele snelheid, enkel misschien wat fill-rate minder.

Ook zal de sync van het beeld gelijk moeten lopen, anders krijg je vreemde tearing te zien tussen de twee beelden. De langzaamste kaart zal de frame rate dus gaan bepalen. Dus als er een hoop textures en polygons in de onderste helft van je scherm getekend worden, zal je dezelfde performance halen als een single kaart...

Ook wanneer een nieuwe texture of object in beeld komt moeten deze twee maal over de PCI Express bus worden verzonden, naar iedere kaart afzonderlijk zodat deze in het geheugen van de kaart terecht komen. De bandbreedte naar de kaart is dus minder goed aanspreekbaar...
Wat jij niet lijkt te begrijpen is dat er in het schema duidelijk staat dat er software tussen zit van AlienWare. Deze software beinvloed wat er gerenderd moet worden

Tearing treedt niet op door de kaart die de beelden samen voegt

Dus je hebt de snelheid van de langzaamste kaart die de helft van de scene rendert, als ze zich strikt aan hun eigen helft houden. Maar hier schrijven ze ook dat dit niet helemaal gebeurd dus hoeveel winst je dan precies hebt weet ik ook niet.

Op de TNT2 Pro kaart had ik zo'n uitgang voor een stereoscopische bril waardoor alles mooi 3d werd, en dit werkte... Dat werd ook niet door de spelsoftware ondersteund, en daarvoor moest er ook een stukje software geschreven worden door Asus (in dat geval geloof ik) Dit is niks anders, software die de normale gang van zaken onderbreekt en iets doet met je beeld om het mooier, of zoals nu, sneller te maken...

En om meteen een eerdere vraag nogmaals te beantwoorden... Er zit software van AlienWare tussen, er moeten extra berekeningen gemaakt worden, 40% is best redelijk!!

Maar voor wie meer wil weten...
Bijna alle vragen die hier gesteld zijn worden op deze pagina beantwoord http://www.alienware.com/alx_pages/main_content.aspx
Ik begrijp best dat de (extra) drivers dat bepalen, maar nog steeds moeten bijna alle polygonen en textures naar beide kaarten worden gestuurd. En er zit dus ook nog extra software tussen, die ook performance wegneemt.

De shutter glasses waar je het over hebt werken op een heel andere manier, is niet te vergelijken! Daar wordt hetzelfde beeld om en om met twee verschillende camera posities gerenderd.

De FAQ geven maar weinig antwoorden...

SLI is in mijn ogen sneller, daar delen de GPU's tenminste de geometry en textures.
wat me opvalt is dat het 2d scorebalkje van 3d mark 2k3 gewoon op beide monitoren te zien is !
dus blijkbaar knippen ze niet het beelt in twee-en maar alleen de 3d scenes, vraag me af hoe dat straks zal gaan met raytracing technieken, aangezien die wel de hele scene nodig hebben om goed te renderen :Y)
raytracing is uitermate goed parallel te doen, maar jou vraag is voorlopig nog niet aan de orde. De huidige videokaarten kunnen het nog niet, DirectX kan het nog niet, en logischerwijs kan dit systeem van alienware het ook niet.
gepatenteerd....

jeeh houdt dat dan automatisch in dat dit plan dus nooit door anderen geprobeerd wordt?
lang leve de "vooruitgang" :Z
jeeh houdt dat dan automatisch in dat dit plan dus nooit door anderen geprobeerd wordt?
Nee, dat houdt in dat anderen een licentie kunnen nemen en Alienware zo zijn R&D-kosten terugverdienen kan en het de nek uitsteken beloond kan weten. En zo hoort het. Patenten beschermen de uitvinder, zijn uitvinding en zijn boterham en bevordert in principe de innovatie aan twee kanten. Enerzijds door de uitvinder meer bestaanszekerheid te geven en zijn inspanning vruchten doet dragen, anderzijds worden andere bedrijven geprikkeld om met iets anders en/of beters te komen als ze geen licentie willen afnemen. Wat anders is het als men doorslaat in het afgeven van patenten voor allerlei onzinnige 'vindingen'. Maar met patenten/octrooien is imo op zich niets mis.
Jawel hoor,

Patenten zijn maar voor een 'x' aantal jaar geldig (20 dacht ik).

Andere bedrijven mogen deze techniek wel gebruiken, mits de patenthouder dit toestaat, maar moeten dan wel geld betalen voor de gebruik van het idee.
er staat toch dat het beeld horizontaal in 2en wordt verdeeld?
nou dat maakt iemand anders een versie waarbij het beeld verticaal in 2en wordt verdeeld }>

patent-probleem opgelost :Y)
jeeh houdt dat dan automatisch in dat dit plan dus nooit door anderen geprobeerd wordt?
lang leve de "vooruitgang"
Nee. Andere fabrikanten komen waarschijnlijk met een soortgelijk idee wat nét alle patentregeltjes omzeilt. Dat gebeurt zo'n beetje bij ieder zo'n "groot" patent. Fabrikanten vinden altijd wel weer iets wat eigenlijk hetzelfde is, maar toch als anders wordt aangeschreven.
Maar ik vind 40% wel tegenvallen. Je hebt immers 2 x zoveel GPU's, waardoor de maximale winst 100% zou moeten zijn. Ok, dat zullen ze nooit halen, maar 40%...

edit:
Overbodig? Sinds wanneer vinden jullie performance opeens overbodig? :P
die 40% wordt o.a. veroorzaakt door gedeelde geheugen bus.
Beperkte capiciteiten van andere onderdelen.
Daarnaast moet de software wel heel erg goed geschreven zijn om 2 cpu's volledig te benutten.
(besturing systeem werkt ook mee want deze kan hier namelijk ook optimalisatie voor hebben)
Is mijn ogen is er geen enkel spel op de markt wat nu de hoge prijs van dit systeem zal rechtvaardigen. Farcry speelt namelijk ook prima op een x800 op 1600x1200. Tegen de tijd dat de kracht van dit systeem nodig is zal er een enkele kaart zijn die het ook kan leveren.

Dus alleen voor mensen weg gelegd uit de gates familie ofzo ;P
En zal dit systeem met 2 van die kaarten domweg weer 40% sneller zijn .........

Als deze technologie zich eenmaal een beetje bewezen heeft en nog wat verder is geoptimaliseerd, zullen er snel meer volgen met dergelijke oplossingen ( en is er misschien wel 50% of meer winst te behalen ). UIteindelijk is dit best een heel aardige oplossing, die zonder super ingrijpende toeren uit te halen domweg meer performance geeft.
:o

1kw :X

ik krijg toch zware neigingen om zoiets te bestellen eigenlijk :X

ik weet nutteloze post :)
maar kastje en dual pci express zijn zo mooi :D }:O
Kastje zo mooi??? Dit is by far de allerlelijkste kast die ik ooit gezien heb! Ook al is ie van binnen nog zo goed, als deze huls eromheen zit dan komt ie er hier in elk geval nooit in! :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True