Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties
Bron: Gamespot, submitter: Dre

Op GameSpot lezen we dat Alienware vrijdag de eerste officiŽle benchmark van zijn Video Array-systeem heeft vrijgegeven. De benchmarkresultaten zijn afkomstig van een presentatiedia gedateerd op acht juni jongstleden. Het Video Array-systeem is geÔntroduceerd op E3 2004 en bevat twee GeForce 6800-videokaarten, die samenwerken om een beeld te genereren. De test werd uitgevoerd op twee identieke Alienware-testsystemen met een 3,4GHz Intel Xeon.

Het verschil tussen beide systemen zat natuurlijk in de videoapparatuur; waar het ene systeem het moest doen met een enkele GeForce 6800, kreeg de Video Array de beschikbaarheid over twee van deze kaarten. Als testprogramma werd 3DMark03 gebruikt, waarmee twee tests werden uitgevoerd: een keer op de resolutie 1600x1200 met 8xAA en 8xAF (anisotropic filtering) en een keer met dezelfde resolutie en 8xAF, maar zonder anti-aliasing. Zoals te verwachten was presteerde het dual-systeem beter dan de opstelling met een enkele videokaart.

Op de benchmark met anti-aliasing en anisotropische filtering scoort het dubbele systeem 3105 3DMarks, 77% meer dan de 1758 3DMarks van het enkele systeem. Zonder anti-aliasing scoorde dit enkele systeem 5992 3DMarks, waar het dubbele systeem 42% overheen ging met 8538 punten. In het vierde kwartaal van dit jaar zal Alienware zijn ALX-systemen op de markt brengen, deze zullen rond de vijfduizend dollar per stuk gaan kosten.

GeForce 6800 Ultra perspic
Moderatie-faq Wijzig weergave

Reacties (65)

Naar mijn mening weer een indicatie dat de framerate niet zo heel veel met de cpu kracht heeft te maken tegenwoordig. Als 2 van deze kaarten tegelijk toch nog sneller zijn dan 1 kaart lijkt het me wel duidelijk dat die cpu bij 1 kaart nog een beetje uit zijn neus staat te vreten.
klopt.. maar als je bijv. een rendertje gaat maken (waar dit systeem toch bedoelt voor is 'grafische doeleindes) dan zijn die 2 toch wel fijn om te hebben

ik vind trouwens 77% winst uit een 2e grafische kaart heel erg netjes.. ik betwijfel of dit ook zo te scalen valt bijv. ipv 1 proc als de 2e dan ook een 77% winst zou leveren.
wat zeg je nou rendertje maken? dat heeft niks met deze kaarten te maken daar heb je geen goeie videokaart voor nodig. Het renderer van OpenGL, dus viewports in 3d CAD CAM programma's en spellen is dit nuttig voor.

Ik geloof dat de ene kaart de bovenste helf van je beeld renderd, en de andere kaart de onderste. Dus de beste performance krijg je als de boven en onderkant van de scene evenzwaar zijn, wat natuurlijk niet zo vaak gebeurd.

Toch wel kick ass dit systeem. Een goede oplossing voor als je ECHT meer snelheid wilt. Misschien dat het dan goedkoper is om 2 mid-range kaarten te kopen, dan 1 high end.
even ingaande op allem mensen die zeggen dat het niet logisch is dat 1 kaart de bovenste, en 1 kaart de onderste helft rendert.

Wanneer er gebruik gemaakt wordt van anti-aliasing en hidden-surface removal (beide waren er nog niet ten tijde van de voodoo5, dus vergelijking gaat niet op), zouden beide kaarten de volledige scene moeten berekenen, omdat voor de berekening van 1 pixel, de omliggende pixels ook van belang zijn.
Door beide kaarten 1 helft te geven gaat alleen bij de berekening op de scheidingslijn wat performance verloren, waardoor de overall performance dus niet veel lager ligt dan 2*enkele, zelfs met FSAA.

Wameer je de Voodoo-methode gebruikt (ovenen/even beeldlijnen) zou je weinig/geen performance verschil merken, hooguit een iets hogere fillrate.

Zo vreemd is de methode van Alienware dus niet.
@ Gladiool

Bij de voodoo was dat inderdaad zo, maar bij dit systeem werkt het dus wel met de twee helften. Kijk maar in het vorige nieuwsitem hier, daar staat een filmpje als ik het goed heb. Ze lieten zien dat zodra de ene kaart uitgeschakeld werd de helft van het beeld weg viel.
@methal

Gladiool heeft wel degelijk gelijk wat betreft de twee helften. Zie meer info op www.alienware.com

edit:


net te laat...... ;)

:Z

Lees de link:
Unlike 3dfx’s SLI, where the two video cards shared the workload by drawing alternating lines on the screen, the video cards in Alienware’s Video Array split the screen in two, with one card working on the top half and the second card working on the bottom.
Daarvandaan dus :z
Wat betrefd de 'zwaarheid' van de twee helften, ik kan me herinneren dat ze de grootte van het gedeelte van het beeldscherm wat gerendert moet worden dynamisch aan kunnen passen. Dus als bv. de onderkant heel zwaar is om te renderen, wordt die vanzelf kleiner gemaakt, zodat de werklast voor de kaarten goed gebalanceerd is, en er een maximale FPS uit kan worden gehaald.

Ik geloof dat de ene kaart de bovenste helf van je beeld renderd, en de andere kaart de onderste. Dus de beste performance krijg je als de boven en onderkant van de scene evenzwaar zijn, wat natuurlijk niet zo vaak gebeurd.

ik zou zo direct niet weten waar je dat van daanhaalt met die helften?

bij mijn weten is het nog steeds efficiŽntst om de even en onevenlijnen te verdelen tussen de kaarten
ik geloof dat ikdaar ergens voodoo of zoiets hoor waaien...
edit: blijkbaar toch de helft, vreemd... , thanx voor de info, had het niet gezien dat je door kon kliken /edit

iig, ik vind het wel tof idee (ook voor particulieren), als je kaart niet goed genoeg meer is moet je ze niet wegsmijten, je prikt er gewoon eentje bij..
Ik weet er niet zo heel veel vanaf, maar is het niet zo dat tegenwoordig de videokaarten zelf ook driehoekjes en vierkantjes aan het uitrekenen zijn?

Ofdat ze iig gebruik maken van meerdere lijnen voor processing op de videokaart. Als je dan de lijnen om en om doet schiet je daar nog niets mee op.
by gladiool: wat zeg je nou rendertje maken? dat heeft niks met deze kaarten te maken daar heb je geen goeie videokaart voor nodig. Het renderer van OpenGL, dus viewports in 3d CAD CAM programma's en spellen is dit nuttig voor.
lees eerst goed wat er staat.. ik heb het (duidelijk) over de 2e processor waar gh45t als comment op heeft dat die 2e processor overkill is. aangezien renderen puur op renderkracht gaat is het dus geen overbodige luxe.
dus ipv te flamen.. lees *sigh*
Een verdeling van het scherm in een bovenste 'helft' en een onderste 'helft' lijkt niet echt logisch. De meeste games hebben immers een horizon wat over het algemeen betekend dat links en rechts meer op elkaar lijken dan boven en onder. Je zou dus zeggen dat een links/rechts verdeling een betere balancing zou geven. Of wordt er misschien cache voordeel gehaald doordat alle 'sky' textures op de ene kaart wordt gerenderd en alle 'ground' textures op de andere? Zeker door de dynamisch aanpassing van de grote van de twee helften zou een dergelijk effect wel eens de reden voor deze keuze kunnen zijn geweest.
Er word, zoals je ook kunt zien, gewoon gewerkt met 2 helften. (bekijk maar een paar van de promo filmpjes)

Hoewel het imo ook effecienter is om het even/oneven te doen inderdaad.

Edit: dit was een reactie op Methal
Toch wel kick ass dit systeem. Een goede oplossing voor als je ECHT meer snelheid wilt. Misschien dat het dan goedkoper is om 2 mid-range kaarten te kopen, dan 1 high end.
Ik weet niet of het goedkoper is, voor 600 euro heb je makkelijk een high end kaart, terwijl je dan 5000+ 2x100 euro voor 2 mid end kaarten betaalt. :Y)

* 786562 NoepZor
Doordat de videokaarten steeds krachtiger worden, niet alleen in snelheid maar ook in mogelijkheden, wordt de CPU inderdaad minder belangrijk voor de framerate. En deze rekenkracht kan dus nu bijvoorbeeld mooi voor de AI (kunstmatige intelligentie) gebruikt worden. In Far Cry kun je al aardig zien wat je kunt bereiken met die rekenkracht. Dus op termijn zal de CPU gewoon voor andere dingen ingezet worden als blijkt dat deze structureel tijd overhoud. Dus wees gerust allemaal, we hebben onze extra coolers niet voor niets gekocht :P
niet alleen IA maar ook physics en extra geluids effecten.
Ze zullen natuurlijk ook wel even hebben gekeken onder welke benchmark er de hoogste score gehaald wordt.
3DMark03 staat er om bekend vrijwel compleet van de grafisch kaart af te hangen, en weinig van de CPU. Logisch keus dus.

Zijn op dit moment echter genoeg (game)benchmarks die in vrijwel alle resoluties zwaar CPU begrensd zijn. Uiteraard krijg je die niet te zien :7

Voor gamers een volkomen nutteloos systeem, maar wellicht leuk voor ontwikkelaars.
Hmm... echt nice :D
Ik zou wel zo'n mobo'tje met VA willen hebben, koop je gewoon een enkele videokaart, en zodra je huidige games/grafische apps niet meer goed kunt draaien kost de betreffende videokaart veel minder en plant je een tweede bij.

Ben trouwens wel benieuwd hoeveel stroom dit ding (stressed) gebruikt... Xeon is ongeveer 100 Watt, die 6800 ook ongeveer 100 Watt per stuk. Dan heb je nog de rest van de onderdelen (mobo, HD's, optische drives enz.). Als je daar bij op telt dat een voeding nooit 100% rendament behaald, kan je concluderen dat je stroomrekening als een raket de lucht in gaat schieten.. Maar ja, als je zo'n systeem kunt betalen maakt die rekening je ook niets meer uit natuurlijk :P
In het artikel op GameSpot wordt weer gelinkt naar deze http://www.gamespot.com/news/2004/05/13/news_6098040.html
Hier kun je het volgende lezen:
Since the power requirements for a dual-CPU, dual-GPU system will be very high, expect X2 based ALX systems to ship with a massive power supply in the 800W range.
Zowel de CPU's als beide videokaarten zullen met water worden gekoelt. :9

Dit ziet er bijna net zo leuk uit als het monster van L
http://www.go-l.com/desktops/machl38/features/index.htm
Dan moet je wel een professionele gamer zijn wil je dat er voor over hebben....
Waar moet je dit trouwens anders voor gebruiken? Videobewerking?
Professionele gamer....zijn er dan mensen die geld verdienen met het spelen van spellen? (Behalve dan onze voetbalboys)
Ja, die zijn er.. De bekendste kan je hier vinden:
www.fatal1ty.com
Er zijn al vele mensen die professioneel gamen (dus daar van kunnen leven). In Europa en Amerika zijn er nog niet zo veel, maar in Zuid-Korea is het dagelijkse kost. Gamers/Clans worden daar gesponsord en als echte helden aanschouwt. Games in is Zuid-Korea dan ook de nationale sport net zoals voetbal dat bij ons is.

Maar ik neem aan dat het bovengezegde al bij de meeste bekend was.
HET spel om geld mee te verdienen is starcraft, niet dat wij Nederlanders er goed genoeg in zijn (we hebben de Nederlands kampioenen niet naar de Cybergames gestuurd omdat ze NOOIT konden winnen), maar UT enzo zijn spellen waar Nederlanders serieus op topniveau spelen (en verdienen).
Ik heb pas nog op TV gezien (jeugdjournaal ;) ) dat er een jochie was dat 8 uur per dag achter elkaar gamede en in Japan met toernooien aardig wat geld bij elkaar sprokkelde (met oa.warcraft 3, ut2003 enzow)
Bij mij op het werk zou het wel erug handig zijn. Hoef ik nooit meer modellen aan te passen of optimaliseren voor VR. Gewoon hup 20M driehoekjes een scene in rammen en presenteren maar. |:-) Ik zou nog luier worden dan ik al ben.
Is nogal wat dat een systeemmaker als Alienware een hardware oplosing heeft gemaakt welke echt lijkt te werken.
Daar zouden de jongens van de Volari Duo jaloers op kunnen zijn :)
De ketting is zo sterk als de zwakste schakel...
Het lijkt me dus niet dat als je een oude kaart hebt je er zo een nieuwe bij kunt plakken want de ene kaart zal toch moeten wachten tot de andere kaart de andere helft van het frame afgerendert heeft.
Dus stel dat je nu een super deluxe radeon 9200se erin hebt en je prikt een x800 erin zal je dus in principe niet veel sneller gaan als 9200se + 77%... das dan wel weer jammer...
Wat gebeurt er dan als je 2 verschillende (of bijna verschillende) kaarten erin prikt?

Dus een X800 en een 6800
Of een 6800 met een 6800 Ultra combineren?

Zou de Ultra dan op 6800 speeds draaien?, of andersom. Of zouden ze allebei de orginele klokfrequentie houden?
Ik weet niet of de software dat "pikt", maar stel dat het zou kunnen dan denk ik het volgende. Aangezien beide kaarten een helft van het scherm berekenen kan je verwachten dat beide kaarten ieder hun helft met hun mogelijkheden berekenen. Stel dat een GF de onderkant doet en een GF Ultra de bovenkant en dat beide kanten ongeveer gelijk zijn in complexiteit (polys, T&L zut, mapping etc) dan zal de bovenkant meer FPS pompen dan de onderkant.
Het kan zijn dat ze de kaarten "synchroniseren" waardoor ze met de kaart die het eerste klaar is met een frame "wachten" tot de ander ook klaar is. Maar waarom zouden ze dat doen? Ongelijk aantal fps boven en onder is alleen iritant als de framerate (van een van beide) te laag is, dus als je "dia's" kan zien.

Volgens mij gaat het hier om PCI-Express systemen he? Met AGP kan je er geen twee hebben (tenminste, volgens de 1x-4x specificatie. Volgens de 8x kan het weer wel maar ik ken nog geen mobo fabrikanten die twee AGP's op hun bord hebben) Waarom zie ik dan een AGP kaart als plaatje?

<Edit> Ik lees net het volgende: url
Load balancing software ensures that the workload is evenly split between the two cards in cases where graphics complexity in one half of the screen is greater than the other.
Als ze hun software goed geprogrammeerd hebben dan kunnen ze vast wel met twee verschillende kaarten aan de slag en als ze de werklading tussen de delen dan goed verdelen, rekening houdend met de mogelijkheden van de twee kaarten moet het goed kunnen gaan ....</Edit>
Dit zal niet altijd opgaan, denk ik.
Want wat doe je als de ene kaart een DX9 kaart is, en de andere een DX10 kaart?

Dan krijg je feature verschillen, en dat kan natuurlijk zichtbare gevolgen hebben.
ik zie niet echt voor wat dit nodig is, dit is toch gewoon om te zeggen ik heb er 2!
want voor de moment ken ik niks (voor home users) die zoiets nodig heeft.

Nuja als je veel geld hebt en het beste wilt, waarom niet ;)
Zo heb je een systeem dat binnen 3 jaar nog prima alle games kan draaien zoals het hoort.

Als je nu een mid-range systeem koopt, dan kan je binnen 2 jaar al bijna niet meer alle games draaien met alle eye candy.
daar staat tegenover dat een midrange systeempje 2 tot 4 keer zo goedkoop is. en dat je dus makkelijk over 2 jaar een nieuwe kan kopen en alsnog goedkoper uit bent :)
Ik denk dat je dan beter na elk jaar een nieuwe videokaart kan kopen, dan deze stelling te gaan gebruiken, volgens mij ben je dan beter af en zelfs nog goedkoper uit ook!
heb je dan ook 4 DVI uitgangen?
Zal wel niet, het is een doorlussysteem.
Inderdaad, volgens mij is het zo dat de ene videokaart voor de bovendste helft van het scherm zorgt en de andere kaart zorgt voor de onderste helft.
Zo, flinke winst voor een dual systeem! Zal wel voornamelijk door de videokaarten komen, want de meeste 3D engines profiteren niet van dual-cpu..

EDIT: De cpu is natuurlijk nŪet dual |:(
(Waar had ik dat nou gelezen dan?!)
In het eerste bericht van gamespot was er sprake van twee cpu's. Je had het dus goed gelezen.
Ik had begrepen uit een eerder bericht dat de 2 delen bij elkaar werden gevoegd door een apart kaartje. Kan dit kaartje dan ook de TV-out beelden bij elkaar voegen? Gamen op een TV is altijd leuk als je geen beamer hebt (mjah gezien de prijs van het systeem kun je je best een beamer veroorloven...)
Als je gamed op een PC heb je sowieso dit 3D systeem niet nodig, omdat een simpele enkele videokaart met gemak genoeg frames per seconde kan renderen op TV-kwaliteit. Dit systeem is bedoelt om op een hoge resolutie met hoge framerate te kunnen werken en een TV is nog geen 800x600, wat ik toch niet echt hoog noem.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True