Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties

Het zal de oplettende Tweakers.net-lezer ongetwijfeld niet ontgaan zijn dat zowel Alienware als nVidia zich momenteel bezighouden met technieken om meerdere videokaarten simultaan te gebruiken in systemen. Alienware introduceerde in mei Video Array, en iets later verscheen het eerste systeem dat gebruikmaakte van deze techniek. nVidia kondigde daarentegen maandag aan dat het SLI weer in het leven zou roepen, een techniek die 3dfx indertijd gebruikte om de krachten van twee Voodoo-kaarten te bundelen. Een van de verschillen is dat nVidia er een algemene standaard van wil maken, terwijl Alienware Video Array in principe enkel in complete systemen van eigen makelij wil gaan aanbieden.

Dual PCI Express GeForce 6800 Ultra in SLI-opstelling
Twee GeForce 6800 Ultra's in een SLI-opstelling

Al snel dringt een vergelijking tussen beide technieken zich op. Alienware heeft zich hier zelf al aan gewaagd, maar het zal niet verbazen dat hun versie van de vergelijking niet geheel objectief en kleurloos is. Het doel van Video Array en SLI is alvast hetzelfde: de grafische prestaties van een systeem flink verbeteren door meerdere videokaarten te laten samenwerken. Bij optimale 'omstandigheden' kan een aardige prestatiewinst ontstaan, al is een exacte prestatieverdubbeling niet mogelijk. Niet alleen hangt het af van de gebruikte applicatie of game, er is ook nog het feit dat de textures en andere datapakketten tweemaal door de PCI Express-kanalen moeten worden geleid, iets wat voor vertraging zorgt.

Alienware logo (klein)Er zijn echter ook niet te miskennen verschillen tussen beide technieken. Allereerst is er het feit dat nVidia's SLI uiteraard alleen geschikt zal zijn voor videokaarten van nVidia zelf, terwijl videokaarten van in principe alle merken in aanmerking komen voor Alienwares Video Array. Een Alienware-medewerker verklaarde tegenover Tweakers.net dat alle videokaarten met elkaar combineerbaar zijn, zolang de GPU op de gebruikte videokaarten maar dezelfde is. Verder hoeven de kaarten niet identiek te zijn, dus de overige specificaties kunnen verschillen - al verdient het natuurlijk aanbeveling om identieke videokaarten te gebruiken.

Een ander, tot nog toe nog niet echt opgevallen verschil is dat de techniek van Alienware niet beperkt is tot twee videokaarten die simultaan hun werk doen. Naar eigen zeggen is het mogelijk om systemen te bouwen die plaats bieden aan wel vier of meer videokaarten. Wellicht zal de huis-tuin-en-keukengamer hier niet zoveel baat bij hebben, maar voor professionelere applicaties kan dit des te meer bruikbaar zijn. Bovendien pronkt Alienware ermee volledige systemen te kunnen aanbieden, waar de gebruiker zelf niets aan hoeft te doen. Bij nVidia ligt de zaak iets anders; twee GeForce Ultra 6800-kaarten verbruiken bijvoorbeeld erg veel stroom, wat tot voedings- en warmteproblemen zou kunnen leiden.

Alienware Aurora ALX-systeem
De Alienware Aurora ALX met een Athlon 64 FX

Het feit dat Alienware uitsluitend volledige systemen zal leveren met Video Array, kan echter ook een nadeel zijn. Voorlopig wordt Video Array alleen toegepast in de ALX-productlijn, bestaande uit behoorlijk dure systemen met processors als de AMD Athlon 64 FX en de Intel Xeon. Of er later ook goedkopere systemen met mid-end processors zullen komen kon of wilde men ons bij Alienware niet vertellen, maar nVidia's SLI heeft in ieder geval het voordeel dat het normaal gesproken te gebruiken is in naar wens samengestelde systemen, wat de prijs flink kan drukken. De toekomst zal dus nog moeten uitwijzen of Alienware ook een mainstreamkoers zal willen varen met Video Array.

Last but not least: Alienware heeft aangegeven dat het Video Array zal vervangen door SLI in systemen met nVidia-videokaarten, als blijkt dat een SLI-opstelling betere resultaten neerzet. Dit vanaf het moment waarop SLI officieel zijn intrede maakt, aldus Alienware. Deze toch merkwaardige opstelling rechtvaardigt men met het gegeven dat men zijn klanten de beste prestatie wil bieden, zelfs al wordt die verkregen met een andere techniek dan die 'uit eigen huis'. Indien SLI daadwerkelijk beter blijkt te presteren zal Video Array uiteraard nog steeds worden gebruikt voor videokaarten van andere merken. Alienware zal de techniek in dat geval ook verder verbeteren en optimaliseren voor deze videokaarten.

Moderatie-faq Wijzig weergave

Reacties (77)

Wat alienware ook nog kan gan doen is met 4 GPus en dan dus 2 x 2. dus 2x nVidia SLI en dan die met alienware's techniek aan elkaar knopen.
alleen moet je dan wel een mobo hebben met 4 agp/pci-e (16x) poorten, en dat kon nog weleens lastig worden, danwel niet positief voor de snelheid...
weet niet hoe dat zit met pci-e... Of een extra pci-e 16x slot ook een eigen interface met de processor krijgt, of dat het net zoals pci nu, gedeelde bandbreedte heeft...

edit: foutje... had op edit moeten drukken :'(
Hoe wordt die ene kaart nou gekoeld??? Die koeler kan de warmte toch helemaal niet kwijt aangezien die ander er vast onder zit of zie ik dat verkeerd?
Er zit wel een beetje ruimte tussen hoor. Zeker evenveel als tussen een enkele GeForce 6800 Ultra en een PCI kaart in het dichtsbijzijnde vrije slot. Het is natuurlijk geen aan te bevelen situatie maar als je voldoende airflow hebt dan zou er geen probleem mogen zijn :)
ff voor de verduidelijking, de afgebeelde kaart neemt 4 pci sloten in beslag

sorry, kaarten :) zag het wel maar noemde het ff kaart :)
kaart?? .. kaarten!! Ik zie er twee die elk 2 sloten (dus in totaal inderdaad 4 sloten in beslag neemt.
Dit houd in dat je ongeveer 2 PCI-sloten overhoud, tenzij ze nu erg snel een andere form-factor erdoor duwen tbv (dual) PCI-Express
1 Tussen de kaarten zit een klein beetje ruimte (<8mm), niet veel want de koeler is vrij fors.
2 Zoals je ziet is de koeler van nVidia voor een groot deel dicht waardoor de luchtstroming zoveel mogelijk over de koelvinnen op het PCB geblazen wordt waardoor de koeling van het koelblok optimaal is.

De GPU zit ook onder het koelblok, naast, en niet onder de ventilator :)
Voor de professionele 3d markt is dit zeker een belangrijke ontwikkeling, zelfs voor renderframs. Je zou denken "Wat moet zo'n render computer nou met twee video kaarten?" Nou, Nvidia heeft sinds kort software waarmee je je video kaart kan gebruiken om te renderen, niet zoals in spelletjes e.d., maar als co-processor voor de gewone cpu(s).
De ontwikkeling van SLI en video array zullen er voor zorgen dat er meer moederborden komen met meer dan één pci-express 16x slot, dus ook meer ruimte voor video kaarten om te renderen. Op dit moment werkt Nvidia's DCC software helaas alleen met quadro's. Hopelijk krijgen deze ook SLI aanboord, dat maakt ze nog interresanter voor de dcc markt.

Nvidia's dcc software: http://www.nvidia.com/object/dcc.html

edit, de quadro komt ook uit met SLI, het schijnt ook echt SLI te heten Benchmarks van quadro 3400 en tumwater moederbord met 2 pci-express x1 6 sloten
ja, maar zal dit niet gewoon een dure oplossing wezen? ik bedoel een cpu renderd harder dan een gpu, en hier kun je er ook al zat op 1 mobo plaatsen

daarbbij hoef je niet een aantal hele kaarten aan te schaffen maar alleen een aantal CPU (juh, en het mobo. maar die had je toch al nodig)
Volgens mij is dat van NVIDIA geen SLI, omdat SLI staat voor "ScanLine Interleaving" Voodoo's deden dat door om en om beeldlijnen door 1 van de 2 kaarten te laten renderen.

Dit is helemaal geen SLI, want er zijn geen "Scanlines" en er is geen "Interleaving", Nvidia geeft gewoon het bovenste gedeelte van het scherm aan de ene kaart en het onderste aan de andere, in combinatie met dynamische load-blancing.

Das dus heel wat anders dan SLI, en eigenlijk is die term dus niet gerechtvaardicht.

zo :)
SLI staat in dit geval voor Scalable Link Interface. Dat de afkorting hetzelfde is als die van ScanLine Interleaving is natuurlijk geen toeval, maar fout is het dus ook niet (en ja, nVidia heeft het recht om die betekenis te veranderen omdat ze destijds alle handelsmerken van 3dfx hebben opgekocht).
dat is toch niet betaalbaar? Twee videokaarten ipv één kost toch wel wat meer en ik denk niet dat het 200% verschil is t.o.v. één kaart.
je kunt het ook anders zien:

je koopt nu 1 zo'n racemonster en een mobo met 2x PCI-Express-16 en over een jaartje of wat prik je er een zelfde kaart bij + een SLI-bruggetje. Die kaart kost dan nl aanzienlijk minder. Het is goedkoper dan elk jaar een nieuwe videokaart en je loopt qua snelheid toch weer bij :)

Voordeel voor nVidia is dan ook dat ze makkelijker van hun 'verouderde' kaarten afkomen. het is dan namelijk WEL rendabel om er 1 te kopen, als je er al zo een hebt. Wanneer je ze dan gebruikt met SLI zijn ze namelijk misschien wel even snel als het high-end model van dat moment :)
Voordeel voor nVidia is dan ook dat ze makkelijker van hun 'verouderde' kaarten afkomen.
Dat is zeker waar. nVidia versterkt hiermee in feite haar marktpositie, want upgraden kan je in dit geval alleen doen door een tweede nVidia videokaart te kopen. Een ATi videokaart val dan immers buiten de boot. Het nadeel is echter dat je dan een verouderde videokaart koopt, wat voor nVidia minder aantrekkelijk is dan het verkopen van een high-end videokaart.
het is dan namelijk WEL rendabel om er 1 te kopen, als je er al zo een hebt. Wanneer je ze dan gebruikt met SLI zijn ze namelijk misschien wel even snel als het high-end model van dat moment
Qua snelheid zal de SLI configuratie vergelijkbaar zijn met een enkele high-end videokaart, maar qua energieconsumptie en features loop je dan achter. Zo kan ik mij voorstellen dat je SLI hardwarematig achterloopt op de high-end videokaart, en dat kan een nadeel zijn. Denk hierbij aan DirectX compliancy, ondersteuning voor Vertex en Pixel Shaders, verbeterde AA en FA technieken, etc.

Overigens pikant detail dat nVidia's SLI techniek tot 8 GPU kan schalen. In theorie zou het dus mogelijk zijn om in totaal 8 nVidia kaarten aan elkaar te schakelen, en daarmee heb je een mooie concurrent voor Alienware's Video Array.

Alienware mag dan wel het voordeel hebben dat de techniek niet tot enkel nVidia videokaarten beperkt is, maar ik heb er volle vertrouwen in dat nVidia's SLI techniek superieur is aan Alienware's Video Array.

Alienware heeft weer als nadeel dat er een hub nodig is die de twee videobeelden samenvoegt. Extra hardware is er dus nodig, wat mindere prestaties, meer warmte en één PCI (Express) slot minder of minder ruimte in de kast tot gevolg heeft.
tot 8 GPU kan schalen. In theorie zou het dus mogelijk zijn om in totaal 8 nVidia kaarten aan elkaar te schakelen
Hmmmz dure grap ;) mobo aan laten passen, aparte kast voor je vidoekaarten, en aggregaat voor je stoormvoorziening in de berging plaatsen ... maar wel leuke framrates ;)

* 786562 Atmosphere
Als het echt de SLI techniek is van 3DFX(voodoo 5) dan kunnen ze gaan tot 64 GPU's. Dit was namelijk bij de Voodoo 5 mogelijk.

Maar ik vraag mij af of dit echt SLI is, want voor zover ik weet werd de SLI techniek verkocht aan Quantum 3D.

Quantum verkoopt ze alleen tot 16 GPU's, maar verkoopt nog wel voodoo 5 based systemen.

Hmm ik heb ff gekeken, maar nu kan het ook zijn dat Nvidia al langer SLI GPU's(Geforce fx??? ) heeft, maar nu pas besluit om dat ook aan de consument aan te gaan bieden.
Het is mischien niet betaalbaar voor de huis tuin en keukengebruiker
maar leest iedereen hier het bericht uberhaupt of lezen ze alleen 2 videokaarten yey lekker snel gamen
dit is totaal niet gemaakt voor games puur voor grafische bewerkingen je games zijn mischien grafisch maar is toch iets anders
en ik denk dat de bedrijven die dat nodig hebben echt wel het geld er voor hebben
tenzij iedereen hier een multi xenon CPU systeem heeft staan
Ik denk dat dit ook best op gamers is gedoeld hoor. Er is toch nog een betrekkelijke groep mensen die vrij makkelijk $5000 voor een PC wil neertellen. Zat yuppen overal ter wereld...
dit is totaal niet gemaakt voor games puur voor grafische bewerkingen je games zijn mischien grafisch maar is toch iets anders
Jij leest ook wel erg slecht moet ik toegeven!! Zie post van Nvidia en SLI....
Het is dus wel puur voor games ... En het is nu nog niet betaalbaar, maar over een half jaar ziet dat er vast anders uit.
Voor grafische bewerkingen zijn er weer andere kaarten (quadro) die ook in SLI kunnen draaien!
Dus Lees zelf voordat je antwoord :)
nou...
Er moeten wel 2 videokaarten worden aangeschaft. En dan dat systeem om ze te combineren. En niet te vergeten een speciaal moederbord...
ATi heeft in het verleden toch ook dit soort spul verkocht (Rage Fury Maxx ofzo).

Mij benieuwen wanneer ATi dit weer gaat gebruiken.
Dat was een kaart met 2 GPU's op 1 PCB idd.

Die deden om de beurt 1 frame. Kaart was helaas een redelijke flop :(
:D Ik vond het wel een stoer kaartje hoor, kon je lekker mee patsen in die tijd }> De meeste mensen hadden toch een trage bak dus alles wat beter dan dat van hun draaide vonden ze al geweldig :P

Ontopic: Ik hoop wel dat andere merken hier ook op over gaan, dat je straks zelf een mobo kan kopen en er zelf 2 kaarten die dit ondersteunen op kunt prikken zodat iedereen hier van kan mee genieten.
NVidia heeft de techniek van 3DFX (voodoo)
opgekocht dus ati zla dan zoiezo met een andere techniek moeten komen

en als het om die alienware gaat het is juist gemaakt voor grafische prestaties
meer gericht op videobewerking en 3D modeling
niet echt voor Farcry DOOM 3 en HL2 mischien dat het in de toekomst wel komt alleen als je 2 identieke kaarten (of tenminste 2 cores) erin moet zetten wordt het al lastiger
of je koopt 2 budget kaartjes en later moet je later allebij vervangen

of je koopt 2 high end kaarten van 600 euro per stuk en gaat een tijdje mee

enigste nadeel alleen is als dat main stream gaat worden gaan de game fabrikanten er ook op bouwen (dus games nog grafischer maken nog meer special effects nog meer explossies) en zal ook dat na een jaar waarschijnlijk de hoogste opties niet meer aankunnen

dus het komt op 1 ding neer voor de ultimate gamer wordt het toch altijd wel upgraden :)
Waarom krijgt de man deze eer?
Getuigt een patser van enig inzicht?
@generaal: hier heb je er ook een, ik had er nog wat over
De techniek om elke gpu steeds een frame te laten uitvoeren was op zich geen flop. Maar er kwam vertraging in de ontwikkeling waardoor de snelheidswinst toen ie eindelijk op de markt kwam, niet meer hoog genoeg was in vergelijking met de concurrentie.
En niet te vergeten de Volari .... de 'beste' serie van Volari heeft ook 2 GPU's aan boord, en dit is ook niet bepaald een succeskaart
Ja maar aangezien de duo oplossing bij volari trager is als de enkele lijkt me dat ook aardig logisch dat de volari reeks echt slecht verkoopt en ook niet of nauwelijks te krijgen is. Deze oplossing is soms 77% effectief (ze willen naar de 90% gaan) met een 2 kaart erin dus dit lijkt me voor de performance freak met een grote buidel ideeal.
Hiermee gaan dikke 3dmark scores gezet worden }>
Sterker nog, ATi gaat gewoon weggeblazen worden van de 3dmark tabellen. Zeer goede zet van nvidia lijkt me.
Waar basseer je dit op?

ATI gaat echt niet zitten toekijken hoe de concurentie de kop positie weer stevig terug pakt.

De techneuten bij ATI zijn ook zeker niet debiel en kunnen ook gerust een dual GPU kaart of link mogelijkheid bouwen, maar waar het om gaat is of het rendabel is.
Als op de 1 miljoen verkochte kaarten, slechts 10 stuks in een dual opstelling worden geplaatst, dan is het een beetje erg overbodig om de mogelijkheid te creëren. Bij nVidia werkt het voorlopig alleen met het topmodel mogelijk wat dus resulteert in een bedrag van 1100 tot 1200 euro ALLEEN voor de grafische kaart. Daar komt dan nog een mainboard met dual PCI Express 16x slot bij á 400 tot 500 euro. Op dat bord gaat geen "gewone" P4 of Athlon 64, dus zit je ook vast aan een Xeon of Athlon Fx/Opteron á 400 tot 500 euro. Je praat dus "gewoon" over een computer van minimaal 2000 euro en daar heb je bijna 4 budget systemen voor, die gezamelijk sneller zijn dan dat ene monster.

Deze hele hype is dus gewoon om te laten zien wat men kan. Gebruikt wordt het niet of nauwelijks, in ieder geval niet voor 2006.
Dit gaat een dure grap worden zo'n SLI.
Zal helaas alleen voor diegene zijn met een dikke buidel.
Je hoeft ook niet beide kaarten in een keer te kopen....je kan ook eerst één kaart kopen en als je weer genoeg geld hebt voor een tweede de tweede er bij kopen.
Tegen de tijd dat je het geld hebt is de betreffende kaart ook weer een stukje goedkoper dus dat scheelt weer.

Nadeel is dan wel dat er misschien dan inmiddels wel weer een volgende, beter versie uit is.
Je moet niet alleen 2 videokaarten kopen, maar ook een mobo met 2x PCI-express 16x.
Hoeveel borden ken jij die dat hebben?
En hoeveel gaan die borden kosten?

Bovendien moet je een nog duurdere voeding gaan kopen.

Daarom is deze oplossing ook veel minder interessant dan de SLI van 3DFX. Toen hoefde je echt alleen maar een extra videokaart bij te kopen. (die je een half jaar of jaar later voor een mooi prijsje kon krijgen, en dan had je toch een flinke snelheidswinst)
Nu zou je in eerste instantie al een veel duurde mobo en veel duurdere voeding moeten kopen, waar je pas wat aan hebt als je die extra videokaart koopt.

Voor de totale meerprijs van dat systeem kan je waarschijnlijk over een jaar beter de nieuwste videokaart kopen. Die is weer 2x zo snel als de huidige kaarten, dus ook sneller dan deze sli oplossing. Bovendien heeft die weer andere nieuwe features die je wellicht wilt hebben.

Dan heb je meer waar voor je geld. Waarom zou je dan zo'n SLI oplossing kopen?
je zou ook gewoon nu (uhm als die kaart uit is) een mobo kunnen kopen met 1x pci e 16x en zo een videokaart, en dan waneer je besluist dat je je gpu te traag vind, dan een nieuw mobo en voeding kopen (die zullen dan een stuk goedkoper zijn dan "nu")
Was met de voodoo 2 toen ook wans je ook iets van 600 gulden kwijt en dat was toen de tijd veel geld maar wel heel snel :)
Dus het grote voordeel is dat je verschillende kaarten kan combineren, waarna Alienware alleen zelf complete sets levert... Beetje vaag. Ik denk niet dat ze dan vreemde combinaties van kaarten zullen gaan gebruiken. Als je toch zelf je set samenstelt, waarom zou je dan twee (of meer) verschillende kaarten gebruiken? :?
Misschien als je later je systeem wilt upgraden?
Ik denk dat het hier meer om een eventuele uitbreiding gaat. (niet upgrade, zoals Metal Baron suggereert, dan zou je waarschijnlijk allebeide kaarten tegelijk vervangen)
De Video Array techniek van Alienware is niet beperkt tot twee kaarten, dus je koopt bijvoorbeeld in jaar A een Alienware systeem, maar een jaartje later wil je er toch nog een extra videokaart bij. Als de originele videokaart inmiddels van de markt is, kun je altijd een ander model bijplaatsen.
Zo kan het gebeuren dat je verschillende kaarten in je systeem hebt.
Ben wel benieuwd of het effectief ook veel sneller is, zijn er al benchmarks beschikbaar bijvoorbeeld?
Bekijk even de recente GPU reviews. Vrijwel alle game benchmarks zijn door de CPU begrensd. Zelfs op 1600x1200 resolutie...

Dus nee, voor de gamer is het totaal zinloos.

Voor de ontwikkelaar kan het wel nuttig zijn, omdat die voor toekomstige hardware ontwikkeld, en dus voor hoger presterende systemen ontwikkeld.

Maarre.... de vraag is natuurlijk of zo'n dual oplossing een realistisch beeld oplevert van wat de nieuwe generatie kaarten doet... Vaak veranderd er meer aan de kaarten dan alleen de pure snelheid.

En de ontwikkelaar krijgt natuurlijk een probleem, in de zin dat hij er niet een tweemaal zo snelle CPU naast kan zetten....
Door CPU begrensd? op 1600x1200? Wat een @!)($*)(@!$ CRAP!, Natuurlijk blijft die GPU OOK ALTIJD een bottleneck, evenals de CPU. Er zit echt wel dik verschil in 2 kaarten ten opzichte van 1, zelfs op een 'normale' 2500+ AMD. Onzin dat CPU de bottleneck zou zijn. Jij hebt vast niet meerdere malen TOP spul gekocht en ondervonden dat je videokaart nogsteeds te 'traag' was.
Jij bent vast zoiemand met een Ti4200 en zich afvraagd wat die mensen allemaal doen met een R9800XT.

Zeg nou zelf, iedereen kon toen de tijd ook vinden dat een Voodoo2 SLI overdreven was, ik vond em te traag, want Quake2 op 1024x768 (1 Voodoo2 kon max 800x600, SLI kon 1024x768) Draaide niet geheel vlekkeloos. Dat wil zeggen, hij kwam nogal eens onder de 85FPS. En daarnaast had je in die tijd niet eens goeie tri-liniaire filtering en bestond AA en AF nog niet eens. 1600x1200 Gamen was waanzin. Hoe kan je dan stellen dat het TE overdreven zou zijn. En reken maar dat de nieuwste en snelste overclockte GPU op 1600x1200 met alle functies aan NIET geheel soepel draait! VSync aan, en drops onder de 87Hz in 1600x1200 (in mijn geval, op 21" trinitron) resulteerd al in crap, als je daar continu boven wilt blijven mag je toch echt wel 4 van die Geforcen in je PC hangen hoor. En reken maar dat dat ubergeil is, duur jah, maar wel ubergeil :P En tjah, als je toch al elke maand 300 Euro Stufi over houdt, wat houdt je dan tegen? Hoef je niet eens voor te werken :D LoLz

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True