Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 162 reacties
Bron: Hardware Analysis

Op Hardware Analysis is het opmerkelijke bericht verschenen dat nVidia een oude techniek van 3dfx weer gedeeltelijk in het leven gaat roepen, namelijk SLI. Met SLI konden twee Voodoo2-kaarten in één pc geprikt worden waardoor de 3d-prestaties bijna verdubbeld werden. Sindsdien heeft geen enkele fabrikant een dergelijk product in het assortiment gehad. Een logische reden hiervoor is het feit dat alle moederborden maximaal één AGP-gleuf hebben waardoor een opstelling met twee videokaarten weinig zinvol is.

Met de introductie van PCI Express zal deze situatie echter veranderen. Verschillende dual Xeon-moederborden zullen in ieder geval de beschikking krijgen over een tweetal PCI Express x16-sloten waardoor de mogelijkheid van een SLI-achtige opstelling weer is teruggekomen. nVidia heeft besloten hierop in te springen en heeft de PCI Express GeForce 6800-serie uitgerust met een speciale poort om een tweetal kaarten samen te kunnen laten werken. De techniek hierachter is echter wel enigszins verschillend met die bij SLI. De kaarten renderen niet om en om één beeldlijn, maar de ene kaart rendert de bovenkant van het beeld terwijl de andere kaart de onderkant voor zijn rekening neemt.

Door middel van dynamisch load-balancing wordt ervoor gezorgd dat beide kaarten een gelijke hoeveelheid werk te doen hebben. Momenteel is een opstelling met twee GeForce 6800-kaarten circa 77 procent sneller dan een opstelling met één kaart, maar nVidia verwacht dit getal op te kunnen schroeven naar 90 procent door middel van het verbeteren van de dynamisch load-balancing. Hoewel twee GeForce 6800-kaarten in dual opstelling waarschijnlijk bloedsnel zullen zijn zal de prijs van een dergelijke opstelling niet mals zijn. Niet alleen twee videokaarten zijn nodig, maar ook een relatief duur workstationmoederbord samen met een Xeon-processor. De nieuwe generatie SLI-techniek zal dus in ieder geval voorlopig alleen weggelegd zijn voor de upper class van de tweakerbevolking.

Dual PCI Express GeForce 6800 Ultra in SLI-opstelling
Moderatie-faq Wijzig weergave

Reacties (162)

1 2 3 ... 7
Hmmm dat ding vult nu al standaard 4 slots , en zal waarschijnlijk ook geen stille boy zijn , hoe rendeert ie dan als je dualview gebruikt ? ( en beter hoe sluit je het aan ) of zou je eventueel 4 aansluitingen kunnen gebruiken -overkill-
Ik neem aan dat hij dan ook de boven- en de onderkant zal splitsen.

Wat ik me trouwens ook afvraag is het resultaat van een (of meerdere) analoge monitoren. Als de kaarten ook maar een klein beetje afwijken dan heb je al kans op kleurverschil, bij de Voodoo SLI had je daar vrijwel geen last van omdat de kleurverschillen over het hele scherm verdeeld waren.
Als de kaarten ook maar een klein beetje afwijken dan heb je al kans op kleurverschil, bij de Voodoo SLI had je daar vrijwel geen last van omdat de kleurverschillen over het hele scherm verdeeld waren.
Wat bedoel je precies?
De kaarten worden digitaal met elkaar verbonden en er is dus maar een RAMDAC actief.
wat ook een probleem lijkt is dat deze kaarten elk 2 sloten breed zijn, en dus tussen elk slot 1 slotruimte vrij moet zijn, maw. je zal niet alleen een mobo met 2 pcix-16 sloten nodig hebben, maar die 2 sloten mogen dan ook niet vlak naast elkaar staan (wat wel logischer lijkt uit een mobo-designstandpunt) maar er moet 1 slot tussen zijn....
Dualvieuw 3d renderen ? ..denk niet dat veel mensen deze opstelling daarvoor gaan gebruiken ..

Meer een oplossing voor gamers .. en ik ken niet zoveel games ( zeg maar geen ) die dual screens ondersteunen ..
LOL, las ik het geld had zou ik dit gelijk voor een dual view opstelling in FS2k4 willen gaan gebruiken. Helaas heb ik het geld niet. Het punt is dus dat er bepaalde markten zijn waar multi monitor wel vaak gebruikt wordt, zoals Flightsims.
Als je je zo'n systeem kan veroorloven, kan je er ook wel nog een degelijk, stil waterkoelingssetje bijkopen zeker? Anders zal je idd met een stofzuigergeluid zitten. Zeker omdat één van de twee kaarten een slechte luchtaanvoer heeft... :)
Voor de rest vind ik het wel een prachtinitiatief: als je je systeem wil upgraden, koop je dan gewoon een 2de handskaart bij en je prestaties zijn weer up to date! :Y)
in de allienware (of zoiets) zaten er al 2 in, dit leverde een goede speed boost op :)
Daar komt bij dat dit volledig hardware matig gaat, terwijl dat van Alienware alleen op een aangepaste XP (speciale software/drivers) gaat...
Deze oplossing zal ook echt wel speciale code in de drivers vereisen hoor.
bij de alienware werden de uitgangen doorgelust naar een mysterieus kaartje waar dit hoogstwaarschijnlijk ook hardwarematig werd gedaan. softwarematig kan je zo'n performance-boost bijna niet meer halen vandaag de dag
Die is met pentium's jah.

Maar een dual-kaart opstelling is toch ook wel in een opteron-workstation mogelijk.
(tenminste in de toekomst)
Processor maakt niks uit, het gaat er hier om dat je 2 sloten hebt voor de grafische kaarten
Reactie op: n4m3l355:

Ik bedoel niet qua processor snelheid maar het merk, ik reageerde ook op GP500 die het over Intel had.. AMD begint nu trouwens met de Athlon64 Intel soms in te halen op het gebied van grafische bewerkingen (stond in een oudere nieuwsposting)
gezien de prijsklasse valt deze ook meer in de mid-end workstation reeks terecht.
mid-end? zeg maar gerust high-end. Niet voor niets staat er in het artikel:
...zal de prijs van een dergelijke opstelling niet mals zijn. Niet alleen twee videokaarten zijn nodig, maar ook een relatief duur workstationmoederbord samen met een Xeon-processor. De nieuwe generatie SLI-techniek zal dus in ieder geval voorlopig alleen weggelegd zijn voor de upper class van de tweakerbevolking.
voor een workstation waar deze op gericht is zal de processor zeker van belang zijn. gezien de prijsklasse valt deze ook meer in de mid-end workstation reeks terecht.
en voor workstations zal je 'm waarschijnlijk ook zo nu & dan willen laten renderen en zul je dus naar mijn idee eerder een dual xeon ipv een dual opteron aanschaffen.
ik vraag me eigenlijk hoe het met de airflow zit. als je kijkt hoe dicht het opelkaar zit en dan nog eens die bridge ertussen..
er bestaan nog steeds pci videokaarten :Y)
weddu dat er tweakers of gamers zijn die het toch kopen.

ZIjn overigens niet de echte tweakerts in mijn optiek. De echte tweakers wil met zo weinig mogelijk middelen het onderste uit de performance kan schrapen.....
Dat was een speciale array. De lijnen in het beeld welden verdeeld over de bijde kaarten stel je hebt 4 lijnen deed kaart 1: 1 en 3 en kaart 2 : 2 en 4.
Hoe weet jij dat dat hier niet het geval is?
Bij het alienware systeem was het scherm ook gewoon verdeeld in 2 (de ene doet de bovenkant, de andere de onderkant).

@ Jan: hier is dat trouwens ook het geval. Lezen!
De techniek hierachter is echter wel enigszins verschillend met die bij SLI. De kaarten renderen niet om en om één beeldlijn, maar de ene kaart rendert de bovenkant van het beeld terwijl de andere kaart de onderkant voor zijn rekening neemt.
oh vet :)

Dat gaat wel een duur geintje worden, maar volgens mij zijn er maar zat gasten die gek genoeg zijn om zoiets te kopen. heb je gelijk geen exotische vloeistoffen meer nodig om extreme 3dmax scores te halen, gewoon een extra kaartje erbij prikken.
Vraag me af wat ati hiervan vindt, want zo biedt nvidia de snelste 3d oplossing (de prijs even buiten beschouwing gelaten)
Ik denk dat je met dit soort kaarten zo langzamerhand een koeltoren nodig hebt om ze te koelen en een eigen krachtcentrale om ze van power te voorzien. :+

Maar goed: dan heb je inderdaad ook wel de meest compromisloze grafische oplossing die je kunt krijgen. Het mag wat kosten...
Ja idd, nVidia zecht al dat je voor één GF 6800 ultra al een 480Watt voeding nodig hebt...
Kan je nagaan wat twee van die dingen aan stroom nodig zullen hebben.

Zie ik daar op dat plaatje nVidia G-Force 6 series staan...
Als die kaarten alleen zoveel stroom verbruiken tijdens het 3d gebruik vind ik het nog wel gaan. Als tijdens het 2d surfen, officen en filmpje kijken het verbruik maar beduidend lager is.

Een pc staat namelijk vaak uren achetreen aan, maar welk deel van die tijd wordt er gegamed (even de professionele grafische toepassingen buiten beschouwing gelaten).
@kris: Deze kaarten koop je echter niet om alleen mee te surfen, officen en filmpje kijken :)

Reken er maar op dat je een flinke voeding zult nodig hebben :+
Ja idd, nVidia zecht al dat je voor één GF 6800 ultra al een 480Watt voeding nodig hebt...
Kan je nagaan wat twee van die dingen aan stroom nodig zullen hebben.
350Watt (wel btje goeie kwaliteit).... en dat is dan ook rekening houdend met snelle hdd, cpu (>3ghz / > 3000+) etc...
denk dat je aan 480 wel ruim genoeg hebt voor 2 kaarten.
Ik wil deze gaan bestellen, maar wacht nog even tot de prijs van een 3,5" SOHO laagradioactieve reactor van 1 MW wat zakt.

Wel geinig, zet je je quad Xeon, dual Nvidea computer met 4 21" TFT monitoren en 4x8GB simmetjes aan, gaat in heel het huis het licht uit.

Kun je niet eens meer geluid horen via je audigy en surroundsound installatie! piece of shit cheapass PC junk.

Ik ga volgende week wel naar de aldi
onzin. de extreme scores zullen alleen gewoon een stuk boven de gemiddelde niet ge-ocde 1-kaart scores liggen. Want waarom zouden die-hard-tweakers die 2 kaartjes niet ook nog eens flink overclocken?
Want waarom zouden die-hard-tweakers die 2 kaartjes niet ook nog eens flink overclocken?
Om DE beste score te halen?
het zijn toch ook niet alleen de amd's 1700+'s die ge-oced worden, maar ook de nieuwste amd's 3200+ die worden overgeklokt?
Ati zal hier overigens niet erg moelijk over doen .. Zij bezitten immers zelf een soortgelijke techniek (kijk maar een naar de Rage PRO/128 MaXX series.)
Daarom moet je ook maar afwachten of het wel een succes word.

SLI was immers al jaren bekend en is steeds niet gebruikt omdat het met de huidige spellen niet zinvol zou zijn. Idem voor de MaXX van ATI.

Dan nog dat debacle van XGI er overheen.

Tot 1 maand geleden stelden alle experts nog dat dual core's/dual kaarten op dit moment niet zinvol zijn, en nou komt er ineens een gerucht over Nvidia en denkt men hier ineens dat het wel een groot succes wordt??

Ik geloof het pas als ik het zie.

Om even heel sceptisch te zijn:
Wellicht is het gewoon een truukje om op die manier mensen makkelijker een 6800 te laten kopen met de hoop dat ze 'm ooit in SLI kunnen zetten, om op die manier wat marktaandeel van ATI terug te kunnen winnen.
Met niet zinvol bedoel is dat het veel te duur is voor een marginale snelheidswinst. Dus geen 90% winst!

Juist een nieuwe kaart maken met 2 cores zou makkelijker moeten zijn dan twee kaarten in SLI zetten. Allerlei problemen die je tegenkomt waardoor je geen grote snelheidswinst hebt zou je dan in het ontwerp omheen kunnen werken.

Dat XGI daar zoveel problemen mee had geeft al aan hoe groot de kans is dat Nvidia dat op zijn gemakkie even doet. (heel klein dus)
XGI werkte ook op een heel ander princiepe.
2 cores op 1 kaart.
SLI is 2 cores op 2 verschillende kaarten.
klinkt wel grotendeels hetzelfde maar als je 2 cores op 1 kaart duwt zijn er andere factoren die de boel verlangzamen omdat ze bepaalde onderdelen moeten gaan delen.

btw de reden dat XGI met hun Duo vollari V8 flopte was niet omdat die 2 cores op 1 kaart zo slecht was maar omdat hun drivers enz voor geen meter deugden.
zonder AA en AF kon de volari aardig meekomen (hoewel op afstand) zodra AA of AF ingeschakeld werden ging de kaart een dia voorstelling geven.
SLI was immers al jaren bekend en is steeds niet gebruikt omdat het met de huidige spellen niet zinvol zou zijn. Idem voor de MaXX van ATI.
Het gaat hier ook niet om zinvol, maar om stoer....

bovendien kan je bij farcry eindelijk flink wat shit aanzetten en resolutie @ heel hoog en toch een uber framerate.

Ok, dit is idd niet nodig, maar wel hartstikke stoer, en ik denk niet dat het heel veel gaat schelen in de productiekosten (dat dingetje tussen de kaarten ziet er niet echt duur uit en de kosten voor andere BIOS en drivers zullen ook wel meevallen)

Heel ander verhaal dan een compleet nieuwe kaart maken met 2 cores, zoals je ziet bij XGI leverde dat toch wel wat problemen op. (bestaan ze eigelijk nog??:S)
Dit verklaart dus waar de nieuwe aansluiting bovenop de 6800 voor dient, waar een paar dagen geleden nieuws van werd gemaakt.

Ik vraag me wel sterk af wat Alienware hiervan zal gaan vinden, aangezien zij bijna identiek klinkende techniek nu juist gepatenteerd en geïmplementeerd hebben, en daar groot reclame voor aan het maken waren...
Ze kunnen er niet veel van zeggen. Een pattent kan je namelijk alleen krijgen als het idee niet eerder is uitgevoerd. In dit geval is dat dus wel het geval, nl een tijdje terug in Voodoo kaarten. Dus als ik Aliënware was zou ik m'n mondje dicht houden, voordat m'n pattent ongeldig wordt verklaard. :)
Ik heb het idee dat dit dan ook niets anders is dan hetgene wat die alienware zooi gebruikte.. gewoon een 'prototype' van een dual 6800 opstelling. Of zit ik nou helemaal verkeerd? dat zou dus ook betekenen dat je in die alienware kasten als je dual gpu's wil ook alleen maar 6800's of future sli nvidia kaarten kunt gebruiken.. marketing op z'n best..
als ik het goed heb kun je in die alienware kasten 2 willekeurige kaarten SLI-en, zelfs 2 verschillende
En waar staat alienware nu als ook "gewone" producten met gelijkwaardige prestaties op de proppen kunnen komen
Ik zie het wel zitten lekker concureren :9
Begrijp ik het goed dat dus de kaarten binnen de computer verbonden kunnen worden? Dat is dus een andere technologie dan die van Alienware.. De technologie die Alienware "gepatenteerd" had, vereiste nog een derde "kaart" waar de output uiteindelijk uitkwam.. Volgens mij gingen er al iets van 2-DVI slots verloren.. Dat is dus hier niet het geval, als dus inderdaad die aansluiting intern is...

Verder, of het nut heeft? Mjah, maybe alleen voor de patser inderdaad.. :9 Ik denk dat ik weinig trek heb om twee peperdure kaarten in mijn PC te proppen.. En mbt het "goedkopere" kaart, kan je dan beter één goede kopen die niet zo veel warmte produceert als twee "goedkope" (ik neem aan dat het bijna niet meer mogelijk is met de nieuwe lage segmentsklasse om die dingen nog passief te koelen, zoals we bij de FXen 5200 zagen..?
Technologisch toch sterk van Nvidia na de mindere fx serie. Shader model 3 ondersteunen tov Ati, en dan nu dit. Tenzij Ati nu op de proppen komt met een MAXX serie :p

Nvidia was de laatste 2 jaar zO de grond ingeboord, ik vind toch dat ze zich mooi aan het hernemen zijn. Gogo! Als 2 honden vechten om een been , loopt de klant er mee heen :p
:Y)Das pas handig, kaart los kost al ¤550 euro ofzo, betaal je ¤1100 voor een kaart die momenteel niet eens nodig, plus dat je nu 2 van die straalkacheltjes in je PC hebt. Nee dank je.

Wat wel leuk zou zijn, is dat ze dit ook met goedkope budgetkaarten gaan doen en dat Mobo-bouwers hier op inspringen door er een 2 PCI-Xp poort opgooien.

Wat ik me ook afvraag is, is deze techniek ook bruikbaar voor ATI of zit hier weer z'n licentiegrap aanvast?
T zal vast gepatenteerd zijn door 3dfx toendertijd, dus heeft nvidia de rechten ervan. Maar ik denk dat ati dan ook zn gpu`s opnieuw onderhanden moeten nemen omdat deze ondersteuning er vast niet inzit.
En dan kunnen de baten vast niet op tegen de kosten. Want wie neemt nu zon opstelling behalve een paar diehards. Alleen tegen t eind van de productie van de 6800 serie word dit interressant denk ik omdat dan de kaarten dan goedkoper worden. Met de voodo 2 van 3dfx is t bij mij wel zo gegaan in elk geval. Mn eerste voodo2 heeft 500 ballen gekost en ong. 1.5 jaar later een 2e bijgeprikt voor iets meer als 100 ballen.
Vergeet niet dat dit geen 3dfx SLI is he, SLI is ScanLine Interleaving, vertaald dus elk lijntje afwisseld een kaart. Dit van nvidia is gewoon het beeld in 2 delen splitsen.
De reden daarvoor zal wel zijn dat ze load balancing kunnen toepassen door de ene kaart net wat meer lijnen tov het midden kunnen laten renderen, en ook clippingtechnieken die hedendaags veel verfijnder zijn makkelijker toepasbaar zijn op een groot vlak dan elke lijn afzonderlijk.
Iets meer DAN 100 ballen he? Waren dat euro's of florijnen?
Nee hoor, ballen zegt ie :+
ik hoop soepballen voor arbraxas want gehaktballen zijn iets duurder
Alienware had toch al systeem met 2 X800 kaarten erin?

alleen de SLi techniek is eigendom van nvidia dus als ATI dit wil gaan doen moeten ze denk ik met een eigen technologie komen.
Dr zit toch een duidelijk verschil tussen alienware en nvidia. Bij nvidia is de ondersteuning ingebakken en bij alienware heb je een extra kaart nodig die de splitsing regelt. Weet niet wat dat kaartje kost van alienware maar dat zal niet mals zijn. Plus t feit dat je hem volgens mij niet los kunt kopen maar direct een heel systeem van alienware moet kopen.
Gelukkig heb je zoveel slot's hierna over in je kast voor nog ander hardware. Niet echt.

Eerst heeft men warmte problemen. gelukkig is het met deze oplossing opgelost. OOk niet echt.

Vind het maar een dure oplossing voor enkel de ueber gamers die echt altijd het beste van het beste willen hebben.

Ik investeer mijn geld toch liever in iets goedkopers (meer bang for the buck), want na 2 jaar is het toch niets meer waard.
je kan ook investeren in 1 exemplaar met het idee om over een paar jaar eenzelfde kaart voor heel wat minder geld erbij te steken. een snelheidswinst van ~75% is toch een mooie upgrade.

ook geen gekke marketing lijkt me - mits goed geimplementeerd
je vergeet alleen dat als je een paar jaar (1 tot 2 jaar dus) wacht dat er dan al weer een nieuwe versie van Direct X is waardoor je met behulp van de 2e kaart wel sneller word, maar waar je dus niet de nieuwste direct X kan gebruiken en daardoor mis je dus de laatste eyecandy
Na een half jaar daalt dat ding al dik in prijs, dus zooo lang hoef je niet eens te wachten......
gewoon ffies geduld (net als toen met de vooodoo2) en dan zijn ze een stuk betaalbaarder...
Waarom denk je anders dat het zo duur is? Juist zodat die uber gamers die kaarten wilen kopen. Nvidia moet zoveel mogelijk winst maken voor ze het bij de massa neerleggen, er zijn zat ubernerds die die dingen gaan kopen, dat is allemaal PURE winst voordat nvidia de prijzen verlaagt...
of je het nou leuk vindt of niet, het werkt wel....
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True