Ook nVidia bezig met 3-way sli

In navolging van AMD, die eerder deze week een werkende 3-way crossfire-opstelling liet zien, zou nVidia bezig zijn om het mogelijk te maken drie GeForce-videokaarten samen te laten werken.

Volgens de Chinese site Expreview is nVidia in het laatste stadium van het ontwikkelen van een geschikte driver. Met behulp van de driver en een moederbord gebaseerd op de nForce 680i SLI- of nForce 780i SLI-chipset zouden drie GeForce 8800 GTX of GeForce 8800 Ultra-kaarten aan het werk gezet kunnen worden.

Om een dergelijk opstelling te bouwen zal een speciale 3-way sli-brug nodig zijn die gebruikmaakt van de dubbele sli-aansluitingen die deze kaarten bieden. De goedkopere modellen zijn hier niet mee uitgerust en daarmee ook niet geschikt voor een triootje. De oplossing die eerder deze week door AMD gedemonstreerd werd gebruikt geen bruggen om de kaarten met elkaar te verbinden, waardoor de techniek niet alleen door de topmodellen gebruikt kan worden.

Nvidia-slide over 3-way sli

Door Hielko van der Hoorn

11-10-2007 • 20:54

120

Reacties (120)

120
106
27
21
0
12
Wijzig sortering
Anoniem: 88387 11 oktober 2007 20:56
welke normale consument kan nog moderne spelletjes spelen zometeen? de kloof wordt telkens groter tussen sli setups voor de hardcore-gamers en de geintegreerde video chipsets voor de consumenten. spelletjes makers voor de pc krijgen telkens meer met een verscheurd platform te maken.
Spelletjes makers krijgen inderdaad te maken met een verscheurd platform. Maar daar hebben ze uiteindelijk zelf voor gekozen met het grafische geweld dat zo nodig steeds geintroduceerd en geupgrade moest worden.

Tot nu toe bouwen ze nog altijd instellingen in om de grafische kwaliteiten van een spel een stuk achteruit te gooien waardoor het op een "normale" computer goed speelbaar blijft. Ik zie dat niet snel veranderen omdat ze dan een een enorme doelgroep missen.
Spelletjesmakers hoeven op zich niet zoveel rekening te houden met platform, met uitzondering van de grafische dinges waar ze het op bouwen (Direct X). De rest is marketing - 'kijk ons eens, wij hebben een engine die maar 20 FPS haalt op een drievoudige SLI bak MAAR kijk eens naar die lichteffecten! details!'. Voor zover ik weet zijn er buiten marketingtechinsche redenen om nog nooit spellen gemaakt die speciaal voor SLI of wat dan ook gemaakt zijn, laat staan voor de high-end markt.

Ik bedoel, door de overgrote middenmoot niet te ondersteunen laten ze ook de overgrote omzet liggen, tenzij ze pas over 2 jaar verwachten hun spellen te verkopen.
Daarom hebben ze dus video-settings uitgevonden. Dan heb je met een high-end bak alle eye-candy en ziet het er met een mid-end nog prima uit.

Het grootste probleem wat ik nu zie is dat sommige graka's geen ondersteuning hebben voor SM3 en dat dit toch regelmatig echt een vereiste is. Niet altijd zoals bij Bioshock is er een oplossing gevonden.
welke normale consument kan nog moderne spelletjes spelen zometeen?
Iedereen? Dit soort extreme setups zal echt niet vereist zijn om fatsoenlijk een spel te kunnen spelen, daar zijn ze veel te zeldzaam voor.
en de geintegreerde video chipsets voor de consumenten.
Games? Op een IGP? Dat heeft toch nog nooit fatsoenlijk gewerkt?

[Reactie gewijzigd door Olaf van der Spek op 25 juli 2024 21:56]

Games? Op een IGP? Dat heeft toch nog nooit fatsoenlijk gewerkt?
Jij hebt nog nooit Nethack gespeeld. Werkt op elke onboard VGA kaart (en MCGA, en EGA, en CGA, en elke andere kaart met een fatsoenlijke character mode ondersteuning, en via een remote sessie (Telnet/SSH), en...).
Whahah geweldig dat waren nog es tijden, met roguelike.net enzo, prachtig. Toen nam je nog met een @ die je speler voorstelde in tekstmode genoegen :)
Overdrijven is ook een vak. Met mijn kaartje van 150 euri (half jaar oud) kan ik alles dat ik er nu tegenaan gooi op max spelen. Komende generatie games dus op medium, en over een jaar of 2 ben ik weer toe aan een 150 euri kostend kaartje. Lekker boeiend!

Ik snap sowieso het voordeel van SLI niet tenzij je smerig veel poen hebt en gelijk 2 of 3 high end kaarten erin rost. Je kan imho beter 1 gloednieuwe kaart hebben dan een hoop oude rotzooi. Wie gaat er nu nog een 6600 naast zn huidige gooien? Gooi dan gelijk een 8800 erin. met 2*6600 gaat crysis bv ook echt niet lekker draaien.

[Reactie gewijzigd door Anoniem: 130184 op 25 juli 2024 21:56]

Maar het is wel cool.... Denk dat dat een grote factor voor die mensen is.
Ik heb ooit een plaatje gezien van iemand hier op tweakers die een mobo + 2x 6600 aan zijn muur had hangen (dood weliswaar), en dat zag er erg bruut uit :) .
alles op max buiten je resolutie zeker ?

Mijn Geforce 7800GTX kan net mooi details weergeven op 1650 x ... (help me ff, kan er nie opkomen :p)

ps: games = cod2 (in dx7 mode notabene) en WoW

[Reactie gewijzigd door GoBieN-Be op 25 juli 2024 21:56]

Mijn Geforce 7800GTX kan net mooi details weergeven op 1650 x ... (help me ff, kan er nie opkomen )
Bedoel je niet 1680x1050 breedbeeld?
volgens mij is er geen resolutie die begint met 1650 :?
Tenminste niet in mijn resolutie instellingen (8800GTX op 1680x1050)
De eerst volgende kleinere hier is 1600x900, dan 1280x1024...

Maargoed lekker offtopic iig :P
tja... geïntegreerde GPU lijkt mij toch meer iets voor de zakelijke gebruiker of een consument die geen weinig grafische kracht nodig heeft (denk aan office-taken)...

het is uiteindelijk steeds een afweging van eigen keuzes...

@ Sunbeam-tech:

volgens mij moet dergelijke combinatie toch lukken... anders zouden ze er toch geen reclame mee maken volgens mij...
volgens mij moet dergelijke combinatie toch lukken... anders zouden ze er toch geen reclame mee maken volgens mij...
Ja dat dacht ik ook.
Dit plaatje zou natuurlijk een soort voorbeeld (beta versie) kunnen zijn om het even duidelijk te maken.
De uiteindelijke versie zal misschien wat meer ruimte overlaten tussen de kaarten voor voldoende airflow.
Reken dat je voor 3 * GTX dus 3 * ~24Amps over je 12V lijn moet janken.

Kortom dit is de V16 Rolls Royce onder de videokaarten.
Anoniem: 226872 @_Apache_11 oktober 2007 21:10
Ik stuur de milieudienst op iedereen die hierin is geïnteresseerd af :+ :'(

Ik hoop dat we met videokaarten snel het c2d tijdperk ingaan:
beter architectuur om kaarten sneller te maken ipv mhzen opvoeren. Dit wordt te gek

[Reactie gewijzigd door Anoniem: 226872 op 25 juli 2024 21:56]

Dit is toch allang zo? Volgens mij heb je een verkeerd beeld van het C2D tijdperk. De nieuwste quadcores van intel verbruiken evenveel als de prescotts van vroeger.
Ja, en leveren daarbij 4x zoveel prestatie voor hetzelfde energieverbruik..
Nu nog wachten op standaard een 32Amp aansluiting in de meterkast voor dit soort toekomst muziek.
72 amp op 12V is maar +- 4amp op 230V hoor ;)
Ik neem aan dat je met "Trio-SLI" net als bij de "gewone" SLI géén meerdere monitoren kunt aansluiten wanneer SLI ingeschakeld is?

wanneer gaat nvidia daar overigens iets aan doen..

[Reactie gewijzigd door Raven op 25 juli 2024 21:56]

Inderdaad,dat was een reden om heel SLI gelijk weer de deur uit te donderen.
Zet je het bewust uit,......blijft ie maar miepen over SLI aanzetten.
Daar heb je dan een vermogen aan uitgegeven,maar 2 schermen beetje windowsen is te moeilijk.
Techniek staat voor niets.
Anoniem: 109314 @Akino12 oktober 2007 13:15
even zeuren

'techniek staat voor niets' is een beetje oud nederlands en betekend 'techniek stopt voor niets' oftewel: er is niets wat je niet met techniek kunt oplossen.
dus dat klopt niet helemaal met de context waarin je dit gebruikt.
daar roepen ze al een half jaar wat aan te doen meende ik, geloof dat dat in een van de komende drivers in vista iig supported ging worden.

ik kan je alleen even geen bron geven, sorry ;)
Anoniem: 234567 11 oktober 2007 23:35
Allemaal leuk en aardig maar kijk nou zelf hoeveel winst maakt SLI nou meer als gewoon één videokaart., Meeste spellen maken maar weinig gebruik van SLI okay misschien de nieuwste wel maar dat duurde lang en de SLI drivers vond ik ook nog niet zo super. Vaak bugs in spellen.

En zoals er al eerder werd gezegt je bereikt meer met Duel Core of Quad core op 1 kaart denk ik dan 3 kaarten maar een videokaart is ook geen CPU. Want je hebt veel te maken met pipelines etc etc.

Sli misschien leuk voor de echte hardcore gamers die veel geld willen uitgeven aan een computer maar ongeveer 2% heeft het volgens mij.

Eff snel nageken op steampowered.
Multi-GPU Systems (12984 of 1092675 Total Users (1.19% of Total) )
Link http://www.steampowered.com/status/survey.html
en ik denk dat er veel hardcore gamers bijzitten (en nee niet alleen source etc steam is niet source maar een uitgever via het internet voor de mensen die steam als source zien)
Ik snap deze introductie niet helemaal. Heb zelf 2x in een SLI systeem geïnvesteerd (7800gtx en 7900gtx) en ben beide keren van een behoorlijk koude kermis thuisgekomen.

De snelheidswinst is minimaal en de driverondersteuning staat zacht gezegd op een laag niveau. Heb nu 1 8800GTX en kan al mijn spellen full draaien op 1920x1280.

De potentiële markt voor 3 van deze kaarten is zo klein dat de driverondersteuning waarschijnlijk weer het kind van de rekening zal zijn.
Leuk, maar ik zie de noodzaak er niet geheel van in. Momenteel kun je met 1 8800GTS al heel veel spellen op zeer hoog niveau draaien (mits de rest van je hardware in orde is. Bovendien zal deze powerblock een vermogen slurpen waar je niet gelukkig mee bent. Verdermeer geven dergelijke ontwikkelingen aan dat de grafische kaart industrie tegen hun ontwikkelgrenzen aan het lopen is. Al met al zal deze kaart een killer performance hebben die op een 27" monitor tot zijn recht doet komen, maar het is toch een slechte ontwikkeling. Veel vermogen nodig, veel warmte, veel ruimte er zal een nieuwe doorbraak nodig zijn in de grafische industrie om betere grafische kaarten te maken die minder vermogen slurpen en minder ruimte innemen.
Anoniem: 185441 11 oktober 2007 21:34
ze zouden ff moeten zorgen dat die dingen niet 2 slots in je kast in beslag nemen. doe dan heatpipes ofzo die dan naar de voorkant van je kast uitsteken zodat je nog andere hardware kwijt kan zoals geluidskaarten, capturekaarten en physics kaarten. High end gamedesigners zullen daar wel blij mee zijn omdat die naast hun productie hardware ook een extreem geadvanceerd gamesysteem nodig hebben om te kunne ontwikkelen voor de mainstream van de toekomst:


kaarten
______________
|___8800ultra___|==|=|=|=|=|=|=|
_geluidskaart___ {~~fan~~}
|___8800ultra___|==|=|=|=|=|=|=| koel elementen
_ageia physics__ {~~fan~~}
|___8800ultra___|==|=|=|=|=|=|=|
capturecard_____{~~fan~~}
______________/\________/\
______________||_airflow__||

[Reactie gewijzigd door Anoniem: 185441 op 25 juli 2024 21:56]

een high end game designer koopt zich dan ook het volgende voor zijn designs http://www.nvidia.com/object/tesla_computing_solutions.html
Anoniem: 201824 @QinX11 oktober 2007 23:39
Nice :9~
Misschien als ik de loterij win, koop ik zo'n high end centrale ;)
Sweet dreams
ze zouden ff moeten zorgen dat die dingen niet 2 slots in je kast in beslag nemen. doe dan heatpipes ofzo die dan naar de voorkant van je kast uitsteken zodat je nog andere hardware kwijt kan zoals geluidskaarten, capturekaarten en physics kaarten. High end gamedesigners zullen daar wel blij mee zijn omdat die naast hun productie hardware ook een extreem geadvanceerd gamesysteem nodig hebben om te kunne ontwikkelen voor de mainstream van de toekomst:
Ehh, dat lijkt me niet, kost het bedrijf waar de developper werkt alleen maar geld, om steeds ál die PC's bij te gaan houden qua hardware.

Gewoon een aantal test PC's, zet je verschillende systemen neer en dáár test je op...
En de PC waarop ontwikkeld word, C++ of zo (Is volgens mij de meestgebruikte programmeertaal voor games) kan met veel minder doen... :)

[Reactie gewijzigd door CH4OS op 25 juli 2024 21:56]

Om ook niet te vergeten moet je je HD's kwijtraken als je een midi tower hebt. Want die GTX's zorgen ervoor dat je geen HD cases onder kan kwijt raken. Om maar niet te spreken over extra fans en dergelijken.
"De goedkopere modellen zijn hier niet mee uitgerust en daarmee ook niet geschikt voor een triootje."

Dat vind ik dus belachelijk. Immers, het is juist bij de goedkopere modellen interesant om te doen. 3x 8800U is grappig, maar er zijn er maar weinigen die zoveel geld gaan neertellen. 3x8600 is veel gangbaarder.

Sorry, maar dit vind ik dus ronduit belachelijk en niets meer om de PR op gang te houden en niet om 'more value for money' te geven.
Anoniem: 125679 @maniak11 oktober 2007 21:01
Omdat het nutteloos is: 3 x 8600 is trager, duurder en lastiger dan 2 x 8800, dus het heeft (net als SLI momenteel) alleen echt nut bij high-end kaarten.
als je nu geld hebt voor 1 8600 en later voor nog 1 en dan nog 1... nutteloos? dacht het niet. Natuurlijk is 2x 8800 sneller maar dat kost meer per kaart en dat moet je op dat moment maar net hebben
in die tijd is 1 x een 9600 sneller en goedkoper dan 2 x een 8600 erbij zetten. tot nu toe is het altijd duurder geweets om sli te draaien.
Juist niet. Met een duurdere kaart kan je zo dus veel langer vooruit. Wanneer je computer het niet meer aankan, kan je zo een tweede kaart erbij kopen en weer later een derde. De prijzen zullen ondertussen ongetwijfeld dalen, waardoor je telkens voor een kleiner bedrag up-to-date kunt blijven.

Dus in plaats van telkens de nieuwste kaart moeten te kopen kan je nu een tegen die tijd wat oudere kaart kopen en heb je bovendien ook nog wat aan de oude videokaart in je computer.
Anoniem: 194689 @BarôZZa12 oktober 2007 07:00
Dan moet je natuurlijk wel het geluk hebben dat je kaart nog leverbaar is als je aan de 2e toebent. sommige kaarten gaan extreem snel EOL kijk maar naar de HD2900XT
tot nu is gebleken dat een nieuwe kaart vaak meer bang for the bucks dan een 2de van je oude.
Idd, vooral ook als het op energieverbruik en betrouwbaarheid aankomt. Ook is het de vraag of de huidige kaarten in de toekomst DirectX11 kunnen ondersteunen. 3xGeForce5700 (gebakken op 130nm) heeft namelijk toch ook geen DirectX10 ondersteuning, al is daar geen techniek om ze 'aan elkaar te knopen'.

Waarschijnlijk zit alles wat nu op 3 parallele SLI kaarten zit over twee jaar op 1 enkele
kaart, die meer features heeft, minder energie verbruikt, wegens miniaturisering en optimalere productie-processen hopelijk nog wat goedkoper is, en ook nog eens sneller communiceert, misschien door gebruik van optische componenten.

En daar zit je dan met je verouderde energieslurpende, doch 'goedkope' : €1000+ SLI opstelling.
Een nieuwe kaart is ook duurder dan een tweede van je oude. Niet in totaal, maar met een tweede van de oude ben je een langere tijd up-to-date.
Anoniem: 197152 @BarôZZa12 oktober 2007 08:27
Je vergeet dat je je oude kaartje nog kan verkopen als je een nieuwe kaart koopt.
Een nieuw kaartje is in 99% van de gevallen goedkoper/sneller dan een 2de exemplaar bijkopen.

Ook is het verbruik dan lager en de warmte.
Dit word lastig met waterkoeling :S
Waterkoeling is idd. niet ideaal, beter zou een phase change cooler zijn.
Dus net als in de koelkast een systeem aan te leggen waar vloeistof condenseert (waar lucht de vloeistof koelt) en verdampt (waar de vloeistof de GPU's moet koelen).

Of gewoon een gekoelde kast, zoals de Asetek Vaprochill
Juist niet. GPU blokken zijn vrij smal dus dat wordt geen probleem.
Een flinke radiator zal je wel nodig hebben. Ook moet je een krachtige pomp hebben.
Alleen wordt het zo wel bijhoorlijk duur en krijg je al een prima luchtkoeler bij je kaart.

@ Richt:
Tja, het is niet anders, tenzij je voor elke kaart een aparte radiator hebt.

[Reactie gewijzigd door Soldaatje op 25 juli 2024 21:56]

Moet je ze niet direct achter elkaar aansluiten, dan word de laatste gewoon met heetwater gekoeld als je een beetje overklockt
Je kan ze toch (met moeite, dat wel) parallel aansluiten? zodat ze alledrie 1/3 van de flow koud water krijgen, dat ze iig geen heet water van een andere krijgen
"warm" water is hooguit een graad of 2 warmer... dus van 25 naar 26 naar 27 graden en dan weer naar de radiator.. dat valt toch wel mee?
water stroomt zo snel door je loop dat op elk punt het water even warm is. zolang je rads voldoende capaciteit hebben en je pomp niet al te brak is werkt het gewoon, elementaire WC kennis hoor :S
Crossfire X ( zoals het nu volgens mij gaat heten )

Kan ook Quad crossfire opstellingen aan. Volgens mij heeft nVidia al support voor Quad SLi gehad maar was niet echt een succes. En dat was dan volgens mij alleen met 2x een 7950 GX2 kaartje.
;) werkt super zo'n opstelling van 2 X 7950GX2 alleen wordt hij ondergewardeerd
heb hem zelf ook lopende en ben zeer te vreden hier over.

Wat ik zie in deze "tri-sli" is een beetje het zelfde als met de 7950GX2, alleen hebben ze nu 3 kaarten met elkaar verbonden en "toen" 2

durf wel alvast te zeggen dat je een probleem krijgt met de koeling zoals bij de 7950GX2. standaard geen probleem maar als je gaat overclocken dan gaat het mis.
of je moet blij worden dat je koffie of thee warm blijft via je kaart, want 100gr haal je dan makkelijk :Y)
waterkoeling is wel een vereiste!!!
als die nou eens goedkoper wordt dan dat hij is (169,- voor 1 set waterblokken, in quad-sli dus 2 sets tbv GX2) dan kan het nog eens goed gaan aflopen met dit soort kaarten

Op dit item kan niet meer gereageerd worden.