Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Submitter: player-x

Nvidia's ceo Jen-Hsun Huang heeft zich 'per ongeluk' versproken. De topman beloofde vorige week nog dat de GeForce 8800GT ook in drievoudige sli-opstelling kon werken.

Nvidia's ceo Jen-Hsun HuangDe uitlatingen blijken echter niet te kloppen, zo leerde navraag van The Inquirer bij de pr-afdeling van de hardwarefabrikant. 'Een eenvoudige verspreking,' schreef Derek Perez van nVidia terug naar de Britse website.

De mogelijkheid voor drievoudige sli blijft dus alleen voorbehouden aan bezitters van een GeForce 8800GTX of een GeForce 8800 Ultra. Daarnaast is het wachten op de eerste geschikte moederborden op basis van de nForce 680i SLI- of nForce 780i SLI-chipset. Om het trio videokaarten aan te sluiten is een speciale sli-brug nodig. AMD's CrossfireX-technologie, met ondersteuning voor maximaal vier gpu's, werkt in tegenstelling tot nVidia's sli-techniek wel met goedkopere videokaarten.

Moderatie-faq Wijzig weergave

Reacties (46)

Ik vind dat tripple en quad SLI en Crossfire toch een beetje overdreven... Hoevaak zie je het nu gebeuren? Mensen kopen liever een nieuwe videokaart (of 2)
Toch behaal je in Crysis ongeveer 55% winst met SLi. En twee 8800GT kaarten zijn goedkoper dan één 8800Ultra.

Als je een 700Mhz 8800GT versie neemt, zoals eVGA op dit moment verkoopt voor rond de $300, dan zitten de enkelvoudige kaart prestaties al dicht tegen de 8800Ultra aan.

Tripple-SLi en Quad-SLi opstellingen met een 8800GT zouden het dan dus kunnen winnen van een Dual-SLi 8800Ultra opstelling, en dan ook nog eens goedkoper.

@Wimo, en op welke core-snelheid zit je dan? Want standaard is het 600Mhz voor de 8800GT. De 55% winst kwam trouwens naar voren bij 1280x720 fake-DX10 "very high" testen met 8x AA. De "fake-DX10" is de benaming die ik geef aan de aangepaste configuratie bestanden om Vista visuele resultaten in XP te krijgen, het is namelijk niet 100% gelijk.

[Reactie gewijzigd door Ron.IT op 15 november 2007 17:21]

Goedkoper ? Oja? Dus viermaal 8800GT verbruikt minder energie dan tweemaal 8800Ultra? Niet in mijn beleving.
nog ff een link omtrent de power comsumption van de kaarten:
http://www.legitreviews.com/article/590/11/

het klopt wel wat Murk zegt, echter: (de meeste) mensen letten niet op het stroomverbruik van een computer als ze meer "bang for buck" kunnen krijgen
GeForce 8800 GT 512MB:
1600x1200 High Quality - Single GPU: 24.05 SLI: 34.76 Increase: 45%
Iets minder dus. Ik zou dan eerder wachten op de snelle 9 serie dan gaan kloten met SLI.. Het blijft sowieso behelpen met SLI drivers + mobo's
Zoals het nu is is het vaak indd overbodig.. je zlt niet snel direct 2 video-kaarten kopen vanwege de prijs, en als je er na 1,5 jaar eentje bij wilt prikken is een nieuwe kaart effecienter (sneller) dan de zelfde oude kaart er nog eens naast te prikken. (terwijl het in sommige gevallen niet goedkoper is om dan de zelfde er nog eens naast te duwen)

Het word wel interesant als je mixed-setup krijgt. dus echt verschillende video-kaarten naast elkaar. BV zo'n G80 koppelen met een G92 en als 3e kaart een G90 ofzo//

Dan duw je er steeds een nieuwe in zonder dat de oude waardeloos word of je hem hoeft weg te doen.

Ben benieuwd of we die techniek in de high-end-versie van de G92 (of hoe het dan ook mag gaan heten aangezien ik aan neem dat die DirectX10.1 krijgt) zullen zien.

Edit: wat spelling verbetert want het was wer een mess :P

[Reactie gewijzigd door Devata op 15 november 2007 23:22]

Ja meer als 2 gpu's vind ik ook wel overkill.
Tenzij je natuurlijk 3 30" monitoren wil gaan aansluiten ofzo 8)7
daarvoor heb je de quadro van Nvidia. kan je 4 kaarten aansluiten. maar heb je wel een sli moederbord voor nodig.
De Qaudro is gewoon een GeForce met een schakelaartje voor wat OpenGL acceleratiefuncties ingeschakeld. Die van jouw linkje heeft idd 4 DVI stekkers, maar is dan ook gewoon een dubbele kaart en dus SLi met 1 PCI-E connector.

* j0bro denkt terug aan de tijd dat je de GeForce4 nog met RivaTuner in een Quadro kon veranderen voor hardware-acceleratie in 3dsmax ;)
En dan loop je tegen het probleem aan dat SLI maar met 1 monitor overweg kan :X
of 3, denkt Nvidia, of wel 4!, denkt AMD/ATI... Maar verwacht ook niet dat het echt voor de "normale" consument is bedoeld ;-)

[Reactie gewijzigd door Electrowolf op 15 november 2007 16:54]

Als je goed gekeken had zag je ook maar 1 sli aansluiting op de kaart zitten ;)
Daarom is er ook een speciale SLI brug nodig. Maar omdat meneer Hong zich versproken had dacht mensen 'Oei, das mooi!'.

Klopt het trouwens als ik zeg dat nVidia's SLi inferieur is aan ATi CrossfireX? Want bij SLI heb je immers identieke kaarten nodig, en kan je het geheugen niet optellen en is het redement ook laag of zelfs negatief, niet te vergeten dat het gesloten is. (uit: http://en.wikipedia.org/w...dvantages_over_NVIDIA_SLI )
Elke multi-GPU oplossing is behelpen. GPU's zijn nu eenmaal niet gemaakt om samen te werken. Ik hoor mensen vaak roepen dat multi-GPU de toekomst is, omdat multi-core ook de toekomst is. Die vergelijking gaat echter helemaal krom, en wel op deze punten:

- Geheugen. De grootste verspilling van SLI en Crossfire is wel het feit dat je geheugen nooit kan optellen. De reden is simpel: beide GPU's hebben toegang nodig tot dezelfde gegevens. In een multi-core of multi-cpu systeem is dit minder een probleem omdat alle processoren toegang hebben tot het zelfde geheugen (de DIMMs op je mobo). GPU's hebben echter snel toegang nodig tot het geheugen, met als gevolg dat beiden een exacte kopie van de gegevens nodig hebben.

- Communicatie. Waar multi-core processoren snel met elkaar kunnen communiceren omdat ze op de zelfde chip zitten moeten multi-gpu systemen via een interconnect met elkaar communiceren. Dit is per definitie langzaam.

- Synchronisatie. Normale programma's op je CPU zijn vaak helemaal onafhankelijk. Je kan Word op een core draaien en IE op de andere zonder dat ze ooit van elkaars bestaan hoeven te weten. Op een GPU zijn de programma's (shaders) echter ontzettend kort, en ze hebben allemaal weer verbanden met elkaar. Een moderne GPU kan met gemak duizenden threads tegelijk aan het werk hebben, en elke thread heeft weer afhankelijkheden van andere threads. Daarnaast moeten ze lezen en schrijven naar het geheugen. Dit is op zich al een hele prestatie, maar als je die werkzaamheden dan ook nog eens moet gaan synchroniseren over twee (of meer) GPUs krijg je het helemaal druk.

Als je naar die drie grote problemen kijkt kom je al heel snel tot de conclusie dat multi-gpu systemen nooit (of in ieder geval de eerstkomende jaren) beter zullen presteren dan een enkele GPU met dezelfde kracht. Het is simpelweg veel een veel makkelijker (en goedkoper) om een enkele GPU te maken met meer transistoren. Het scheelt bovendien geheugen en PCB. Daarnaast is het soms ook makkelijker warmte af te voeren.

Ik zie de nieuwe dual-gpu kaarten die ATI en NVIDIA (volgens de geruchten) gaan lanceren dan ook meer als hype of hack dan als fatsoenlijke oplossing.
Fragment of te wel pixel shaders hebben totaal geen afhankelijkheden onder elkaar. Een pixel shader werkt op slechts een pixel alleen. Als je afhankelijkheden wil hebben of met andere worden infromatie over de pixels die een pixel omringen zal je een multi pass shader moeten gebruiken, en dit is altijd seqentieel. Shaders zijn nou eenmaal opzich zelf staande programmas die niet multithreaded zijn. Communicatie zal echter het grootste probleem zijn want om deze reden is namelijk de AGP en PCIe bus uitgevonden.
Het gaat niet alleen om individuele shader threads die afhankelijk zijn van elkaar, het gaat om volgordes waarin je operaties in je shader uitvoert. Daarnaast heb je threads die moeten wachten op geheugenoperaties, en in die tijd wil je weer andere threads aan het werk zetten.
Hoe je het ook wendt of keert, de GPU is een gigantische multicore processor, met duizenden threads die allemaal zo efficient mogelijk uitgevoerd moeten worden, en ook nog weer op elkaar zullen moeten wachten in bepaalde gevallen. Het zal gewoon altijd meer moeite kosten om twee GPUs aan het werk te zetten dan het kost om een GPU optimaal te laten draaien, dus multi-GPU oplossingen zijn (los van de andere problemen) altijd minder efficient dan een single-GPU met extra transistoren.
- Geheugen: Waarom is dit een verspilling? Als je de geheugens exacte kopieeen van elkaar zijn is het juist perfecte oplossing voor geheugensnelheid problemen. Geheugen kost toch vrij weinig tegenwoordig.
- Communicatie: Dual cpu systemen communiceren ook via een 'interconnect' dit hoeft helemaal niet per definitie langzaam te zijn, de gpu communiceert toch ook met de cpu via de bus? Als het alleen maar commando's zijn die heen en weer hoeven en de bandbreedte hoog genoeg is hoeft dit helemaal niet zo'n groot issue te zijn.
- Synchronisatie: Daar zijn vast wel dingen op te vinden, wellicht kunnen de komende 3 frames op verschillende kaarten gerenderd worden, er hoeven maar 3 gpu's gesynchroniseerd te worden, het hoeft niet meteen een renderfarm te worden.. maar ik geef toe dat ik zo snel niet een super oplossing voor synchronisatie kan verzinnen.
- Geheugen: Waarom is dit een verspilling? Als je de geheugens exacte kopieeen van elkaar zijn is het juist perfecte oplossing voor geheugensnelheid problemen. Geheugen kost toch vrij weinig tegenwoordig.
Geheugen kost dan vrij weinig, het zijn nog steeds onnodige extra kosten, ze nemen (dure) ruimte in, ze verbruiken extra energie en produceren extra warmte. Bij een SLI opstelling valt dat laatste probleem nog wel mee, maar als je een kaart krijgt met twee PCBs of met alle onderdelen op een PCB (ruimegebrek even buiten beschouwing gelaten) heb je toch echt een heel stuk meer warmte om af te voeren.
- Communicatie: Dual cpu systemen communiceren ook via een 'interconnect' dit hoeft helemaal niet per definitie langzaam te zijn, de gpu communiceert toch ook met de cpu via de bus? Als het alleen maar commando's zijn die heen en weer hoeven en de bandbreedte hoog genoeg is hoeft dit helemaal niet zo'n groot issue te zijn.
Dual-cpu systemen zijn dan ook langzamer dan dual-core systemen. En waarom denk je dat Intel zo graag CSI wil implementeren in toekomstige CPU's? Omdat de huidige FSB interconnect niet snel/breed genoeg is. Bij GPU's zit het verschil zit hem daarnaast ook in de synchronisatie, want waar twee CPU's niet zo heel veel met elkaar te maken hebben (vaak zijn threads behoorlijk onafhankelijk, bijvoorbeeld bij twee losse programma's) moet je bij de GPU ontzettend veel gegevens versturen. Niet alleen moet elke thread op de andere GPU aan het werk gezet worden op de juiste taken, daarnaast moet bij een render to texture operatie (zoals bij shadow mapping) ook weer een deel van de gegenereerde texture terug gestuurd worden van de slave naar de master GPU.
- Synchronisatie: Daar zijn vast wel dingen op te vinden, wellicht kunnen de komende 3 frames op verschillende kaarten gerenderd worden, er hoeven maar 3 gpu's gesynchroniseerd te worden, het hoeft niet meteen een renderfarm te worden.. maar ik geef toe dat ik zo snel niet een super oplossing voor synchronisatie kan verzinnen.
Tja, en wat als je frame afhankelijk is van een vorige frame? Je onderschat nogal makkelijk de hoeveelheid werk die een GPU per frame verzet. Het klinkt allemaal heel makkelijk, maar het is al een wonder wanneer een enkele GPU maximaal gebruikt wordt. De 8800GTX kan bijvoorbeeld in theorie 518.40 Gigaflops halen, maar reken maar niet dat je daar ooit in de buurt komt. En als het al zo moeilijk is om een GPU aan het werk te zetten, hoe denk je dat het met twee GPU's gaat, als ze ook nog last hebben van de genoemde problemen?
ook bij crossfire kan je het geheugen niet optellen!
Daarom kun je nog wel 1 brug maken met 3 connectoren...
of over 2 jaar een extra 8800GT bijstoppen als je nu een sli mobo hebt?
alsof ze dan nog een 8800gt gaan verkopen...
enigste reden voor sli is als je a) echt een diehard gamer bent met veel geld en max wilt.. of als 2 midrange videokaarten goedkoper & minstens evengoed zijn als de highend videokaart op dat moment..

[Reactie gewijzigd door Icekiller2k6 op 15 november 2007 17:15]

Dat is dus het voordeel van de ATi-technologie,
Je koopt nu een redelijk dure kaart, over een jaar ofzo is deze natuurlijk out of date,
De oplossing is gewoon een mid-range kaart kopen, en je kan weer een jaar verder :)
of je prikt er weer een dure kaart bij, en houd gewoon die oude... elke keer dat je een kaart koopt, gooi je de slechtse van je 4 kaarten weg...

helaas is dat alleen bij aTi, terwijl nVidea kaarten voor gamen meestal beter zijn.
In het geval wat jij zegt zou je dan met een 3870 (dx10.1 sm4), 3970(dx10.1 sm5), 4800 (dx10.2 sm5) en een 5800 (dx10.2 sm6) zitten. Ik weet niet hoe het precies zit met crossfire en of dat de gedachte erachter is (zou wel heel mooi zijn), maar iets in mij zegt dat de kaarten wel van dezelfde generatie moeten zijn en dezelfde dx versie en shader model hebben...
Dus het is misschien meer zoiets van: dan kan je naast je 3650 ook nog een 3870 zetten. Opzich ook niet verkeerd trouwens.
Ach, je kan wel oneidig veel videokaarten in je computer blijven stoppen. Ja het zal over een aantal jaar wel nodig zijn om er 4 te hebben om de dan huidige games op high te spelen. Maar goed, misschien is het bij ati de CrossfireX techniek goedkoper zodat ze dit ook bij goedkopere kaarten kunnen doen. Het kan natuurlijk ook gewoon zijn zodat ze denken van alleen de echte gekken willen er 3 dus doen we het alleen bij de dure anders gaan ze 3 wat goedkopere erin stoppen. Maja wat is de hitteproductie wel niet als je 3 8800 ultra's tegen elkaar hebt zitten..

Mja 3 8800Gt's is toch een stuk goedkoper dan 3 utlra's. En toch ook erg leuk voor een fanaat lijkt me dus in dat op zicht is het wel jaammer.
"Ach, je kan wel oneidig veel videokaarten in je computer blijven stoppen."

Om nog te zwijgen van het stroomverbruik die je genereerd per kaart ^^
Dat is wel erg jammer! Ik denk niet dat er iemand is met al twee GTX of Ultra videokaarten aan boord die het in zijn hoofd zal halen om dan opnieuw een GTX of Ultra aan te schaffen. De enorme gecombineerde investering lijkt me gewoon niet opwegen tegen de voordelen, zeker niet nu de 8800GT er is. Als dit nu wel op een 8800GT kon had je triple SLI gehad voor de prijs die je voor 1 Ultra kaart bij launch betaalde! Ik denk niet dat dit een succes zal worden...

[Reactie gewijzigd door BlightedEye op 15 november 2007 16:53]

Dat ze eerst maar eens de compatibiliteitsproblemen oplossen met PCI-e!!!!! Bijna iedereen met een ouder moederbord kan niet eens die kaart gebruiken omdat het niet compatibel is met PCI-e 1.0a terwijl ze zeggen van wel. Marketingzever...
Prachtig allemaal, nVidia~ATI...

Dat nVidia op dit moment de 'meeste bang for the buck' geeft met de 8800GT is natuurlijk erg mooi. ATI daarentegen heeft wel weer de mooie feature niet persee twee identieke videokaarten nodig te hebben voor CrossFire.

Moeilijk, moeilijk... Waar ik op dit moment het meest mee zit is nog niet zozeer het gamen op XP/Vista maar de compabiliteit qua drivers voor Linux. Daarom zou ik dan uiteindelijk toch voor de nVidia kaart(en) gaan en niet voor ATI. Of zijn de drivers voor ATI inmiddels wat meer 'Linux vriendelijk'..?
Voorlopig staat m'n complete nieuwe systeem nog in backorder omdat die 8800GT nog niet leverbaar is :( triple-SLI of niet... Ben benieuwd of ATI wel voldoende 3870's heeft voor een fatsoenlijke launch...
Ik ben benieuwd wanneer de Dual Core GPU kaarten uitkomen }:O
denk je das de dual core gpu goed zal gaan
of word het net als de 7800gt dual
een dure kaart die niet eens lekker draait

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True