Gerucht: 'nVidia presenteert nieuwe sli-versie op CeBit'

Volgens VR-Zone zal nVidia tijdens de CeBit-beurs, die in maart in het Duitse Hannover zal worden gehouden, een nieuwe sli-versie presenteren. Met 'SLI 2.0' zou een nieuwe poging worden ondernomen om meer dan twee grafische kaarten te laten samenwerken.

Quad SLI-ready-logo Hoewel het om geruchten gaat, duiken her en der berichten op die het verhaal bevestigen, al verschillen de details van site tot site. Waar VR-Zone beweert dat setups met wel acht gpu's tot de mogelijkheden behoren, denkt The Inquirer dat er voorlopig maximaal drie kaarten ondersteund zullen worden. Dat er meer dan twee kaarten in hetzelfde systeem kunnen worden gebruikt, lijkt echter waarschijnlijk. Vermoedelijk zit The Inquirer er met zijn schatting het dichtste bij: voor kleinere videokaarten is een driekaarts-setup prijstechnisch niet al te interessant, en zwaardere kaarten hebben een flinke hoeveelheid pci-e-lanes nodig. Moederborden die meer dan drie maal zestien lanes kunnen leveren, bestaan echter alleen nog maar op de tekentafel.

nVidia Quad SLI-review, mei 2006: artefacten In theorie is het gebruik van meer dan twee videokaarten nu ook al mogelijk, maar de eerste pogingen van nVidia om de technologie bruikbaar te maken, verliepen bepaald niet probleemloos: reviews van prefabsystemen maakten gewag van blauwe schermen en de prestaties waren, met name op lagere resoluties, ook na diverse verbeteringen niet om over naar huis te schrijven. Drivers waar thuisgebruikers mee aan de slag konden, bleven in het bètastadium. Een nieuwe poging is dan ook meer dan welkom: het aansluiten van twee of drie schermen per computer wint aan populariteit en daarmee groeit ook de noodzaak voor veel grafische kracht. De nieuwe sli-versie zal het gamers naar verluidt ook op een ander punt makkelijker maken: de langverwachte mixed setup, waarbij grafische kaarten met verschillende gpu's elkaar een handje toesteken, zou met nVidia's nieuwe software ook mogelijk worden. Hoewel er nog anderhalve maand geduld moet worden geoefend, lijkt het er in elk geval op dat de gpu-bakker een softwarematige tik aan de concurrentie uitdeelt, en er wordt dan ook met belangstelling naar het antwoord van ATi uitgekeken.

Door René Wichers

Eindredacteur

01-02-2007 • 14:22

52

Bron: VR-Zone

Reacties (52)

52
51
22
2
1
18
Wijzig sortering
Klinkt niet echt geloofwaardig dat bv een 7300 kaart een 7900 kaart kan helpen. Je hebt namelijk te maken met een verdeling van de rekenkracht. Op dit moment gebruik nVidia AFR. Scherm wordt in 2 delen opgedeeld. Kaart een doet boven kaart 2 doet onder.

Je hebt nog 2 modes. supertiling en scissor maar dit kunnen alleen ATi kaarten. Bij Supertilling wordt het scherm opgedeeld in vierkantjes en worden ze om en om aan een kaart toegewezen. Op deze manier verdeel je het wel eerlijker over de twee kaarten.

Dus lijkt het me niet waarschijnlijk dat een 7300 een 7900 kan helpen met renderen. Of 3 kaarten in SLi gebruiken. Dan moeten het er meteen 4 zijn. Misschien kan een 3e kaart of een zwakkere kaart wel voor physics gebruikt worden. Dit is wat ATi gaat doen. Bij ATi kun je wel een X1900 XTX aan een X1900 GT hangen alleen dan gaat de X1900 XTX ook maar 12 pipelines gebruiken net als de GT. Bij nVidia is dat op dit moment helemaal niet mogelijk.
Nergens gelezen dat je ook een andere kaart er naast kan zetten (ander model). In dat geval wil ik mijn GeForce Go 6100 wel laten helpen bij mn GeForce Go 7600 :+
De nieuwe sli-versie zal het gamers naar verluidt ook op een ander punt makkelijker maken: de langverwachte mixed setup, waarbij grafische kaarten met verschillende gpu's elkaar een handje toesteken, zou met nVidia's nieuwe software ook mogelijk worden.
Als ze dit al zouden doen wordt het denk ik meer op de manier die ATi nu ook al gebruikt.
Correctie: AFR is alternate frame rate, (dus om en om rekenen, ene rekent frame 1, andere 2, ene 3 andere 4 etc) split screen rendering is boven en onderkant rekening....

maar dat terzijde...
Oooh Jottum drie kaarten die niet werken in Vista in plaats van twee.

Sorry voor die reactie, maar ik heb het idee dat Nvidia zich eerst wel eens mag gaan verdiepen in betere driver support voordat ze kunnen hopen dat mensen drie dure kaarten in hun systeem zetten.

Ik heb trouwens een 8800 en ben daar dik tevreden mee, maar ik heb dan ook geen vista.

Edit: Waarom nou weer Troll?
Als een bedrijf vollop adverteerd met "Nvidia Essential for the best Vista experiance" en dat vervolgens niet waarmaakt mag je daar best wat kritiek op hebben.
Maar ach het zij zo, lang leve de democratie :)

: Ooh hobbel de hobbel", moderatie's gaan alle kanten op. Duidelijk een gevoelig onderwerp. vraag me af waarom mensen een verbinding vormen met een bepaald merk die in eerste opzichten zoveel op elkaar lijken.
Tenminste beide zijn bedrijven die voor winst gaan en niet een of ander nobel doel nastreven.

Het enige verschil wat ik zie tussen de twee is dat ATI meer wordt geregeerd door techneuten en Nvidia meer door comercieel denkende mensen.
Nee hoor, niks geen troll waardig. Je hebt helemaal gelijk! Als je het hele verhaal leest rond het 8800 driver schandaal voor Vista. (zie hier. Waar ze het niets eens voor elkaar krijgen om sli werkend te krijgen onder Vista. Ga je jezelf inderdaad afvragen waarom ze nu met dit soort onzin aankomen.

Ik heb ook al 2 jaar SLI maar draai nog steeds op 1 videokaart. Met de gedachten dat ik later wel eenzelfde kaart erbij zou prikken. Nu is die kaart nergens meer te krijgen en is de hardware al weer verouderd. Een nieuwe betere videokaart kopen is zinvoller..
SLI werkt gewoon onder Vista. Gewoon laatste drivers van de site halen.
das dus voor 32 bits vista :(
Ja als dat zou werken met 8800's hadden ze dat wel gedaan denk ik ;)
SLI werkt gewoon onder Vista. Gewoon laatste drivers van de site halen.
Oh ja????

DIT is wat er bij die laatste drivers op de site staat:
Single GPU support
DirectX 9 support for GeForce 6/7/8 series GPUs
DirectX 10 support for GeForce 8800 GPUs
OpenGL support for GeForce 6/7/8 series GPUs
NVIDIA SLI support
DirectX 9 support for GeForce 8800 GPUs
OpenGL support for GeForce 8800 GPUs
Waar is de SLI support voor de GeForce 6/7 series????

En dat is dan ook nog eens een unsigned beta driver.
Zwaar klote dus als je 64bit Vista draait.
Helemaal mee eens Zarkov, K heb zelf ook een 8800 en draai dus mooi nog op XP/ Linux.

En zelfs nu ik zie dat er bijna dagelijks nieuwe beta drivers uitkomen voor Vista... heb ik zoiets van ik w8 nog ff wel... k vertrouw het voor geen cent...

Trouwens... Ik vind Vista, voor wat ik ervan gezien heb, toch alleen maar NEP
Als ik heel selectief google, dan bestaat vista ook niet. Heb nog nooit zo'n nep programma gezien. Echt niet echt.. boooeehh!!! 8-)
De reclame/promo/markteting strategie is gebaseerd op het volgende: "" de een ziet dat wat sneller in als de ander, blijkbaar.
Oooh Jottum drie kaarten die niet werken in Vista in plaats van twee.

Sorry voor die reactie, maar ik heb het idee dat Nvidia zich eerst wel eens mag gaan verdiepen in betere driver support voordat ze kunnen hopen dat mensen drie dure kaarten in hun systeem zetten.

Ik heb trouwens een 8800 en ben daar dik tevreden mee, maar ik heb dan ook geen vista.
Sinds zeer recentelijk heeft nvidia dat ineens wel voorelkaar.

Mensen die 1 kaart hebben die niet werkt in windows vista, zullen in slechts enkele gevallen voor de zekerheid een tweede erbij kopen en de kans vrijwel nihil dat na het falen van de tweede kaarten en consument over zal gaan tot het kopen van een nieuw moeder en nog een extra kaart.
Edit: Waarom nou weer Troll?
Als een bedrijf vollop adverteerd met "Nvidia Essential for the best Vista experiance" en dat vervolgens niet waarmaakt mag je daar best wat kritiek op hebben.
Maar ach het zij zo, lang leve de democratie
Markteting zuigt, altijd. (<- let op: punt)
: Ooh hobbel de hobbel", moderatie's gaan alle kanten op. Duidelijk een gevoelig onderwerp. vraag me af waarom mensen een verbinding vormen met een bepaald merk die in eerste opzichten zoveel op elkaar lijken.
Tenminste beide zijn bedrijven die voor winst gaan en niet een of ander nobel doel nastreven.
Een van de bedrijven ging niet altijd voor winst, maar af en toe ook voor verlies, ...aandelen.... gelukkig is de een nu overgekocht.
Het enige verschil wat ik zie tussen de twee is dat ATI meer wordt geregeerd door techneuten en Nvidia meer door comercieel denkende mensen.
Grapjas, beide bedrijven hebben een groot scala aan zichzelf en het bedrijf beschamende markteting mensen, die reputaties van zichzelf en elkaar aan gort helpen, maar gelukkig hebben die geen invloed op de koers van het bedrijf of de techniek.

Als je een bedrijf daarvan wil beschuldiggen dan word een zekere CPU bakker die een architectuur heeft ontwikkelt om processors met makkel te verkopen clocksnelheden te maken.
Dat verhaal was allang weer onderuit gehaald! Dat kwam van .....ehhhh......Oh Ja: The Inquirer. De Site die bekend staat om zijn grote betrouwbaarheid.
DE site die dus ook makkelijk te beinvloeden is door de concurrentie. Motivatie: Je laat iemand die ogenschijnlijk niets met jouw bedrijf te maken heeft wat "doorspelen" naar The Inq over de concurrentie en voor je het weet staan er weer opgeblazen verhalen op het net!
Wat ze van mij wel mogen doen, is een moederbord uitbrengen met onboard video of een SLI functie waarbij je tijdens het opstarten kan kiezen wat je wilt doen:

games of intenet/word etc.

stel je snelle 8800GT zit in PCI-e slot 1 en je budget "10W kaart" (of onboard) zit in PCI-e 2.

Kies je voor games, dan wordt je onboard/budget kaart HELEMAAL uitgeschakeld en wordt de 8800 gebruikt
Kies je voor internet oid, dan wordt je energieslurpende 8800GT HELEMAAL uitgeschakeld en je budget/onboard chip gebruikt.

Nadeel is dat je opnieuw op moet starten om te kunnen wisselen, maar als ik hiermee enkele tientallen Euro's kan besparen: graag......
Met vista moet dat on the fly kunnen, nu de GPU bouwers nog...
Idd vooral bij laptops lijkt me dit handig. Gebruik me laptop ook wel eens als DTR bij me vriendin. Maar als ik em gewoon in de trein zou gebruiken wil ik dat i zuinig is. En als ik em als game pc gebruik dat hij veel power heeft.
1. Rechtermuisknop-klik op bureaublad achtergrond
2. Linkermuisknop-klik op 'PowerMizer'
3. Sleep de slider bij 'Accu' naar 'Maximale energiebesparing'

:P :9 :7
KVM switch en via mobo+cpu+video combo.
De nieuwe sli-versie zal het gamers naar verluidt ook op een ander punt makkelijker maken: de langverwachte mixed setup
Dit lijkt mij juist de meest intresante functie. Koop je een nieuwe gpu, kan je ook nog mooi de power van de oude gebruiken 8-)
Hopelijk dat ze ook eens een multi monitor setup onder SLI ondersteunen.
Dat is ook nog steeds niet mogelijk met SLI...

Ik heb ook een 8800GTX in SLI wat op dit moment overkill is, (ja ik weet het) maar waar ik helemaal van baal is dat ik niet mijn 2e monitor kan gebruiken onder SLI en wel bij 1 grafische kaart. |:(

Wanneer je gewend bent aan een dual of multi monitor-setup is het flink afkicken op het moment dat je maar 1 monitor kan gebruike :(
als je geld over hebt kan je wel deze kopen:
pricewatch: Matrox Triplehead2Go
kan je 3 schermen aansluiten, met dualview ondersteuning :)
"Zalman en Antec introduceren 1kW voedingen op de CeBIT" ...

:Y)
Ik zie de opstelling al helemaal voor met ingebouwd in een coolermaster stacker.
2 * 8850 GTX dual cpu met 1,5 gig videogeheugen
2 * 1KW voeding in de opstelling om alles draaiende te krijgen en te houden.

IPV dit soort energieslurpende projecten te lanceren zouden ze eerst eens moeten kijken hoe ze energie kunnen besparen want het loopt momenteel de spuigaten uit.

Bij het gamen moet je dan al uit gaan kijken voor je stroomrekening op deze manier is de lol er snel af.
Er zijn toch genoeg kaarten die heel weinig stroom verbruiken? Alle nvidia kaarten werken bovendien met 2d en 3d clocks om op stroomverbruik te besparen.
Ik snap altijd dat gedoe over stroomverbruik niet. Wil je nu echt dat een 8800GTX weinig stroom verbruikt? Prestaties en zuinigheid gaan niet samen. Voor zuinigheid gebruik je een 7300 ofzo, voor prestaties een G80.
.. clocks die je notabene zelf nog eens kan bijtunen (naar beneden) met RivaTuner or alike ... :+
Mag jij me uitleggen waarom de Core 2 Duo zuinig EN snel is. Die lijn moet toch door te trekken zijn naar videokaartbakkers?
De GF8 GTX heeft 681 miljoen transistors, is op 90 nm gebakken en heeft 768 MB DDR3 aan 1800 MHz, de P4 Core 2 Duo heeft 290 miljoen transistors en is op 65 nm gebakken. High-end videokaarten bakken op een kleiner en dus zuiniger procedé is nog niet winstgevend gezien het hoge aantal transistors.
Ik kan me niet meer herinneren waar ik het gezien heb, maar laatst was er een filmpje met een setup van 2x8800 GTX dat 3D Mark 06 aan het draaien was, er was een meter op aangesloten die aangaf dat het systeem nog geen 400 watt verbruikte.
Dat hele gezeur over power wordt je ook moe van. Ik heb sinds een jaar of 2 een voeding met een verbruiksmeter. Nou zal dat ding wel niet helemaal accuraat zijn, maar toch. De voeding gekocht omdat ik dacht dat ik met mijn toenmalige 300Watt voeding in de problemen zou lopen met overclocken e.d. Dus....wack...450W erin. En in de tussentijd is de Pc behoorlijk aangepast en zie je inderdaad het verbruikte vermogen langzaam een beetje stijgen..En nu: zwaar geoc'de X2 4200+ erin, Zwaar geocde X1950 erin, 4 geheugenbanken vol, twee dikke HD's in Raid 0 erin, X-Fi Elite Pro, die ook externe voeding nodig heeft, 6 stuks LED casefans, processorkoeler met led, HD koelers, 2x CCFL erin, LCD schermpje erin, verlichte reobus controller....Vermogen bij volle belasting met een leuke game: 205W!!..Dus ach, volgens mij valt het allemaal nog wel mee. Al die vermogens zijn volgens mij de theoretische maxima, die eigenlijk nooit gehaald worden.

Ik begon zelfs te twijfelen aan de meter van de voeding en slap-bang de oude 300W er weer ingedrukt...Spul draait nog net zo stabiel als tevoren! Dus heel ver zal de meter er niet naast zitten.
Niet iedereen kan goed meten.
Befaamde Nederlander: Het valt niet te meten!
Dan mag ik wel opschieten zeg, ik heb nog niet eens de kans gehad gebruik te maken van de huidige versie :+
Ik hoop dat er in plaats van meer, groter beter ook eens een paar kaarten geproduceerd worden die niet veel stroom verbruiken (en eventueel ook stil zijn) maar toch redelijk presteren.
Wat een gezeur in deze thread, SLI is een feature die compleet kostenloos bij kaarten geleverd word, er gebruik van maken in wat configuratie dan ook is een OPTIE, als je het niet leuk vind, doe je het niet.

Overgens applicaties voor dit soort spul zijn er wel, wat dacht je van 7 passief gekoelde video kaarten in SLi, still en toch vrij krachtig.

Ik snap niet helemaal waar de negatieve tendens vandaan komt bij sterke videokaarten of dergelijke technieken, het argument 'dat heb je helemaal niet nodig' is nogal kortzichtig en kan enkel de koper van zoiets inzien.
Ah, ik ben het wat betreft games helemaal eens met de stelling: hoe meer hoe beter wat betreft GPU kracht. SLI is prachtig want dat past prima bij die stelling

Wat mij alleen tegenstaat is het verbuik van je systeem als je juist alleen maar aan het internetten oid bent.

Ik heb thuis een games pc al is hij niet meer in staat om de huidige/toekomstige games in alle glorie te laten zien:

Pentium 4 3GHz, P4P-800 DLX, 2GB RAM, ATI AIW9800
Verbruik-> idle: ca 150W --- Load: ca 195W.

75% van de tijd staat dat ding dus 150W te slurpen terwijl ik eigenlijk alleen maar aan het internetten ben.

Onlangs heb ik een internet/server pc-tje gebouwd:

Pentium-M 730 1.6GHz, DFI 855GMM-GME, onboard video.Verbruik-> idle 55W --- Load: ca 70W (zodra ik de AIW indit systeem installeer, mag je hier 50W bij optellen).

Ik ben niet iemand die op een Euro meer of minder let, maar deze verschillen vind ik wel erg groot, terwijl die Pentium-M PC meer dan krachtig genoeg is voor dagelijkse dingen (i.e. internetten, filmpje kijken etc)
Tja, mijn AMD X2 4200+ met 2GB, 72GB Raptor HD + 320GB datadisk en een 7800GTX gfx-kaart vreet idle ook ongeveer 75Watt. (Full-load +/- 170 Watt) (Getest met een Watt-meter in het stopcontact). En tijdens 95% van de tijd loopt hij ook idle.

Die Cool & Quiet constructie van AMD werkt wel aardig goed . Ik vrees alleen dat als ik Vista installeer de pc behoorlijk meer gaat gebruiken omdat dan ook de 3D core actief blijft voor Aero.
http://tomshardware.co.uk...p-vs-vista-uk/page11.html
Windows Vista doesn't require more energy than Windows XP, whether running under full CPU load or idle. We also tried to stimulate the power consumption at the plug by aggressively moving windows or by switching between multiple tasks in 3D mode (Windows key + [Tab]). We would have expected an increased power draw, since Vista and its AeroGlass interface are more 3D-intensive and require 3D acceleration. However, there was no noticeable increase in power requirements due to the involvement of the 3D subsystem. This might be different with automated loads, but a single user cannot cause sufficient 3D load to influence the power draw.
Klopt, kaarten worden er niets duurder door. MOEDERBORDEN daarentegen. Man man man, je zult maar een collectie PCI kaarten hebben en een fatsoenlijk moederbord willen kopen. Lijkt wel alsof er bijna geen slots meer op zitten tegenwoordig...

Op dit item kan niet meer gereageerd worden.