Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties
Bron: VR-Zone, submitter: iyanic

VR-Zone heeft op Computex enkele geluiden opgevangen over een tweede versie van SLI die nVidia op dit moment aan het ontwikkelen zou zijn. Dit 'SLI 2' zou het opsplitsen van het PCI Express x16-slot in twee x8-slots overbodig maken door genoeg bandbreedte te leveren voor twee volwaardige x16-slots. Vermoedelijk zal het bedrijf hiervoor gebruik gaan maken van de truc die Gigabyte nu al ontdekt heeft; het combineren van twee nForce4-chips. Het vreemde quad-GPU moederbord dat recent werd getoond is nog tot stand gekomen door het creatief samenvoegen van Intel- en AMD-onderdelen, maar vanaf volgend jaar zou iets dergelijks dus ook officieel ondersteund worden. Of nVidia van de gelegenheid gebruik zal maken om extra features toe te voegen of de compatibiliteit tussen verschillende kaarten te verbeteren wordt niet gezegd.

Gigabyte GA-8N-SLI Quad
Moderatie-faq Wijzig weergave

Reacties (74)

Als de 2 keer zo snelle verbinding het enige voordeel is wordt het echt BAGGER. Zo een perfomance winst zal dit niet geven (mischien bij de G70 wel) maar uiteindelijk zullen de ATI chipsets dit ook wel gaan ondersteunen.
leuk, maar overbodig. 8x wordt nog lang niet volledig benut
wat een waardeloos bericht. bandbreedte is juist heel belangrijk!!!!

de enige reden dat het in het AGP tijdperk niet gebruikt werdt JUIST omdat AGP niet genoeg bandbreedte kon leveren om zinvol te zijn daardoor werdt er omheen geprogrammeerd.

juist PCI express gaat hier verandering in brengen en hoe meer bandbreedte hoe beter!!! daardoor zal veel meer mogelijk worden op hogere snelheden.
Als de bandbreedte van AGP niet voldoende was, kan me dan worden uitgelegd waarom het verschil tussen 4x en 8x verwaarloosbaar was in de prestaties?
Het hele punt van PCI Express is dat het "two way" is...

AGP is vooral "one way"

Daarom ook dat PCI Express "extreme buffer" etc... het systeem geheugen gebruiken nu ook kan op redelijke snelheden en ook het systeem minder zal belasten dan de oude "shared memory" methode.

Op dit moment moet systeem geheugen dat gebruikt word voor de grafische kaart ALLE inhoudt bezitten. Omdat er alleen maar naar de kaart gepompt kan worden.

Met PCI Express zou je technisch gezien kunnen swappen zonder geheugen kwijt te raken aan het dubbel bewaren van gebruikte gegevens!
Er wordt mee bedoeld dat de (asymetrische) bandbreedte in 1 richting niet snel genoeg was (naar de processor toe). De andere kant op was voldoende bandbreedte. PCIe heeft juist als voordeel dat er een symetrische verbinding is, dus kun je ook veel meer verkeer richting de kaart laten gaan...

edit: toch sneller leren typen. We gaan toch niet weer naar dat pentapost-record he :P

@Olaf: I stand corrected :)
asynchrone/synchrone
Dat heet (a)symmetrisch.
nope,
gewoon asynchroon
doe ff normaal stelletje peuters :)
Asymetrisch, niet asynchroon.
dat staat in mijn post. omdat ook 8X agp te weinig was en er dus zelden gebruik van werdt gemaakt en als er gebruik van werdt gemaakt dan zo min mogelijk!

daarom merk je weinig snelheids verschil tussen AGP 4X en 8X...

dat was met de 1e AGP kaarten heel anders toen werdt er wel gebruik van gemaakt en dat zag je in de benchmarks van de 1e AGP 2X kaarten (de 1e Geforce kaart (Viper 550 b.v.))
als je nou 2 dezelfde type en model kaarten vergelijkt met benches tussen AGP en PCI»E zou er dan ook verschil zjin (merkbaar) door de bandbreete?
Het kon natuurlijk niet uitblijven dat ook op SLI gebied er wat zou veranderen na de vreemde opstelling van Gigabyte.

Maar het is wel een mooie ontwikkeling.
Het enigste probleem is nu nog de spellen die gebruik gaan maken van al die 3d lekkers. Die blijven nog een beetje uit.
spellenmakers moeten natuurlijk rekening houden met wat mensen werkelijk in huis hebben. Ik denk niet dat dat kleine groepje SLI-gebruikers voor hen een motivatie is om spellen uit te brengen die niemdn anders weer kan geven ;)
Het zijn niet de spellenmakers die SLI moeten ondersteunen, het is juist DirectX van microsoft of OpenGL die daar voor verantwoordelijk is.. Zolang de spellenmakers gewoon volledig gebruik maken van DirectX is er niets aan de hand..
Als gameontwikkelaars ervoor zorgen dat op een 6800 ultra hun spel goed loopt met de hoogst mogelijke grafische instellingen heeft het toevoegen van een tweede 6800 ultra vrij weinig meerwaarde. Pas als de ontwerpers extra eye candy gaan toevoegen waardoor het spel enkel lekker speelt op een SLI configuratie gaat SLI nut hebben.

Er is dus wel degelijk meer nodig dan enkel DirectX en OpenGL ondersteuning.
Je kan altijd Anti-aliasing en antostropische filters omhoog krikken ;)

Normaal loopt een spel dan niet zo heel soepel meer, ook als je 1 6800 ultra heb :)
Is wel waar, maar niet ongewoon.
Weet je Need For Speed II SE nog?
Als je een 3Dfx add-on kaart had, had je ineens enorm veel beter graphics, waaronder verpletterde vliegjes op je raam, regen, en dat soort dingen.
Waarom zouden game-devvers dus tegenwoordig niet van die "extratjes" in kunnen brengen?
Dit gebeurt nu toch ook, speel maar eens Farcry op een GForce 2 en op een GForce 6, als je andere levels vergelijkt is het bijna niet te zien dat het hetzelfde spel is.
Vele extra's welke in beeld komen, straks kan het trouwens ook leuk worden met de PPU.
Het is maar wat je gebruik maken vind. De een hecht namelijk meer waarde aan een hoge framerate de ander aan zeer veel graphicse detailts die de videokaart nog maar net op 30fps kan draaien
Oh, reken maar dat de spellen er op gaan inspringen hoor, we hebben immers al 4 maanden een 6600GT in huis, hoog tijd voor een nieuwe kaart van 400 euro (x2) ;(
leuk, maar overbodig. 8x wordt nog lang niet volledig benut :)
Alleen daarom is het overbodig ? Misschien gaan ze nog hele leuke features toevoegen aan hun nieuwe SLI systeem !
Nou het zijn bestaande chipsets: AMD & iNTel nForce4, dus het enige nieuwe eraan zou kunnen zijn 'n DC 840XE met 'n X2 4800+ kunnen draaien :) 'N Dual AMD&iNtel bak, Je kan er alleen verschillende CPU inzetten.
Dit truje werkt alleen met een intel CPu want AMDs hebben geen aparte north en sound bridge.

(De nForce 4 (AMD Edition) wordt door Gigabyte hier gebruikt als Southbridge)
volgend jaar wel
eigenlijk wordt de bandbreedte steeds minder gebruikt nu videokaart steeds meer zelf doen en steeds minder op de cpu vertrouwen.
Tenzij je met heel grote objecten werkt die niet in je videogeheugen passen. Dan wordt het werkgeheugen (virtueel geheugen) aangesproken.
Maar dat is iets wat bij games ook niet voorkomt. In high-end CAD toepassingen echter wel. Vandaar dat er al een tijdje 2x pci-e 16x beschikbaar is voor workstations. Alleen geen officiële SLI support voor de Quadro kaarten. Een beetje een bizarre beslissing van nvidia aangezien dat voor high-end workstations een niet te onderschatten performance boost zou zijn.
Al dat grafische geweld...heb je strax 2 Dual Core Opterons met 4 Dual GPU grafische Kaarten in SLI formatie, een berg SCSI disks in RAID formatie om alle bij te benen....en dan zuigt de gameplay/concept van jen nieuwe 3d spel...of je houd geen geld over voor je stroomrekening :P
Misschien worden GPU's ook dual-core en maken ze gebruik van dual-channel GDDR4.
vergeet die double sided dual monitor setup niet!
Hopelijk komen ze dan ook eens met nieuwe render technieken, waardoor ook als ATI alle games ondersteunt kunnen worden.
alle games worden ook ondersteund, het geeft alleen niet altijd een performance verschil.
Ja, en momenteel heeft ATI slechts één applicatie draaiend gekregen: 3DMark05. |:(
Je kan niet zomaar de "render technieken" aanpassen. Het spel bepaalt in welke volgorde alles gedaan wordt en met welke effecten. Daar kan je niet zomaar onderuit. NVIDIA én ATI ondervinden daar de limitaties van. ATI staat zelfs ferm achter met hun drivers en het zal nooit lukken om alle spellen te ondersteunen zonder extra inspanning.
Was te verwachten. Nadat ATI nVidia's sli nu al totaal weg heeft geblazen, niet alleen kwa prestatie maar ook compatibility van verschillende kaarten combineren, moest nvidia nu wel wat doen. Ik vraag me af of sli2 dat ook gaat ondersteunen.
Er zijn nog helemaal geen uitgebreide en onafhankelijke tests van Crossfire geweest en jij praat al over weggeblaast enkel je baserende op ATI marketing materiaal???
Daarom heeft ATI's crossfire ook het wereldrecord 3dmark05
http://www.tweakers.net/nieuws/37550

heb ook nog ergens anders gelezen over een vergelijking, die ati ook won, heb alleen geen link bij de hand... :Y)

* 786562 Hoogie2004
Dat is nog niks hoor... Je kan wel een 3D wereldrecord hebben, maar niet iedereen maakt gebruikt van koelvloeistoffen enzo... het gaat om dat op een kamertemp. de prestaties met elkaar vergeleken worden.
Is het niet zo dat het vorige record 'n OC'ed 6800U was of OC enkele X850XTPE. Gezien de x850XTPE 'n de meeste games al sneller is dan de 6800U. dan zal als beide hun dual SLI of crossfire setup hebben dat de stelling met de snelste kaarten dan wint.
Op stock speed ditto de X850XTPE is sneller dan de 6800U dus ATI wint dan ook weer.
Dan komt de G70 nVidia staat weer even voor voor 'n maandje en dan komt ATI met 520 meer pipes kleinere dieshrink en mijn verwachting daarvan is dat die dus wel ook weer iets sneller is.

ziet er dus goed uit voor ATI.

Dat ATI wat later is komt gewoon omdat ATI eerst de Crosfire mobo chipset moet uitrollen. Daar liep nVidia dus voorop mee met hun nForce 4. SLI
Daarom heeft ATI's crossfire ook het wereldrecord 3dmark05
Dude, ze hebben 2 kaarten extreem ge-overklokt. Als ze dat nu ook eens met 2 6800 Ultra's doen en dan benchen, spreken we opnieuw. (niet dat ik nVidia fan ben, maar een record halen door een beetje extreem overklokken ... doe het dan op standaard snelheid ofzo)
sure als ze twee 6800's zwaar overklokken krijgen we misschien weer van dit soort prestaties. begrijp me niet verkeerd. ik ben zelf een nvidia fan. maar ati reageert 1 jaar later met een nieuw product op SLI. zowieso is Ati al te laat met hun reactie maar natuurlijk moet ie beter zijn anders hadden ze deze net zo goed niet hoeven te releasen maar het is dan ook geen verrassing dat in de tussentijd nvidia een jaar research heeft gedaan naar Sli v1.x/2.0 die Ati weer geheel in de pan zal hakken...
En die nieuwsberichten over ATI crossfire breekt wereldrecord 3Dmark05 en 03 dan?
En ik wilde meer de de nadruk leggen op de compatibility en kwa features(verschillende kaarten en 3 verschillende modes etc)
So? Big deal. ATi huurt de beste oc'er ter wereld in, ze geven hem handgekozen kaarten die extreem ver overklokken, ze geven hem een moederbord dat gewoon nog niet bestaat en dan, pas dan , kunnen ze het WR breken.
Waar gaat het naartoe? Nvidia die ook al overklokkers moet inhuren om te antwoorden? Slechte zaak gewoon. En dat weten ze bij futuremark ook, daarom dat die score niet goedgekeurd is. Custom created hardware en hardware not available to the general public worden niet toegelaten. En terecht.
Waar haal je die onzin vandaan, waar zijn de linken en de feiten of is het maar een gevoel, want dan heb hier niets te zoeken. Als een tweaker praat je wanneer je een beetje over de feiten beschikt.
Mjah, het blijft allemaal overbodig imo en alleen de beter bedeelden kunnen het financieel aan. Ik bergijp dan ook niet wat straks hun markt segment gaat worden, wie ze willen bereiken. De doorsnee gamer niet lijkt me. Maar goed, speelt wel Apple steeds meer in de hand, als die nu ook nog eens wat aan games gaan doen :+

Verder kan ik me alleen maar bedenken dat ze gamers meer de console kant op willen duwen op deze manier. Denk dat het voor de GPU developers iig goedkoper ontwikkelen zal zijn, overig pc gebruik heeft helemaal niet zulke power nodig, dus wie weet, of ze moeten wel erg naief zijn ;)

Maar om nu een beetje te gamen dit allemaal te gaan samenstellen, erg overdreven.
Hallo, waar ben je de afgelopen 10 jaar geweest? Wat vandaag spiksplintertjenieuw (en volgens jou overdreven) is, is morgen het instapmodel en overmorgen verouderd. De prijs verandert gewoon mee, van schofterig duur (want de early adopters betalen het toch wel) tot spotgoedkoop.

Voorbeeldje: toen 5 jaar terug de eerste Geforce er was, bood dit ook ongekende graphics en was er geen enkel spel wat ooit deze kaart maximaal zou belasten. Nu wordt deze kaart niet meer ondersteund.

Dit heet vooruitgang.
kun jij nu dan een x800 krijgen onder de 400?
En de 9800 Pro is nu 5 keer goedkoper dan bij de introductie:
http://www.komplett.nl/k/ki.asp?sku=122901&cks=ASS&assoc=65B3D214-BAE6 -410C-9075-06518B1B62A5
Over twee jaar kost de GF7800GTX even weinig:
http://www.tweakers.net/nieuws/37455
Dat kreng werkt anders nog prima met zo'n beetje elk spel.

/edit@DexterBelgium Ik gebruik hem nog steeds :o! Alleen Doom 3 en C&C Generals zijn niet meer te spelen, maar loop er nog vrolijk HL2 en FarCry op.
Beste koop die ik ooit gedaan heb (samen met de Ti4200 die hem is komen vervangen (kun je nagaan hoelang dat ding dienst gedaan heeft). Meen me te herinneren dat ik daar 13.000 frank (325 Euro) aan gespendeerd heb, aan die geforce van Hercules... waar zijn de tijden...
Parabellum maakt juist een goed punt RefriedNoodle.

"Verder kan ik me alleen maar bedenken dat ze gamers meer de console kant op willen duwen op deze manier"

Absoluut! Straks kan je een xbox360 kopen voor de prijs van 1 echt high-end videokaart (die altijd rond de 550,- liggen). Dan moet je bij de pc nog de rest van je systeem kopen. Terwijl de xbox GPU (en CPU) superieur zijn. De prijs/kwaliteit verhouding bij de pc is ver te zoeken.

Natuurlijk alles is in ontwikkeling, maar zie wel de juiste verhoudingen. ik zie het nut van SLI voorlopig ook nog niet, alleen voor makers. Het is gewoon een heel goeie tactic van de verkopers om dubbel veel geld binnen te krijgen!
Maar met een pc kan je ook surfen, mailen, chatten, tv kijken, office-documenten opmaken, foto- en video-editen en nog veel meer, dat is voor mij de meerprijs zeker waard. (om nog maar over het tweaken te zwijgen :P)
Maar om te surfen, mailen, chatten, tv kijken, office-documenten opmaken, foto- en video-editten en nog veel meer heb je geen ¤500 beeldkaard nodig ;)

Ik begrijp perfect wat Quasar bedoeld.

Ook ik ga vanaf kerstmis enkel budget PC'tjes kopen (integrated gfx enzo :P ) om te surfen, mailen, chatten (enz.. :P ) en een XBOX om te gamen :)
Vermoedelijk zal het bedrijf hiervoor gebruik gaan maken van de truc die Gigabyte nu al ontdekt heeft; het combineren van twee nForce4-chips.
Waarom zou je voor 16 extra lanes een hele chip toevoegen?
nVidia kan de chip zelf toch gewoon aanpassen om extra lanes toe te voegen (op een veel goedkopere manier)?
Waarschijnlijk omdat er dan zó veel verbindingen op een punt bij elkaar komen dat het erg moeilijk (duur) wordt om dat qua elektriek en signaaltiming precies goed te krijgen. Twee extra lagen op je printplaat nodig hebben is duurder dan twee losse chips op een moederbord prikken.
nee nu heeft elk PCI»E slot een eigen chip, en die worden weer met elkaar gekoppelt
LyP0 voorspelt raid controlers en netwerk kaarten met gigantische doorvoer }>.
ik denk dat t toch nog wel fftjes duurt voor dat pci er helemaal uit gewerkt is. Maar je zal wel binnekort van die moederborden krijgen met maar 1 of 2 pci sloten net zoals vroeger de enorm lange isa sloten.
en netwerk kaarten met gigantische doorvoer
PCI-E x4 is al voldoende voor een 10 gbit/s NICje.
nee zo makkelijk gaat dat niet , dan moeten ze het ontwerp van de chip wijzigen en dat is velen malen duurder dan gewoon een 2e chipje plaatsen. maar ik ben het wel met je eens dat het wel een makelijkere oplossing was voor ons tweakers.
krijg je er opeens nog zown ding bij wat je moet koelen :(
Goedkoper??

Bestaande chips gebruiken is waarschijlijk goedkoper als een nieuwe chip ontwerpen, denk dat ze de optie wel hebben overwogen, is toch alleen maar een tijdelijke oplossing.

Ik kan niet wachten tot we naar 1207 pins cpu's gaan :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True