Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties
Bron: The Inquirer

Volgens The Inquirer gaat nVidia in de toekomst SLI met vier videochips ondersteunen. Deze feature zou voor het eerst beschikbaar komen met de ForceWare 90-drivers. Op moment van schrijven is net pas de eerste officiële versie van de 80-serie beschikbaar, dus het zal op zijn minst nog een aantal maanden duren voor het zo ver is. Met deze feature zou nVidia zich op een kleine niche van moederborden richten, zoals de Gigabyte GA-8N SLI Quad Royal, waar vier videokaarten ingeprikt kunnen worden. Een meer praktische toepassing van 4-way SLI zou echter het combineren van twee dual-GPU videokaarten zijn, zoals de Asus N7800 GT Dual en de GV-3D1 van Gigabyte. Hoewel het daarmee waarschijnlijk nog steeds geen groot publiek zal bereiken, zou de feature wel erg goede benchmarkresultaten op moeten leveren. Er zijn genoeg mensen die bereid zijn om tot het uiterste te gaan om records in 3dMark te breken, wat op zich ook al genoeg is om het imago van nVidia op te krikken.

Gigabyte GA-8N SLI Quad Royal met vier grafische kaarten
Moderatie-faq Wijzig weergave

Reacties (90)

4x 7800GTX kaarten zou echt niet waard zijn voor je geld op dit moment. Geen 1 CPU kan de brute GPU kracht nog bijbenen.

Een SLI 7800GTX heb je een FX @3.5-3.6GHz (Cascade/LN2) nodig om de bottleneck tot een minimum te beperken. Met 4x 7800GTX in SLI heb je echt 4GHz+ CPU kracht nodi..
waarom zoveel gigahertzen? Je weet dat AMD anders "rekent" per cycle. Met intel misschien, maar met AMD denk niet.
diverse testen wezen al uit dat bij een SLI opstelling een FX-57 op stock snelheden al snel de bottleneck vormt ;). Vandaar de 3,5-3,6 GHz snelheden :). (zie ook hier)

Voor intel zal het nog wel wat hoger liggen :P
True, helaas blijft dat wel zo. De FPU van de GFX is vele malen sneller dan een hedendaagse x86 processor.
Zelf een 5000+ zou nog niet voldoende zijn.
Uit recente reviews bleek ook dat een single core processor toch beter presteert dan een dual core processor.

Maar de processor en het intern geheugen blijft en zal een een bottleneck blijven icm high-end videokaarten.

Komt Nvidia dan met FSAA 32x? In een SLI opstelling van twee videokaarten kan je kiezen uit split rendering en alternate. Zou twee kaarten dan de onderste en de andere twee bovenste kunnen gaan renderen? Ik neem aan dat de SLI bruggen GPU0/1 verbindgen en 2/3.

De vraag ook is: is meer altijd beter? Uiteraard ben ik benieuwd naar de snelheidsverbeteringen/kwaliteit van 2x SLI. Persoonlijk zie ik liever verbeteringen in de flexibiliteit van SLI.

btw: op tomshardwareguide is er ook een review van dit moederbord.
AMD X2 5000+ moet genoeg zijn lijkt me. En ik weet zeker dat die er is voordat deze drivers stabiel zijn.
4 kaarten het geld niet waard omdat de CPU het niet aankan

wat dacht je vant het feit waar heb je in vredesnaam 4X een 7800GTX voor nodig ?
tegen de tijd dat een dubbele 7800GTX achterloopt dan zitten wel al op de G-Force serie 9 of 10
Hoewel het daarmee waarschijnlijk nog steeds geen groot publiek zal bereiken, zou de feature wel erg goede benchmarkresultaten op moeten leveren. Er zijn genoeg mensen die bereid zijn om tot het uiterste te gaan om records in 3dMark te breken, wat op zich ook al genoeg is om het imago van nVidia op te krikken.
Kortom, dit is er alleen om ATi de ogen uit te steken, omdat nVidia dan op papier alle benchmark records in handen heeft.
Als het niet om die records gaat, waarom gaan ze dan altijd sneller? waarom komt ATi dan ook met crossfire? Alles draait net om snelheid en dan ga jij nVidia beschuldigen van overdaad als ze iets vinden dat nog sneller kan gaan.
XyritZz bedoelt dat dit alleen is om benchmarks te winnen, terwijl niemand ooit daadwerkelijk deze opstelling toe zal passen. 2xSLI is misschien nog voor een kleine groep zinvol terwijl dit echt nergens meer op slaat.
Bij Crossfire is de limiet 64-chips die samenwerken dus als er geschikte moederborden/kaarten voor komen zou ATI makkelijk alle records kunnen halen.

Zie het al voor me, een speciaal moederbord dat uit 2 delen bestaat: 1 voor de CPU en normale insteekkaarten en 1 voor 8 Videokaarten met elk 8 GPU's :P.
Ach, voor ATI zal er ook wel een 'quad' Crossfire edition komen.
wat moeten we hiermee? diegene die zoiets appricieren zoals cad/3d tekenaars gaan echt niet 4x600 euro neerleggen maar kopen lever een 3dlabs of 2.. dit is meer iets om te laten zien van 'kijk dit kunnen wij ook nog' maar ik kan me niet voorstellen dat we dit ook ooit tot een practisch iets zien komen.
Ach misschien dat bedrijven als ASUS ipv dual GPU oplossingen 4 GPUs op een kaart gaan plakken. Ik kan me voorstellen dat een oplossing met 4 7800 GTs sneller is dan een kaart met 2 7800GTX GPUs en niet veel meer hoeft te kosten.

Voorlopig blijft het welliswaar onbetaalbaar, maar op termijn kan dit best wel eens noodzakelijk zijn voor nVidia om voor een redelijk bedrag veel performance te kunnen leveren.
Nu heb je chips die elk erg krachtig zijn alleen. En eventueel voor de diehard mensen in tweetallen of viertellen gebruik kunnen worden. Wellicht gaat nvidia nu de drivers er klaar voor zijn wel een soort van Cellkaarten maken met 8 zuinige chips (3dfx flashback).
Geweldig voor HTPC! Idle slecht een van de 8 chips/cores gebruiken en bij games de volle 8 inschakelen. Ken die fan van mijn graka ook eens uit :*)
Lol doet me denken aan iets wat zo uit de autotechniek komt, namelijk dat Audi en Cadillac allebei zoiets gebruiken voor hun autos (wel de exclusieve dan), namelijk als je gewoon op een 80 weg rijdt, rij je op 2 cilinders...trap je het gas in dan heb je er 16 :+

Maar zoiets zou in kader van energie bezuiniging een hele mooie techniek zijn.
mmh hitte? ruimte? 4 cores op een kaart ;) wat dacht je van wat ik laatst las: gpu-socket op het moederbord en dan een quad core... Of 2 asus kaarten met dual-gpu in een Sli-bord?
hmm als ze nou eens iets uitvinden waarmee je de warmte die uit je comp komt nuttig kan gaan gebruiken.. :P scheelt ook weer een beetje op de elec. rekening!
Case open onder je burea en je cv kan gans de winter uitblijven.
Wat dacht je van de Centrale Verwarming?
Ik heb mijn computer nu bijna de hele dag aanstaan en dat merk je wel. Die kamer is nu standaard 2 a 3 graden warmer dan de rest van het huis.

En dan heb ik echt geen high-end systeem. Met vier videokaarten gaan we inderdaad een beetje hard. Het vermogen wat die dingen nodig hebben is niet weinig laat staan de warmteproductie.

Verder lijkt me 4 videokaarten op een moederbord een beetje overdreven. Misschien willen mensen ook nog wel een Sata-Raid controller, X-Fi geluidskaart, Wifi netwerkkaart, enz. Dus voor de high-end gamer zal dit niet zo aantrekkelijk zijn ook al zouden ze het geld er voor hebben. Dat het op de markt komt is vrijwel zeker maar of het ook echt gebruikt gaat worden? Wie weet. Ik denk dat veel mensen toch liever kiezen voor een extra geluidskaart of een sata-controller omdat je daarmee ook je performance van je hele computer omhoog krikt.
Heatpipes door het hele huis :Y)

Ik vind dit eerlijkgezegt ook niet echt verantwoord gebruik maken van energie.

Ik denk eigenlijk dat mensen die echt quad SLI gaan draaien (gestoord zijn) dat vooral doen om ermee te kunnen pimpen. Ik vraag me nou echt af of je het performance verschil met "dual" SLI zodanig merkt dat het die ¤1000 euro extra waard is (2 graka's + een dure voeding). Je zult het ongetwijfeld merken met spellen die over 2 jaar uitkomen ofzo, maar dan kun je toch beter dan een nieuwe generatie kaart kopen.
Ik zet ook nooit de kachel aan in m'n kamertje.
Volgens mij heeft iedereen het hier verkeerd (jippi),

Volgens mij wordt bedoelt 2 video cores op 1 kaart.
Zoals bijvoorbeeld bij die ene Asus het geval is.

Hier door krijg je straks 2 videokaarten met bijvoorbeeld 4 cores.

Hierdoor bespaar je ruimte en warmte :D
wat doet dat plaatje er dan onder met 4! kaarten erin?

dus 4x enkel GPU of 2x Dual GPU
offtopic: Op deze manier hebben de pc de consoles dalijk binnen 1 jaar al ingehaald :(

Naja, zou iemand voor de prijs van 4 xbox 360's en een kast en een voeding, processor, geheugen, etc etc. laat ook maar.

ontopic: Ik denk niet dat veel mensen van deze opstelling gebruik zullen maken.

Het jammere van de pc is dat er nergens op spellen geoptimaliseerd wordt, ik kan dit niet precies toelichten, maar het komt erop neer dat een geforce 3 al super functies had die nooit gebruikt zijn, terwijl dat voor elke volgende generatie alleen maar erger wordt.

Bijv. fear, dat is zeker weten het mooiste spel wat ooit op de pc is uitgekomen, maar als je naar effecten kijkt: veel particles, enkele texture shaders en dan heb je het gehad (oh en een havok engine) ik weet zeker dat de huidige kaarten echt veel en veel meer dan dat kunnen.
Maarja, dan speel je fear op een 850 xt met alles op hoog en dan krijg je framedrops tot onder de 20 :(
laat ze aub eens fatsoenlijke drivers ofzo schrijven, want dit is echt te flauw voor woorden.

Ik zag gisteren op een gameprogramma beelden van toekomstige xbox spellen, een vriend zei me dat die xbox op een soort r520 draait. Nou, die spellen, in geen enkel pc boekje kan je spellen zien die voor de komende jaren gepland staan met zulke graphics. Terwijl het ongeveer de zelfde hardware is!

En dit, is weer hetzelde, ipv optimaliseren zeggen ze gewoon:
nou, koop dan een extra kaart!
nu zeggen ze zelfs: nou, koop dan 3 extra kaarten :r

Ik hoop maar voor de pc dat je op zo'n toekomstige console GEEN tobo en muis kan aansluiten anders dan is de radeon 9700 de laatste kaart geweest die ik voor de pc gekocht heb.

edit: \[off-topic maar on-thread]
dan moet je maar eens naar gamekings kijken.wat de nieuwe drivers betreft, dit vind je dus een pluspunt of hoe moet ik het zien?!
Btw de xbox heeft gratis anti aliasing, dat is vaak genoeg voorbij gekomen hier.
het is niet om jouw pc aan te vallen, het is gewoon de realiteit.
http://media.xbox360.ign.com/media/742/742471/imgs_1.html
http://media.xbox360.ign.com/media/741/741362/imgs_1.html
http://media.xbox360.ign.com/media/741/741362/vids_1.html <voor de non-believers :P
zie het als fifa 2001, toen die uitkwam op de PS2 (was lancerings game in maart 2000 japan), toen kon je pc pas dezelfde graphics en details (in 640*480) aan een jaar erna. Ik zie de x850xt of de x1800gtx echt geen madden 360 doen, nog niet eens op 640*480.
\[/off-topic maar on-thread]

Er zullen trouwens ook niet veel spellen zijn die 4 GPu's nodig hebben, want in dat geval zouden alleen enkele nerds (hehe, nofi) het spel kunnen spelen, terwijl zij alles altijd downloaden=dev maakt verlies op het 4GPU-ige spel.

Ook is 2 GPU's hebben al ongeoptimaliseerd,
ipv 90% extra power, hooguit rond de 60%. (ingame, niet in een synthetische bench)
met 4 GPU's zal dit alleen maar afnemen, waardoor ik me steeds meer het nut ervan begin af te vragen.

edit2:
je kan je pc monitor gebruiken ;) als je dan nog steeds het verschil niet ziet, dan heb je goedkope troep :)
\[off-topic maar on-thread]
heb je wel eens goed de filmpjes en screens bekeken voor de xbox360?

antialiasing hebben ze nog niet eens uitgevonden op de consoles, en resoluties die niet boven de 1024 uitkomen.
ja zo kan ik ook elk spel lekker vloeiend laten draaien :Z

en consoles hebben geen besturingssysteem (ja enkel om de game op te laten starten) + NOOIT nieuwe drivers en GEEN instelling qua audio en graphics
\[/off-topic maar on-thread]

extendedit:
edit: \[off-topic maar on-thread]
dan moet je maar eens naar gamekings kijken.wat de nieuwe drivers betreft, dit vind je dus een pluspunt of hoe moet ik het zien?!
Btw de xbox heeft gratis anti aliasing, dat is vaak genoeg voorbij gekomen hier.
het is niet om jouw pc aan te vallen, het is gewoon de realiteit.
<a href=\"http://\"http://\"http://media.xbox360.ign.com/media/742/742471/imgs_1.html\\\" target=\"_blank\">http://media.xbox360.ign.com/media/742/742471/imgs_1.html</a>
<a href=\"http://\"http://\"http://media.xbox360.ign.com/media/741/741362/imgs_1.html\\\" target=\"_blank\">http://media.xbox360.ign.com/media/741/741362/imgs_1.html</a>
nou http://media.xbox360.ign....2/742471/img_3170470.html hier zie ik niets anders als kartels....(over anisotrophic filtering -2x niet te spreken :r
en de screens van PGR3 is niet bewezen ingame...


en wat dat 'antialiasing is gratis' betreft NIX is gratis je betaald het duur in de hardware plus in de games (als ze het ooit ondersteunen) ik had eigenlijk wel verwacht dat de Xbox 360 wel standaard antialiasing aan had staan (2 of 4x) want het is puur een driverlevel instelling, en als ze een goede kaart erin hebben kunnen ze dat ook wel aanzetten.
Dat is ook niet nodig, want op de tv zie je nauwelijks verschil... Ik heb ook mijn pc op de tv aangesloten... maar al zet ik hem op 640x480... Je ziet nauwelijks verschil... Laat staan als je meer dan 2x AA aanzet, dat zie je toch niet op de tv.
Met "antialiasing is gratis" bedoelt men dat het geen extra rekenkracht kost op de hardware van de xbox360.
Sorry dat ik het zeg maar ik heb hier Unreal 2 liggen
MEGA lelijk op de X-Box mega mooi op mn PC
DOOM 3 als ik die op de PC draai zit alles er wel een mega stuk beter uit
zelfde als NFS Underground en vooral deel 2
Ziet er leuk uit.! btw waarom zeurt iedereen over het verbruik van dit soort dingen. als je hier geld voor hebt kan je die rekening ook wel betalen hoor.
Nheu joh :9 Dat gaat ze niet om het geld, het zijn gewoon personen die het "zonde" voor het milieu vinden ;)
maar hoe zit het nu met dual core gpu's? (of kaarten met 2 gpu's correct me if i'm wrong)
Een meer praktische toepassing van 4-way SLI zou echter het combineren van twee dual-GPU videokaarten zijn, zoals de Asus N7800 GT Dual en de GV-3D1 van Gigabyte.
:Y)
oh zou het dan ook mogelijk zijn om 4 dualGPU kaartjes erin te prikken? dan heb je een octocore :7


trouwens snap ik het nut niet van deze ontwikkelingen, want wie koopt nou 4 videokaarten.
ja dan kun je wel 4 midrangekaarten kopen maar als je dat met 1 of 2 highend kaarten het zelfde kan (voor minder geld) (8>
nee dat zou dus niet kunnen aangezien de drivers het dan niet ondersteuen die ondersteunen namelijk VIER videochips en geen acht...
wie koopt nu 2 videokaarten?
1 GTX is snel zat... voor de meeste

dergelijke dingen worden puur gemaakt voor de freaks, maar eigenlijk vooral voor de marketing afdeling, want het staat mooi :*)
Gek, je koopt geen 4 videokaarten, maar wel een videokaart met 16 pipelines?

Klinkt misschien heel flauw, maar eigenlijk is het vrijwel hetzelfde. Gewoon steeds meer zaken parallel uitvoeren om zo meer data te verwerken...

Het lijkt (is?) nu inderdaad overbodig om 4 planken in je PC te stoppen, maar je moet toch wat doen om steeds meer data te verwerken. Als de winst per core niet meer zo hard gaat, dan splits je toch gewoon het werk over meerdere cores? Zeker voor een videokaart zijn de taken erg goed parallel uit te voeren (dat blijkt wel uit het feit dat de pixelpipelines inmiddels met 16 of 24 naast elkaar werken :) )
zou je nu met deze drivers wel 2 dual gpu in je sli bord met 2 pci-e sloten kunnen stoppen :?
Kunnen we alsjeblieft stoppen met het dual-core GPU verhaal, jou zou kunne stellen dat een GPU ergens rond de 50 cores in zich heeft.....maar daar schieten we niets mee op, zonder er verder op in te gaan. En ja een KAART met 2 GPU's heeft dus ook 2 cores, maar 2 GPU's klopt gewoon net iets beter.
Ik snap eigenlijk niet waarom om CPU wel op 3800 Mhz kan lopen met 4 x 1024 ram en dat ze dat bij videokaarten niet voor mekaar kunnen krijgen. dan kunnen ze toch beter in plaats van 4 SLI videokaarten beter een apart Mobo of iets dergelijks maken en die op een of ander manier in je kast pluggen. Ik vind dit echt vette onzin. Volgens mij kunnen ze echt wel beter maar willen ze niet. Precies wat men zegt van een Xbox 360. Waarom kan het daar wel?
ja maar het hoeft niet eens een extra mobo formaat te zijn, omdat je geen 3x PCI, 2X PCI-e 1x, 1x PCI-e 4x en 1 of 2 PCI-e 16x sloten erop hoeft te hebben (plus al dat IDE, SATA en andere troep)

dit alles kan makkelijk op een printplaat van 7800GTX formaat, met gewoon een Dualcore GPU van pak em beet 2 GHZ (1 chip niet 2 zoals op die van asus) plus 1024 DDR2 aanboord (eventueel uitbreidbaar)

en dan volledige ondersteuning van het videogeheugen

dat zou veel beter zijn dan al dat gemier onder de 600 mhz en 512 mb = overkill onzin :Z
Niet om te flamen..
Maar hahah jullie weten dus echt niet waar jullie over praten!!.
Bijvoorbeeld een GF7800GTX genereert VEEL meer gigaflops dan bijvoorbeeld een P4 Ghz...

Dit is TOTAAL niet met elkaar vergelijkbaar!
Een grafische kaart is alleen voor het grafische werk en kan dit ontzettend goed. En ik ben blij dat ze die dingen niet op die raar hoge frequenties laten werken, anders zou de hitte en het verbruik helemaal niet in de hand te houden zijn....
we nemen de 6800u -> 7800GTX als voorbeeld.

we pakken pure fillrate.

de 6800u heeft 16 pipelines en doet z'n werk @ 400Mhz.. dit resulteert tot 6.4GPixels/s fillrate. (400 * pipelines)

de 7800gtx heeft 24 pipelines en doet z'n werk @ 430 Mhz... dit resulteert tot 10.32GPixels/s fillrate.

dus in theoretische fillrate is de 7800GTX 62% snellerder!! niet slecht voor een miezerige 30Mhz meer kloksnelheid.
Wat bedoel je met "niet slecht"? Het is nogal logisch en te verwachten dat dat zulke snelheidsverbeteringen opleverd. Het zou eens niet zo moeten zijn...
Wie heeft jou leren rekenen.........De 6800Ultra heeft 62% van de fillrate van de 7800GTX, de 7800GTX heeft dus 61% extra kracht.
ja maar dan zou als nog een dubbele mhz beter zijn dan al dat miegerige 100 of 50 meer dan vorig topmodel
mijn 7800gtz draait op 480 standaard maar OC op 535 dus meneer rekenmachine hoeveel gpixels zijn dat?
omdat de architectuur totaal verschillend is?
Simpelweg omdat een CPU héel andere taken heeft dan een GPU. De CPU krijgt zeer veel x86 intructies voor zijn kiezen, de GPU niet. Dat vergt een heel andere aanpak cq. architectuur.
eerlijk gezegd vind ik dat sli en crossfire gedoe een beetje de pan uit reizen :r
straks komen ze aan met een externe kabel voor naar een 2e systeem kast, met daarin een speciaal moederbord met 10 PCI-16x sloten erop. om dan samen met je andere 4 kaarten wel 14 videokaarten aan elkaar door te lussen in SLI.

zoals ik al eerder zei:
ze moeten gewoon de karten zelf sneller maken inplaats van meer aan elkaar te knuppen,

je gaat toch ook niet om een snellere auto te hebben,
2 aan elkaar scroeven?
Volgens mij was zelfs de Citroen 2CV al met 2 motoren verkrijgbaar.........

Of wel eens een Volkswagen W12 bekeken? Dat zijn toch echt 2 aan elkaar gelaste V6 en. Sowieso, hoeveel auto's met een 1 cylinder motor ken jij?

Dus in autoland is het heel gebruikelijk om een SLI opstelling te maken :)

En ja, dit is off topic.
ja hallo nu heb je het over een dualGPU auto met 2 motoren, en niet over 2 verschillende autos met een kabel aan elkaar
die 2 auto's met een kabel er tussen zie ik wel eens rijden hoor, alleen kijkt de bestuurder van de 2e auto dan meestal niet zo vrolijk
Cilinders moet je vergelijken met pipelines.
Nu gaat het toch al minder op...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True