Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: PC Pop, submitter: biobak

Al sinds de introductie van de SLI-technologie spreekt het idee van vier videokaarten die samenwerken tot de verbeelding en nu is ook Asus daarmee, niet zonder succes, aan het experimenteren gegaan. Enkele Chinese journalisten wisten de hand op wat foto's van testconfiguraties met twee dual GeForce 7800 GT's, goed voor een totaal van vier gpu's, te leggen. Voor het testen werd blijkbaar gebruikgemaakt van twee Asus EN7800 GT Dual-videokaarten die beide voorzien zijn van twee GeForce 7800 GT-cores en 512MB geheugen. Deze twee kaarten werden op een Asus A8N32-SLI Deluxe Revision 2.0 geprikt en waren verbazingwekkend genoeg niet verbonden met behulp van een MIO-connector die zo typisch is voor nVidia's SLI-technologie. Uit een Windows-screenshot blijkt dat de SLI-constructie herkend wordt als vier individuele videokaarten. Jammergenoeg wisten de Chinezen niet te vertellen welke score het systeem haalde in 3DMark05, maar gaven ze wel enkele screenshots en foto's van de opstelling vrij. De gebruikte driverversie werd niet vrijgegeven, maar het lijkt er op dat er nog wat werk aan de winkel is om de technologie op punt te stellen, gezien de storingen in het beeld.

Quad SLI (klein)
Moderatie-faq Wijzig weergave

Reacties (47)

Hmm... Redelijk maffe stunt, maar hoe kan je zonder MIO connector aan de bandbreedte komen die 4 GT chips nodig hebben?

Natuurlijk is dit een A8N32, maar zouden die 32 lanes genoeg kunnen leveren om het optimale uit die chips te halen? Sowizo heb je nog geen processor die 4 7800GT chips kan voorzien van voldoende info.

Nog even wachten op 3Dmark scores dus :P

Volgende stap is waarschijnlijk 4 van deze kaarten (8 GPU's!! 8-) ) op het gigabyte mobo met 4 PCI-e sloten :9~
Ik kan me best professionele visualisatie toepassingen voorstellen waar dit nuttig zou zijn.

Dat door de beperkte processor capaciteit het in games misschien nog niet nuttig is, tja, het draait niet alleen maar om games.
Een videokaart gaat steeds meer op een processor (CPU) lijken. Je kunt voor bepaalde taken meer met meerdere processoren, met dual, quad of meerweg configuraties.

Wat mij dan de volgende stap lijkt zijn Dual Core GPU's.
Het probleem "warmte" speelt bij de GPU's veel meer dan CPU's dit omdat de berekeningen veel complexer zijn.

Zoals de mensen hier boven al hebben geconstateerd is een kaart zoals dit niet echt bruikbaar omdat de koeling voor meer overlast zorgt dan dat het voordelen heeft.

willen ze het warmte probleem oplossen dan moeten ze met hele andere oplossingen komen als dat ze nu bedenken. nu vallen ze weer terug op een idee dat in 1996 naar voren kwam, het idee van een CO-GPU, net zoals de 3dfx kaarten 10 jaar geleden. dit is later ook geintegreerd in de GPU zelf, wat dus weer voor warmte zorgde.

Ik denk dat ze wat meer moeten kijken naar alternatieven, dit kan niet langer doorgaan. Ik weet niet precies hoe de GPU's nu werken, maar het opdelen in cellen die dedicated zijn voor bepaalde berekeningen, die ook uitgeschakeld kunnen worden om zo warmte problemen te kunnen voorkomen is denk ik op korte termijn een optie. daarnaa zijn alternatieven zoals licht ipv stroom misschien beter.
Ik ben eerder benieuwd naar de integratie van andere aspecten van gaming op deze kaarten. Zoals een physics chip ipv een losse physics pci kaart.

Dat zou de ultieme klapper zijn, een sterke videokaart, dual gpu en een physics unit geintegreerd.
Ziet er leuk uit maar ik weet niet of het nou wel nodig is om zoveel mogelijk videokaarten aan elkaar te knopen. Ik vind het meer een marketing stunt dan iets nuttigs. Heb liever dat ze geld steken in het ontwikkelen van nieuwe kaarten inplaats van zoveel mogelijk op 1 kaart proppen :z Daarbij is het ontwikkelen van inovatieve dingen zoals minder stroomverbruik en drivers verder optimaliseren belangrijker dan grof geweld is mijn mening. Big is not always better.
Ik denk dat GPUs binnenkort tegen dezelfde beperkingen aanlopen als CPUs. Dan is de enige mogelijkheid om meerdere cores te gaan hanteren. Het ziet er nu nog een beetje onhandig uit, maar over een paar jaar hebben we misschien 4 cores op 1 kaart. Daarnaast blijft het optimaliseren van drivers natuurlijk minstens net zo belangrijk.

Ik ben bang dat het minste stroomverbruik en de hoogste performance niet echt samengaan. Als je laag stroomverbruik wil, moet je niet voor dit soort technieken gaan. Als je maximale performance wilt, kost dat geld, niet alleen qua techniek, maar ook op de energierekening. Dat is een keuze die ieder voor zich moet maken.
Meerdere cores op 1 GPU lijkt me compleet zinloos (tenzij je meerdere schermen wilt aansturen misschien). Een GPU is van nature al parallel, in tegenstelling tot een CPU die instructie voor instructie afhandelt. Je kunt het dual-core maken van CPU's dus het best vergelijken met het uitbreiden van het aantal pipelines in een GPU, wat dus al jaren gaande is.

Multi-core GPU's? Ik zie het niet zo snel gebeuren, hoewel 't mogelijk voordeel kan bieden bij het aansturen van meerdere schermen. Het zal zeker geen oplossing worden voor een bepaalde limiet waar CPU's ook tegenaan lopen, omdat die limiet voor GPU's er niet echt is. Het design probleem voor GPU's is wat dit betreft vooral chip-oppervlakte. Hoe groter de chip, hoe meer pipelines erin passen. Dat is een situatie waarin CPU-design zich niet bevindt, behalve wanneer er dus meerdere cores op geplaatst worden.

the_priest:
Ik zie het ook gebeuren dat er kaarten komen met meerdere GPU's en SLI zal ook wel blijven, maar de reden hiervoor is imho anders dan wat jij zegt. Je haalt mijns insziens betere yields bij 2 chips van 1x1cm dan bij 1 chip van 2x1 cm. Daarnaast kan je met losse chips VGA-kaarten gedoseerd voorzien van power.

aartdeheus:
Er is ruimte voor multi-core, maar dat heeft gewoon niets toe te voegen, omdat de rekenkracht toch al parallel is in een GPU. 2x16 pipes (in een dualcore opstelling) kost minstens zoveel transistors als 1x32 pipes, maar levert echt niet meer prestaties op. En waarom er SLI is? Omdat ze niet de mogelijkheid hebben een enkele chip te produceren die 2x zo krachtig is als het topmodel. Dat zou verschrikkelijk veel uitval geven.
Dus volgens jou stelling, die (ietsje versimpeld) zegt dat Cores x Pipelines = rekenkracht, is het wl zo dat meer pipelines zinvol is maar niet meer cores?

Volgens mij kun je als je een scherm toch al verdeelt over de pijpjes, het scherm in veel meer blokjes opdelen als je ipv 1 core met 32 pipes 4 cores met 16 pipes hebt. Dat kan dan de beeldkwaliteit en/of snelheid ten goede komen.
Een (heel) extreme uitontwikkeling kan dan zijn dat je elke core 1 pipe laat aansturen die je gebruikt voor n pixel, waarbij de per-pixel-calculations dusdanig snel zijn dat je vrijwel elke bewerking die je verzinnen kunt kunt uitvoeren. Dan moet je wel het n en ander aan multi-stage oplossingen gaan bouwen (n die het scherm in grote lijnen vaststelt en dan fase2 de pixeltjes berekenen) maar dat is allemaal wel doenlijk. In een normale gsme PC verwcht ik toch wel 1280x1024 of hoger te zien dus reken maar uit voor hoeveel cores er dan markt is per GPU.

Nee, klaar me tontwikkelen zijn we niet en juist omdat GPUs zo vreselijk veel parallel doen is er wl ruimte voor multicores. Wat dacht je anders dat SLI is? En dat is er niet voor niets al sinds de Voodoo2...
Dit lijkt mij niet zo, elke GPU kan voor een klein gedeelte van het beeldoppervlakte berekeningen uitvoeren waardoor meerdere GPU's de videokaart een enorme prestatie boost zouden kunnen geven.

Ik denk dat over enkele jaren meerdere GPU's op een videokaart normaal is. Het kleiner en zuiniger maken van de chips is dan natuurlijk van essentieel belang.
daarnaast is asus niet de gene die zich bezig houdt met het ontwerpen/ontwikkelen van de nieuwe nvidia/ati chip. Asus prikt deze chips op hun plankje, en zijn nu dus bezig dat op een creative manier te doen. Daarnaast krijgen ze inderdaad veel media-aandacht, wat alleen maar mooi meegenomen is.
Humz, zou dit dan net genoeg zijn om Call of Duty 2 in DirectX 9.0c op 1600x1200 te draaien op full detail ? :+
Zou het een beta driver kunnen zijn die met groene lijnen laat zien hoe SLI het beeld in 4 stukken verdeelt?
Dan lijkt het me een beetje ongelijk verdeeld. :)
Bij SLI gebeurt dat ook niet altijd gelijk, de verdeling word gemaakt om de hoogste performance te halen. Misschien dat de grond wat meer rekenwerk met zich mee brengt dan de lucht?
De groene lijntjes (waar de poster schijnbaar aan refereert als zijnde 'storingen in beeld') zijn inderdaad de lijnen die het beeld in 4 stukken verdelen. Die vier stukken zijn de delen van het beeld die door de verschillende GPU's worden gerenderd. (Zie screenshots van de eerste SLi configuraties in actie een half jaar terug) Dus lijkt het mij dat de drivers prima werken, en de ontwikkeling in een ver gevorderde staat verkeert.

Wellicht binnen enkele maanden de eerste werkende configuraties in de ORB van Futuremark? :)
Ik zie kansen voor een dergelijke synergie tussen beeldkwaliteit en warmteontwikkeling. Je kunt in de winter de CV gewoon wat lager zetten tijdens het gamen... :+
"En dat draadje tussen je pc en de verwarming, is die voor de aarde?" - "Nee, die regelt de thermostaat tijdens het gamen" :+
Of je hebt een computer en broodrooster in 1!! Ideaal!
Volgens mij als ze nog even zo door gaan plug je je moederbord in op je videokaart(en). En hoeveel zal deze opstelling wel niet verbruiken.

Des al niet te min vet ziek
Het energie verbruik kan best wel eens meevallen. Vergeet niet dat dit GT chips zijn en geen GTXen. Aangezien het energieverbruik niet lineair schaalt met de kracht van de chip maar exponentieel kan het zijn dat deze combo bij hetzelfde stroomverbruik betere prestaties geeft dan 2 GTXen.

Ook kan de prijs van deze 4 chips lager liggen dan die van 2 GTXen (denk even terug aan de 6600GT in SLI vs 1 (duurdere) 6800 ultra.)
Ik vind dat ze de pci-slots wat meer naar beneden moeten doen zodat er wel plaats is voor een eventuele geluidskaart of andere kaart! In deze opstelling heb je natuurlijk niks aan je PCI-sloten.
Als je naar dat moederbord kijkt, zie je dat daar geen plaats voor is. Je kan je moederbord wel groter maken, maar dan val je buiten de ATX form-factor en zal het mobo dus niet passen in de meeste ATX kasten.
Ben ik nu de enige dit de gebruikte koeler niet superieur vind.
Als er gewone mounting gaatjes om de cores heen zitten kan je deze kaarten mischien wel uitrusten met een dual Zalman VF-700 koelsysteem :9~ , mits dat past natuurlijk
Tuurlijk valt gamen op de console's, NOG, niet te vergelijken als op de pc. Maar ik vind het wel frapant dat de console's qua specificatie's krachtiger worden maar tevens ook gelijk kleiner. Waarom is dan nog steeds zoveel kracht nodig voor in de PC, terwijl de console's, imo, steeds meer voor liggen op de PC's ? PC's, ondanks dat ze proberen wat te doen aan de warmte ontwikkeling en aan de grote van de CPU's, men blijft maar zoeken naar sneller, terwijl dit voor het huidige segment aan software helemaal niet nodig is.

Ik zou echt geen tamp meer van een tower willen om daar maar even een spelletje op te spelen, waarbij de hoge resolutie's gewoonweg niet nodig zijn etc. Waarom niet verder borduren met de PC met als uitgangspunt om daar ook games in HDTV weer te geven op schermen ? Dat lijkt me aantrekkelijker dan waar ze nu mee bezig zijn, of zie ik iets verkeerd ?

Als ik zie, op de huisige Xbox als voorbeeld, dan vind ik dat ze voor een P3-733 en een knullig gpu'tje erop al een hoop eruit halen, zeker nadat ik FarCry Instincts heb gezien daarop. Laat staan straks op Xbox360.

Ik blijf erbij dat gamen op deze manier, zoals ASUS nu weer als voorbeeld stelt, 2 kaarten, 4 gpu's erop, geen toekomst muziek is, al helemaal niet qua prijs, zo creeer je en niche markt welke voor de doorsnee gamer onbetaalbaar is. En dat men alleen nog maar snellere CPU's ontwikkelt voor een mooier jasje voor OS'en en software vind ik een verkeerde insteek. ALs ik naar de server parken van de banken kijk dan denk ik dat we, in het verlengde, voor de natuur verkeerd bezig zijn. Daar word een beetje power geconsumeerd word je akelig van, watercooling en de airco's, daar kan je Zuid Afrika op laten draaien qua verwarming en energie voorziening |:(
Waarom er nog altijd zoveel kracht nodig voor is in de pc?

Dat is vrij simpel, bij die console is de hardware een vaststaand iets, bij een pc verschilt dat bij bijna iedereen. Vanwege die verschillen zal er veel geprogrammeerd moeten worden maar er zal in het algemeen ook veel rekenkracht nodig zijn om de spellen te draaien.
Voor die xbox is 100% te optimaliseren.

En nu moeten mensen niet aankomen met het verhaal dat de xbox lage resoluties gebruikt want hij kan ook hoger weergeven naar gelang de televisie waarop hij aangesloten is.

Een tweede punt is dat de hele gamebusiness draait om en op dat gehype van hardware en spellen. Programmeurs zijn vaker ook gewoon lui met als resultaat dat spellen niet goed draaien op een middelmatig systeem (Doom 3 vs Half life 2 bijv).
Zo ook meerdere spellen uit de EA stal.

Als je mee wil gaan als gamer zul je gedwongen zijn regelmatig nieuwe hardware te kopen, de mens is nu eenmaal zo hebberig.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True