Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: X-bit Labs

Volgens ATI, onderdeel van AMD, vormen multi-gpu's de technologie van de toekomst wanneer het op high-performance graphicshardware aankomt. Wanneer de eerste multi-gpu-hardware op de markt komt, is niet bekendgemaakt.

Richard Huddy, bij AMD's graphics product-divisie verantwoordelijk voor relaties met ontwikkelaars, heeft tijdens de Develop-conferentie verteld dat AMD niet langer geïnteresseerd is in het bouwen van grote monolithische gpu's. In plaats daarvan ziet het bedrijf meer heil in multi-gpu-apparatuur, die eenvoudiger kan opschalen. Het probleem, vertelt Huddy, is dat gpu's steeds kleiner worden en dat het daardoor steeds moeilijker wordt om brede geheugenbussen te produceren. Het gevolg daarvan is dat de prestaties van moderne gpu's vanwege een tekort aan geheugenbandbreedte relatief gezien afnemen. Wanneer AMD gaat stoppen met de productie van high-end grafische kaarten met slechts één gpu, kon Huddy niet vertellen.

ATi-logoHoe een dergelijke multi-gpu-oplossing eruit gaat zien, liet Huddy in het midden. In theorie zou dit kunnen betekenen dat een videokaart wordt voorzien van meerdere gelijke gpu's, waarmee in feite een soort CrossFire- of SLI-product ontstaat. Een andere mogelijkheid is dat op een videokaart meerdere verschillende gpu's geplaatst worden, zoals gebeurde bij de Voodoo 1 en Voodoo 2. Elke gpu voert dan bepaalde specialistische acties uit. De huidige grafische processors bevatten een aantal sleutelcomponenten, zoals texture units, geheugencontrollers, shaderprocessors en renderbackends, die op zich ook als losstaande chip zouden kunnen fungeren.

Moderatie-faq Wijzig weergave

Reacties (45)

Het lijkt mij dat multichip het niet makkelijker maakt om brede geheugenbussen te maken, je houdt dezelfde restricties op PCB niveau. Daarnaast moet je ook nog eens een hoop verbindingen aanleggen tussen de verschillende IC's.

Daarnaast zal de architectuur flink moeten veranderen, bijvoorbeeld een master/slave architectuur: 1 Master chip met de geheugencontroller, IO, generieke cpu? en de logica om andere chips aan te sturen. En daarnaast een hoop slave chips die de afzonderlijke berekeningen voor zich nemen.

Er zitten wel wat nadelen aan zo een opzet: je kan natuurlijk niet dezelfde "master" inzetten voor medium-end / high-end omdat je daar altijd nog de verschillen hebt in kosten die je wilt maken, een veel te overspecte chip is alleen maar duur (geen 256bit of meer voor medium-end), maar je chip moet ook weer niet te langzaam zijn. Daarnaast stijgen de kosten voor de PCB behoorlijk, packaging, eventueel de cooling als dit niet meer met één cooler gaat, etc, etc...

[Reactie gewijzigd door knirfie244 op 7 augustus 2007 14:30]

euhm NV SLI heeft niks te maken met 3dfx SLI laten we daar effe duidelijk over zijn!

3dfx SLI = Scan Line Interleave
bij Voodoo2 doet de ene kaart de effe lijnen en de de ander oneffe lijnen, bij voodoo5 het zelfde maar dan met 2 of meerdere VSA-100's

3dfx SLI lijkt meer op ATi CrossFire waarbij VPU a de effen tegels doet en VPU B de oneffen tegels doet wat zeer overheen komt met 3dfx SLI, nVidia SLI aka nVidia Scalable Link interface is eigenlijk helemaal geen SLI lol, dat is meer SFR aka Split Frame Rendering GPU A doet bovenbeeld GPU B doet onderbeeld, niet echt rendable als CPU schaalbaar als 3dfx SLI of ATi CrossFire.

[Reactie gewijzigd door Gold Leader op 7 augustus 2007 14:05]

effe lijnen en oneffe lijnen
Wat zijn dat? Volgens mij bedoel je even lijnen (dus lijn 0, 2, 4, 6, 8 ) en oneven lijnen (1, 3, 5, 7, 9) ;)

(En voordat iemand roept dat 0 geen even getal is - dat klopt, maar het is nou eenmaal gebruikelijk om bij 0 te beginnen met tellen dus het is handig om het erbij te rekenen ;))
@hieronder: je hebt helemaal gelijk. Ik weet even niet met wat ik in de war was.

[Reactie gewijzigd door .oisyn op 7 augustus 2007 23:40]

Ik weet niet welk met welke wiskundeboeken jij groot geworden bent, maar volgens de mijne is 0 toch echt even. Het zou alleen qua definities en stellingen alleen maar onhandig zijn om 0 uit te sluiten.

Er zijn nog wél steeds volksstammen die er maar niet aan willen dat 0 het eerste natuurlijke getal is, maar daar zijn er tenminste toepassingen waarbij het handig kan zijn om 0 uit te sluiten. In zulke systemen is de vraag of 0 even is echter irrelevant.
Zowel Crossfire als SLI bieden meerdere rendering modes. CF heeft de supertiling mode die je noemde (beeld wordt verdeeld in hokjes). Daarnaast zijn er nog drie modes die zowel op CF als SLI beschikbaar zijn: Scissor/Split frame rendering (gpu A bovenste helft, gpu B onderste helft), alternate frame rendering (gpu's renderen om en om een heel frame) en superAA/SLI AA (tweede gpu wordt gebruikt om de AA te verbeteren).

Bron: Wikipedia over Crossfire en SLI.
Hier even een stukje info betreffende het verschil tussen 3dfx Sli en het huidige SLI.
Bron: www.slizone.com

How does this technology differ from 3dfx's SLI technology?
NVIDIA SLI technology differs in many ways. First, 3dfx’s SLI technology was implemented on a shared bus using PCI. The PCI bus delivered ~100MB/sec. of bus throughput, while PCI Express is a point-to-point interface that can deliver ~60x the total bandwidth of PCI. Second, 3dfx’s SLI technology performed interleaving of scan lines, and combined in the analog domain, which could result in image quality issues due to DAC differences and other factors. 3dfx Voodoo technology also only performed triangle setup, leaving the geometry workload for the CPU. This meant 3dfx’s SLI technology only scaled simple texture fill rate, and then used inter-frame scalability. NVIDIA SLI technology is PCI Express based, uses a completely digital frame combining method that has no impact on image quality, can scale geometry performance, and supports a variety of scalability algorithms to best match the scalability method with application demands.
Na deze uiting is het wachten op een comeback van het 3Dlabs (Creative) team, dat momenteel bezig is met het onwikkelen van een GPU voor Intel?

Concept vond ik altijd heel erg mooi. Sommige kaarten hadden echt 10 tallen chips die zijn eigen taak hadden. oa. nog onder de noemer Intense3D de Realizm II waar het eigenlijk mee begon (en ook eindigde met de 800). Vijf full-length PCI sloten....

Je kan hiermee een zeer snelle grafische pijp maken, zonder daarbij ook maar de CPU nodig te hebben. Gezien alles op de videokaart gebeurt, is er een vrije keuze van toe te passen technologie. Maar dat was steeds minder nodig omdat AGP toen niet toerijkend was en PCI-E wel.

Leuk dat er een kans is dat het terug komt. Enige wat ik dan echt mis op kaarten als de FireGL en Quadro kaarten, is ene hardwarematige Raytrace oplossing.
Ik kan mij zoiets herinneren dat bij de introductie van T&L een funtie van de CPU wordt overgenomen door de GPU. Dit kwam neer op dan nu 2 van de 5 taken die voorheen allemaal door de CPU werden berekend, nu door de GPU overgenomen zijn. Hiermee komt het totaal op 3 van de 5 taken, tenminste zoiets kan ik mij herinneren.
Ik denk niet dat je van '5 taken' kunt spreken... Het hangt er maar vanaf wat je precies rendert, en hoe.
Maar een T&L-kaart kan in principe alles zelf al.
Het enige dat de CPU doet, is de data eenmalig uploaden naar videogeheugen, en de GPU de juiste commando's geven.
De geometrie en textures staan al in het videogeheugen. De transformatiematrix wordt door de CPU berekend, en in de registers van de GPU geladen, en de GPU doet verder alles zelf.
Zeker met de komst van programmeerbare shaders is de CPU nauwelijks meer nodig tijdens het renderproces, want vrijwel alle soorten animatie en belichting zijn in een shader te programmeren.

Er kan geen sprake zijn van het terugbrengen van T&L naar de CPU, omdat een GPU dit gewoon vele malen sneller kan. T&L zoals bij de invoering van de GeForce-kaart bestaat ook niet meer. In DirectX 10 heb je uberhaupt geen 'fixedfunction' meer. Alle T&L-operaties moeten met shaders gedaan worden.
Dit betekent dat het nog lastiger wordt voor een CPU. Met fixedfunction T&L kon je nog een handmatig geoptimaliseerde pipeline voor de CPU programmeren, maar als je dat voor iedere mogelijke shader moet doen, ben je lang bezig. Een shader-programma is automatisch vrijwel optimaal, omdat de hardware gewoon de belangrijkste operaties direct in hardware heeft zitten, waar je bij een simpele matrix*vector-operatie in SSE nog redelijk moet gaan goochelen met instructies.
quadcore ATI voodoo3 kaart ? :?
Voodoo 3 lijkt me fout, eerder Voodoo 1, 2, VSA-100 of Rampage.
Voodoo 3 had geen native multichip support.
nieuws: Radeon 8500 MAXX en nVidia NV30, NV40 geruchten

dat is al een gerucht en een oud, ik vind niet direkt de link waar ze al multicore Graphics hadden voor simulatoren, enz... .
voodoo5 bedoel je denk ik, die had 2 gpu's.
de voodoo5 6500 had er zelf 4, maar is nooit echt in productie geweest.
de voodoo5 6500 had er zelf 4
Je hebt het op de Voodoo5 6000. Die is wel nog in beperkte mate verkocht geweest, maar dan onder Quantum-vlag (en niet als gamekaart), als ik het me goed herinner.
Nee, de Voodoo 5 6000 is nooit voorbij de development fase gekomen.
Quantum3D verkocht de AAlchemy 8xxx kaaren welke gebruik maakten van 8 VSA-100 chips.
Nu was ik er toch echt van overtuigd dat Quantum wel een kaart met 4 VSA-100's had uitgebracht, en dan zou dat in principe een Voodoo5 6000 geweest zijn. Niet met die naam uiteraard.

Soit, ik kan wel verkeerd zijn, vanavond misschien wat over opzoeken.

[Reactie gewijzigd door MatthiasDS op 7 augustus 2007 15:18]

Ik heb er nog 1tje gehad. meegekregen van de studio waar ik toen werkte. waanzinnig ding was dat, zowel qua prestatie als qua afmeting.

voor gamen (en 2de monitor) had ik er wel een tnt2-ultra ofzo bijgeprikt.... mijn god wat was ik cool in die tijd :P
Eventjes wat opgezocht, het gaat om de AAlchemy QX 4232A. Ik wist 100% zeker dat ik gelezen had over een Quantum-versie van de 6000.
Geschiedenis herhaalt zich percies wel. En dan wanneer kwantum technologie voor de deur staat zal het ook maar 1 core wezen in het begin en overgaan naar multi core tech.
Waarschijnlijk is het ding alleen multicore zolang je er niet naar kijkt. Doe je dat wel dan verdwijnt de onzekerheid en is het weer een singlecore... :+
Hahahaha, quantumphysics met de invloed van een observator. :)
Wanneer is de tijd 'r dat we gewoon nog een socket op het Mobo er bij hebben. Dus.. een CPU socket op het mobo en een GPU socket op het mobo. Dan alleen effe er voor zorgen dat het ram chill verdeeld wordt of dat er aparte sockets voor Gddr komt. Op het moment is CPU naar MoBo RAM toch sneller dan GPU naar GDDR ... of niet dan?

Najah.. Ik ben voor meer op het MoBo met flexibiliteitsbehoud voor het upgraden.. Dus alsjeblieft chipbakkers.. Blijf is wat langer hangen bij 1 socket. (of 2 dus.. als er GPU-sockets komen). Die malloten komen om de twee jaar met nieuwe sockets.. Bijzonder irritant, doch begrijpelijk voor de duidelijkheid van wat kan waar in, maar dat gezeur met AM2 en socket 939 (DDR2 en DDR1) stoort mij mateloos.. Snelheidswinst is niet echt om over naar huis te schrijven en ik had graag gezien dat ze nu ook eens bij een DDR ding blijven hangen, zodat je je cpu nog een beetje kan upgraden. De AMD Athlon 64 X2 heeft nu niet echt een groot snelheidsbereik gekend op de 939...

Zeuren is fijn.
Wanneer is de tijd 'r dat we gewoon nog een socket op het Mobo er bij hebben. Dus.. een CPU socket op het mobo en een GPU socket op het mobo. Dan alleen effe er voor zorgen dat het ram chill verdeeld wordt of dat er aparte sockets voor Gddr komt. Op het moment is CPU naar MoBo RAM toch sneller dan GPU naar GDDR ... of niet dan?
Een (high-end) GPU heeft VEEL meer bandbreedte naar geheugen dan een CPU op het moment.
De bussen zijn breder en de kloksnelheden van de geheugenchips liggen hoger.
Mede daarom is het ook niet interessant om het op het moederbord te gaan bouwen.
Het is goedkoper om alles op een PCI-e kaartje te solderen dan met sockets en slots te gaan werken.
Het biedt ook geen voordelen om het op het moederbord te bouwen, eerder nadelen. Moederborden zitten al zo vol, het zou veel duurder worden om ook nog een complexe GPU + geheugen erop te bouwen, zeker gezien de enorme behoefte aan stroom en koeling. Verder zou je nog vaker een nieuw moederbord moeten kopen omdat de socket of geheugenstandaard weer eens veranderd is (bij videokaarten heb je zo ongeveer ieder jaar een nieuwe generatie, bij CPUs 'maar' iedere 3-4 jaar).
maar dat gezeur met AM2 en socket 939 (DDR2 en DDR1) stoort mij mateloos.. Snelheidswinst is niet echt om over naar huis te schrijven en ik had graag gezien dat ze nu ook eens bij een DDR ding blijven hangen
Dat is een probleem van AMD.
Bij Intel haal je wel winst uit DDR2. De CPU van AMD kan gewoon niet harder... dat zal pas met de Barcelona komen, als niet alleen de geheugencontroller op DDR2 aangepast is, maar ook de achterliggende logica.
AMD moest toch naar DDR2 over omdat door het beperkte marktaandeel van AMD de vraag naar DDR inzakte, en de prijs dus sterk steeg. Er zal wel druk uitgeoefend zijn vanuit bedrijven als Dell, die zonder DDR2 geen competitief geprijsde AMD-systemen meer aan zouden kunnen bieden.

[Reactie gewijzigd door ddbruijn op 9 augustus 2007 13:26]

Had 3dfx het toch bij het rechte eind. De Rampage kaarten zouden ook weer op dit principe terugvallen met HW T&L in een losse chip.
Dit is iets dat in ieder geval aan de kant van nVidia al bestaat toch? Zij hebben de kennis van 3DFX in huis door dat ze hen hebben overgenomen.

Een vroeg voorbeeldje daarvan was de Asus N7800 GT Dual. Deze was er in 2005 al bij!
En daar had nVidia helemaal niks mee te maken, aangezien ASUS de R&D ervoor gedaan heeft en de kaart heeft uitgebracht.
Zo heeft Gecube ook al dual gpu kaarten gemaakt met ati oplossingen.
Het waren allemaal geen referencekaarten en telt daarom dus eigenlijk niet
Nvidia heeft 3dfx opgekocht en dr vervolgens niks mee gedaan, behalve veel later dezelfde term (SLI) gebruiken.

Net zoiets als Creative wat Aureal heeft opgekocht en niet met A3D is verder gegaan.

Merk-moord.
Dit is iets dat in ieder geval aan de kant van nVidia al bestaat toch?
Bij Nvidia zit alles toch in 1 chip?

Nextgen-design van 3dfx zou bestaan uit Rampage en Sage, waarbij Sage dan voor T&L ging dienen. Dit zou dan een moduleerbaar systeem geworden zijn: 1 of meerdere Rampage-chips met 1 of meerdere Sage-chips op een kaartje.
Het zal wel aan mij liggen, maar ik heb iets tegen meerdere videokaarten in een pc.
De communicatiesnelheid, effectiviteit en hitteproductie zal nooit zo goed zijn als bij een enkele kaart met meerdere GPU's.
ik denk eigenlijk niet dat dat is wat AMD bedoeld.
het lijkt me eerder dat ze meerdere kleine GPU's op 1 kaart stoppen, of zelfs in 1 package, en die dan aan de kaarten bouwers leveren.
zo kunnen ze er eentje maken met 1 "core' voor de lowend markt en eentje maken met 16 cores voor de high end markt ofzo. makelijker te maken, betere yields, en als ze het goed doen schaalt het prima door in theory.
Hebben we allebei hetzelfde stuk gelezen? Ik lees namelijk een stuk over multi-GPU kaarten. (Kaarten met meer dan 1 GPU).
De kost van de kaart zal na verloop ook wel stukken goedkoper uitkomen.
voorlopig is het nog steeds beter meerdere grafische kaarten te gebruiken (op meerdere moederborden en te laten clusteren) ^^ ook al kost dit nog net iets te veel.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True