- Geheugen: Waarom is dit een verspilling? Als je de geheugens exacte kopieeen van elkaar zijn is het juist perfecte oplossing voor geheugensnelheid problemen. Geheugen kost toch vrij weinig tegenwoordig.
Geheugen kost dan vrij weinig, het zijn nog steeds onnodige extra kosten, ze nemen (dure) ruimte in, ze verbruiken extra energie en produceren extra warmte. Bij een SLI opstelling valt dat laatste probleem nog wel mee, maar als je een kaart krijgt met twee PCBs of met alle onderdelen op een PCB (ruimegebrek even buiten beschouwing gelaten) heb je toch echt een heel stuk meer warmte om af te voeren.
- Communicatie: Dual cpu systemen communiceren ook via een 'interconnect' dit hoeft helemaal niet per definitie langzaam te zijn, de gpu communiceert toch ook met de cpu via de bus? Als het alleen maar commando's zijn die heen en weer hoeven en de bandbreedte hoog genoeg is hoeft dit helemaal niet zo'n groot issue te zijn.
Dual-cpu systemen zijn dan ook langzamer dan dual-core systemen. En waarom denk je dat Intel zo graag CSI wil implementeren in toekomstige CPU's? Omdat de huidige FSB interconnect niet snel/breed genoeg is. Bij GPU's zit het verschil zit hem daarnaast ook in de synchronisatie, want waar twee CPU's niet zo heel veel met elkaar te maken hebben (vaak zijn threads behoorlijk onafhankelijk, bijvoorbeeld bij twee losse programma's) moet je bij de GPU ontzettend veel gegevens versturen. Niet alleen moet elke thread op de andere GPU aan het werk gezet worden op de juiste taken, daarnaast moet bij een render to texture operatie (zoals bij shadow mapping) ook weer een deel van de gegenereerde texture terug gestuurd worden van de slave naar de master GPU.
- Synchronisatie: Daar zijn vast wel dingen op te vinden, wellicht kunnen de komende 3 frames op verschillende kaarten gerenderd worden, er hoeven maar 3 gpu's gesynchroniseerd te worden, het hoeft niet meteen een renderfarm te worden.. maar ik geef toe dat ik zo snel niet een super oplossing voor synchronisatie kan verzinnen.
Tja, en wat als je frame afhankelijk is van een vorige frame? Je onderschat nogal makkelijk de hoeveelheid werk die een GPU per frame verzet. Het klinkt allemaal heel makkelijk, maar het is al een wonder wanneer een enkele GPU maximaal gebruikt wordt. De 8800GTX kan bijvoorbeeld in theorie 518.40 Gigaflops halen, maar reken maar niet dat je daar ooit in de buurt komt. En als het al zo moeilijk is om een GPU aan het werk te zetten, hoe denk je dat het met twee GPU's gaat, als ze ook nog last hebben van de genoemde problemen?