Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties
Bron: Tech Report

Bij TechReport is een review verschenen over de MultiChrome-technologie van S3. MultiChrome is S3’s tegenhanger van SLI en Crossfire, en kan gebruikt worden in samenwerking met het topmodel van S3, de Chrome S27-gpu. De Chrome S27 zit qua prijs in de regio van de Radeon X1300 Pro en de GeForce 7300 GS, maar heeft op papier betere specificaties. De Chrome S27 heeft een fillrate van 2,8 miljard pixels per seconde en een bandbreedte van 22,4GB/sec. Ter vergelijking: de Radeon X1300 Pro haalt 2,4 miljard pixels per seconde en met een bandbreedte van 11,2GB/sec. Tevens heeft de Chrome S27 acht shader units die werken op 700MHz terwijl de Radeon X1300 Pro het moet doen met vier shader units op 600MHz. De uiteindelijke prestaties van de videokaart worden echter niet alleen bepaald door deze getallen, de efficiency van de implementatie is net zo belangrijk.

MultiChrome maakt momenteel gebruik van alternate frame rendering (AFR) om de werklast te verdelen over twee kaarten. Split-frame rendering (SFR) wordt nog niet ondersteund, maar dit komt snel volgens S3. De AFR-techniek is namelijk niet bij alle titels geschikt om de werklast te verdelen. Uit de benchmarks blijkt dat MultiChrome goed werkt om de prestaties op een hoger niveau te tillen bij titels die ondersteund worden door de drivers. Desondanks blijkt dat een enkele kaart van ATi of nVidia voor het zelfde bedrag veelal betere prestaties kan leveren. Enthousiast kan de reviewer daarom ook niet worden over de MultiChrome-kaarten, maar voor de eigenaar van een Chrome S27 kan het een leuke upgrade zijn.

Twee MultiChrome-kaarten op Asus A8R32-MVP Deluxe-moederbord
Moderatie-faq Wijzig weergave

Reacties (30)

Maar natuurlijk, dual-GPU met budget kaarten :D. Eén kaart met een betere chip is bijna per definitie goedkoper.
Je vergeet dat SLI en Crossfire oplossingen ideaal zijn voor systemen met een hoge scherm resolutie. Met 2 budget kaarten (ervan uitgaand dat dit systeem dus ongeveer gelijk is aan beide) heb je dus zo'n oplossing.

2x 7900 GT klaart 1920x1200 veel beter dan 1x 7900 GTX ultra terwijl het op "normale" resoluties (1280x1024) bijna niets uit maakt.
1) Een 7900GT is geen budget kaart (maar high end)
2) Twee 7900GT's zijn veel duurder dan één 7900GTX.
Hoeft niet, de ontwikkeling van zo'n kaart kan een stuk duurder uitpakken dan de ontwikkeling van een systeem om 2 kaarten samen te laten werken.
verbruik van watt?
3 zakjes watten per jaar :+
Ik snap niet waarom men zich niet vooral richt op dual core gpu's ipv kunstgrepen als SLI of varianten hiervan uit te werken.
Dual core GPU is net zo goed een kunstgreep.
Besef wel dat alle dual GPU oplossingen een manier is om met relatief oude technologie nextgen performance te krijgen.

De enige echte elegante oplossing is dus een niewe generatie, dan heb je geen dual GPU maar dual pipelines (met hetzelfde effect) maar dan met echte nieuwe features en verbeteringen.....

Maar goed, in deze opgehypte markt wil men nu eenmaal het snelste. En marketing is ook belangrijker dan de hele techniek want tja, hoeveel procent gebruikt nu werkelijk een dual GPU?
En de mensen die het hebben willen bij een nieuwe generatie er ook weer vanaf want dan is het oud, lomp en trager.....
SLI relatief simpel,
dualcore, meerdere problemen,
nieuw ontwerp van processor, grotere oppervlak wat betekent dat er minder uit een wafer kan worden gehaald, afnemersgroep is relatief klein, drivers compleet opnieuw schrijven, daar waar je met sli het beeld opsplitst.

En wat betreft dual-core;
over enkele jaren is dat verweven tot een core, en weten we niet beter.
En wat betreft dual-core;
over enkele jaren is dat verweven tot een core, en weten we niet beter.
Sterker nog, we weten nu al niet beter ;) Die GPU's werken nu al massief parallel met hun X shaders e.d Een "core" extra is niet meer dan een berg shaders erbij plaatsen :P
Heb jij enig idee hoe ingewikkeld de PCB van een moderne grafische kaart is?
Je moet ook een manier hebben om het werk te verdelen over de 2 cores. Bij een processor moeten processen aan een processor toegewezen worden, wanneer je 2 processoren hebt kun je 2 taken parallel aan elkaar laten gebeuren en ben je dus sneller klaar. Dualcore is dat op 1 chippie.

Wanneer je 1 rekenintensieve taak op moet lossen en je kunt het niet verdelen over de 2 cores (door het in 2 processen of threads te stoppen) zit 1 van je cores niets te doen en heb je niets aan je dual core processor.
GPU's hebben over het algemeen 1 rekenintensieve taak te verwerken en dan moet je het werk zien te verdelen, bijvoorbeeld de ene GPU het ene beeldje en de andere het andere beeldje (AFR).

Je kunt dit proces wel verplaatsen zodat het geheel binnen 1 chip gebeurt maar dat is hetzelfde als de verschuiving van dualprocessing naar dualcoreprocessing, iets om goedkooper parallel te kunnen rekenen maar het een is niet meer of minder een kunstgreep dan het ander.
Jammer dat S3 de kaarten niet zo goed kunnen optimaliseren zoals nvidia en ati want zoals je kon lezen is de S27 qua specificaties wel stukken beter dan de verder genoemde terwijl ze in dezelfde prijsklasse zitten.
Wanneer S3 hetzelfde rendement kan behalen als nvidia en ati dan zou het best wel interessant kunnen worden.
dus ze zijn sneller qua specs en ook nog eens goedkoper, dus wat is daar precies het nadeel aan?
Ze zijn sneller in theorie ja, maar in praktijk dus niet zoals je in het nieuwsbericht kon lezen.
snelheid heeft niets te maken met performance.. dat is toch wel iets dat we al geleerd hebben van AMD en INTEL.

De Intel processoren hebben, zeker tot twee jaar geleden, al s racewagens ge-functioneerd. Het was altijd een upgrade in snelheid om maar meer uit de chip te krijgen.

Terwijl bij AMD de "motoren" langzamer gingen maar wel dezelfde performance kon neerzetten...

Dus AMD had een hogere Werklast Per Cycle of engels gezegt IPC! Hoe hoger the IPC hoe meer werk gedaan wordt met dezelfde snelheden.

Mijn X2 3800+ draait op 2Ghz... net zoals mijn oude P4.. nu kan je zeggen..ja je hebt twee cores.. maar toch.. deze 2Ghz doet veel meer in dezelfde tijd dan de oude P4!
specs zeggen eigenlijk niks
er mogen dan wel meer shader units zijn, maar er staat nergens hoeveel instructies per kloktik die kunnen uitvoeren
een beetje het netburst <-> core verhaal van intel
't zal aan mij liggen, maar volgens mij heeft S3 na de trio 64 (met 4mb) geen leete kaarten meer uitgebracht.

Persoonlijk verbaast het me dan ook dat ze met een dergelijke opstelling op de markt komen. Ik vraag me dan ook af of ze tegen nvidia/ati kunnen opconcurreren, ik denk het niet.
S3 ViRGE had je ook nog (8mb varianten zelfs), toen kwam Intel volgens mij met zijn i740, waarna Nvidia met zijn Riva TNT kwam. De eerste "echte" 3d kaarten meen ik me te herinneren. (daarna 3Dfx met hun Voodoo add-on kaart)

Kan zijn da ik het fout heb hoor :+
idd.. volgens mij was de VooDoo3D er eerder als de Riva TNT (wat overigens een TOPKAART was).
ik heb mijzelf vroeger mogen verblijden (in mijn P1 233MHz 64MB ram) met 2 VooDoo2 add-on's, en één VooDoo Rush (de enigste kaart die VooDoo had zonder een add-on te zijn)
dit gaf bij mij met Tombraider 3 nogsteeds goede FPS :)

als ik trouwens deze kaartjes zie, hebben ze EINDELIJK een goede oplossing voor de GPU-cooler-kabeltjes gevonden.. gewoon een "normaal" fan-connectortje die ook op het mobo verkrijgbaar is :), maar als je de Zalman VF700 series (of andere fans) erop wilt hebben, dan zal die waarschijnlijk in de weg zitten...

waar ik op het moment eigenlijk meer aan zit te denken, is dat S3 toch wel aardig meegaat ondanks zijn prijsklasse, deze quote uit de tekst:
Uit de benchmarks blijkt dat MultiChrome goed werkt om de prestaties op een hoger niveau te tillen bij titels die ondersteund worden door de drivers. Desondanks blijkt dat een enkele kaart van ATi of nVidia voor het zelfde bedrag veelal betere prestaties kan leveren.
als S3 nou een beetje meer door zou bijten, en alles gewoon goed op een rijtje heeft qua technologieen, dan zullen ze weer aan de top komen. met andere woorden. gooi je hele plan om van wat jullie willen maken, en ga gelijk bezig met één ZEER goede GPU. zal een grote stap zijn, maar ze zullen er zeker baat bij hebben :D

just my 50 cents :z
3dfx, nVidia en zelfs ATi kwamen plotseling met een goede kaart, en zijn er ook gebleven en verdwenen.
Kijk ook eens naar Matrox wat ooit goede 3d-gaming cards had, maar dat ook niet lang vol heeft gehouden.
En hoe zit het met het verbruik van die kaarten?


Edit: evenveel als een 6600GT dus.
En de drivers ? Da's vaak nog belangrijker.
Vooral met de ervaringen die veel mensen hebben met S3 en driversupport |:(
Weet je, als die kaart gewoon goed presteert (in vergelijking met een b.v. iet wat non top of the line, iet wat ouder EN hij heeft GOEDE drivers (voornamelijk goede linux drivers) koop ik nog liever deze kaart dan die ATi en nVidia rommel.

(ja de kaarten van ATi en nVidia zijn vaak wel goed, maar drivers, voor beide kaarten, voor beide OSen zijn crap.)
Ik vind de Linux drivers van nVidia niet slecht.

Nadeel van nVidia Linux drivers is dat die modules een beetje te groot zijn, omdat alle kaarten in 1 driver zitten bij Linux. Dat maakt het niet sneller lijkt mij.
Voordeel daarbij is weer dat je 2 verschillende kaarten in je computer kan prikken en toch met 1 driver af kan. Dat scheeld weer een hoop gehannes.

En soms moet je wat klooien met parameters voordat het werkt. Bijvoorbeeld mijn Quadro2 64 die werd als een 1 of andere mobile laptop chip gedetecteerd, resultaat is een vastlopend grafisch systeem. Dus ben ff in de logs van de driver en me Xorg gaan kijken, en daarna wat met de sourcecode gaan rotzooien om alle mobile chips uit te schakelen. Werkt als een trein nu, heb zo'n 10-20% meer FPS als toen ik me spellen op Windoos draaide.

Maar zo werkt het met alles in Linux.
Mess with it until it works :P
Artikel is naar mijn mening een beetje slecht vertaald, waardoor de S27 een stuk negatiever over komt. In de review wordt de S27 vergeleken met een 6600 GT (SLI) en deze is wel een heel stuk sneller dan de X1300 en 7300 GS!!! De 6600 GT is dan ook weer een stukje duurder dan de andere kaarten! (wat ook duidelijk in het artikel wordt vermeld) |:(

Als je de cijfertjes gaat vergelijken met andere reviews zie je dat de S27 wel degelijk sneller is dan de X1300 en 7300 GS :Y)
Dus hij kan op ieder moederbord wat 2 PCI-e lanes heeft?
Das dan wel weer mooi!
Heb je de revieuw wel gelezen ? De Multicome setup was niet sneller als 2x6600 GT in SLI.

een 6600 GT was langzamer hij had dus tussen de Singel en de SLI setup in.

In andere gevallen scheelde het niet veel met een enkele 6600 GT maar dat zal idd aan de drivers liggen. En het stroom verbruik van de Multicome setup was gelijk aan een enkele 6600 GT.

Dus echt bagger kan ik het niet noemen maar het is gewoon niet goed genoeg.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True