Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: HKEPC

Het Chinese HKEPC is erin geslaagd een GammaChrome S18 CE en een S18 Pro van S3 te bemachtigen om aan enkele benchmarks te onderwerpen. Deze twee videokaarten zullen nog dit kwartaal gelanceerd worden en beschikken onder andere over native PCI Express-ondersteuning. Verder zijn ze ook uitgerust met DDR1-geheugen en WMV9-acceleratie. Volgens de specificaties zou deze kaart een 3DMark03-score van 4500 punten halen. De S14 en S19 die later gelanceerd zullen worden, zouden respectievelijk 2300 en 7000 punten moeten halen. De S18 stond eerder al bekend onder de codenaam Metropolis en heeft vier vertex engines, DirectX 9- en Shader Model 2.0+-ondersteuning. Van deze videokaart zullen vier varianten verschijnen: de Ultra, Pro, CE en ULP met een gpu-kloksnelheid van respectievelijk 500MHz, 400MHz, 300MHz en 200MHz.

S3 S18 CE en S18 Pro

De Chromotion 2 programmeerbare video-engine ondersteunt overigens ook MPEG2- en MPEG4-hardwareversnelling en biedt vergelijkbare mogelijkheden als nVidia's PureVideo. Voor het testen werd gebruik gemaakt van een AMD Athlon 64 4000+ op een Gigabyte GA-K8NXP-SLI-moederbord met 512MB geheugen. Om te beginnen besteedt men even aandacht aan de warmteontwikkeling en energieconsumptie. In onbelaste toestand meet men met de S18 CE 31,4C en met de S18 Pro 32,8C. Bij de GeForce 6200 is dit 35,1C. Wanneer de kaarten onder druk gezet worden stijgt de temperatuur respectievelijk naar 45,7C, 48,2C en voor de GeForce naar 56,5C. Ook wanneer het energieverbruik gemeten wordt, doen beide S3-kaarten het voortreffelijk. De CE-versie verstookt idle zowat 73,4W, de Pro-variant verbruikt 74,8W en de GeForce houdt het bij 76,3W. Onder belasting stijgt het verbruik voor de S18 CE naar 82,7W, voor de S18 Pro naar 86,2W en voor de GeForce 6200 zelfs tot 90,5W.

Vervolgens wordt echter overgeschakeld naar enkele echte benchmarks. Als eerste mag de de S18 CE ATi's Radeon X300 bekampen. Zowel in 3DMark03 en 3DMark05 als Doom 3 weet S3 het een klein beetje tot beduidend beter te doen. Enkel in Half-Life 2 moet men ATi een voorsprong geven. Wanneer de S18 Pro de GeForce 6200 mag bekampen, presteert S3 opnieuw uitstekend. Dit keer weet het zijn concurrent te verslaan in beide 3DMark-testen, maar moet de S18 Pro het onderspit delven in zowel Doom 3 als Half-Life 2. Tot slot worden de resultaten van een overgeklokte S18 Pro op 450MHz vergeleken met de standaardversie op 400MHz. Daarmee wordt in 3DMark03 een prestatiewinst van 300 punten gehaald.

Benchmarkscores op 1024x768
3DMark03 3428
2562
4121
3801
3DMark05 1233
1014
1623
1414
Grijs: S18 CE | Rood: Radeon X300 | Oranje: S18 Pro | Blauw: GeForce 6200
Moderatie-faq Wijzig weergave

Reacties (45)

Het stroomverbruik is niet alleen van de videokaart zelf, maar van het complete systeem, want in het artikel wordt duidelijk gemaakt dat het vanaf de 230v aansluiting wordt gemeten
Nou, dat ziet er goed uit op prestatiegebied. Jammer alleen dat niemand meer S3 durft te kopen vanwege hun verschrikkelijke driver support (net zoals bij Creative; de Live! vond ik zo'n beetje oplichting).

Het lijkt mij dus dat dit toch voornamelijk een weggemoffeld OEM-kaartje gaat worden

edit: Ik zie net pas dat ze nog niet Shader Model 3 ondersteunen. Dat is wel erg jammer.

edit: Creative geluidskaarten
nou ja... Het is wat je goed noemt.... voor kantoortoepassingen prima, maar voor de rest.....

Als de prestaties vergelijkbaar zijn met een X300 en een Geforce 6200 motiveert me dat niet echt om er een aan te schaffen...
Helemaal mee eens. Of het wat is ligt bovendien aan de prijs en waarschijnlijk is die een heel stuk duurder dan de X300 en de GF6200.
Een kaart die idle 70Watt slurpt lijkt me nou niet echt wenselijk voor kantoortoepassingen. Een simpel flutkaartje (S3 Trio ofzo ;) ) voldoet al op kantoor (iig tot longhorn uitkomt dan).

Daarnaast, als de prestaties vergelijkbaar zijn met een X300 of GF6200, maar de prijs is veel gunstiger. Waarom zou je deze kaart dan niet overwegen? Een ander lijkt me dus gewoon van de prijs afhankelijk, en die is helaas nog onbekend.
Maar daar betaal je ook voor, goede driver support is gewoon duurder.
zoals schaap al aangeeft ...

drivers :s ...

ik neem trouwens aan dat de prestaties nog verder omhoog kunnen gaan wanneer er aan de drivers gesleuteld wordt... en laat nu dat net het puntje zijn waar we met s3 toch zo'n goeie ervaringen hebben...

verder had ik niet verwacht dat S3 voor een keertje toch eens mee zou kunnen met de concurrentie op gebied van prestaties
Nou, dat ziet er goed uit op prestatiegebied. Jammer alleen dat niemand meer S3 durft te kopen vanwege hun verschrikkelijke driver support (net zoals bij Creative).
Nou, het huidige S3 heeft weinig meer te maken met het S3 uit de 'glorietijd' hoor. Ze hebben (dacht ik) al een tijdje een nieuwe eigenaar en zijn qua techniek ook een heel andere weg ingeslagen dan in de tijd van de flutchipsets die ze uitbrachten.
Alleen het geluk bij een Creative (nVidia of ATI dus) is dat je altijd nog de drivers van de chipontwerpers zelf kan gebruiken wel goed werken, dat punt heeft SIS dan niet... en je hebt helemaal gelijk, het is verschrikkelijk geweest de voorgaande jaren.
Ik vraag me af of die idle waarden wel kloppen?

Door 10W extra te verbruiken worden de kaarten 15 tot 20 warmer? Het lijkt dan ook dat het idle verbruik een stuk lager moet liggen. Dit hoop ik toch althans.

Bekijk het zo: kamertemperatuur 21, idle 70W -> 32
kamertemperatuur 21, load 80W -> 45-56

Dit klopt niet.
Je vergeet dat warmteoverdracht (koeling) veel sneller verloopt bij een groter temperatuursverschil. Zodra de kaart heter wordt, verliest hij dus ook weer sneller die warmte.
Dat is het hem juist, door slechts 10W extra wordt het verschil met de omgevingstemperatuur 15 tot 20 groter terwijl dit bij de initile 70W slechts 12 was!

Lees mijn 1e post nog eens over. :)
Sorry, je hebt gelijk. |:(
Het omgekeerde is ook waar: in idle wordt de heatsink op een lage temp gehouden omdat alle warmte nog door de lucht weggegvoerd kan worden. Onder load lukt dit niet meer dus de heatsink wordt warmer. Hierdoor wordt ook het temperatuurverschil tussen chip en heatsink kleiner -> slechtere warmteoverdracht -> hogere chiptemp dan verwacht.Zo'n heatsink kan ook niet eindeloos door blijven gaan natuurlijk, hoe hoger de load hoe slechter een heatsink gaat presteren.

Maar misschien zijn ook de sensoren die ze gebruikt hebben niet helemaal 100% nauwkeurig, denk maar aan de temp uitlezing van Asus moederborden.
Ik ben blij dat ik niet de enige ben die zich afvraagd of die opgenomen vermogen bij idle-waarden wel kloppen.
70W voor een kaart die staat de idlen, da's toch ongelooflijk veel?
Is dat niet hetzelfde als een processor onder vol-last?
Dat kan die VGA koeler vast niet afvoeren.
Nee, hier klopt iets niet.
Dat is idd ongeveer hetzelfde als een gemiddelde cpu :)
Een ATI Radeon x800 Pro verbruikt in idle toestand maar 38W en 68W onder load :+
Mischien dat in idle-stand de fan uitgezet is?
Dit zijn wel leuke kaarten. Als je nu een pc koopt krijg je een GForce 440 oid als videokaart, doe mij dan deze maar hoor.

Overal een S3 in. :P

Alleen jammer dat er niks over de prijs wordt gezegd, wordt ie duurder of goedkoper als de X300/6200 ?

Waarschijnlijk duurder, hij presteert beter.. :Z
Als kleine partij kan S3 zich niet veroorloven een dure kaart op de markt te zetten.
OEM's zullen 'm dan niet kopen en dan is de afzetmarkt ineens wel heel erg klein.
De OEM's kijken namelijk heel erg scherp naar de prijs/prestatieverhouding.
OEM's zullen hem zoiezo al niet zo snel kopen want er zijn maar weinig gemiddelde computergebruikers die S3 kennen. Een nVidia of ATi klinkt immers sneller omdat ze die naam kennen (Of GeForce op z'n minst toch al).

Maar als S3 haar driversupport eindelijk eens goed krijgt en wat extra marketing in combinatie met een goede prijs toepast dan heeft dit kaartje nog een kans :)
Als deze kaart gelijk geprijst wordt (het snelste model) als een 6200 zal het een succes kunnen worden.

Als S3 te hard van stapel loopt en ze gaan meer voor de kaart vragen omdat de kaart ook sneller is zullen ze in de retail markt niks verkopen. Puur omdat in de onderkant van de videokaart markt de prijs het belangerijkste is.

"Waarom hetzelfde belalen voor minder." Maar iedereen hier heeft ook gelijk. S3 moet iedereen eerst overtuigen als een "Betrouwbare partner". Want zonder goede drivers/ support (op de langere termijn) is S3 niks.
Ik vind het een goede stap vooruit. Als je ziet dat de vorige generatie S3 kaarten veel te traag was voor zijn klassen doen deze het goed.

En ATi had ook slechte driver support in de tijd van de radeon 7000. En moet je nu zien toch een groot bedrijf geworden met goede drivers voor windows (linux laat nog te wensen over) en met een groot markt aandeel. Dus wellicht als S3 aan hun drivers werkt prijzen laag houd kunnen ze toch een leuk markt aandeel krijgen.
Volgens mij was ATI altijd al een heel groot bedrijf op videokaart gebied. Ze zijn alleen een beetje laat met het hele 3d verhaal begonnen.
S3 was vroeger ook een grote jongen in de tijd van de trio's en de V64er's waren ze een van de grootste(PCI video tijdperk, voordat de 3D werd geintegreerd in de videokaart) Ze zijn alleen toener tijd met hun Savage de verkeerde weg ingeslagen. Maar ze hebben wel iets ontwikkeld wat tegenwoordig in elke videokaart wordt gebruikt, namelijk Texture Compressing. Het heet niet voor niets: S3TC.

Maar on-topic:
Als ze deze kaarten als low-end gaan verkopen(Wat de X300 en 6200 ook zijn) dan hebben ze een hele goede kans, willen ze dit gaan aanbieden als mid/high end dan zie ik ze dezelfde kant op gaan als de Volari van XGI: de vergetelijkheid

-edit-

typo's
als dit kaartje voor een lage prijs in de winkel komt te liggen en er fatsoenlijke drivers geleverd worden kan dit kaartje nog wel eens redelijk populair worden. Maar eerlijk is eerlijk, iedereen die zelf een losse videokaart koopt zal toch eerder neigen naar een ATi of nVidia, puur omdat de high-end kaarten ook van die merken zijn...

OEM kaartje dus...
Kennelijk kan S3 daar nu dus tegenop met zijn kaarten. De prijzen zijn mij niet bekend, maar als ze goedkoper zijn dan vind ik ze een serieuze concurrent voor ATI en Nvidia. Want ondanks de concurrentie zijn videokaarten zijn tegenwoordig BELACHELIJK duur. Het interesseerd ze kennelijk niets, want de consument koopt wel.
Zelfs ik als verstokte gamer vind het niet eens waard om een videokaart van meer dan 150 Euro te kopen. Ik snap niet dat er mensen zijn die elk jaar een nieuwe videokaart kopen van 250,-
Ik weet dat het gulden-tijdperk allang voorbij is, maar het is wel ff 550,- Gulden waar je over praat. Daar kocht ik jaren geleden zowat 2 topkaarten voor.

Mooi dat er weer een concurrent bij is. En ik hoop dat ze lagere prijzen en daardoor succes hebben.
S3 probeert het alweer.
Zolang de drivers goed zijn hebben ze wel een kans.
En natuurlijk regelmatig driver update's dus niet 1 keer per 3
maanden of zo.
XGI is op dit moment veel beter dan S3.
Betere drivers,vaker update's,compatible met meer games.
(sorry voor m'n engels)
En XGI heeft veel betere marketing.
kijk maar eens op www.volarigamers.com

EDIT:
XGI heeft ook nieuwe PCI-e chips.
ze zijn bijna klaar.
De XG45 en XG47
De XG45 heeft volgens de geruchten 12 pipelines.
En shader model 3.0.
Dit moet een Mid end kaart worden en ongeveer het niveau van een X700 hebben.

De XG47 gaat de strijd aan met de X300 en 6200.
Wat mij betreft niet. S3 doet het wat mij betreft wel ietsjes beter dan XGI.
- Ten eerste worden (vooral de high-end) XGI chips enorm heet (onder load ruim 80 graden).
- Het dual-chip princiepe is lang niet goed genoeg uitgedacht. Chip 2 kan namelijk alleen maar het geheugen bereiken via chip 1 met alle latency's van dien. Single core XGI is helemaal waardeloos.
- Ook zijn het heb ik eens gelezen 2 oude chips die nog stammen uit de tijd van SiS geloof ik (geloof dat XGI van SiS afkomt, toen het nog Xabre heette (nu dus XGI = Xabre Graphics Incorperated) en die dus alleen compatible zijn gemaakt met DirectX 9, dual-chip ondersteunend zijn gemaakt (dus slecht geimplementeerd) en flink opgevoert (wat dus de temperatuur flink doet stijgen als gevolg)
- Toen XGI hun kaarten uitbracht waren de drivers goed brak. Ondersteuning was ver te zoeken. Goed dit is nu wel redelijk opgelost, maar toch als je iets uitbrengt zorg dat dan de drivers iig moeten doen wat ze behoren te doen op niveau. En niet dat ze nog maar half af zijn.

S3 doet het dus een stuk beter:
- Hun temperaturen zien er goed uit. Ze blijven koeler dan hun concurrenten en zouden dus eventueel de kloksnelheid nog kunnen ophogen waarmee de kaart ng sneller is dan hun budget tegenhangers en ongeveer op gelijke temperatuur zit.
- De S3 is DirectX 9 compatible en compliable dus zolang de game DirectX 9 ondersteund zou die moeten werken. Ik weet helaas niet hoe het zit met OpenGL games, maar het lijkt me dat ze daar ook wel aan gedacht hebben.

Het enige nadeel van S3 is idd hun brakke driverondersteuning. Drivers duren enorm lang voordat ze er zijn en zijn vaak niet echt van goede kwaliteit. Wat dt betreft doet XGI het momenteel veel beter. Hun kaarten zijn echter niet concurrerend (zitten onder het niveau van de vorige generatie high-end kaarten, en dan heb ik het dus over het topmodel van hun, de XGI Volari Duo V8)
Net zoals de deltachrome, zul je deze kaarten vooral tegenkomen in aziatische notebooks, die wij hier nooit te zien krijgen.
De hele deltachrome serie is eigenlijk een inloopserie voor S3, om opnieuw "in de running" te geraken in de 3d markt. Hun volgende chip, destination films, zal gericht zijn op de desktop market.

btw, VIA liet de deltachrome ontwikkelen omdat de (erg) oude s3 grafische chips, die gebaseerd waren op de savage, te vervangen.
Zulke insteekkaarten in notebooks? Wellicht dat deze kaartjes in Aziatische OEM-PCtjes komen te zitten, maar iig niet in notebooks ;).

De chips kunnen natuurlijk wel voor notebookgraphics gebruikt worden :).
In Sonoma-notebooks passen toch PCIe videokaarten? Waarom doen we dan niet wat we nu al met mini-PCI doen, maar dan met PCIe?
sorrie, had ik niet bedoeld als insteekkaart, maar geintegreerd op een VIA moederbord.

Sorona heeft support voor axiom & MXM, maar die mobiele pci-express platvormen zijn relatief nieuw. Men heeft op een notebook appart slot nodig voor de grafische kaart voor de warmte op de gepaste manier te kunnen afvoeren.
Ik wil een bescheiden oproep doen (misschien naef, maar who the f*ck cares...);
Als je wat geld teveel hebt (niemand, maar soit) => koop er een voor je tweede pc (die van je broertje :)) om wat tegengewicht te geven !
mijn zusje is hartstikke terveden met haar Mx4000 :P

Deze kaart is NIET GOED,

Ow!! wat zei jan nu weer?!!
Tja, als je de review doorleest kom je in het gedeelte waarin ze doom3 en Halflife 2 gaan testen....23fps of zoiets in die richting, en veel lager dan de x300 of 6200...

Ik ZOU het ZO leuk vinden als S3 nou gewoon eens een keer op houd met budget en zuinig en weinig warmte, EN GEWOON EENS EEN KEER EEN FATSOENLIJKE KAART BOUWD!!!!!
En als jij even Nederlands leert, vervolgens zware studies aanvat om chipontwerper te worden, waarop je vervolgens zelf de kaart die je wi,l kan bouwen, dan is het een betere wereld geworden dankzij jou :+
Het is een leuk begin, maar ze zijn er nog lang niet dus.
Wanneer deze kaartjes echter qua prijs gaan concurreren met Ati of NVidia, zie ik ze nog wel in kantoorapparaten verschijnen. (wanneer er geen onboard is natuurlijk)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True