Fujitsu gaat nieuwe 90nm-videochips van S3 produceren

S3 Graphics heeft vandaag bekendgemaakt dat het zijn volgende generatie videochips door Fujitsu laat produceren. De 'Chrome 20' zal dus in Japan worden gemaakt, waar sinds april een nieuwe 90nm, 300mm-fabriek staat van dit bedrijf. Volgens het persbericht zijn de chips die bij Fujitsu vandaan komen tot een kwart sneller en zuiniger dan 'normale' 90nm-chips, maar hoe dat wordt gerealiseerd is echter niet duidelijk. Het is wel bekend dat Fujitsu een licentie op de stroombespaarde Longrun2-technologie van Transmeta heeft, maar daar wordt verder niet naar verwezen. Volgens S3 gaat het om een samenwerking voor de lange termijn; ook toekomstige generaties van de Chrome-serie zullen dus door Fujitsu in plaats van door concurrenten zoals UMC of TSMC worden gemaakt.

De nieuwe Chrome-chip heeft acht pixel pipelines en vier vertex shaders, ondersteuning voor DirectX 9.0, HD-video en een bepaalde vorm van SLI/Crossfire. De nieuwe GPU zou tot 75% betere prestaties leveren dan de huidige GammaChrome-serie. Er worden drie videokaarten verwacht die de chip gaan gebruiken: S23, S25 en S27. De laatste zou volgens de geruchten voorzien zijn van 1,4GHz GDDR3-geheugen en qua prestaties op het niveau van de GeForce 6600 GT staan. De Chrome zou echter wel een stuk zuiniger zijn dan de concurrentie, met een verbruik tussen de 5 en 15 watt. Naar verwachting zullen de definitieve specificaties van de nieuwe kaarten komende vrijdag worden aangekondigd. Een wazige Chinese site heeft nu echter al een paar plaatjes ervan gevonden.

S3 S27-videokaart met Chrome 20

Door Wouter Tinus

02-11-2005 • 20:09

37

Submitter: deregtx

Bron: S3

Reacties (37)

37
37
19
2
0
14
Wijzig sortering
Volgensmij gaat deze kaart op ongeveer dezelfde manier als crossfire in multi gpu werken. Ik zie namelijk dat zelfde chipje van silicon image zitten die bij ati het crossfire gedeelte regeld
SLI is in. De ene fabrikant moet het hebben omdat de ander het ook heeft.

SLI is toch juist bedoeld voor enthousiastelingen die er veel geld voor over hebben om maximale prestaties te krijgen? Dan slaat S3 de plank wel mis als ze dit willen doen.
Laat ze eerst maar eens een kaart ontwikkelen die in single mode de huidige kaarten bij kan benen.

Dat lage energieverbruik zou trouwens wel een goede ontwikkeling zijn.
Jaja, 5 tot 15 Watt, maar ondertussen wel een dikke heatsink met heatpipe en fan :Z
Je hebt niet perse veel vermogen nodig om een flinke temperatuur op te kunnen wekken.
Nee, maar wel om een grote warmtestroom te krijgen. Natuurlijk kun je iets heet stoken met 1 watt, maar dan moet je het wel isoleren. Dat doe je dus *niet* met heatpipe en fan.
Wat dacht je van mijn 8watt soldeerbout wordt toch iets van 430 graden dus je heb niet veel watt nodig. :Y)
bevestig maar eens een blok metaal en een heatsink +fan aan de soldeerbout, en probeer hem dan maar eens warm te stoken ;)
Iets wordt warmer zolang je er meer (warmte)enegie instopt dan het kan afvoeren. Een heatsink/fan is er net om het afvoeren van de hitte zoveel mogelijk te optimaliseren.
Maar niet om het een of het ander, er zijn PIII's die 18 wat verstoken, en daar moet/kan ook al een serieuze koeler op hoor ;)
Dat die dan nog eens eens tuk kleine moet omdat het nu eenmaal een kaartje is, maakt het natuurlijk niet eenvoudiger.
als ze die fan op een lage stand houden is er natuurlijk niks aan de hand. en zou hij zelfs in de slechts geventileerde kast nog op acceptabele temps moeten blijven.
Bij 15Watt ben je helemaal geen fan nodig. Die warmte kun je met een kleine heatsink zat afvoeren, zelfs in een warm systeem.
Vast verkeerd gelezen, de 0 vergeten. Moest zeker 50 to 150 Watt zijn :P.

Na serieus, die cijfers zullen wel voor het minste model gelden, de S23. Iets wat een GeForce 6600GT kan bijbenen gebruikt echt wel meer dan 15W. Alleen het geheugen al.
Iets wat een GeForce 6600GT kan bijbenen gebruikt echt wel meer dan 15W

Waarom?
Het is toch goed mogelijk dat 90nm een gebruik van 15 watt kan realiseren?
Dus S3 komt weer terug opzetten! Kan me nog herinneren dat ik een S3 trio kaart in mijn 486 had zitten! Is in ieder geval altijd goed voor de concurrentie!
Niet allen herinneren, ik heb nog steeds een PC op zolder met Cyrix processor en een S3 Trio 64 kaartje met 1MB.

En het is het snelste systeem met opstarten thuis (met Win9x). Ik geef toe dat elke website met wat dynamische troep nu daarop traag is. Maar da's nu.
S3 was vroegâh helemaal geen slechte kaart.

En wie weet...

Niet iedereen heeft een Nvideo 78999² kaart nodig.
bij mij zit er een S3 trio in mn P166@200 bakkie :)
De plaatjes zien er wel goed uit. Als het fake is dan is het verdraaid goet gemod.

On-Topic: Ik verwacht niet te veel van deze kaart. Ik zou hem niet kopen, immers omdat ik geen Low-Power systeem heb. Ik denk dat deze kaart wel thuis zou zijn in kantoortjes die Windows Vista zullen gaan draaien.
Grappig te zien dat S3 anno 2005 weer een underdog is welke (daarom ?) weer een warm hart wordt toebedeeld.

De kaart klinkt veel belovend, vooral voor media-PCtjes in de woonkamer, je zou - mits de prestaties (van de S27 ?) ook daadwerkelijk in de buurt komen van een 6600GT - er zelfs een beetje mee kunnen gamen ... Ik heb nu een (oud, el cheapo) passief gekoelde FX 5200 in m'n woonkamer-media-prutsel, maar die vreet volgens de specs al meer dan 25W !!! Dus 6600GT performance met slechts 15W ??? En zo'n koelblok + fan voor slechts 15Watt ??? Hmmmzzz ... eerst zien, dan geloven !

En gezien de gruwelijke driver ellende van S3 en (vaak) slechte 2D beeld-kwaliteit in het verleden, denk ik dat ze het zeker zwaar krijgen om de markt te veroveren ... Al hoop ik dat de kaart zo goed is als ze zeggen, krijgt de consument tenminste weer wat meer keuze-vrijheid ... niet iedereen zoekt meteen de snelste gamers-kaart.
Ik hoop dat ze Linux-drivers uitbrengen van een goed niveau. Mijn GeForce 2 Pro is er sinds kort uitgekicked bij nVidia en dat bezorgde me vandaag nogal wat hoofdbrekende probs (ik lees niet verder als ik hoor dat de TNT is uitgerangeerd, als ik verder had gelezen dan was ik snel klaar geweest door de telen dat de GF2 PRO(!!!) hetzelfde lot was toebedeeld........)

* 786562 Xarenion

WAKE-UP!
Intel:"Megahertz are everything" veranderde nadien in:
-> Efficiëntie, waaronder ook stroomverbruik herzien werd.

Dit is een andere fabrikant, en waarop scoren zij opeens erg goed? Juist ja, hetgene waarvoor bij de andere fabrikanten extra koelelementen geïnstalleerd worden en een extra stroom-connector aanwezig is op de kaart zelf.

DIT is evolutie van S3 die een erg mooie indruk maakt vind ik!

Stroomverbruik van de kaarten van vroeger, gecombineerd met een stille kaart (deze kunnen passief gekoeld worden) en nog eens -hopelijk- aan een mooi prijskaartje dat concurrentie kan aangaan met een NVIDIA 6600GT/ATI Radeon 1600(XL/Pro) ??? Dat is toch hartstikke oppassen voor ATI/NV lijkt me. (Ook al is het juichen misschien iets TE voorbarig).
De nieuwe GPU zou tot 75% betere prestaties leveren dan de huidige GammaChrome-serie.
Tja, eerst doe je 5fps in Doom3, met 75% performance increase is dat maarliefst 9fps... :+

Ik vind het wel grappig dat ze het nog steeds proberen bij S3, maar sinds de wereld is overgetapt naar 3d graphics hebben ze het gewoon later zitten... slechte drivers die steeds vast liepen, en gewoon geen super performace...

Ik weet niet hoe ze er nu 7 jaar later voor staan, maar ik neem iig geen S3 meer tenzij ze in de benchmarks voorbij nVidia of ATi komen... Eerst zien dan geloven...
S3 is nooit weggeweest, maar uit het zicht verdwenen. Zo proberen al met een aantal chipsets krampachtig niet te ver achter te raken.

Als er geld is dan komen ze er wel boven op.
ATI kreeg het zo'n 3 jaar geleden ook voor elkaar om met de 8500 aansluiting te vinden met het leidende bedrijf NVidia, schijnbaar uit het niets.

Als S3 zuinige maar ook snelle chipsets kan maken die langere tijd kunnen concureren met ATI en NVidia, dan maken kans om deel uit te maken van de grote jongens.

En het is altijd goed om er een concurrent bij te hebben.
Dit drukt de prijzen...

S3 For President mag ik wel zeggen...

Op dit item kan niet meer gereageerd worden.