Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: The Inquirer

De mannen van The Inquirer hebben informatie gepubliceerd over de plannen van S3 voor de komende twee jaar. Het bedrijf is van plan om twee DirectX 10 gpu’s te introduceren en drie DirectX 10.1 gpu’s die - op papier - interessante specificaties hebben.

S3 logoVoor DirectX 10 komt S3 met de (X)D2 en de (X)D3 gpu’s. De (X)D2 gpu’s zijn gebakken met een 90nm productieprocédé en zullen onder andere HDMI en het hardwarematig decoderen van hd-dvd- en Blu-ray-video ondersteunen. De chip zal op 1GHz geklokt worden en krijgt een quadchannel 128-bit geheugenbus (XDR2) of een dualchannel 64-bit bus (DR2). De eerste testversies van deze XD2 zijn al geproduceerd wat betekent dat het niet lang zal duren alvorens de eerste exemplaren in de winkels zullen verschijnen. De XD2 zal over een half jaar opgevolgd worden door de XD3 die op 65nm gebakken zal worden en zal lopen op 1,2GHz.

Voor de eerste helft van 2008 heeft S3 de (X)E3, de (X)E2 en de (X)E1 in de planning staan. Veel details over deze gpu’s zijn niet bekend, maar wat in ieder geval vast staat is dat ze gebruik zullen maken van de tweede versie van de PCI Express-standaard en gebakken zullen worden met een 65nm procédé. De XE3 wordt een dualcore gpu met twee cores op 1,2GHz die de beschikking krijgen over een dualchannel 128-bit geheugencontroller met ondersteuning voor DDR3/GDDR3/GDDR4 en GDDR5. De XE2 krijgt de beschikking over vijf cores en een quadchannel 256-bit geheugencontroller. De krachtigste chip zal de XE1 worden met acht cores en een quadchannel 512-bit geheugenbus.

Microsoft Flight Simulator X met DirectX 10
Moderatie-faq Wijzig weergave

Reacties (49)

Wel ik deel een andere mening dan de meeste andere hier. Ikzelf heb een Via Epia moederbordje met daarop een geintegreerde deltachrome. Mpeg2 hardware ondersteuning werkt perfect zowel onder windows als fedora. De kaart presteert niet zoals een recente grafische kaart maar dat is ook helemaal het doel niet van deze oplossing. Ik heb een 100 procent passief gekoeld systeem, met hardware mpeg2 ondersteuning, zeer goede tv uitgang. Ik installeer 1 driver en alle apparaten van mijn moederbord werken... kortweg een gemak om te installeren. Ik heb het toestelletje aan mijn tv hangen en voorzien van 2 disks van 250 GB wat ruim voldoende is om mijn muziek collectie en dergelijke op te slaan.

Het toestelletje verbruikt dan ook nog eens weinig en draait dus 24/24.

Via heeft veel rommel maar voor sommige toepassingen zijn ze best ok. Zoek je echt performance killers dan moet je bij via niet zijn. Zoek je een goedkoop ding voor de juiste toepassing kan je er best wel dingen vinden. Mocht via echt zo slecht zijn draaiden ze niet al jaren mee hoor.
Hoe heb je die MPEG2 acceleratie aan de gang gekregen onder Windows? En nog interessanter, hoe heb je dat ooit aan de gang gekregen onder Linux?

[edit]Ben zelf even gaan kijken, en niet te geloven, het is nog waar ook... Support van de integrated chippies is dus gewoon beter dan voor de losse kaarten lijkt het.
Draait 'ie 24/24? Nieuwe manier van overclocken?
S3 Graphics is tegenwoordig onderdeel van de firma VIA, en heeft dus niets met SiS te maken, zie http://www.s3graphics.com/en/company/
Ziet er interessant uit! Een beetje extra concurrentie is niet weg naast ATI en Nvidia. Als idd de drivers nu van goede kwaliteit zijn zou het best een goed product kunnen worden.
Wel interessant om te zien dat er nu ook al gewerkt wordt aan dual/triple/quad enz core videokaarten.
Deze kaarten kunnen nog best goed worden als ze redelijke prestaties leveren en ook nog eens zuinig zijn in stroomverbruik!
Ik kan t niet echt spannend vinden. Op papier had ik dit ook wel kunnen verzinnen en ATI en nVidia zitten echt niet stil. Als de performance en drivers fatsoenlijk worden kan t iets zijn maar volgens mij hebben we dit soort aankondigingen al te vaak gezien.

-edit-
Als je wat zoekt naar "S3" en "chrome" dan kom je meer van dit soort nieuws tegen. Het klinkt altijd spannend maar het duurt een tijdje voor t op de markt is en dan is t nog hooguit midrange spul. Ze kunnen ati en nvidia gewoon niet bijbenen.
Dit kan best wel eens interessant worden. Door de prijs laag te houden krijg je interessante HTPC/desktop kaartjes, en door het plaatsen van meerdere cores gaan de prestaties omhoog (duh) en valt er misschien wel mee te gamen.

Hier zie ik ook een voordeel: eenvoudige cores zijn goedkoper om te ontwikkelen en te produceren, waardoor de kosten van een krachtigere kaart misschien ook laag kunnen blijven.
Daarnaast letten mensen ook steeds meer op het stroomverbruik. Heb je een kaart met x aantal cores, dan zou voor de hand liggen om 'overbodige' cores uit te schakelen op het moment dat je het met wat minder power kan doen.
Klinkt zeer indrukwekkend, maarja:
1 - Het is "The Inquirer"
2 - S3 heeft wel vaker paper launches gehad die best indrukwekkend klonken maar uiteindelijk niet al te goed presteerden (vooral op driver gebied).


1 ding wat wel fijn was aan de afgelopen 2 series van S3 is dat je zo goed als gratis 16x Aniso Filtering had (1-2% performance verlies)
Gepost door DexterDee - donderdag 23 november 2006 20:52 - Score: 1 (Inzichtvol)
Hoe verhoudt deze chipset zich nu met bestaande ATI en Nvidia kaarten? Mits voorzien van goede drivers, kun je er naast Aero Glass ook nog de meest recente spellen op een fatsoenlijke resolutie en met voldoende detail draaien?

[reageer] Gepost door codeneos - donderdag 23 november 2006 21:03 - Score: 2 (Grappig)
Hmm... M'n glazenbol is stuk dus ik zou het niet weten .
Mijn glazen bol doet het nog prima: de drivers worden kut.

En blu-ray/HD-DVD hardwarematig decoderen? De Deltachrome S8 beloofde ook al hardwarematige h.264 versnelling. Nooit meer wat van gezien. MPEG2 versnelling ook. Nooit meer wat van gehoord. Sterker nog de drivers waren zo kut dat overlay niet goed genoeg werkte om 1080i MPEG2 in volle glorie te tonen. Praat me niet over games.. In bepaalde games kon je serieus tussen de antieke Savage2000 en de Deltachrome vergelijken.

Ohja en de drivers worden kut.

En S3/Via lijkt ook weinig eisen aan boardmakers te stellen, met als gevolg dat de D-sub uitgangen op mijn kaart volstrekt waardeloos waren in "hoge" resoluties (alles boven de 800*600 zo'n beetje).

En had ik al gezegd dat de drivers kut zullen worden?

Ik geloof d'r niet meer in.
NouNou...Had ik al gezegd dat je altijd een open mind moet houden? Bij deze. Als je directx 10 onder de loep neemt zie je dat het unified shader principe veel positieve dingen er op na laat. Dat multiple cores principe vind ik helemaal top! Ros er maar een stuk of 10 simpele cores op dat scheelt weer in de kosten. Als intel en XGI nou ook een come-back maken door Directx 10 hoop ik over een jaar of 2 een high-end kaart te kunnen kopen voor de helft van wat je er nu voor betaald! Hell, 3dFX had dus toch gelijk met zo veel mogelijk cores op een kaart te knallen die hadden er immers op de voodoo4 een stuk of 4 als ik me niet vergis! :Y) Jammer dat ze zich financieel vergist hadden en te vooruitstreefend waren.
Als er iemand een open mind heeft ben ik het wel. Ik kocht een Deltachrome waar niemand anders toen vertrouwen in had in de hoop dat door een Via die de scepter toen aan het zwaaien was het allemaal goedgekomen was. Zat ik ff fout.

S3 kan vanalles beloven, maar ik moet eerst met m'n eigen ogen zien dat ze ook maar één ding nakomen voor ik er weer een beetje vertrouwen in heb. De Savage 4 en Savage2000 zijn welliswaar geen recente voorbeelden, maar de Deltachrome is dat wél. Ze hadden toen nog niets geleerd van hun fouten uit het verleden (ondanks de overname door Via) dus ik zou niet weten waarom nu wel.

Overigens had de Voodoo 4 bij mijn weten één core, de Voodoo 5 5500 had er 2, en de ultiem zeldzame Voodoo 5 6000 had er 4 (en een aparte power adapter). Er zijn nog wel professionele kaarten gemaakt met meer cores, maar dat was geen consumentenspul meer.
Voodoo is allemaal één core maar meerdere GPU op 'n PCB van 'n G-kaart.
Dit hield in dat die 128MB efficent 32MB is aangezien elke van die 4 VSA100 ? GPU 'n Texture copy moest hebben van de te renderen scene.

Meerdere Cores kunnen bestaan op één Die met één Mem Controler zodat die 1GB aan Vidmem ook effectief 1GB is.

Multie core is gewoon dat Alle soorten units onafhankelijk in groepen van 4 of 8 verdeeld zijn.
Met omafhankelijke SM4.0 shaders is dat makkelijker.
en beter deelbare Rop's TMU etc.
Met andere woorden Multicore brengt niks nieuws voor de consument. Eerder voor de chip bakker die makkelijk 'n Produkt range aan chips kan samenstellen.

Multi core Leuk maar niet zo relevant voor de gebruiker.
SLI CF Multi GPU 'n geheugen hog. Wel relevant. Je verspilt geheugen chips.
'n goede Multicore implementatie met centrale mem controler is dan beter. Maar Multie GPU can krachtiger zijn. 1 1G aan Transistore die met multi core.
VS 4 "Die" met 1GTransistoren per "Die". Is 'n andere league.

De voodoo Multi GPU methode zie ik dus niet zitten.
Volgens mij is XGI overgenomen door ATi, betwijfel dus of zij een come-back zullen maken :Y)


Ik hoop meer dat Matrox toch nog een come-back weet te maken, ook al is veel van het goede personeel dat zorgde voor de vernieuwingen, goede hardware en goede support al met de zon vertrokken (naar overbuurman ATi)
My god die specs. Kan dit wel waar zijn ? ? quad channel 256 Bit. En 1.2 Ghz dat is hetzelfde wat ATi gaat gebruiken. Ben benieuwd of die ook een beetje snel worden. Ben ook benieuwd naar de shaders van die cores. Tot nu toe zijn ze er niet meer in geslaagd om in de high end range te komen qua peformance.
hah, je bent in de gHz mythe getrapt :*)
Zeker niet. Bij ATi werken de core en de shader units op gelijke snelheid ( 650 MHz ) En bij de R600 zal dit 700 tot 800 MHz zijn.

Bij de G80 van nVidia is de Core speed 575 MHz en de Shaders lopen daar op 1380 MHz. Echter heeft ATi 4D of zelfs 5D shaders en de nVidia shaders zijn maar 1D.

Dus ATi KAN 4/5x meer per clock doen maar heeft lagere clock speeds. En de vraag is of je er wel 4/5 bewerkingen per clock uit krijgt

Dus ik trap echt niet zo maar in de GHz hype.
volgens mij is jou verhaaltje net andersom
nVidia is 2d en Ati is idd 4d. Maar om de effecten hiervan te zien heb je toch echt benchmarks nodig.
Even een vraag, toen DirectX 9 uitkwam, waren er toen ook al weinig videokaarten die DX9 gpu's hadden? Ik weet het niet, omdat ik me er toen niet in verdiepte...
En nog een tweede vraag (nu ik toch bezig ben) zijn er al andere videokaarten met quadchannel geheugen? Heb ik namelijk nog niet van gehoord bij videokaarten...
Voordat DX9 gelaunched werd en ook speelbaar was in games waren er al de 9700(Pro) kaarten van ATi die DX9 ondersteunden. Misschien wel samen met de Voodoo kaarten de beste kaarten ooit gemaakt.
De beste kaarten ooit zijn de TNT1 en TNT2 van nvidia, geodkoop en bliezen de voodoos omver. 32 bit kleuren en ene hogere resolutie :)

ik heb ze allemaal gehad, voodoo 1,2, tnt1,2, gf2 mx, gf 3, 9500pro, gf6800gt :Y)
vroegah:

mijn tnt2 haalde amper mijn voodoo 3 in, en spellen waarbij Voodoo OpenGL ondersteund werd (nogal veel in die tijd) kon ik beter op mijn voodoo spelen dan op de tnt2
Je bedoelt "Glide". Dat was inderdaad een voordeel voor de Voodoo's indertijd.

Voor de rest overheerste de TNT2-reeks de Voodoo3-reeks nogal. Je moet natuurlijk geen TNT2 M64 met een Voodoo 3 3500 vergelijken, maar de TNT2 Ultra was toch consistent sneller dan een 3500.

En dan hebben we het nog niet over de featureset. Kleur en resoluties, zoals hierboven al genoemd, maar voor de rest bijvoorbeeld ook ondersteuning voor (veel) grotere textures en dergelijke zaken.
Als we het al hebben over kaarten die er toe deden dan is de Voodoo 1 kaart de meest te weeg brengende kaart aller tijden. Voor de Voodoo 1 hadden we geen "goede" 3D beelden voor een aanvaardbare prijs.

De Voodoo2 daarna was de echte doorslag naar 3D zoals we het nu kennen.
Gezien het feit dat ik met mijn GeForce Ti4200 nog steeds een aantal van de nieuwste games kan spelen, ben ik eerlijk geneigd toch te zeggen dat dat een betere kaart is :)
Jammer alleen dat ze neppe trilinear filtering hadden. En dat de analoge uitgang nogal matig was tov Matrox kaarten.
Sja dit nieuwsbericht valt dus onder IT dienstmedelingen. Ik kan me niet voorstellen dat iemand op de nieuwe grafische 'prestaties' van sis en/of s3 zit te wachten.
Update:
Het grafische prestatieverleden van sis/s3 is dus niet al te best. Intel is dus een stuk interresanter voor budget HW.
Update2:
Even ter duidelijkheid we hebben het hier over IGP (onboard graphics).
Interresant (doorslaggevend) detail uit het originele bericht is eigenlijk dat de XE3 and XE2 het o.a. tegen de Fusion Proccessors van AMD moeten opnemen.
Hoewel uit een ver verleden, waren de S3 chips toch echt de eerste succesvolle 3D kaarten. Het prestatie verleden van S3 is dus zeker niet slecht te noemen. Wel heeft S3 de boot gemist toen ATI en nVidia steeds krachtiger kaarten ontwikkelden en is S3 al lang S3 niet meer.
Hoe verhoudt deze chipset zich nu met bestaande ATI en Nvidia kaarten? Mits voorzien van goede drivers, kun je er naast Aero Glass ook nog de meest recente spellen op een fatsoenlijke resolutie en met voldoende detail draaien?
De hardware zal wel goed zijn, echter geef je zelf het antwoord al: mits voorzien van goede drivers, die komen nml niet.
De S3 deltachrome die ze een tijd terug hebben uitgebracht was hier in NL amper te krijgen en kon je alleen met veel moeite nog via via bij een importeur krijgen. Dat de deltachrome niet populair was had ook een reden, behalve dat nvidia en ATI de leiding hebben: de deltachrome was zo dramatisch teleurstellend, dat op elk punt waarmee ze adverteerden dat ze beter waren dan de concurrentie, een S3 Savage2000 het beter deed :X
Ik verwacht helemaal geen enkel goed produkt meer uit de handen van S3 Graphics.
Misschien dat ze nog wat kunnen door die zooi van ze te integreren in een VIA chipset, maar zelfs daar hebben ze het al moeilijk met de goede produkten van Intel, ATI en Nvidia (en zeg nou zelf, wie koopt er een core 2 duo met een VIA moederbord :X)
Hmm... M'n glazenbol is stuk dus ik zou het niet weten :+.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True