Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Bron: Digit-Life, submitter: deregtx

S3 Graphics gaat de strijd met nVidia's SLI en ATi's CrossFire aan, heeft het Chinese HKEPC ontdekt. De site zou een interne presentatie van S3 hebben bemachtigd waarop informatie over de Chrome 20-gpu te zien is. Deze gpu, die in november op de markt moet komen, zou volgens die presentatie ook in een zogenaamde 'Multi-G'-uitvoering worden uitgebracht, wat de niet erg cryptische codenaam is voor de multi-gpu-technologie van S3. Volgens roadmaps van het bedrijf waar Digit-Life over zegt te beschikken, zitten er drie versies in de pijplijn: de S23, de S25 en de S27. The Register noemt de op 700MHz geklokte Chrome 20 een 'mid-range card for mainstream users'. Volgens Digit-Life zou dat de S25-editie betreffen, en zal de S27-versie gericht zijn op het 'high-performance graphics segment' en een nog hogere kloksnelheid krijgen. Het zou volgens die site de S27 zijn die in een Multi-G-uitvoering wordt uitgebracht.

S3 Chrome 20-gpu met erg klein fannetje Hoe de multi-gpu-techniek werkt is overigens nog volstrekt onduidelijk. Andere details van de Chrome 20 zijn wel al bekend, al zijn die niet heel spannend: de chip zou voornamelijk voortborduren op de features van de GammaChrome- en DeltaChrome-chips. De Chrome 20 zou daarmee DirectX 9.0-compatible zijn. Verder is bekend dat de chip op 90nm zal worden gebakken en dat hij behoorlijk zuinig zou worden: het energieverbruik zou tussen vijf en vijftien watt liggen. Verder is bekend dat de Chrome 20 vier vertex shaders en acht pixelpipelines aan boord zal hebben en dat de chip met HD-video overweg kan. Welk geheugen we op de kaarten gaan aantreffen is ook nog niet duidelijk: Dark Vision Hardware vertelt dat DDR, GDDR2 en GDDR3 tot de mogelijkheden behoren, terwijl The Register opmerkt dat de uitgelekte presentatie van SuperVRAM rept.

Uitgelekte presentatie-slide van S3's Chrome 20-architectuur (HKEPC)
Moderatie-faq Wijzig weergave

Reacties (36)

Dual core videokaarten worden imo pas interessant als een enkele core ook wat te bieden heeft, en dat is tot nu toe nog niet bepaald het geval met S3 kaarten.
Ja ok, Maar als je even verder kijkt dan dat... ik zelf vind het echt geweldig dat er meer concurentie komt... Tuurlijk ben ik tevreden met ATI en nVidia, maar dat S3 het zo geod probeerd en er ook veel geld in pomp (wat ze er nooit uit krijgen op dit moment) is wel een goed gegeven!

Ik hoop voor ze dat dit een goede kaartreeks word!!
eigenlijk zouden we spontaan de kaarten van S3 moeten kopen ongeacht de prestatie, om zo de ontwikkeling van de 3de concurent te bevorderen.
Natuurlijk niet. Als dat zou gebeuren zouden Ati en nVidia ook geen geld meer in de ontwikkeling van snelle GPU's steken, want dan lijkt het alsof de kwaliteit niet uitmaakt en langzamere kaarten net zo goed verkopen.

Maar uiteraard hoop ik ook dat S3 in de toekomst kan gaan meedoen met de grote jongens. Concurrentie is alleen maar goed voor ons als consument.
je zou ook donateur kunnen worden van s3.. of aandelen kunnen kopen voor die reden ;) dan zit je in ieder geval niet met een videokaart die mogelijk slechter is dan die van de concurrentie
Het zou ook kunnen dat als ze hun videokaarten uitrusteren met 2 GPU's, ze één voor elke monitor uitgang gebruiken.
90% vd systemen hebben helemaal geen baad bij een extreme grafische kaart. de meeste uit mn familie werken net zo lekker in excel of word met een TNT2 als met een 7800. zit voor hun totaal geen verschil in. de extreme kaarten krijg je verkocht aan veel eisende mensen die graag spelletjes spelen en profs vinden een 7800 weer te min. in ieder geval high end 3d bewerkers hoeven niet zo nodig zoiets geef mij maar weer een 3dlabs. imo richten ati/nvidia zich dan ook op een uiterst selecte groep. dat was ook wel een tijdje terug te zien toen intel liet zien dat ze zo groot waren in de grafische wereld. puur omdat het allemaal niet zo extreem hoeft
Dat ben ik niet met je eens. Ik heb bij me moeder thuis een TNT2 maar die kan geen hogere resolutie dan 1024 * 768 aan, dus een 17inch TFT scherm zit er niet in.
En de beeld kwaliteit is, om het zacht uit te drukken, ook niet heel erg goed.
Vreemde TNT2 heb je daar dan. De TNT2 kan volgens de specificaties nog een heel stuk hoger namelijk, dus waarschijnlijk heb je of bagger drivers erop, of de monitor kan het gewoon niet aan volgens Windows.
Een TNT2 kan zeker wel hoger, waarschijnlijk meer richting het dubbele (2048 * 1536).

2D kwaliteit verschilde wel destijds. Dus wat zullen we dan zeggen, een Savage2000 ipv. een TNT2? Met een Savage2000 zal de gemiddelde gebruiker weinig merken, zeker als je een exemplaar met DVI hebt (die bestaan afaik).

De Diamond uitvoering daarvan (Viper 2) heeft iig razend scherp en stabiel beeld, support basic acceleratiefuncties, heeft afaik geen beeldfouten in 2D met de nieuwste drivers en kan zelfs onder XP nog goed met overlay overweg zolang je geen HD video wil kijken. Dus normale filmpjes/DVD zijn ook te kijken. Al is zelfs HD video met wat gepruts erop aan de praat te krijgen. :X

Dat is meer dan zat voor de normale gebruiker, en staat zo ongeveer gelijk aan de featureset van Intel's integrated meuk :)
Tip: www.nvidia.com en download de laatste drivers. Mischien dat de windows drivers niet meer aankunnen die standaard met een nieuwe installatie worden geïnstalleerd. Of het zou kunnen zijn dat het beeldscherm geen hogere resolutie ondersteund. Dan geeft windows dacht ik ook niet meer aan dan het beeldscherm aankan geloof ik.

@Madegg: Een TNT2 heeft dacht ik zelfs 32 MB videogeheugen. Mijn oude TNT (eerste, diamond viper v550) heeft ook al 16 MB. Hij speelde zelfs nog wolfenstein Enemy Territory op mn 350 MHz (ok niet te spreken over de framerate van 8 :9 )
Een TNT2 heeft als ik me goed herinner 8MB videogeheugen.
1280x960x32 / 8 / 1024 / 1024 = 4.6875 MB geheugen; hoger dan 1024x768 gaat je dus echt wel lukken; zelfs 1600x1200 @ 32-bits(7,32MB) kleuren gaat nog lukken. En in 16-bits kleuren-modus kan je TNT2 ook nog gewoon op 2048x1536(6MB) draaien; je hebt dus ergens iets fout ingesteld, of je monitor kan gewoon niet beter aan. Ik denk ook eerder dat je slechte beeldkwaliteit aan de monitor ligt dan aan de videokaart, een TNT2 kan prima 2D-beeld weergeven.
Ik denk dat dit misschien niet een kaart is die een hele hoge performance gaat hebben, maar misschien mikken ze hiermee meer op het laag-midden sigment, waar toch veel meer geld te halen is omdat de volumes groter zijn.
Hebben we nu ook weer een aparte chipset hiervoor nodig? 8-)
Zal dan de comeback van VIA worden voor SLI chipsets voor S3. Helaas voor VIA in zo'n geval is S3 niet echt geliefd in de high-end en mid-range markt, aangezien ze het grondig verpest hebben destijds met de Savage chips en de slechte drivers erbij, en vervolgens met de DeltaChrome die precies dezelfde weg inslaat. De DeltaChrome is hier in NL bij misschien een handjevol winkels op de prijslijst te vinden geweest, wat ook al snel weer afgelopen was.
zal net als met SLI en crossfire weer puur van de drivers afhangen.
geen van de multi GPU technieken heeft ook maar iets nodig was niet al in de pci-express specs is vast gelegt.
Toch makkelijkals je je el-cheapo ps met onboard video kunt opwaarderen door een 2e goedkope kaart erbij te zetten ;)
het energieverbruik zou tussen vijf en vijftien watt liggen.

Ideaal voor in de mobiele markt zou ik zeggen.
S3 weet dat ze op gebied van prestatie niet kunnen concurreren met ATI en nVidia, dan is het toch slim om voor zuinigheid te kiezen.
Een 90nm chip met 8pipes en 4 vertexpipes zal waarschijnlijk een hele kleine oppervlak hebben waardoor de prijs ook laag zal uitvallen.
Niet alleen mobiel,
onboard wordt ook interessant met dergelijke wattages.
Met dat verbruik zal er ook wel niet zoveel koeling nodig zijn. Inderdaad misschien wel goed geschikt als onboard graphics chip.
En voor low-noise-gebruikers! Mijn PC is passief gekoeld en een modernde ATI / nVidiakaart komt er niet in, omdat die actieve koeling hebben.

Daarmee ben ik wel één van de weinigen, dus ik hoop niet dat ze het daarvan moeten hebben. Geintegreerde Graphics zijn wél interessant.
en nou maar hopen dat die kaarten een beetju kracht in huis hebben. nog een concurrent erbij kan nooit kwaad. nou maar wachten tot de prijzen oorlog uitbreekt en iedereen is blij.
De kracht is in dit geval niet belangrijk, omdat de driver support van S3 videokaarten in het verleden te slecht voor woorden was. Een chip kan nog zo krachtig zijn, met knudde drivers haal je die kracht er niet uit. Ook wil je natuurlijk niet dat een aantal spellen onspeelbaar zijn omdat je driver er niet mee overweg kan, of dat een aantal programma's het niet doen (video editing, 3d rendering, noem maar op). Hierdoor is het belangrijk dat er goede drivers voor worden gemaakt en dat die onderhouden worden. Zolang S3 dit niet verbeterd zullen de meeste consumenten de kaarten links laten liggen.

De laatste officiele deltachrome drivers die geen prototype zijn komen uit april. ATI's laatste officiele non beta drivers zijn van augustus, NVidia heeft zelfs deze maand al nieuwe drivers uitgebracht. Ook het aantal drivers dat word uitgebracht verschilt sterk als je S3 met ATI of NVidia vergelijkt. En als je een probleem hebt wil je niet een half jaar of langer wachten op de oplossing.
Als multi-G werkelijk multi-G is en geen Dual-G zou dit nog wel eens een noviteit kunnen zijn. Vier cores op één kaart bijvoorbeeld en dan 2 kaarten in één pc. Gezien de reputatie van S3 is dat misschien een beetje vergezocht, gezien het opgenomen vermogen per GPU zou het nog best wel eens kunnen werken.
Tja, en dan vooral om die prijzen eens wat te drukken. Die achterlijk hoge nieuwe binnenkomers hoeven van mij niet zo.
Ik vind het wel leuk dat S3 het toch blijft proberen, ooit hebben ze natuurlijk hét product...
Een beetje net zoals ATi vroeger, ik kan me nog herinneren dat we een gloednieuwe pentium 120 mhz hadden, met een ATi Mach64 PCI van 1 MB hadden...echt mooie tijden waren dat nog... :+ Maar waar het me om gaat is dat ATi vroeger ook volgens mij een beetje de mindere-kaarten-maker was, en nu ook gewoon samen met nVidia in het topsegment meedraait... Wie weet dat opeens over 5 jaar S3 en VIA marktleiders zijn op het gebied van videokaarten (8>
In het huidge marktsegemnt is het niet interessant voor investeerders om in S3 te investeren, risicovol en de overige 2 bedrijven hebben hun top wel en beetje bereikt. Laten we even buiten beschouwing dat S3 niet een echt goede reputaie heeft in het verleden,

Mogelijk zie ik ze wel potentie hebben om nu nog wat van Intel zijn markt af te snoepen, maar je hebt best kans dat die markt omslaat als ze met hun Apple's komen. Misschien zouden ze zich juist meer hebben moeten concentreren op de mobiele markt.

Voor als nog hoor ik Marco al weer zingen : De meeste droooooomen zijn bedrog ;)
nog niet eens zo slecht, als die s25 beetje goed uitgedacht wordt en goede functionaliteit heeft, en support voor gelijkwaardige functies als de ati/gf's dan zou het nog zo slecht neit zijn.
al is ie iets langzamer.
maar de 15/20 watt maakt heel veel goed.

ideaal voor mensen die neit hardcore gamers zijn maar toch wel regelmatig gamen... zeker als ze dat dan met hun Media center doen. passieve koeling erop. eventueel in multi-g opstelling. dan heb je genoeg prestaties en nog steeds een stil systeem.
Ik hoop echt dat dit wat gaat worden, want nadat 3dfx is verdwenen zijn alleen nvidia en ati overgebleven die goede kaarten maken om te gamen en dat komt de prijs niet ten goede. Hopelijk word het niet zoiets als met die Duo V8 kaart van XGI ofzoiets. veel performance in verschillende benchmarks , maar in games een drama :)
een chip met 8p 4v en clock aan circa 700MHz, en een verbruik van 5 à 15 Watt. Hier verwacht ik niet te veel van.
waarom zou dat niets kunnen wezen dan? Moet een kaart veel verbruiken voordat ie goede prestaties levert. Moet een auto 1 op 2 rijden voordat hij goed is?
Ik vind dat je nogal snel je conclusies trek. Je hebt het hier wel over een onderdeel van de VIA groep als ik me niet vergis, die houden eenmaal niet zo van slurpende dingen, maar dat wil niet zeggen dat de presaties daar heel erg onder lijden.
Daar ga jij nog wel even van staan te kijken vriend hoe dat zich uitpakt :Y)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True