Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: EETimes

vink was de eerste met een link naar EETimes, waar men vertelt dat Sony details over een beestachtige nieuwe videochip bekend heeft gemaakt. De nieuwe chip doet de Graphics Synthesizer (het ding waar de PlayStation 2 z'n plaatjes vandaan trekt) compleet verbleken. Door 256Mbit (~32MB) aan eDRAM op de die te integreren en de bus 2 kilobit breed te maken wordt een bandbreedte van maar liefst 48GB/s gerealiseerd. Een klein rekensommetje levert een kloksnelheid van 200MHz op, wat toch knap is voor een 0.18 micron chip die uit bijna 300 miljoen transistors bestaat.

De fillrate van de chip zou tussen de 1,2 en 2,6 Gigapixels per seconde komen liggen. De GeForce2 Ultra doet maximaal 800 Megapixels in dezelfde tijd, maar haalt deze waarde bij lange na niet omdat hij qua geheugen enorm beperkt is. Ondertussen kan Sony's nieuwe speeltje ook nog even 75 miljoen polygonen verwerken. Vroege geruchten over de NV20 spreken van een real-life performance van 40 miljoen.

Ondanks het feit dat ze claimen "tevreden" te zijn met de yields zullen ze veel goedkoper uit zijn als ze wachten op 0.15 of 0.13 micron fabricage. 462 vierkante millimeter is namelijk enorm, nog veel groter dan de Pentium 4. Maar aan de andere kant dacht ook niemand dat de Emotion Engine op 0.25 micron te bakken was. Wat Sony van plan is met de nieuwe chip is nog niet helemaal duidelijk. De PlayStation 3 is natuurlijk een optie, maar een upgrade voor de PlayStation 2 is ook niet ondenkbaar. Wij hopen natuurlijk op een PC versie :

Simplex worked with Sony Computer Entertainment and other Sony divisions to come up with the physical design of the chip using its hierarchical design methodology. Simplex plans to commercialize the EDA tool, which can generate "black box" timing models, by June, Khan said.

[...] Sony has taken gambles before with chip size. It's 128-bit MIPS-based Emotion Engine processor, first manufactured on a 0.25-micron process, was considered too large to be used profitably in the Playstation 2, given Sony's price for the console. Game console makers traditionally subsidize the high cost of their hardware through sales of game titles, especially in the early stages of manufacturing. Sony, however, hit some snags in the manufacture of its Graphics Synthesizer for the Playstation 2 last year, which hindered the number of consoles it could sell.

Verder melden ze dat Toshiba de eerste Emotion Engine wil gaan gebruiken voor high-end routers en switches. Hij zal uiteraard wel flink bewerkt worden, want de vraag naar routers waarop je PlayStation spellen kunt spelen is nou niet bepaald denderend .

Moderatie-faq Wijzig weergave

Reacties (53)

hehe eindelijk. :)

Het zou voor de PC-markt geweldig zijn als er een grafische kaart op de markt komt met deze Sony chip.
Hoewel de nVidia chips natuurlijk voor een grote vooruitgang gezorgd hebben in de consument-grafische sector en terecht tot een hele populaire productgroep zijn ujitgegroeid, krijgen we zo langzamerhand ook de keerzijde van het proces te zien.
Hoe je het ook went of keert; nVidia heeft tegenwoordig een aardige monopolie positie (alhoewel de Radeon ook flink aftrek heeft) en dat is voor ons consumenten vooral te merken aan de _schamdalig_ :r :r hoge prijs van de kaarten gebaseerd op de nieuwe Geforce3 nFX -of hoe die dan ook mag heten- chip. :(

Als er dus concurrerende kaarten zijn die EN op prijs EN op prestatieniveau gunstiger zijn, dan zal het voor nVidia broodnodig de strategie te herzien. En dat is alleen maar gunstig voor ons consumenten. :D

Even voor alle duidelijkheid;
<font color=#786562>* [D3vLiN] draait sinds Voodoo1 ook nog steeds TNT en Geforce, dus ook nVidia. ;)</font>
Gelukkig is een monopolie niet echt mogelijk voor nvidia dus het is onzin dat we daar last van hebben..
Nvidia heeft het begrip "keus" bijna eigenhandig op deze markt geintroduceerd (dus niet 1 maar meerdere soorten kaarten), ook heeft nvidia ervoor gezorgd dat we goede kaarten tegen weinig geld krijgen zoals de MX, daarnaast zijn er natuurlijk ook dure topmodellen, net zoals bij auto's, maar het feit blijft dat je niet verplicht bent die te kopen, je kunt namelijk uit zat andere (nvidia/ati) 3d kaarten kiezen..

Als nvidia de geforce3 chip extreem duur maakt (net als de v5-6000) dan houden ze het niet lang vol op de videokaartenmarkt, dus de kans is groot dat er ook een budget lijn komt (of dat de geforce2 serie in porijs wordt verlaagd)

Het lijkt me wel leuk om nog meer keuze te hebben in videokaarten, maar het lijkt me ook wel interessant als sony deze technologie in licensie geeft aan nvidia/ati etc, omdat je dan voor nog minder geld, nog meer performance uit je kaartje kunt krijgen en de gemiddelde kaartprijs nog lager kan...

* 786562 blouweKip
Volgens mij richt Sony zich niet echt op de PC hardware markt...dus ik denk dat ding voorbehouden is aan consoles.

Dan nog vind ik het vreemd dat ze zo kort na de introductie van de PS2 al specs naar buiten brengen van nieuwe hardware. Het bloed kruipt...? :)
Sony probeert idd. haar producten vaak wat te isoleren van de rest van de markt.
Zorgen ervoor dat altijd hun produkten beter samen werken met elkaar dan met andere spullen.

* 786562 TheGhostInc
Heeft t wel zin, zo enorm veel performance? Ik bedoel een console gebruikt toch altijd nog een TV! En wat heb je aan zo'n fillrate op 800x600? Misschien een verschill van 100-300fps? OP een 50(misschien 100) Hertz TV?
Je kunt denken aan HDTV's en dingen als FSAA. Maar fillrate kun je ook gebruiken voor 3 of 4 textures per pixel, wat weer betere kwaliteit betekent.
Het heeft wel zin. Zo kun je b.v. dan ontzettend veel 3D modellen (van goede kwaliteit) op het beeld tekenen zonder dat er enige vertraging optreedt.
wat d8 je van meer textures? en meer effecten?
zeker weten dat het er mooier uit gaat zien!
Het gaat niet om de hogere framerates maar om het gerenderde plaatje.. vooralsnog zien games er nog steeds niet zo uit alsof je naar een film zit kijken (maybe een paar cutscenes hier en daar die dat benaderen, maar verders..)
Leuk bedacht die Agp-kaart maar hoe wil je 48 gigabytes per second of bandwidth voor mekaar krijgen! :+
Is natuurlijk tussen het videogeheugen en de grafische chip. En niet tussen de videokaart en de chipset op je mobo.
48 GB/s is de bandbreedte tussen de chip en videogeheugen, niet de bandbreedte tussen geheugen en AGP. Hiermee kan je op hoge resoluties draaien zonder dat het geheugen de bottleneck wordt zoals bij de GF2
Die specs zijn niet mis zeg!!! Het zou echt fantastisch zijn als hier ook een AGP kaartje van gebakken wordt. Maar eerlijk gezegd zie ik dat nog niet zo snel gebeuren.... maar we blijven hopen natuurlijk. Alleen zal de prijs wel hoog zijn denk ik. Zo'n ongelooflijk brede bus zal ook niet het makkelijkste zijn om te fabriceren lijkt me. Kost heel wat lijntjes tussen de chip en het geheugen.
Ehhmmmm... Lijntjes tussen geheugen en proc??

Lees even mee:
Door 256Mbit (~32MB) aan eDRAM op de die te integreren en de bus 2 kilobit breed te maken wordt een bandbreedte van maar liefst 48GB/s gerealiseerd.
Geintegreerd geheugen dus... niks lijntjes op print!

Wat me wel lijkt is dat ze te maken gaan krijgen met een wat hogere uitval door dat geheugen-on-die en dat (in combinatie met het feit dat de die nogal groot is) kan gaan betekenen dat dit ding niet te betalen is straks...
Ik denk niet de agp bus breed genoeg is om dit te halen.
Was eDRAM niet heel duur?
en met zo'n grote die en ZOVEEL transistors lijkt mij dit een mooi prototype maar geen realiteit...

heeft hier niet gestaan dat de GF3 125miljoen polygons/sec kan (theoreties dan) en 40 in werkelijkheid?
als dit zo is zal deze chip in realiteit ook wel wat minder zijn :(
Ja, dat heeft hier idd gestaan, maar dat kwam doordat het geheugen te traag was.
Ik moet zeggen, 45Gig/sec da's wel iets sneller dan de GF3
:)This is good. Ze zullen wel heel dom zijn om zoiets niet op de pc uit te brengen. Daar kunnen ze veel meer mee verdienen dan op de playstation 3 omdat iedereen dan weer op een nieuw systeem moet aanschaffen. Anders moeten ze wachten tot de PSX3 wat eigenlijk zonde is omdat die chip dan de concurrentie niet meer doet verbleken. }> }> }>
Andere kant van het verhaal is dat het wel een AGPX8 moet worden voordat de specs haalbaar zijn. }:O :'(

DarQ
Ze zijn juist heel slim om dit niet op de PC uit te brengen. Ze verdienen aan de hardware (console dus) niets MAAR de software die voor dat console geproduceerd wordt wel. Als ze het op de PC uit brengen dan kunnen ze maar een klein beetje geld verdienen tenzij er gekken zijn die om de maand een nieuwe videokaart koopt dan wel maar de meesten zullen het om de paar jaar upgraden dus levert het niet veel op. Op de console kopen mensen dan gemiddeld twee a drie spellen per jaar en dat is veel meer winst.
Op zich is videokaarten niet zo moeilijk, de technologieen heb je als bedrijf meestal al, je moet alleen erg veel rekening houden met de yields, als je chippie te ingewikkeld wordt dan kan je -zeker als je yields normaal al niet zo hoog zijn- wel rekening gaan houden met veel uitval= hoge uitval.

Bij sony hebben ze het productieproces goed onder controle, Al is de grote hoeveelheid transistors al wel te merken in de specs, de snelheid is slechts 200Mhz, een GF2 kan bijvoorbeeld best 300 halen.
Lage(re) kloksnelheid kan ook gewoon met warmteontwikkeling te maken hebben hoor. Dat de gemiddelde PC gebruiker nou accepteerd dat zijn CP klinkt als een staaljager door alle actieve koeling die er in zit wil nog niet zeggen dat de gemiddelde console gebruiker daar ook op zit te wachten.

Even terzijde: De kans dat deze chip in een "standaard" PC terecht komt is gewoon HEEL klein. Sony verdient (krijgt) ERG veel geld binnen met hun hele SCE divisie en die draait puur op de Playstation(1&2).
Deze chip moet het dus vooral hebben van zijn ge´ntergreerde geheugen. Dit is natuurlijk wel een ranzig snelle chip, maar cutbacks lijken mij haast onvermijdelijk. Bij de Pentium IV hebben we gezien dat als het zover komt, het geheugen vaak het slachtoffer wordt. Denk maar aan die geschrapte L3 cache die de 8 Kb L1 cache moet compenseren. Ik ben bang dat wij dezelfde dingen zullen gaan zien met deze chip. Mocht dit gebeuren, dan zijn de verschillen met de GF3 toch weer een stuk kleiner. Ik wil overigens niet suggereren, dat als dit geheugen wordt geschrapt, dat deze chip langzaam zal zijn. Integendeel, een chip die deze geheugenbandbreedte zo goed kan benutten is op zich al een onmenselijk snelle chip. Toch denk ik dat dan de verschillen niet meer zo groot zullen zijn dan dat ze hier zijn beschreven.
Dit is was de GF2Ultra en hoger nodig hebben.
Geen 8 GB/sec geheugen, maar 500 MHz (DDR) 2048 bits (breedte datapad) = 119 GB/sec bandbreedte. > :)
Dan haal je tenminste 100+ fps op 1600x1200x32 en waarschijnlijk ook nog wel op 1920x1440x32 > :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True