Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 104 reacties
Bron: The Inquirer, submitter: sjekneck

Playstation Emotion Engine en Graphics SynthesizerIn medio 2003 deed het gerucht de ronde dat nVidia de grafische engine zou gaan ontwikkelen voor de PlayStation 3, maar een maand later werd dat praatje keihard weerlegd door Sony. The Inquirer meldde vandaag dat Sony en nVidia om de tafel hebben gezeten en tot een deal zijn gekomen, met als uitkomst dat Sony gebruik gaat maken van grafische nVidia-chips om zijn consumentenproducten mee uit te breiden. Onderdeel van de overeenkomst is ook een GPU voor de PlayStation 3. Deze GPU zal worden ontwikkeld bij Fab Two in Nagasaki. De nieuwe PlayStation gaat al gebruikmaken van een Cell-processor en een Blu-ray-speler. Het is de bedoeling dat de PS3 eind volgend jaar in kleine hoeveelheden verkrijgbaar zal zijn.

Moderatie-faq Wijzig weergave

Reacties (104)

Nou reken maar dat het of NV5x of NV6x chips zijn.
Ik denk persoonlijk de laatste.

Dit is overigens slecht nieuws voor Ati aangezien je er zowat de klok op gelijk kan zetten dat de PS3 ongeveer net zo goed indien niet beter zal verkopen dan de PS2.
Hoezo slecht nieuws ?
ATi maakte eerst alleen de GPU van de Nintendo, gaan ze ook doen voor de opvolger van de cube, nu hebben ze de Xbox erbij.. prima handel dus voor ATi.

nV heeft (natuurlijk) ook een goeie deal..
Volgens mij worden Xbox spellen bovendien ook meer geport naar PC, dan PS2 spellen.

Dus als je voor het Xbox platform de videokaart mag leveren dan heeft dan ook voordeel voor je pc markt.

Verder moet je je gezien de architectuur van die PS3 (Cell) afvragen of je die techniek kan toepassen of gpu's voor de pc's.

Natuurlijk zal Nvidia er wel leuk aan verdienen. Maar bij de Xbox was het belangrijkste voordeel dat ze er leuk aan verdienden, terwijl ze er helemaal niet zoveel R&D in hadden hoeven stoppen, omdat het ding veel leende van de bestaande ontwerpen.
En dat zal hier veel moeilijker worden.
De vraag is of dat nog nieuw te ontwikkelen chips zullen zijn of gebaseerd op bestaande?

PS3 bezit vooruitstrevende componenten die uiteraard vergezeld moeten worden met een aardige grafische processor die zo'n model enkele jaren moet ondersteunen op game-gebied.
In de toenemende reeks publicaties over de cell-processor, lijkt het duidelijk dat de GPU een integraal onderdeel is van deze chip. Software wordt al ontwikkeld voor het cell-processor ontwerp. Dan is het onwaarschijnlijk dat er nog veel chip ontwerp activiteiten plaatsvinden. Het kan een standaard nVidia cell zijn dat in de cell processor wordt opgenomen. Waarschijnlijker is het een licentie overeenkomst omdat het huidige cell processor ontwerp door nVidia gepatenteerde technologie bevat. Dat past ook beter in de eerdere ontkenning van Sony.
Dit is natuurlijk bijzonder goed nieuws voor nVidia. Ze waren de XBox en de 'GameCube2' al verloren aan ATi. En ik had persoonlijk niet gedacht dat SONY een derde partij zou inschakelen voor de GPU.

Voorlopgesteld dat de PS3 het net zo goed gaat doen als de vorige PlayStations dan mag dit best de grootste deal ophet gebied van Game Consols genoemd worden.

Maar het meest interessante aan de deal vind ik dat nVidia ook grafische onderdelen/chips mag gaan ontwerpen voor andere producten van SONY. En er zijn nogal wat markten waarop SONY actief is. Dat is een toegevoegde waarde die Microsoft en Nintendo niet hebben.
Ik denk dat Sony (en toshiba niet te vergeten, die doen het meeste werk) tegen a) patenten aanloopt van ati of nvidia en b) het wiel opnieuw gaat uitvinden bij de ontwikkeling van een DX9/10 comp. GPU.

Dat kost gewoon teveel geld en teveel tijd. Je kunt dan beter nvidia vragen mee te doen, want je bespaart zodoende meer geld en krijgt ook nog eens topkwaliteit in huis.
Met al deze ontwikkelingen vraag me af hoe de koeling van de PS3 wordt gesteld... PS2 was al niet zo stil en ik verwacht niet dat er koelkast elementen in worden verwerkt

:Y)
De latere versie van de ps2 was echt wel stil! ( en ik bedoel niet die kleine) Jammer dat ze dat niet meteen kunnen bedenken om er een stille fan in te doen
@ Pendo

Tuurlijk is Sony goed bezig door alles in eigen beheer te houden. Kijk maar eens naar Apple, deze het als bijna 20 jaar op deze manier. Alles dat ze kunnen ontwikkelen ze zelf terwijl de rest (zoals 3D-kaarten) zeer streng gecontroleerd worden. Het begon ook tijd te worden dat één of andere firma het op eenzelfde manier doet.
Dan mag jij dit eens uitleggen:
Dat is niet Hardware Displacement Mapping, maar Parallax Mapping ook wel beter bekend als Virtual Displacement Mapping.
Hardware Displacement Mapping is veel moeilijker om te doen en ziet er veel mooier uit
Ook heb je minimaal Vertex Shader 3.0 nodig om het te kunnen doen.

Het grote verschil is dat Parallax Mapping vanuit bepaalde hoeken uit lijkt te steken terwijl bij Hardware Displacement Mapping het altijd uitsteekt vanuit welk perspectief je het ook bekijkt.
Het is dan ook een heel geavanceerde versie van Bump Mapping.

Het beste voorbeeld dat ik je bij Star Wars Rogue Leader kan geven is the Deathstar Trenchrun.
Daar lijkt het alsof er allemaal stukken van die Ternch uitsteken terwijl die Trench eigenlijk recht als de tiefus is (op een paar balken na die van de ene kant naar de andere kant gaan).
Ook een ander goed voorbeeld zijn de Rebel Cruisers bij the Battle for Endor.
Sommige dingen zijn echt polygonen maar over het algemeen is het Hardware Displacement Mapping op die Cruisers.
Bravo Buck Naked.

Je hebt keurig de FUD van Nvidia nagepraat.

Maar ga nu eens het document van ATI daadwerkelijk eens lezen.

Dan zul je namelijk zien dat er geen sprake van is, dat bij hun methode het alleen vanuit bepaalde hoeken uit lijkt te steken.
Zij hebben het dus niet over parallax mapping, maar wel degelijk over nette hardware Displacement Mapping. (En op een 9700Pro zelfs)

Een ander voorbeeld:
http://www.ati.com/developer/gdc/GDC2003-DisplacementMapping.pdf

Kijk eens naar die donut. En dan met name naar al de polygonen die gecreeerd zijn met displacement mapping. Dat is dus absoluut geen parallax mapping!!

En wat betreft de Vertex Shader 3.0 support die nodig zou zijn. De R420 serie kaarten van ATI hebben al VS3.
(Ze hebben alleen niet alle PS3 opties, waardoor ze dus niet volledig SM3 zijn)

Maar VS3 is niet voldoende.

Nvidia heeft er wel een big deal van gemaakt, maar hun demo's van FarCry die zogenaamd hardware displacement mapping gebruiken, gebruikten ook gewoon parallax mapping.

Naast VS3 om je nieuwe geometry te berekenen, heb je namelijk ook de mogelijkheid nodig om nieuwe vertexen te maken.
Je wilt namelijk van een low res object een high res object maken. (Anders heeft displacement mapping geen zin)
En dat kan de NV40 nou net niet.
(De Radeons wel. Ze maken daarbij gebruik van tesselation, wat eerder al gebruikt werd door ATI voor Truform)

Vandaar dat alle spellen (en ook nieuwe engines) nog gewoon van parallax mapping aka virtual displacement mapping gebruik maken.

Nog een thread met heel veel verwijzingen die interessant voor je zal zijn:
http://www.hardforum.com/showthread.php?t=761077&page=2

Brent (beste reviewer voor grafische kaarten op het net. alleen jammer dat ie bij [H] werkt :)) laat er ook geen twijfel over bestaan.
De R300 serie en later kan echte displacement mapping, en daar is geen SM3 voor nodig.

Maar je zal dat waarschijnlijk niet met standaard DX code kunnen doen. En dat maakt het voor developers natuurlijk minder interessant.

Wat nodig is voor developers is VS3 samen met Tesselation/N_Patches support in grafische kaarten en DAN wordt het voor hen interessant om echte displacement mapping in spellen toe te passen.
Het bericht staat nu ook op de site van nVidia:
http://www.nvidia.com/object/IO_17342.html
Ik snap je statement niet. Heb je wel eens Ghost Recon 2 PS2 versie vergeleken met de Xbox versie? De Xbox versie is grafisch stukken mooier. Welke effecten gebruikt het volgens jou dan, die de Xbox "nog nooit gedaan heeft"? (en wat is het nut van die effecten als de game er zichtbaar minder mooi uitziet???)
De PS2 doet in meerdere game HDR.
Nou noem mij maar een game op op de Xbox die dat heeft.
De Gamecube doet Hardware Displacement Mapping in Star Wars Rogue Leader (niet in Rebelstrike) dat is een effect dat de Ati Radeon X800 serie niet eens kan alleen de GeForce 6 serie kan dat.
Nou als jij Rogue Leader op 1080i ziet dan weet ik niet of jij dan uberhaupt een game die nu uit is mooier vindt.
dat is een effect dat de Ati Radeon X800 serie niet eens kan alleen de GeForce 6 serie kan dat.
Dan mag jij dit eens uitleggen:
http://www.ati.com/developer/gdc/GDC2003-DisplacementMappingNotes.pdf
http://www.tweakers.be/reviews/314/3
Na de cancel van verschillende chips van Nvidia ben ik benieuwd welke er uiteindelijk in zal worden gestopt
Misschien is die cancel wel een gevolg van deze deal; ik kan me voorstellen dat nvdia nog wel wat werk heeft om die gpu's te ontwerpen of aan te passen, zelfs al zouden ze vertrekken vanuit een bestaand ontwerp. De playstation zal immers niet zomaar een pc-gebaseerde console zijn, al is het alleen maar al door het gebruik van de cell-cpu.
zo dus het word net als met computers weer een concurentiestrijd tussen ATI en Nvidea maar hier heet het dan XBOX 2 EN PS 3
Vergeet je niet 1 console?

De Nintendo Revolution. Die maakt nu al gebruik van een ATI chip en gaat dat met de Revolution ook doen.

Die contracten waren al eerder afgesloten als die voor de Xbox2.
Moet NVidia wel wat aan hun tv-out-kwaliteit gaan doen. ;)
Niet lullig bedoelt, maar de TV-out van Nvidia is hier anders hartstikke goed. Heb nu een 6800GT, maar mijn vorige 9600XT was qua TV-out een stuk brakker.
Ligt gewoon aan het merk videokaart.

De kwaliteit van de tv-out wordt niet door de gpu bepaald.
Maar ooit had het reference design van Nvidia gewoon een hele slechte tv-out. (Was bij GF4 het geval IIRC). Het ATI reference design had wel een goede tv-out. Zelfde verhaal voor de ramdacs.
Gevolg was dat bijna alle GF4 kaarten een mindere kwaliteit beeld hadden dan bijna alle ATI kaarten.

Maar IIRC was er één merk dat wel GF4 kaarten had met uitstekende tv-out en vga kwaliteit. Was dat niet leadtek?

Ben overigens wel benieuwd wel merk 9600 een mindere tv-out had.

Aan de andere kant zullen veel mensen zich ook niet realiseren dat er een gigantisch verschil is, of je je tv aansluit met composite of s-video. (S-video is veel en veel beter)
Dat verschil is meestal groter dan het verschil in kwaliteit tussen de ene of andere videokaart.
De kwaliteit van je TV-Out scheelt ook een stuk als je echte kabels koopt niet van die goedkopen 10 euro voor 10 meter kabels

en wat heeft TV-Out ooit te maken met de console zelf
Kwaliteit van de kabels maakt bijna niet uit.
Of je s-video of composite gebruikt maakt wel heel veel uit.

Een s-video aansluiting met el-cheapo kabels is nog steeds vele malen beter dan composite met hele dure kabels.

Maar een duurdere s-video kabel levert geen zichtbaar beter beeld op.
(Getest met kabel van 10 meter lengte op m'n beamer)
Ik vind de composiet van mijn G400 er anders beter uitzien dan de s-video van mijn 9800 Pro... |:(

maar de RGB van mijn G400 ziet er nog 10 maal zo strak uit...
Dan is er echt iets gigantisch mis met de s-video uitgang van jouw 9800 Pro of de s-video ingang op je tv/projector.

In de praktijk komt RGB namelijk ongeveer overeen met component. En Component is maar een klein beetje beter dan s-video. En dan is er een gigantisch gat met composiet.

Dat je RGB er 10 maal zo strak uitziet als composiet klopt dus wel. Dat is ook ongeveer het verschil wat je tussen s-video en composiet zou moeten zien.
Waarschijnlijk sluit je je console aan op een TV en is het daarom alles bepalend voor het beeld.
De TV-Out van de FX5200Go in mijn laptop is beter dan alles wat ik ooit gezien heb en anders kun je met TVTool een hoop bereiken. Snap niet dat mensen roepen dat de TV-out van NVidia zo slecht is.. zo veel beter is die van ATi echt niet.
Het artikel zegt alleen maar dat nVidia de GPU gaat maken.
GPU=Graphics Processing Unit
en heeft dus niet zoveel te maken met het digitale signaal omzetten in een analoog signaal, dit wordt door de ramdac gedaan.
okay.... maar hoezo? Ze hebben toch ook een prima gpu voor de xbox gemaakt
Maniacshouse heeft gelijk. De tv-out kwaliteit van ati is vanoudsher altijd beter geweest dan die van Nvidia. Maar van de andere kant: Sony gaat de gpu samen met Nvidia ontwikkelen en Sony weet ook wel iets van televisies af, dus dat zal wel goedkomen.
verbazingwekkend hoe iets uit het verleden nog jaren daarna als feit gebracht wordt terwijl het al lang achterhaald is.
Idd. Ik heb zelf een xbox. En zijn output naar tv is stukke beter dan wat ik ooit op pc gezien heb (ati en nvidia).
Dus daar moet je je geen zorgen in maken.

Wel leuk dat nvidia nu sony als partner neemt, vermits xbox2 ATI gaat gebruiken :)
Het zijn echte rivalen. Laten we hopen dat matrox binnekort de gamecube2 gaat doen :)) Triple head gaming
het is zorgen over maken niet in

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True