Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties

Uitgever Rockstar wilde Grand Theft Auto IV oorspronkelijk in oktober 2007 uitbrengen, maar moest de release uitstellen tot 29 april door problemen met de Playstation 3.

Logo Grand Theft Auto IVIn een interview met MTV liet Jeronimo Barrera, hoofd ontwikkeling bij Rockstar, weten dat de problemen bij de ontwikkeling van Grand Theft Auto IV voornamelijk veroorzaakt werden door de versie voor de Playstation 3: "Het zal niemand verbazen dat de PS3 een grote bijdrage geleverd heeft aan de vertraging."

Door het uitstel kunnen de versie voor de Playstation 3 en Xbox 360 wel tegelijkertijd verschijnen. Volgens Barrera zijn beide versies identiek, hoewel bij de versie voor de Xbox 360 niets naar de harde schijf gekopieerd hoeft te worden. De versie voor de pc zal later uitkomen, maar een datum daarvoor heeft Rockstar nog niet bekendgemaakt.

Het is niet de eerste keer dat de Playstation 3 verantwoordelijk wordt gehouden voor uitstel van een game. Er zijn diverse ontwikkelaars die problemen hebben met de console van Sony. Met de nieuwe Cell-processor en het beperkte beschikbare werkgeheugen wijkt de PS3 af van wat ontwikkelaars van pc en Xbox 360 gewend zijn. Eerder deze week maakte ontwikkelaar Kaos Studios zelfs bekend dat het om vergelijkbare redenen hun schietspel Frontlines: Fuel of War heeft gecanceld. De versies voor pc en Xbox 360 verschijnen zoals gepland in februari 2008.

Moderatie-faq Wijzig weergave

Reacties (90)

@BerendHogenEsch : De PS3 heeft dezelfde hoeveelheid geheugen als de XBOX360. nl 512Mb. Echter bij de PS3 is het opgedeeld

videogeheugen: 256 MB GDDR3 RAM
intern geheugen: 256 MB XDR RAM

Dat meerdere ontwikkelaars moeite hebben zal toch echt aan hun liggen. Kroas (Frontlines) geeft aan dat de Unreal Engine het probleem is. Wel vreemd aangezien UTIII al uit is in de US en goed loopt op de PS3. Dat dat ontwikkelaars de hand in eigen boezem moeten steken. Kijk naar Infinity Ward / Criterion etc.. Zij leveren identieke versies af.
Gampro interview met Unreal Tournament 3 producer Jeff Morris on PlayStation 3 performance:

GamePro: Unreal Tournament 3 is clearly one of the best-looking PS3 games, and your Unreal 3.0 tech is fairly new. What's the secret for developing on the PS3? Many other studios struggle with PS3 development.

Jeff Morris: Memory optimization and technological optimization are the biggest hurdles, particularly if you're coming from a PC environment. [For a console game], think of a huge slider where we [the programmers] have to make decisions for visuals versus frame rate trade-offs. On the PC, those choices are left up to the individual.

GamePro: Could you speak more about the process of memory optimization for the PS3? Strictly from a layperson's perspective.

JM: Well, the texture for a vehicle includes many different texture maps, each with their own unique detail. One of those is the "diffuse texture," which is basically a checkerboard. There is also a "specular texture," which includes the way light catches on the object, such as crinkles on a bottle. You overlay the specular over the diffuser. [To optimize for the PS3,] we say, "I bet we could combine the diffuse and the specular textures into one texture," which can [halve the memory requirements]. We look at them and put them side by side and there is almost no difference; you just can't tell in game play. Our optimization philosophy is "optimization at no visual degradation." We can also do things like reduce the polygon count of an object to one-tenth, and you can't tell the difference.

Another advantage was having the Gears of War guys come over; they knew where good memory trade-offs could be made. The PS3 has two memory chunks, one for texture detail and one for geometry complexity, so...we can't share those pools like you can on the Xbox 360. So there were two stages; get memory in line and then get geometry in line. Once we accomplished those, the optimizations rolled back into a faster PC experience [when played] on a lower-end machine.

GamePro: Interesting. So the PS3 really is closer to a PC's setup, with separate RAM pools for graphics and system memory...

JM: ...Exactly. It reminds me of old DOS memory management. You know, "I wish I could get that one kilobyte out of the texture memory and put it into the geometry memory instead."

de rest is hier te lezen

[Reactie gewijzigd door Sneaky Snake op 25 januari 2008 21:54]

Misschien een domme vraag, maar waarom niet de XBOX 360 versie alvast uitbrengen? Waarom moet dat tegelijk?
In het volledige interview staat dat de PS3 heeft bijgedragen tot de vertraging (en dus niet de enige oorzaak is) en dat de devs deze tijd ook wilden om het spel sterker te maken. Daarnaast is in vorige interviews ook al aangegeven dat zowel de PS3 als de 360 hun eigen uitdagingen meebrachten voor de developers.
Mja al zijn dat soort uitspraken meestal politiek correct om geen problemen te krijgen met zowel Sony als Microsoft.
ja, maar zodoende hebben de schrijvers van het artikel (en wij de lezers) natuurlijk nooit genoeg informatie om correcte mening te kunnen vormen.

Er zit een enorme bias in dit verhaal, maar daar lijken de gemiddelde gamers geen moeite mee te hebben; die slikken het toch wel.
Ik meen me te herinneren dat het toch in het begin de 360 was die problemen gaf. Die word nu ineens niet meer genoemd.
nieuws: Rockstar heeft problemen met multiplatform-ontwikkeling
Contractuele verplichtingen. Dit spel verkoopt consoles en als er 1 eerder uitkomt dan de ander zullen de mensen die (mede) vanwege dit spel overstappen op een next-gen console voor die console kiezen.
De kosten van de marketing-campagne kan een reden zijn, als ze nu beginnen met reclame te maken voor XBOX, en later diezelfde campagne opnieuw moeten starten om de mensen met een ps3 dat spel aan te smeren, betalen ze dubbel... Het is misschien maar een kleine kost maar het maakt misschien mee iets uit. Daar hoort ook bij maar n release party, alle reviews die tegelijk verschijnen etc...
Waarschijnlijk staat er zo'n clausule in het contract met Sony, dat ze tegelijk uit moeten komen ofzo..
Ik snap niet van Sony dan waarom ze minder geheugen hebben gebruikt. Als de console daardoor $20 duurder wordt ligt Sony toch niet wakker van? Na een jaar kan de console toch veel goedkoper gemaakt worden.

Hadden ze dat gedaan dan waren alle spellen makkelijker te maken voor de 360 als de PS3.

Nu zit er een blu-ray speler in die niet gebruikt wordt bij grote games, want ze zitten aan de dvd capaciteit van 360 vast.

Was wel vet geweest als alle ingame cutscenes van GTA4 op 1080p pixar kwaliteit was gemaakt.
Dat maakt een nextgen spel af vind ik.
Sony heeft gekozen voor XDR geheugen, wat veel sneller is, maar ook duurder. Het is inderdaad jammer dat het maar 256MB is maar er is tot nu toe maar een ontwikkelaar geweest die hier echt problemen mee heeft gehad, en dat is bij assassins creed. Het echte probleem ligt waarschijnlijk bij de cell die gewoon wat lastiger is, hoewel dat waarschijnlijk komt doordat deze nieuw is. Wat ik alleen niet snap is dat de dev's dat niet hebben zien aankomen. Calculeer dan gewoon wat extra tijd voor je PS3 versie

En daarbij je zegt $20 euro duurder.........doe dat eens voor de ongeveer 9 miljoen PS3's die nu zijn verkocht :P $180.000.000 is best veel geld

[Reactie gewijzigd door Markofnikoff op 25 januari 2008 15:41]

Een mogelijke reden dat de XBOX 360 meer geheugen heeft zit hem mogelijk in het feit dat een ontwikkelaar er niet vanuit kan gaan dat er een harddisk in zit. Bij de PS3 is dat echter wel het geval. Optische media zijn erg traag en de 360 zal dan ook zoveel mogelijk in z'n geheugen proppen om zo weinig mogelijk gebruik te hoeven maken van de DVD. De PS3 heeft echter de mogelijkheid om tijdelijk zaken op de hard disk op te slaan welke flink sneller is dan een optisch medium, echter bij lange na niet zo snel als intern geheugen (en zeker niet XDR). Sony ging er dan waarschijnlijk vanuit dat men dus met minder intern geheugen afkon. Dit bespaart nu misschien niet zo heel veel vanwege de gedaalde geheugen prijzen maar in de tijd van de launch (en de maanden van productie die hier aan vooraf gingen) was geheugen relatief duur.

Als je verwacht enkele miljoenen units te verkopen en je maakt reeds behoorlijk verlies bij de verkoop van elke unit zul je elke stuiver 3x omdraaien en zal je bepaalde afwegingen en aannames maken welke misschien later niet altijd in je voordeel uitpakken. Maar als je bijvoorbeeld $45 weet te besparen bij aanvang en je verwacht in het eerste jaar (voordat de gereduceerde kosten van hardware daadwerkelijk gaan tellen) 8 miljoen units te verkopen is dat (als je dat uitzet tegen de winst cijfers van de Microsoft Entertainment and Devices Division) een verschil van of 357 miljoen winst of 3 miljoen verlies.
De xbox360 heeft helemaal niet meer geheugen.. beide consoles hebben 512MB geheugen.. alleen is het bij de PS3 verdeeld in 2 stukken een snel stuk geheugen (vele malen sneller als het geheugen van de xbox360), en een traag stuk geheugen (even snel als het geheugen van de xbox360), het is dan ook een kwestie van het geheugen op een goed moment gebruiken, en dat is nu eenmaal heel erg ingewikkeld..
Ik ben mee eens dat juist dat weinig geheugen een slechte keuze was, beide consoles hadden gewoon minimaal 1GB geheugen moeten hebben.. dan was het op beide consoles makkelijker geweest om te programmeren.. Maar goed, zowel sony als MS hadden blijkbaar niet gedacht dat geheugen zo snel zou zakken in prijs ofzo.. wat ik zelf eigenlijk anders ook niet begrijp is waarom er niet iets dergelijks als een geheugen slot gebruikt was zodat in de toekomst meer geheugen erbij geprikt kon worden.. Het is niet alsof we inmiddels gewend zijn dat je op de verpakking van een spel moet kijken wat minimaal benodigd is..
@zwembroek: Volgens mij heeft de PS3 'maar' 256MB geheugen en de Xbox 360 het dubbele. Als je een game ontwikkeld en bij platform a de helft van het geheugen hebt, zit je toch met beperkingen. Tevens hebben meerdere ontwikkelaars laten weten moeite te hebben met de PS3. Dus zo bagger is dit artikel niet.

Frontlines is tevens gecancelled inmiddels en zal dus niet meer verschijnen voor de PS3.

[Reactie gewijzigd door BerendHogenEsch op 25 januari 2008 15:28]

PS3 heeft 256mb werkgeheugen en 256mb videogeheugen. Snel en 'normale snelheid'. De 360 heeft 512mb gedeeld geheugen wat net zo snel is als het normale geheugen in de PS3.
Het 'probleem' voor de PS3 is dus dat je videogeheugen en werkgeheugen appart moet toewijzen. Dit is volgens mij niets anders dan dat het er al jaren aan toe gaat. De 360 is de uitzondering met een gedeeld geheugen.
Zoals hierboven ook al genoemd is het XDR werkgeheugen van de PS3 veel sneller (en duurder) dan het DDR3 van de 360. Het probleem ligt hem erin dat ontwikkelaars beide platformen op dezelfde manier proberen aan te pakken. Waarbij de klassiekere architectuur van de 360 nou eenmaal eerder de voorkeur krijgt.
Je kan dus niet simpelweg de 256MB tegenover de 512MB zetten.
Ja de Xdoos heeft idd 512MB maar dat is shared tussen main en grafisch :)
Het is niet de eerste keer dat de Playstation 3 verantwoordelijk wordt gehouden voor uitstel van een game
Ik denk eerder dat de Playstation 3 de oorzaak van de vertraging is, maar dat de developers daar zelf voor verantwoordelijk zijn. De PS3 is gewoon nieuw en zeker door de Cell-proc zijn er een hoop zaken veranderd.

Het is iig prima dat ze de spelen niet afraffelen om de deadline maar te halen. Beetje zuur voor de andere consoles, maar het overschot in tijd voor de 360 zal ongetwijfeld ook voor de 360 variant nog voordelen op hebben geleverd.
Misschien ken je uit het dos tijdperk nog de 'demo' programma's. Dat waren programma's van enkele KB's die flink wat grafisch geweld op het scherm wist te toveren. Geluid bleef meestal niet achter.

Echter veel developers (zeker Windows en Xbox programmeurs) zijn niet gewend om aan echt resource management te doen. Voor de PS3 moet je gewoon goede code (lees: geoptimaliseerde) schrijven. Objecten niet langer in het geheugen houden dan nodig, etc.

Daarnaast heeft de PS3 door de geheel nieuwe architectuur uiteraard ook een andere instructie set van de PS2, terwijl de XBOX 360 een update van de oude XBOX is.
Sorry hoor maar wat een onzin. Gamedevelopers niet gewend aan resource management? Waar haal je dat in hemelsnaam vandaan? Puur eigen ervaring met een paar rotte PC games die je gespeeld hebt ofzo? Je opmerking is net zo zinnig als zeggen dat alle kale mannen homo zijn.

Over het algemeen is de tendens juist anders: gamedevelopers hebben veel meer hands-on experience met de hardware dan een gemiddelde applicatieprogrammeur. Natuurlijk zijn er minder getalendeerde gamedevelopers, en natuurlijk zijn er app-coders die wl van wanten weten.

Voor lk platform moet je "goede" code schrijven. Het probleem is echter niet zozeer dat voor de PS3 meer geoptimaliseerd moet worden, het probleem is dat er een verschuiving zit in het standaard paradigima om de CPU efficient aan het werk te zetten. Je moet je code opdelen in kleine subtaakjes die parallel uitgevoerd moeten worden, en daarbij moet je ook nog enorm opletten welke data je gebruikt omdat je hoeveelheid werkgeheugen (256kb per SPU, waar ook nog eens je code in staat) gelimiteerd is. Daarnaast is de RSX, de GPU van de PS3, niet bepaald een fijn ding om mee te werken. De vertex processing is traag, en pixelshaders moet je continu bijpatchen om je constanten in te stellen.

En de 360 een update van de Xbox 1? Laat me niet lachen. Het hele platform is anders. In de Xbox 1 zat nog een Pentium 3, in de 360 zitten 3 (hyperthreaded) PPC cores (in de PS3, gamecube en de Wii zitten trouwens ook PPC processors). De Xenos, de GPU van de 360, is een juweeltje met z'n eDRAM en z'n positie in de architectuur (de MMU zit op de GPU, waardoor hij tussen de CPU en het werkgeheugen in zit). Het nadeel is dan wel weer dat de hoeveelheid eDRAM gelimiteerd is (10 MB), waardoor je het beeld op moet delen in stukjes om in HD resouties met FSAA te kunnen renderen (wat dan weer makkelijk gemaakt wordt door predicated tiling).

[Reactie gewijzigd door .oisyn op 25 januari 2008 16:15]

Hmm ik dacht dat die 256kb cache per SPU juist erg handig waren voor het stroomlijnen van je 'subtaken'?
En die de CPU van de xdoos is toch eigenlijk een update van de CPU uit de powerMac's (of hoe heten die dingen ook al weer?) dus zo nieuw is dat ook weer niet. maar goed ik kan me vergissen hoor :P
De Xenos is inderdaad erg mooi gedaan, praktisch gratis AA......
Ik zeg niet dat die 256k per definitie een slecht iets is :). Je weet dat als je daaruit leest dat het altijd 2 cycles (dacht ik) kost en dat je dus nooit stalls hebt. Maar het is dan wel weer erg lastig om grote datastructuren goed accessible te maken voor de SPU zonder dat je steeds op de DMA transfers zit te wachten.

En ik zeg niet dat de PPC nieuw is, alleen dat het niet "gewoon" een update is van de eerste Xbox. Wat dat betreft is het juist fijn dat alle gangbare consoles tegenwoordig min of meer dezelfde CPU hebben :).
Klopt ja. Ze zijn alleen wel aangepast. Zo heeft de Xbox 6 cores in totaal en een zooi extra instructies. De PS3 heeft maar 1 core, maar daarnaast dus een zooi SPE's. De cores in de Xbox kunnen wel meer dan die ene in de PS3, dat wel. IBM heeft voor zowel de xbox als ps3 een andere versie gemaakt.
Dat ik een voorbeeld noem (PC) wil nog niet zeggen dat ik andere voorbeelden uitsluit (consoles). Dus ik snap niet goed welke case je nou probeert te resten eigenlijk ;)
Ik treed .oisyn hier bij, het moet eens gedaan zijn om game programmeurs af te schilderen als luiaards die kwistig met resources omspringen.

De vergelijking met demo's slaat ook helemaal nergens op, de opzet daarvan verschilt radicaal. Alleen al wat de gebruikte textures, geluiden, modellen etc betreft, zowat alle content in demo's is procedureel opgebouwd, game content quasi nooit. Dat heeft absoluut niets met optimalisatie te maken.
De vergelijking met demo's is idd appels met peren. Al is het alleen maar omdat veel van die lui die toen aan demo's werkten nu in de gamedevelopment zitten :). Demo's zijn echt luttele projectjes in vergelijking met een hele game. In een demo zit niet +/- 80 manjaren aan programmeerwerk, en daarnaast doet een demo alleen een specialistische taak (rendering), terwijl een game nog vele andere dingen doet (physics, AI, disk access, etc.)
De vergelijking met demo's slaat ook helemaal nergens op, de opzet daarvan verschilt radicaal. Alleen al wat de gebruikte textures, geluiden, modellen etc betreft, zowat alle content in demo's is procedureel opgebouwd, game content quasi nooit. Dat heeft absoluut niets met optimalisatie te maken.
OK, ander voorbeeld. Neem de twee nieuwste spellen van Introversion. Denk vooral aan Darwinia. Als je ziet hoe weinig resources ze hebben gebruikt voor dat spel... dat is gewoon geniaal en laat toch wel een goed voorbeeld van optimalisatie zien. Nu hoef je als spelontwikkelaar niet zo extreem te gaan als Darwinia, maar het hoeft ook weer niet zo erg te worden zoals Battlefield 2142 (het ziet er redelijk mooi uit, maar vreet VEELS te veel resources). Laten we het maar even niet over Crysis hebben. :X
De nieuwe XBox heeft ook een andere architectuur. x86 -> Power. Pixel/vertex -> unified shaders.

Dat Microsoft de SDK aan de kant van de programmeur grotendeels hetzelfde heeft gehouden, is duidelijk een hele goeie zet geweest.
Ik stem op Niemand_Anders voor lead PS3 Development !!!
Hij heeft wel eens een "demo-programma" gezien in het dos-tijdperk !!

Laat het maar aan hem over om de huidige gamedevelopers te vertellen hoe ze snelle code moeten schrijven hoor !

:')
Mwah op zich is het niets nieuws, ontwikkelaars krijgen van bovenaf een deadline opgesteld en vervolgens komt men tot de conclusie dat deze niet haalbaar is door hun en die vertellen vervolgens de managers waar het aan ligt. En richting de buitenwereld klinkt het dan zeer aannemelijk dat inderdaad de PS3 ondanks al meer dan 2,5 jaar eraan te ontwikkelen een moeilijk apparaat blijft.
Vergis je niet, de PS3 is nog nieuw en instructies voor de Cell-processor schrijven schijnt ook geen kattepis te zijn, laat staan iets waar ze (game-developers) ervaring mee hebben.
Gelukkig heeft Sony eindelijk in de gaten wat Microsoft allang snapt: het gaat allemaal om de ontwikkeltools. En dus helpt Sony actief mee bij devs met problemen en staan er een flink aantal goede tools aan te komen. Met een beetje geluk wordt 2008 cht het jaar van de PS3 en zijn berichten zoals dit verleden tijd.

(Overigens ben ik de trotse bezitter van een 360; ik zou gewoon graag zien dat de games op de PS3 eruit halen wat erin zit. Ik zou graag zien dat Microsoft meer concurrentie heeft dan die veredelde Gamecube (jaja, de gameplay, het gaat om de gameplay. Alleen wel jammer dat zelfs de demopods van de Wii blokkerig en vaag beeld geven...)
Ontopic: Ik ben het half met je eens dat Sony in de gaten heeft dat ontwikkeltools belangrijk zijn. Het jammere namelijk is dat Sony dat al wist toen ze hun PS1 uitbrachten. Toen werden ze er om geroemd. Maar ze zijn het blijkbaar 'vergeten' ergens ten tijde van de PS2 of zo...

De PS3 is in mijn ogen een overambitieus project van Sony waarbij ze een aantal grote fouten hebben gemaakt:
* Te veel gefocused op specs van hun machine tegenover die van MS en daarbij teveel gezocht naar exotische oplossingen (zo mag je de cell toch wel noemen denk ik)
* Te hoog prijspunt en te snelle daling. Doordat ze overambitieus waren moesten ze een te hoge prijs vragen die ze vervolgens te snel lieten dalen. Ze hadden moeten introduceren op 500 en hij zou nu op 450 moeten staan. Of nog liever, minder ambitieus en intro voor 350 en dan zakken naar 299...
* PS3 'opgeofferd' aan BluRay terwijl dat een riskante gok was en de electronics divisie een heel belangrijk onderdeel daarin. Gelukkig lijkt dat nu goed uit te pakken.

Gelukkig lijkt het tij een beetje te keren voor de PS3, maar de vraag is of ze het nog gaan zo lang gaan redden met de PS3 als nodig is om er uiteindelijk ook goede winst te gaan maken. Sony kan wel zeggen dat de PS3 7 jaar mee moet, maar als Nintendo over drie jaar de Wiii uitbrengt die dan de PS3 ruim verslaat, wat dan? Kan Sony het zich dan veroorloven om nog twee jaar te wachten met uitbrengen van de PS4 ?
*De cell is gewoon een hele goeie processor, en nieuwe soort processors zijn nu eenmaal in het begin wat lastig onder de knie te krijgen. Het is helemaal geen exotische oplossing zoals jij die noemt..
*Te hoge prijs? onzin.. blijkbaar zijn er genoeg mensen die 600 euro bij intro niet te hoog vonden.. let wel, een vergelijkbare xbox360 was net zo duur.. en te snelle prijsdaling? dat heeft gewoon alles te maken met de productiekosten, ze konden ineens een stuk goedkoper gemaakt worden. en dat zal alleen maar nog goedkoper worden (zoals vanaf maandag zal de 40GB versie nog $299 zijn in de VS)..
*Opgeofferd? zo riskant was het nou ook weer niet, wetende dat er behoorlijk wat grote electronicabedrijven achter BD zitten, en ook voor games is de BD een grote pluspunt.. En zoals je zelf al zegt, uiteindelijk heeft het goed uitgepakt.. (Nieuwe hardware in de markt zetten is altijd een gok)

Nee, de enige grote fout die ze gemaakt hebben is met het geheugen.. ze hadden minstens nog 256MB extra erin moeten proppen, zeker met de huidige geheugen prijzen (let wel chips zijn goedkoper als de modules die jij en ik moeten kopen), dus voor een paar euro meer hadden ze (programmeurs) totaal geen problemen meer gehad.. dat is IMHO het enige wat ze echt fout hebben gedaan..

Dat de PS3 nog 8 jaar mee moet, zegt helemaal niets over het niet eerder introduceren van een nieuwe PS4.. kijk maar naar de PS2, die doet het nu nog steeds erg goed, en zal voorlopig nog wel blijven..

[Reactie gewijzigd door SuperDre op 25 januari 2008 21:22]

Grappig dat je praat alsof je zelf ervaring hebt met programeren voor de Cell. Als je wat nieuws op de markt brengt en de doel is gamen, dan lijkt het mij verstandig om ook tools en kennis de markt in te sturen zodat developers niet nogmaals het wiel hoeven uit te vinden, zeker niet als er een andere console in het veld is waar deze tools wel voor zijn. Sony dacht mijn inziens met de PS3 wel even te winnen op naam, nu zien ze dat het dit keer lastiger wordt dan ooit, en komen ze eindelijk met ondersteuning voor hun machine.

Gezien de eerste verkopen van de PS3 niet echt waren wat Sony verwacht had lijkt me 600 euro/dollar toch wel redelijk te hoog gegrepen, het is ook niet voor niets dat hij al snel zakte in prijs. Overigens is de Xbox 360 nooit 600 euro geweest, maar goed. Dat de prijs snel werd verlaagd lijkt me dan ook niets te maken te hebben met productiekosten, die komen nu pas om de hoek kijken.

Blu-ray was een gok, je kan er niet omheen. Blu-ray was duur, het duurde langer voordat de PS3 op de markt kon komen en het formaat had zich nog niet bewezen. Tegenwoordig lijkt het een goede keus geweest door het voordeel van blu-ray met de filmmaatschapijen op dit moment, maar het is echt onzin om te stellen dat blu-ray van grote invloed is op de kwaliteit van de spellen.

Om de problemen van de developers af te schuiven op een extra 256MB lijkt me een beetje makkelijk gezegd. Rockstar lijkt mij een developer die ervaren genoeg is om een game niet om 256MB ram tekort uit te stellen, het is blijkbaar structureel moeilijker om een titel te maken voor de PS3, ingewikkelde technologie, minder goede development tools etc. Microsoft heeft hier echt in geinvesteerd met XNA en dat heeft zoals we kunnen zien vruchten afgeworpen.
Vind je het gek dat die demopods een blokkerig beeld geven? Komt omdat het meestal filmpjes zijn en als die dan ook nog een divx of mpeg codec gebruiken, tja.... dan kun je blokjes zien he. |:(
Ja ik vind het wel gek eigenlijk. Ik kan me voorstellen dat het vrij duur is om HD kwaliteit te laten zien en dat ze dat daarom niet doen, maar waarom gebruiken ze geen DVD kwaliteit?

En waarom speelt een Wii geen DVD's af eigenlijk?
1. Er komt een Wii uit met mogelijkheid tot afspelen DVD's.

2. De meeste mensen hebben ondertussen reeds een DVD speler, DVD brander, andere console die het wel kan (PS2 is meest waarschijnlijke),.... En dus is er niet direct nood aan een 2de/3de/4de/... dvd speler in huis.
Volgens mij mest Sony ook wel omdat zoveel ontwikkelaars problemen hebben bij het ontwikkelen voor de PS3 die ze -blijkbaar- bij de andere consoles niet hebben. Volgens mij was er enige tijd geleden een artikeltje over Sony die developers extra hulp ging bieden. Goed dat ze nu wel goede support bieden natuurlijk, maar ik kan me niet voorstellen dat het goed is voor de PS3.

Ik hoop dat ze uiteindelijk over deze problemen heenkomen, want ik ben wel benieuwd wat een PS3 kan doen als het onderste uit de kan gehaald wordt.
De hoeveelheid geheugen die je op een SPU direct aan kunt spreken is ook nogal beperkt (256 kb), en daar moet je code ook nog eens in staan. Je kunt dan wel data mbv DMA van en naar main mem transferen, maar het is dus erg lastig om op die manier door grote datastructuren te navigeren. Iets wat vaak wel nodig is voor dingen als physics, visibility determination en AI.
De PS3 heeft net zoveel geheugen beschikbaar als de 360.
De PC heeft net zoals de PS3 geen gedeeld geheugen.
Iets klopt inderdaad niet in die quote :)
De XBOX360 heeft 512 shared memory en de PS3 256 RAM en 256 Video, das toch wel heel wat anders. Als je als ontwikkelaar nl. toevallig 100 voor RAM nodig hebt, dan heb je aanzienlijk meer videogeheugen en vice versa.
Op de PS3 kan het hele geheugen door zowel CPU/SPEs als GPU gebruikt worden. Dat de PS3 geen shared memory heeft, houdt het gebruik van beide memory-pools niet tegen. Je moet het via een omweg aanspreken, maar het voordeel is wel dat het videogeheugen van de PS3 veel sneller is dan dat van de Xbox 360.
Maar dankzij de nieuwe caching strategieen is het gebruik van virtueel geheugen vele malen minder ingrijpend (performance wise) dan op een pc of 360.
Tja, je kan wel zeggen dat het aan de ontwikkelaars ligt, maar het is natuurlijk stom van Sony om te veronderstellen dat iedereen zomaar even voor zo'n complexe architectuur kan programmeren, en misschien hebben ze zelf ook te laat ingezien dat de architectuur zich niet perfect leent voor spellen.

Veel programmeurs vinden meerdere threads programmeren al lastig, laat staan dat ze ervaring hebben met SPE's waarop je bepaalde instructies (jmp) maar beter niet kan doen! Het eerste bewijs dat deze zeer complexe architectuur meer in huis heeft dan de simpele X360 architectuur moet wat mij betreft nog geleverd worden, na 2 jaar!

Het is goed voor Sony dat ze Blu-Ray in de PS3 hebben...
"laat staan dat ze ervaring hebben met SPE's waarop je bepaalde instructies (jmp) maar beter niet kan doen!"

Heb je daar geen compiler voor? Of worden games in assembly geprogrammeerd?
Tja je hebt er wel een compiler voor, maar als jij in je SPE code veel if () / else() zet heeft de compiler ook weinig meer keus dan jmp instructies generen. Het zou me trouwens niet verbazen dat ze bepaalde stukken SPE-code in assembly programmeren, een goeie vectorizing compiler is volgens mij nog altijd een utopie...
No offense, maar mijn blaatmeter staat bij jouw reactie op springen :)

Ten eerste, ja natuurlijk weet je dat er anders "geprogrammeerd" moet worden. Maar het verschil in opzet is dermate anders dan traditionele multithreading, dat je van tevoren nog niet weet wat handig is en wat niet handig is. Dit moet uitgezocht worden, en dat kan alleen door te proberen. Als dingen tegen blijken te vallen duurt het langer dan gepland, of eigenlijk: het is lastig iets te plannen als je nog niet weet tegen welke problemen je aan gaat lopen. Het is niet voldoende om te weten dat het anders is, je moet weten wt er anders is, en daar kom je alleen tijdens development pas achter.

Daarnaast, de cell is niet degene die de graphics rendert, dat doet de RSX. Je kunt nog zo efficient van de CPU gebruik maken, als je content te gedetailleerd is of je gebruikt teveel effecten dan gaat je framerate gewoon omlaag. "Als er goed geprogrammeerd wordt" is dus veel en veel te kort door de bocht, zeker op de PS3 waar je in principe enorm veel CPU kracht hebt maar waarbij de GPU ondermaats presteert. Het blijft altijd een balans tussen de inzet van CPU, GPU en de daadwerkelijke content. Dan kun je nog zo'n goede programmeur zijn, in je eentje ben je niet verantwoordelijk voor die framerate.
Dan heeft ie toch nog steeds gelijk? Juist omdat het een onbekend systeem is waar dus anders voor geprogrammeerd moet worden moet je rekening houden met vertraging en dat hebben ze blijkbaar niet genoeg gedaan. Overigens kun je er wel vanuit gaan dat ze ook van Sony een hoop hulp krijgen want hoewel hij voor beide grote platformen gaat uitkomen (no offence tegen de Wii maar die kan dit gewoon niet aan), wil dat nog niet zeggen dat heel veel mensen voor deze game een console in huis halen.
Juist omdat het een onbekend systeem is waar dus anders voor geprogrammeerd moet worden moet je rekening houden met vertraging en dat hebben ze blijkbaar niet genoeg gedaan.
Wanneer is het dan wel genoeg? En als je dan nog meer tijd uitschrijft en denkt dat het dan wel genoeg is, wie zegt dan dat de problemen niet zo erg gaan zijn dat zelfs dat niet genoeg is? Het blijft natte vinger werk, en het is te kort door de bocht om te zeggen "dat ze daar maar rekening mee moeten houden". Geloof mij maar als ik zeg dat ze dat gewoon gedaan hebben, maar dat het allemaal gewoon erg tegenvalt. Ik zie dat ook dagelijks terug in mijn werk.

[Reactie gewijzigd door .oisyn op 25 januari 2008 16:59]

Uhm.. leuk feitje, maar de CELL doet tegenwoordig op de PS3 wel degelijk mee aan de rendering van de graphics... Er wordt zelfs geadviseerd om die mee te laten helpen..
Uhm... Je feitje klopt niet. Vooral hoe je het brengt: "tegenwoordig doet hij mee". Hoezo doet hij tegenwoordig mee? Gaat dat automatisch? Hebben oudere spellen daar ook ineens baat bij dan? Nee :). Je hebt het waarschijnlijk over de Edge library, die een hoop real-time preprocessing doet zodat de vertex shader z'n werk beter kan doen. Dat zou je rendering kunnen noemen, maar is visible surface determination dan bijvoorbeeld ook "meehelpen aan rendering"? Dat werd van oudsher al op de CPU gedaan. En natuurlijk kun je er als programmeur altijd voor kiezen om bepaalde dingen door de Cell af te laten handelen - denk bijvoorbeeld aan ripples in wateroppervlakken. Maar hij zal niet automatisch meedoen om het werk van de GPU te verlichten - dit zal je dan zo moeten programmeren.

[Reactie gewijzigd door .oisyn op 28 januari 2008 00:55]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True