(ook @sygys hierboven)
Ik wil niet lullig doen maar mensen zijn altijd veel te positief over dit soort dingen. Onze hersenen zijn niet goed in staat in te schatten hoeveel graphics je eigenlijk krijg voor hoeveel GPU power.
Dat zag je laatst nog met de aankoniging en vervolgens gameplaytrailer van AC3.
Minstens de helft van de reacties op het eerste (duidelijk niet gemaakt op current gen specs) filmpje gaven aan dat dit de kwaliteit was die ze verwachten. Een paar dagen geleden kwam een gameplayfilmpje uit en de beelden waren bedroevend slechter dan het eerdere filmpje. Mensen schatten de gevolgen van goede graphics erg slecht in. Het probleem ontpopt zich exponentieel terwijl iedereen zou zweren dat het lineair was. Het is pas door je hoofd een paar keer te stoten dat je gaat beseffen dat het bakken met data kost om een hele game in de kwaliteit te maken die wij verwachten.
Dat de engine real-time draait vertelt je nog niet op wat voor hardware. Als ze nu een kleine renderfarm nodig hebben om op spec te komen dan zul je dat niet snel de komende tijd in je pc of console vinden.
Echt, het enige dat ze hier zeggen is dat hun engine bestaat en draait. Maar door dit filmpje hebben we geen enkel idee op welke hardware deze demo zou kunnen draaien.
Je kan inderdaad een hele hoop procedureel genereren, maar een hoop zal toch echt uit data moeten komen.
Ik zag bv niet het bekende 'model steekt door grond/muur' wat zou inhouden dat alle animaties voorgebakken zijn en gestreamd worden. Geen real time gerigde IKs. Allemaal voorgeanimeerd en van tevoren perfect in elkaar gelijmd. Ook de physics zijn te subliem. Perfecte cloth simulaties, hordes aan vliegjes en niks dat door andere objecten steekt. Betekent dat de physics op een veel hogere resolutie worden berekend en dat die animatie in zn geheel gestreamd wordt. Real time in die hoeveelheid uitrekenen heb je werkelijk een serverpark voor nodig.
En motion blur ziet er ook niet erg gefaked uit wat me zelfs doet denken dat dit gewoon een gerenderd filmpje is en helemaal niet real time is.
Square-Enix (en een hoop andere devs) hebben wel vaker productierenders voorgedaan als console graphics. Dit keer zeggen ze niet dat het op een console draait maar alleen dat het real-time draait. tja. ik heb geleerd dat met een schep zout tot me te nemen.
Kijk anders even wat Rage ervan bakt en hoeveel je overhoudt als je alles een beetje van eigen texture wilt voorzien.
Rage gebruikt nu zon 20GB aan data.
Er was een hoop gezeur over de kwaliteit van textures van dichtbij (super-lage resolutie en vol met zware jpeg artifacts) en id gaf aan dat ze voor de pc mischien wel de 200GB texture-pack gingen uitbrengen.
Wat bleek, id wist ons te vertellen dat die kwaliteit helemaal niet in hun oorspronkelijke (1.5T ofzo) textureset aanwezig was en dat ze eigenlijk geen betere versie van de textures konden produceren.
Verder zal ook de bitdepth van textures moeten toenemen om dit soort kwaliteit te tonen.
8 of 4 bits textures zijn vrij gangbaar maar eigenlijk niet geschikt voor zaken als HDR en ongeschikt om dit filmpje te produceren.
Ik zag in di t filmpje dus hires textures die niet erg gecompressed waren in een HDR omgeving en met hi-puly modellen. Dat is aan alle kanten een spectaculaire verbetering van de huidige generatie en graphics zijn nog nooit in 1 klap op zoveel punten spectaculair verbeterd.
Als je echt een vergelijking wilt maken, kijk even naar de graphics in de gameplay video's van Assasins Creed 3 en hou dit filmpje ernaast en bedenk dan of je in 1 generatiestap van de 1 naar de ander kan gaan.
Edit:
Als aanvulling, ik zie net dat die engine heftig gekoppeld zit aan Maya. Als dat niet ruikt naar renderfarms dan weet ik het niet
[Reactie gewijzigd door koelpasta op 25 juli 2024 05:48]