Pc-versie Ratchet & Clank: Rift Apart vereist door DirectStorage 1.2 geen ssd

Ratchet & Clank: Rift Apart wordt de eerste game die ondersteuning biedt voor Microsofts DirectStorage 1.2-api met gpu-decompressie. Hiermee is het spel speelbaar op een interne harde schijf en is er dus geen ssd vereist.

Dat blijkt uit een blogpost van Nixxes en Insomniac die inmiddels offline is gehaald, schrijft Wccftech. Met deze techniek kan asset decompression uitgevoerd worden door de gpu in plaats van de cpu. Dat moet het voor NVMe-ssd's mogelijk maken om textures en omgevingen van hoge kwaliteit sneller in te laden. Hoewel de techniek voornamelijk bedoeld is voor deze snelle ssd's, kan deze vanaf de 1.2-update ook de laadsnelheden bij traditionele harde schijven verhogen.

Hierdoor kan Ratchet & Clank: Rift Apart met de minimale vereiste instellingen gespeeld worden via een hdd, blijkt uit de specificatiesheet. Er is minimaal 75GB aan hdd-opslagruimte vereist, al wordt een ssd wel nog aanbevolen. Op een hdd is het spel speelbaar met 30fps en een resolutie van 720p. Eerder zei Insomniac dat de game niet zou kunnen draaien op de PlayStation 4, aangezien deze een hdd in plaats van een ssd bevat, maar met DirectStorage 1.2 blijkt het dus toch mogelijk om het spel via een harde schijf te spelen, ware het niet met de laagste prestaties.

Verder is er minimaal een Nvidia GeForce RTX GTX 960- of AMD Radeon RX 470-gpu vereist en een Intel Core i3-8100- of AMD Ryzen 3 3100-processor. Voor de hoogste instellingen, 4K/60fps met raytracing, wordt minimaal een RTX 4080- of RX 7900 XTX-videokaart aanbevolen met een Core i7-12700K- of Ryzen 9 5900X-cpu. Nixxes en Insomniac raden daarbij wel aan dat spelers gebruikmaken van upscalingtechnieken zoals Nvidia DLSS.

Ratchet & Clank: Rift Apart verschijnt op 26 juli voor pc's. Eerder is het spel al uitgebracht op de PlayStation 5.

Ratchet & Clank: Rift Apart-specsheet

Door Kevin Krikhaar

Redacteur

15-07-2023 • 13:19

98

Reacties (98)

Sorteer op:

Weergave:

Tja, ik weet niet of ik dit artikel nu goed verwoord vind.
De game zal draaien op een HDD, maar dat is een voor 2023 standaarden, zeer lage resolutie en frame rate. Voor 1080p 60fps wat inmiddels echt wel het minimale is, komt de SSD vereiste al voorbij. Let ook op de instellingen die worden vermeld. Je gaat al van very low naar medium. In veel moderne games is medium vaak best te doen zonder al te veel verlies. Low en very low geven meestal aan dat je echt heel veel effecten en texture resolutie inlevert.

En dat is nu precies het punt van DirectStorage. Daarmee passeer je een steeds groter wordende bottleneck in gaming, data naar de GPU krijgen voor juist zaken zoals veel hogere kwaliteit en complexiteit aan textures, effecten zoals particle effects en zeker ook ray tracing. Een CPU is te langzaam in dergelijke assets uit te pakken, maar met DirectStorage gaan die assets in nog ingepakte vorm naar de GPU waar ze daar pas worden uitgepakt. Dat scheelt bandbreedte over de PCIe bus, dus ook meer data die verplaatst kan worden en een GPU doet het uitpakken ervan ook veel sneller.

Maar let wel op dat deze ontwikkeling ook impliceert dat de GPU zelf meer dataopslagcapaciteit nodig heeft voor de uitgepakte assets, meer VRAM dus. Iets om zeker in de gaten te gaan houden. Immers nu de CPU bottleneck om data naar GPU VRAM te krijgen, hiermee word geslecht, kan er zomaar een volgende sprong in VRAM capaciteit vereisten gaan volgen.

Onder de streep vermoed ik meer dat deze game ook op een HDD zal werken om de game aan meer mensen te kunnen verkopen. Veel mensen hebben immers nog steeds vrij oude videokaarten, mede omdat de GPU markt eigenlijk al vijf jaar vrij slecht is geweest, zeker in de lagere segmenten.

Maar de ervaring gaat denk ik niet goed zijn. Ik zie dit eigenlijk eerder als een aanstaand argument waarom veel gamers langzaam toch echt naar een NVME SSD moeten gaan en de consequenties hieruit moet trekken voor de rest van je gaming PC. Het is alleen iets dat veel mensen waarschijnlijk niet kunnen betalen vanwege onder andere de hoge prijzen van meer begeerde videokaarten die bijvoorbeeld meer dan 8GB aan VRAM hebben. :/

Daarbij gaat het ook nog interessant worden hoe snel die NVME SSD precies moet zijn. Vergeet sequential read speeds waarmee altijd wordt geadverteerd en welke zelden relevant zijn. Het gaat om random read speeds die je meestal moet opzoeken in reviews. Die moeten een bepaalde snelheid gaan hebben, afhankelijk van resolutie en framerate, om de GPU van afdoende data te voorzien. Maar hoe snel precies is de vraag. :)

[Reactie gewijzigd door DaniëlWW2 op 23 juli 2024 05:36]

En dat is nu precies het punt van DirectStorage. Daarmee passeer je een steeds groter wordende bottleneck in gaming, data naar de GPU krijgen voor juist zaken zoals veel hogere kwaliteit en complexiteit aan textures, effecten zoals particle effects en zeker ook ray tracing. Een CPU is te langzaam in dergelijke assets uit te pakken, maar met DirectStorage gaan die assets in nog ingepakte vorm naar de GPU waar ze daar pas worden uitgepakt. Dat scheelt bandbreedte over de PCIe bus, dus ook meer data die verplaatst kan worden en een GPU doet het uitpakken ervan ook veel sneller.
Is dit nu een soort DMA van NVME/HD data blocks naar GPU ram of is er veel meer aan de hand. ?
Daarbij gaat het ook nog interessant worden hoe snel die NVME SSD precies moet zijn. Vergeet sequential read speeds waarmee altijd wordt geadverteerd en welke zelden relevant zijn. Het gaat om random read speeds die je meestal moet opzoeken in reviews. Die moeten een bepaalde snelheid gaan hebben, afhankelijk van resolutie en framerate, om de GPU van afdoende data te voorzien. Maar hoe snel precies is de vraag. :)
Waarom zou je van data assets - grote blobs - iets random willen maken ?
[...]
Waarom zou je van data assets - grote blobs - iets random willen maken ?
Het hele idee van DirectStorage is juist dat je geen grote blobs ophaalt, maar alleen wat je nodig hebt op dat moment.
Ja en ik zie niet in hoe dat een game workload, laat staan een bottleneck kan zijn. Immers we gaan naar steeds grotere schermen, hogere resoluties, meer details, meer effecten, ... waardoor ook de meest simpele asset een serieuze blob moet zijn ? Misschien dat oisyn, of iemand anders die high-end games programmeert of port, dat kan verhelderen.
Het idee is dat als je in de buurt komt van iets waar de textures nog niet voor ingeladen zijn, het spel de textures gaat inladen. Als het bijvoorbeeld een andere speler is met een specifieke outfit die bestaat uit 5 kledingstukken, dan doet het spel 5 losse aanvragen om een texture op te halen.

Je hoeft dan dus niet alle textures van alle outfits op te halen, wat zonder DirectStorage vaak gebeurd. Daardoor hoef je dan in totaal minder op te halen en gebruik je ook minder VRAM. En bovendien wordt het ophalen van de textures veel meer gespreid in de tijd, ipv alles in 1 keer op te halen. Daardoor kan de bus veel efficiënter worden gebruikt en heb je geen last van een zeer drukke 'spits.'

En als de decompressie naar de GPU gaat hoeft er afhankelijk van de mate van compressie, veel minder data over worden gestuurd. Volgens mij is compressie met een factor 4 zo'n beetje het minimum, dus dan is de texture die overgestuurd moet worden al 4 keer zo klein.
Het idee is dat als je in de buurt komt van iets waar de textures nog niet voor ingeladen zijn, het spel de textures gaat inladen. Als het bijvoorbeeld een andere speler is met een specifieke outfit die bestaat uit 5 kledingstukken, dan doet het spel 5 losse aanvragen om een texture op te halen.
Maar daar heb je toch geen DirectStorage voor nodig. Zet al je assets in (padded) blobs en bouw een header met byte offsets, sizes en names/ids van de individuele asset daarin. Nu kan je toch met een simpele lookup, seek, copy blocks to "ram/vram" hetzelfde bereiken ?
Nee, want de traditionele IO calls hebben heel veel overhead (in verwerkingstijd, geheugengebruik, etc). Een groot deel van de innovatie achter DirectStorage is dat ze de code voor IO helemaal hebben herschreven zodat elke aanroep weinig verwerkingstijd kost.

Bij harde schijven was die trage verwerkingstijd nooit een probleem omdat de tijd om de leeskop op de juiste plek te krijgen zo lang was dat die verwerkingstijd niet significant was. Door die trage leeskop was het ook geen optie om data in losse beetjes op te halen en moest het wel in bulk.

NVMe's hebben echter geen leeskop en zijn dus extreem veel sneller met het opzoeken van een bepaald stukje data. Daardoor zijn losse lees-acties per texture dus wel mogelijk geworden, maar zat die lange verwerkingstijd in de weg.
Nee, want de traditionele IO calls hebben heel veel overhead (in verwerkingstijd, geheugengebruik, etc). Een groot deel van de innovatie achter DirectStorage is dat ze de code voor IO helemaal hebben herschreven zodat elke aanroep weinig verwerkingstijd kost.
Zeker, want als ik dit gepost door TweakerNummer er bij haal (https://learn.microsoft.c...ware/drivers/ifs/bypassio); gaat het volgens mij vooral om softwarelagen te omzeilen en mini doorsnede functies/modules/drivers/software te draaien om dit mogelijk kunnen maken. Veel werk ja, code helemaal herschrijven dat is het wel niet. En maar goed zo ik heb geen goesting in een pandemonium aan bugs in de storage stack.
Bij harde schijven was die trage verwerkingstijd nooit een probleem omdat de tijd om de leeskop op de juiste plek te krijgen zo lang was dat die verwerkingstijd niet significant was. Door die trage leeskop was het ook geen optie om data in losse beetjes op te halen en moest het wel in bulk.
De seek time van een harde schijf is idd ~ 2 grootteordes groter dan een SSD. Maar het was ook gewoon veel voordeliger om IOPS te queuen, en dan iedere 200-300-400-500 ms de requests waar mogelijk te versimpelen/batchen zodat er idd in grotere blokken kon gehandeld worden. Dat was een afweging tussen cumulatieve doorvoersnelheid/hoeveelheid afgehandelde IOPS en latency. Het moest niet in bulk dat kan ook niet als je niet queued of als het doelgebied van je IOPS niet dicht genoeg bij elkaar liggen. Ook filesystems werken hieraan mee door bestanden zoveel mogelijk sequentieel op schijf te schrijven (extents, clusters, ntfs runs, ... groepen van opeenvolgende blocks dus).
NVMe's hebben echter geen leeskop en zijn dus extreem veel sneller met het opzoeken van een bepaald stukje data. Daardoor zijn losse lees-acties per texture dus wel mogelijk geworden, maar zat die lange verwerkingstijd in de weg.
Ik heb mij nog niet echt ingelezen in de NVMe command set maar ik ga ervan uit dat die ook nog altijd block addressable is en je dus altijd werkt in hoeveelheden van blocks. En maar goed ook want iedere texture (gecompresseerde afbeelding) zal een redelijk grote hoeveelheid blocks bevatten. Maar ook SSDs/NVMe zijn assymetrisch in performance op een hardware niveau dan. De sequentiele doervoorsnelheid van 1 bestand is nog altijd groter dan 10000 kleine bestanden. Tevens is er ook een verschil tussen lezen (1 page, 2 pages, n pages) en schrijven (een groep pages) schrijven of herschrijven (een groep pages lezen, modificeren, erasen, schrijven).
Wat jij beschrijft is AMD DirectGMA en NVIDIA GPUDirect RDMA. Dat vindt je (officieel) niet op kaarten in het videogamekaart segment.

Voor zover ik weet en wat betreft de data is DirectStorage eigenlijk BypassIO: die slaat bepaalde delen van de reguliere IO Stack over (en zit natuurlijk gewoon in Windows zelf). Dat is fijn als je veel non-sequentiele gegevens moet laden en een snelle NVME hebt.
Danku hier ben ik al wat mee. Voor de andere geinteresseerden (https://learn.microsoft.c...ware/drivers/ifs/bypassio). Maar ik vind het vreemd dat dit nu eenmaal een issue is voor games want hele kleine bestanden die zitten op NTFS vaak in de data sectie van de $MFT entry zelf. En ook op die pagina staat dat voor zo'n bestanden het normale pad ook gebruikt wordt;
BypassIO can be enabled on an NTFS resident file; however, the file will take the traditional I/O path as long as it is resident. If a write occurs to the file such that it goes non-resident, the system will switch to use the BypassIO path.
Dus wat moet ik me voorstellen bij het IO profiel van de use case: plotse bursts van 10000'en 16-64 KB bestanden ?
Bij Forspoken laden ze 20K - 25K bestanden met 4.5GB - 5.5GB als totale grootte (https://www.youtube.com/watch?v=MlTohmB4Gh4&t=1547s) met behulp van DirectStorage 1.0 (geen GPU decompressie). Dus zoiets wel ja, alhoewel het eerder om 1KB - 10MB files zal gaan.
Dit artikel is ook gewoon reclame. Ik ben niet onder de indruk dat je op zulke lage resulties, framerate en instellingen wel kan spelen (misschien) op een HDD want SSD blijft aanbevolen.. waarom dan? Waarom staat dat er bij?

Het wordt pas interessant wanneer we het kunnen testen onder meest gangbare configuraties. Kom maar op Tweakers laat maar eens wat interessants zien.
1080p 60fps wat inmiddels echt wel het minimale is
ware t niet dat JUIST deze game op ps5 een 40fps/hz modus heeft.
En dat is nu precies het punt van DirectStorage. Daarmee passeer je een steeds groter wordende bottleneck in gaming, data naar de GPU krijgen voor juist zaken zoals veel hogere kwaliteit en complexiteit aan textures, effecten zoals particle effects en zeker ook ray tracing. Een CPU is te langzaam in dergelijke assets uit te pakken, maar met DirectStorage gaan die assets in nog ingepakte vorm naar de GPU waar ze daar pas worden uitgepakt
Dat uitpakken van assets op de GPU zelf was in zekere mate toch al mogelijk sinds S3TC in de Direct3D 6-standaard gebouwd is? De Xbox 360 en PS3 hadden ook een GPU gebouwd op het uitpakken van assets.
Heb je nou echt een high end cpu voor hedendaagse games nodig om op 4K te kunnen spelen? Ik snap niet waarom een 3600 word aanbevolen voor 1080 maar niet op 4K, aangezien games tegenwoordig gpu gelimiteerd zijn op hoge resoluties.
Ik denk dat het meer te maken heeft , met dat ze willen dat je Windows 11 moet draaien :) alle CPU's die ik in de lijst zie , zijn Windows 11 compatible CPU's

[Reactie gewijzigd door Metallize op 23 juli 2024 05:36]

https://learn.microsoft.c...-supported-amd-processors

w11 is ook supported op oudere ryzen cpus zelfs de 2000 series
Ik draai win11 op mn 3600
De Ryzen 3000-serie is ook gewoon Windows 11 compatible, bij AMD is alles beneden de Ryzen 2000-serie niet compatibel, net als bij Intel alles beneden de 8 e generatie.
Je ziet dat het niet enkel de resolutie is die wijzigt maar ook de grafische preset. Sommige instellingen hebben ook een impact op de CPU zoals draw distance, schaduw en ray tracing. Bij ray tracing wordt de BVH, die nodig is voor ray tracing, op PC veelal op de CPU berekent en klaar gezet voor de GPU.

[Reactie gewijzigd door Caayn op 23 juli 2024 05:36]

Waarom eindigt een 3600xt boven een 5950 op 4k ultra ray tracing met cyberpunk 2077? (3600xt) eindige vorige jaar boven aan.

Volgens mij proberen ze je gewoon een nieuwe cpu aan te smeren.
ander spel ander gebruik van de hardware.

dus die verschillen kunnen voorkomen.
Games krijgen ook updates waardoor de systeemeisen wijzigen, om een voorbeeld te noemen.
CB had een tijd lang problemen met alles boven de 6 cores, toch? Dat is niet al te lang geleden opgelost. Die lijst zal dan ook wel een update nodig hebben.
Als je zoveel druk op de gpu legt door 4K, ultra en Raytracing, dan heeft de cpu weinig effect meer (mits een beetje bij de tijd).

En CP heeft problemen met veel cores.
Het ligt wel aardig in de lijn van het ps5 origineel. De cpu daarvan is volgens mij ongeveer een 3600 en daar krijg je 4k met RT op 40fps.
Ook de reden dat CPU tests meer en meer worden gedaan op 1080p _ultra_ (Of high), en niet zoals vroeger op 720p met alles op low -> er zijn veel dingen die ook op de CPU worden gedaan tegenwoordig, meer en meer.

De vorige console generatie had iets van een AMD-tablet-cpu van voor het Zen-tijdperk. Oftewel, er was van CPU power amper sprake op de Xbox One / PS4, waardoor een hoop games toch echt zijn ontworpen met deze beperking.

Je ziet nu dat dat omhoog schiet, nu de consoles van deze tijd een gigantische vooruit gang op CPU-prestaties hebben met de vorige generatie.

Hoe goed een game schaalt over meerdere cores merk je niet meer door alles op low te zetten. En raytracing kost inderdaad bakken met GPU power, maar ook CPU power (wat veel reviewers niet lijken te beseffen trouwens).

Daarbij, ik zie een 5600 voor 1440p60 of 4k30, en een 5600 noem ik niet high-end. Misschien wel mainstream, bang-for-the-buck, relatief modern., een goede CPU..... maar highend, nee.
En een 5600x voor hoger is ook nog niet bepaald top of the line. En alles van Inte 11th gen of eerder is ook niet super natuurlijk.

Maar ehm, ja. Ik vind wat er gevraagd wordt nog heel erg meevallen. Helemaal als dit zonder DLSS2 / FSR2 upscaling is (wat ik niet zeker weet). De PS5 game heeft namelijk zeker ook wel upscaling technieken in gebruik (Insomniac's eigen waarschijnlijk, die best OK is).
En ja, de CPU gaat meer en meer belangrijk worden. Elke game die nu - met veel gezeur of niet - uitkomt voor de XB S/X en PS5 die 'maar' op 30fps draait, komt door de CPU-beperkingen van de Zen2 CPU die er in zit, en dat is toch +/- Ryzen 5 3600 / 3600x achtige performance op een meer rechttoe rechtaan platform. Waarmee ik een 5600 / 5600X voor een Windows game toch wel een beetje als minimum wil gaan zien, wil je een (goede) kans hebben om de 30fps te ontstijgen op de komende games.

Wat hiervan is door brak coden / bugs of echte limitaties kan je ook nog over gaan praten, maar het feit is wel dat we de games krijgen zoals ze zijn. En niet alles zal technisch super-OK zijn helaas.
Je hebt het precies verkeerd. Een 4090 en 7900XTX zijn juist vaak CPU limited op 4k afhankelijk van de games die je speelt.

Een 3600 kan op 1080 nog net de input van de GPU bijhouden maar op 4k kan de cpu al die data niet meer verweken waar een 7800X3D of een 13900K dat wel veel beter kan dan bv de 3600.

De hedendaagse GPU's zijn zo snel dat er vaak zelfs op 4K niet altijd een GPU bottleneck meer is. Vroeger kon je GPU nooit vlot op 4K iets afspelen en maakte de cpu daarom ook niet meer uit.

Als je nu bv een 4090 op 8k of (16 indien het er al is) speelt komt de GPU bottleneck weer naar boven omdat de GPU niet zo snel zoveel berekeningen kan maken.

Dus ja als je een high-end GPU hebt is een High-end CPU voor 4K tegenwoordig een must als je het volledige potentieel wilt benutten van de GPU.
raytracing is cpu intensief. De 3600 is behoorlijk langzamer dan de 5600
En toch eindigt een 3600 boven een 5950 (en rest van de 5 serie) in 4k ultra ray tracing in cyberpunk.

Op 1080 en 1440p natuurlijk niet, maar het gaat over 4K nu.
Zal vooral met optimalisaties te maken hebben. Zen-2 kennen ze beter. Ruwe kracht zegt bar weinig als je er niet optimaal gebruik van weet te maken.
Waar haal je de info vandaan dat een 3600 sneller is dan een 5950x op 4k in cyberP?

Het enige wat ik me kan voorstellen dat er kan gebeuren is dat de cpu in Windows niet goed wordt benut omdat er 2 chiplets zijn. Ik weet dat bv bij de threadripper een issue is geweest waarbij er 1 chiplet werd uitgeschakeld en de frames enorm omhoog gingen.

Het had iets met de Windows scheduler te maken als ik mij niet vergis. Maar zover ik weet is dat allang opgelost. Het zou kunnen dat de 3600 bv 1% sneller is op 4k wat in de foutmarge zou vallen t.o.v de 5950x en met ander woorden dan even snel is.
Waarom is raytracing CPU intensief? Het gaat hier om raytracing met behulp van GPU en niet CPU raytracing. Dus met RTX cores, niet zoals de traditionele raytracing in 3d pakketten.
Rekenen ze dan met een sata HDD van 5400 toeren of een sata SSD van 600mbits ?

MVMe is een duidelijk verhaal maar op een HDD van 5400 toeren met zn 80MB per sec is er toch byzonder weinig te winnen denk ik.
Het is gewoon caching. Welke game heeft er aanhoudend NVME-doorvoersnelheid nog? Dan is je station zo versleten. En dan nog, 4 mech-schijven op een rij kunnen hetzelfde. Als je gewoon een redelijke RAM hebt is het niet zo belangrijk wat je opslag-apparatuur fysiek is.

[Reactie gewijzigd door blorf op 23 juli 2024 05:36]

Het is gewoon caching. Welke game heeft er aanhoudend NVME-doorvoersnelheid nog? Dan is je station zo versleten.
Nee, want het is lezen, niet schrijven.
En dan nog, 4 mech-schijven op een rij kunnen hetzelfde.
Nee, want die hebben niet de I/O die een ssd (Al is het een Sata-ssd) wel heeft. Bovendien kun je daar natuurlijk geen rekening mee houden als fabrikant, bovendien zou er dan afzonderlijk van 4 verschillende schijven tegelijkertijd moeten worden gelezen, dus gaat je I/O niet omhoog. Je kunt nog steeds hetzelfde aantal acties doen, je krijgt alleen grotere brokken data terug.
Als je gewoon een redelijke RAM hebt is het niet zo belangrijk wat je opslag-apparatuur fysiek is.
Dan niet het spel daar wel rekening mee houden of het moet eerst al een keer geladen zijn.
Een spel heeft niks te maken met wat voor opslag je hebt. Als het niet snel genoeg is moeten de systeemeisen dat aangeven. En dat gaat in een bandbreedte, niet een type opslag-apparaat.

[Reactie gewijzigd door blorf op 23 juli 2024 05:36]

En dat gaat in een bandbreedte, niet een type opslag-apparaat.
Nee, het gaat om bandbreedte EN latency.

Access tijden van een HDD zijn in de orde van grootte van 5-10 milliseconden, van een SSD is het 25-100 microseconden. Maakt nog al uit als je volgende frame klaar moet zijn in 16.6 (60fps) of 33.3 (30fps) ms.
De toegangstijd van een tegenwoordige harde schijf of SSD wordt bepaald door het cache-geheugen dat de controller ter beschikking heeft.
Cool. En hoe komt die data dan op magische wijze in dat cache geheugen?
Wat als je van 64GB van de 128GB RAM een ramdrive maakt en daar een game op installeert?
Dus je wilt als systeemeisen voor games stellen dat mensen 128GB RAM moeten hebben? Een snelle SSD lijkt me dan een stuk goedkoper.
Data gaat door de PCI-bus naar een schijfstation, ongeacht wat voor schijf het is. Hoe snel dat gaat ligt aan de schijfcontroller en je PCI-snelheid. De lengte van de bedrading speelt geen noemenswaardige rol.
De systeemeisen wat betreft opslag horen een snelheid en benodigde ruimte te zijn. Wat voor type apparaat het is is voor een game niet van belang, ook al beweert het OS of de game-producent of allebei dat dat wel zo is. Ik heb het nog nooit meegemaakt, maar als een game weigert omdat je niet het vereiste opslag-apparaat hebt maar dezelfde snelheid evengoed kan halen ben je erin geluisd. Dat is een smoesje in het belang van de industrie en in het nadeel van de gamers.

[Reactie gewijzigd door blorf op 23 juli 2024 05:36]

Snelheid en latency, en die is bij een HDD te hoog.
Bij een op RAM gebaseerde hd, of bij meerder hd's in serie, of bij een high-available netwerk storage oplossing niet. Conclusie: het eisen van een bepaald type opslag-apparaat is bedrog.
Geen bedrog maar een versimpeling die in 99.999% van gevallen correct is. Waarom de boel ingewikkelder maken dan nodig?
Waarom mensen spullen laten kopen onder valse voorwendselen?
Degenen met de oplossingen die jij noemt weten heus wel hun eigen beslissingen te maken op basis van de 'versimpelde specs'. Die weten wel of hun RAID het gevecht met een SATS of NVMe(not likely) SSD aan kan. Of dat hun dual processor toch voldoet voor een game die eigenlijk 1 processor met in totaal net zoveel cores nodig heeft.

Als je het voorkauwt geeft het verplichtingen en dus gaat men flink aan de velige kant zitten, en dan klagen mensen weer dat de systeemeisen te hoog zijn...
Ik denk dat er geen enkele game bestaat die daadwerkelijk 200 MB/s oid nodig heeft. Sterker nog, de games die dat beweren gaan dat waarschijnlijk niet eens halen op een PC die dat zou kunnen, hoogstens met het laden van data, en zelfs dat is zelden echt nodig. Bij de schermvulling ben je er al. De rest kan naar de achtergrond. Het is alleen meer werk om te ontwikkelen.

[Reactie gewijzigd door blorf op 23 juli 2024 05:36]

Ga er maar van uit dat er games gaan komen die >5GB/s nodig hebben, iig op PS5. Bij alle vorige generaties was het ook zo dat developers naarmate de console langer op de markt was steeds beter gebruik wisten te maken van de mogelijkheden om het uiterste uit de console te persen. Wat b.v. Naughty Dog met de toch vrij brakke hardware van een PS4 kon is zwarte magie. Als die helemaal los gaan op de PS5 dan zullen ze ongetwijfeld de SSD maximaal inzetten.
Ik denk dat er geen enkele game bestaat die daadwerkelijk 200 MB/s oid nodig heeft. Sterker nog, de games die dat beweren gaan dat waarschijnlijk niet eens halen op een PC die dat zou kunnen, hoogstens met het laden van data, en zelfs dat is zelden echt nodig. Bij de schermvulling ben je er al. De rest kan naar de achtergrond. Het is alleen meer werk om te ontwikkelen.
Nodig is een abstract begrip. Het is in elk geval mogelijk betere laadtijden (en minder texture en object pop-in) te krijgen dan bij een HDD met ca. 200MB/s:

https://www.techspot.com/...orage-speed-game-loading/

En ja natuurlijk, als je allemaal low quality objects in je spel zet kan het ook (ruim) binnen de 200 MB/s. Voor sommigen is dat genoeg of zelfs een teken van een goed spel, want graphics zijn niet belangrijk, maar gelukkig hebben we niet allemaal dezelfde mening.

Niks weerhoudt je om een 4 (of meer) schijfs RAID te draaien, maar ik vraag me serieus af waarom. Goedkoop is het niet, energie efficiënt ook niet, het kost je een aantal keer de ruimte en stiller dan een SSD zal het ook niet bepaald zijn. Dus vind je het allemaal onzin en vind je wat langere laadtijden en een hikje hier of daar prima, tot nu toe ken ik geen spel wat zichzelf afsluit als je filesysteem op een exotische oplossing staat.

[Reactie gewijzigd door MN-Power op 23 juli 2024 05:36]

Volgens mij klopt er iets niet aan je game als de prestatie afhangt van wat voor harde schijf we hebben. Wat voor data moet je echt laden op high-end SSD-snelheid ? Uitgaande van 200 MB/s zou dat moeten betekenen dat je iets in beeld hebt wat een dergelijk data-aanvoer vereist. Misschien als je op 100 fps inzoomt op een 8K fractal, maar dan zonder te berekenen, dus alles uit media-data...
Als alles wat hij moet lezen netjes achterelkaar op de schijf staat, dan kan hij met 200MB/s lezen. Dat betekent dat je spel of érg lineair moet zijn óf dat dezelfde data heel erg vaak opgeslagen is(de truc die in de CD/DVD tijd volgens mij wel gebruikt is). Anders kan de schijf nooit 2GB(en dat is niet eens veel tegenwoordig) aan data in 10 seconden inlezen aangezien de kop fysiek als een dolle moet bewegen(het geluid wat je hoort(en sommigen flink stoort ;)) . Je haalt de 200MB/s wel, maar dat is zéker niet de gemiddelde leessnelheid.

Oh en dat is allemaal aangenomen dat alle bestanden van het spel voor 0% gefragmenteerd zijn én netjes achterelkaar staan. De kans daarop is vrij klein.
Volgens mij klopt er iets niet aan je game als de prestatie afhangt van wat voor harde schijf we hebben. Wat voor data moet je echt laden op high-end SSD-snelheid ?
Het is maar net hoe je het bekijkt. Ik zie het als een teken van inefficiëntie als een spel niet eens 500MB/s van schijf kan lezen zonder tussendoor zijn tijd te verspillen. Dus totaal het tegenovergestelde van wat jij wenst. Ik denk dat we het nooit eens gaan worden.
Dat las ik inderdaad ook. We gaan het zien of het überhaupt nodig is. Ik verwacht een test van Digital foundry die high end hardware met een hdd combineert om te kijken of je ook 1080p Ultra of zelfs op 4k ultra kan spelen met een hdd.
Ben benieuwd hoe het zal draaien op de huidige Handheld PC's zoals de Valve Steamdeck of ROG Ally als het spel geïnstalleerd is op een SD card i.p.v. de SSD.
Met welke GPU's kan je Direct storage gebruiken?
in principe met alle zolang de game het ondersteunt volgens mij

ik word graag gecorrigeerd in geval van fouten
De GPU moet DirectX 12 en shadermodel 6.0 ondersteunen, maar de meeste kaarten van AMD en Nvidia na 2016 hebben deze ondersteuning al naar mijn weten. (volgens mij bij Nvidia vanaf 900 serie, amd heb ik geen ervaring mee)
Als bandbreedte niet het limiet is, maar iops en de latency. Dan gaan die 4 HDD's het in raid/zfs ook niet worden.
je hebt gelijk dank voor de correctie heb dit ooit geweten maar was het vergeten
Tof dat de game nu naar pc komt

Echt een aanrader voor allen
Eerder zei Insomniac dat de game niet zou kunnen draaien op de PlayStation 4, aangezien deze een hdd in plaats van een ssd bevat, maar met DirectStorage 1.2 blijkt het dus toch mogelijk om het spel via een harde schijf te spelen.
In de gelinkte video zeggen ze helemaal niet dat het spel niet zou kunnen draaien vanaf een harde schijf, maar dat het inladen met de snelheid die ze in de demo lieten zien niet zou kunnen.
Mag ik dit redelijk belachelijk hoge eisen vinden voor een platformer :? Ik heb deze game op de PS5 en ZO grafisch-geweldig is die nu ook weer niet.
Als je ziet welke pareltjes er in het verleden gemaakt werden met 64KB, dan heb ik zo de indruk dat dat de huidige generatie studio’s, nog weinig “optimalisaties” doorvoeren maar echt leunen op raw-performance van de hardware

[Reactie gewijzigd door klakkie.57th op 23 juli 2024 05:36]

Tegenwoordig zijn ze te lui om te optimaliseren. Je ziet het bij veel games. Je had het al over optimaliseren iets te vroeg gereageerd.

[Reactie gewijzigd door jaaoie17 op 23 juli 2024 05:36]

Nixxes heeft een goede reputatie met PC Ports. Nederlands bedrijf overigens, zitten in Utrecht.
Hehehehe in U Trecht. Heb je hem :D
Heb ze meegemaakt tijdens de Deux Ex Mankind divided port, was niet geweldig bij launch en de tijd daarna, maar vandaag de dag werkt het prima.
Die game was denk ik simpelweg zwaar op alle systemen. Met Deus Ex Human Revolution hadden ze een perfecte port waarbij de complete UI ook toegespitst was op de PC met 1 t/m 0 item slots bijvoorbeeld.
Die game was volgens mij 1 van de 1e die dx11 gebruikte. Daar waren toen veel problemen mee. Ik dacht dat de gpu ontwikkelaars nvidia en amd toen ook mede verantwoordelijk waren voor de problemen. Ik moest mijn beide gpu's underclocken zodat de game niet crashte.
Deze game werd grootst gebracht als "Alleen met de hypersonische PS5 SSD kan je deze game spelen!"

Blijkbaar is een HDD genoeg lol

nieuws: Ratchet & Clank: Rift Apart verschijnt in dezelfde periode als PlaySt...

"De game heeft geen laadschermen, bevestigen de ontwikkelaars. Dat is mogelijk dankzij de snelle ssd in de PlayStation 5."

[Reactie gewijzigd door lukjah op 23 juli 2024 05:36]

Op 720p / 30 fps met low quality (kleine) textures ja. Er hoeft dan veel minder data gestreamed te worden, dat een HDD met directstorage compressie het nog bij kan benen blijkbaar. Wellicht ook net wat minder soepele of langere transities? De DigitalFoundry review zal het uitwijzen, ik ben erg benieuwd naar hun bevindingen.

[Reactie gewijzigd door Grauw op 23 juli 2024 05:36]

Op dit item kan niet meer gereageerd worden.