'Starfield bevat geen ondersteuning voor DLSS of XeSS'

Een X/Twitter-gebruiker heeft de preload-installatiebestanden van Starfield voor pc onderzocht en stelt dat daar geen verwijzingen naar de upscalingtechnieken Nvidia DLSS of Intel XeSS in terug te vinden zijn. Microsoft stelde eerder dat Starfield wel ondersteuning biedt voor AMD FSR 2.0.

Volgens X/Twitter-gebruiker Sebastian Castellanos lijkt Starfield dus voorlopig geen DLSS of XeSS te ondersteunen. De man stelt ook dat Bethesda niet al te veel moeite zou mogen ondervinden om upscalingtechnieken van Nvidia en Intel te implementeren in de game. Castellanos verwees ook naar de modders die eerder op Reddit hadden aangekondigd dat ze DLSS 3-ondersteuning zouden toevoegen aan de game. Volgens de man zijn deze implementaties niet op hetzelfde niveau als native ondersteuning en hebben deze mods vaak last van glitches of bugs.

Ondanks het feit dat Starfield geen DLSS of XeSS lijkt te ondersteunen, zijn gamers met een Nvidia GeForce-videokaart niet uitgesloten van upscalingtechnologie van AMD. FSR wordt namelijk ook op videokaarten van Nvidia ondersteund. DLSS is daarentegen alleen compatibel met recente GeForce-videokaarten en niet met AMD Radeon-gpu's.

Gamers die een pre-order voor Starfield hebben geplaatst, kunnen de installatiebestanden sinds 17 augustus downloaden via de Microsoft Store. Vanaf 30 augustus zijn de bestanden ook via Steam te downloaden. Starfield verschijnt op 6 september voor pc en Xbox Series-consoles. Gamers die de Premium Edition van het spel hebben aangekocht, kunnen op 1 september al aan de slag gaan. De preload-bestanden voor Starfield op pc nemen 139,8GB ruimte in beslag. De preload-bestanden voor de Xbox-versie zijn 126,1GB groot.

Door Jay Stout

Redacteur

19-08-2023 • 10:34

329

Lees meer

Reacties (329)

329
324
114
13
0
159

Sorteer op:

Weergave:

Het zal wel aan mij liggen maar waarom maakt iedereen zo'n probleem van het ontbreken van DLSS.
Zo'n beetje alle kaarten die dit supporten kunnen deze game toch gewoon native draaien?

DLSS beïnvloed de grafische ervaring in negatieve zin,
dus tenzij het echt niet anders kan wil je dit sowieso uit hebben.
DLSS op de “quality” setting, vooral v2.0+ is zo goed dat het min of meer “gratis” frames zijn.

Ga maar eens op het internet grasduinen naar screenshots die Native met DLSS Quality vergelijken, en bedenk je dan dat als je al minieme artefacten ziet, deze in bewegende gameplay eigenlijk niet opvallen.

Verder heeft Nvidia behoorlijke goede tools voor het trainen van DLSS, en bieden ze gratis ondersteuning.

Het is puur uit vendor belang dat het er wel of niet in komt. Maar goed, dit is van alle tijden, oude gamers herinneren zich vast de “GeForce Experience” pre-roll die je bij veel games kreeg circa jaren 2000.
Ik heb een 3090 en gebruik in bijna alle games DLSS op quality om de framerate omhoog te krijgen (zeker in bijvoorbeeld red dead 2). Je ziet het verschil imho niet en de gratis frames kan soms het verschil tussen 50 en 70 zijn.
DLSS wordt op een 1070 ook ondersteund, maar vraag me werkelijk af op welke qualiteit je dan speelt op 1080p of 1440p, ik heb een 2070 en ook daar haal ik vaak nog wel wat winst in fps als ik DLSS gebruik.
Jammer dat ik hier in de reacties veel mensen zie reageren die blijkbaar vinden dat omdat Nvidia ook een hoop op hun kerfstok heeft het dan blijkbaar goed te praten is dat AMD nu bezig is met dit soort praktijken die gewoon ontzettend anti-consument zijn. Ik zie zelfs reacties dat mensen het juist GOED vinden dat AMD dit doet. Denken die mensen uberhaupt verder dan hun neus lang is?

Feit is dat AMD momenteel het implementeren van DLSS tegenhoudt in games die door hun gesponsord worden, en andersom is dat niet het geval. Sterker nog, Nvidia biedt zelfs een toolkit aan om gemakkelijk DLSS, FSR én XeSS te implementeren in games.

Hou alsjeblieft op met dit soort console-wars achtige opmerkingen en benoem gewoon het foute gedrag van een bedrijf wanneer dat relevant is ook al is dat jouw favoriete merk.
Afgezien van het tegenhouden (exclusiviteit is anti-consumer, dus gewoon slecht)

FSR (2.0) is wel open voor AMD & Nvidia GPU's. DLSS is dat niet

FSR 2.0 Support GPU's vanaf AMD Radeon 5xx serie, en Nvidia 1xxx serie

FSR only is dus niet zo erg als DLSS only (Nvidia houdt FSR niet tegen, maar devs willen soms geen moeite stoppen in meer dan DLSS supporten)
Het probleem is dat FSR gewoon hartstikke ruk is tegenover DLSS. FSR heeft slechtere performance én slechter resultaten, terwijl DLSS echt het meeste uit je GPU kan halen.

Leuk dat het open source is, maar ze kunnen gewoon meerdere opties ondersteunen, dat doen al genoeg spellen en is helemaal niet zo lastig met de libraries die beschikbaar zijn hiervoor.
Het probleem is dat FSR gewoon hartstikke ruk is tegenover DLSS. FSR heeft slechtere performance én slechter resultaten, terwijl DLSS echt het meeste uit je GPU kan halen.
Ja maar nog steeds heb je die voordelen van DLSS alleen met een Nvidia kaart. Ook al is de performance van FSR 2.0 slechter tov DLSS 2 heb ik liever only FSR 2 dan DLSS (liefst alle 3 ofc)
Leuk dat het open source is, maar ze kunnen gewoon meerdere opties ondersteunen, dat doen al genoeg spellen en is helemaal niet zo lastig met de libraries die beschikbaar zijn hiervoor.
Helemaal mee eens.
Dat verschilt er per type game en vaak genoeg is er weinig tot geen verschil te zien.

Uiteindelijk zijn het alle 3 “gewoon” upscale technieken en imo sowieso al ongewenst.
Het probleem is dat FSR gewoon hartstikke ruk is tegenover DLSS. FSR heeft slechtere performance én slechter resultaten, terwijl DLSS echt het meeste uit je GPU kan halen.
Dat is zwaar overdreven, ja op 1080 is DLSS zwaar in het voordeel, maar op 1440p en 4K is er zo goed als geen verschil meer in spellen waar het goed geïmplanteerd is, zeker als niet gaat pixel peepen op stilstaande ingezoomde beelden wat mij lijkt dat niemand doet als hij een spel aan het spelen is

[Reactie gewijzigd door Sinester op 22 juli 2024 18:36]

XeSS is ook open en word hier dus ook overgeslagen, vermoedelijk omdat AMD hardware er moeite mee heeft.
Het is niet de schuld van Intel en Nvidia dat AMD's hardware moeite heeft met machine learning. Mensen doen net alsof het een drama is dat er nieuwe hardwareontwikkelingen zijn, maar het enige drama is eigenlijk dat AMD het niet bij kan benen. Hadden zij net zo hard op machine learning gepusht, en een echt DLSS equivalent aangeboden dat wel op alle drie de merken draait (of gewoon zorgen dat XeSS goed werkt) dan was DLSS overbodig geweest.
Het grootse drama is dat upscaling technieken bestaan, zeker nu developers letterlijk games gaan bouwen waar upscaling al in gedachte is genomen en dus voor hun standaard aan zou moeten staan

Upscaling is prima, maar het moet puur bij een extra blijven, en zou absoluut geen uitgangspunt moeten zijn om een game fatsoenlijk te kunnen spelen

Upscaling is imo echt een van de slechtere ontwikkelingen in GPU en Gaming land. die nu veel te hard door gepushed worden, met zaken zoals bagger videokaarten en games als gevolg
Dat is pure speculatie en geen feit dat door upscale tech games minder goed word geoptimaliseerd en dat daar door minder goede GPU's worden ontwikkeld. De meeste games draaien nog altijd goed zonder upscale techniek.
Dat is pure speculatie en geen feit dat door upscale tech games minder goed word geoptimaliseerd en dat daar door minder goede GPU's worden ontwikkeld.
ik vind het helemaal geen speculatie als game makers zelf al aangeven dat het spel gemaakt is met upscaling in het achterhoofd, en deze optie dus ook standaard aanstaat met elk level van kwaliteit die je kan kiezen (Ratchet & Clank als voorbeeld)

En voor GPU's is het al helemaal geen speculatie meer als je naar de marketing en alles om de bijvoorbeeld de 4060ti ziet.. deze moest je testen met DLSS van nVidia en nog vele male erger.. is zonder DLSS amper tot niet sneller als ze voorganger!!
De meeste games draaien nog altijd goed zonder upscale techniek.
Mijn punt is dan ook dat we die richting op bewegen, niet dat we er al zijn

[Reactie gewijzigd door Sinester op 22 juli 2024 18:36]

Maar dat wil niet zeggen dat gamemakers door upscaling tech games minder goed gaan optimaliseren.
Klopt zeker, maar als een game al gebouwd wordt met als uitgangspunt, je gebruikt een upscaler en deze dus ook bij default aan staat.

Dan is het toch niet vreemd om te denken dat we wel die richting uit gaan, zeker in gedachte genomen dat upscalers gebruikt kunnen worden om minder optimalisaties uit te voeren.. en die gedachte zie ik wel gebeuren als de developer er van uit gaat dat iedereen een upscaler gebruikt.

En dat er nu zelfs videokaarten uitkomen die puur voor upscaling gemaakt lijken te zijn, heb ik daar gewoon zorgen over

wel interessant denk voer
https://youtu.be/xVQEOvSWZzw

[Reactie gewijzigd door Sinester op 22 juli 2024 18:36]

Ik zie het juist positief dat upscalers gebruikt worden om games grafisch mooier te maken, iets wat we ook zien.
.in de gehele IT industrie is het al jaar en dag sponsering van R&D op alle vlakken dat je maar kan denken, consument is er al jaar en dag de dupe van.

FEIT is dat je het niet weet of AMD dit effectief doorgevoerd heeft als drukkingsmiddel.
FEIT is dat development van het game beslist heeft om eerst FSR te gebruiken
FEIT is dat dus al deze reacties assumties zijn en eigen meningen
FEIT is dat nvidia dit voorheen al gedaan heeft en dit ook bewezen is met documenten, dit hier is een verhaaltje
FEIT is dat AMD meer de bovenhand heeft in consoles (PS5-XBOX-Z1) en dat dit nu wel eens de gevolgen kunnen gaan zijn in de toekomst dat er meer R&D focus gaat dus naar deze GPU type......

[Reactie gewijzigd door d3x op 22 juli 2024 18:36]

Feit is dat AMD momenteel het implementeren van DLSS tegenhoudt in games die door hun gesponsord
Is dat een feit? want ik heb deze (terechte) beschuldigingen veel gelezen, maar nergens heeft AMD of een developer dit bevestigd.. komt bij het echte feit dat er wel AMD sponsored games bestaan die gewoon beide ondersteunen

Dus was de echte reden is dat het er (nu) nog niet inzit is volgens mij nog steeds speculeren
Net als met Nvidia, dat Gameworks word gebruikt met extreem veel Tesselation, om extra slecht op AMD hardware te draaien. Iets wat Gamedevlopers en of Nvidia dat nooit heeft bevestigd. Dit werd altijd aangehaald in het Anti Nvidia topic op tweakers door een aantal AMD fanboy's.
Bij Nvidia zijn talloze voorbeelden in het verleden waarin ze kunstmatig hun eigen kaart een prestatie voordeel gaven ten koste van AMD hardware en Nvidia's vorige generatie hardware zonder dat de consument er enig voordeel van had.
Bv die extreme overkill aan Tesselation.

Bij AMD zijn die voorbeelden er niet. Er zijn zelfs talloze games die met AMD kaarten gebundeld werden die helemaal niet zo goed speelden op een AMD kaart.
Daar was het gewoon een deal van de marketing afdeling met een game developer en niks geen rare truukjes.

In dit geval is de reden veel simpelere. De xbox ondersteunt FSR dus die moeten ze wel implementeren.
En dan heb je ook gratis FSR voor de PC versie.
DLSS is dan veel extra kosten en tijd voor iets wat een miniscuul kwaliteit verschil geeft voor een beperkt aantal Nvidia kaarten. Totaal geen nuttig investering van tijd en geld.
Compleet vanzelfsprekend dus, dat Microsoft er dan voor kiest alleen FSR te implementeren.

Je moet echt een alu-hoedje Nvidia fanboy zijn om hier een samenzwering in te zien.
Heb jij daar bewijs van dat Nvidia en de gamedeveloper toegeven over whataboutism gesproken, dit is echt typisch iets wat de AMD fanboys altijd aanhalen maar kunnen nooit het bewijs tonen dat Nvidia dat toegeeft. En nee DLSS is niet veel extra kosten, het is juist simpel toe te voegen. Nvidia zelf bied een laag aan waar alles goed in word ondersteund en simpel is toe te voegen.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

Wat betreft DLSS is het maar net welk verhaal van Nvidia je wil geloven. Volgens Nvidia werkt het veel beter dan FRS omdat de developer game specifiek optimalisaties toevoegt. Waar FRS generiek werkt.
Ik verwacht dat dat zwaar overdreven is en het net zo generiek werkt als FRS en daarom ook simpel toe te voegen is. Vertel maar welke uitleg van Nvidia jij kiest om te geloven.
maar kunnen nooit het bewijs tonen dat Nvidia dat toegeeft.
Dus als iemand geen schuld toegeeft dan zijn ze onschuldig? Jij gelooft ook dat 99% van de mensen in Nederlandse gevangenissen onschuldig zijn?
Nvidia heeft nog nooit in haar geschiedenis toegegeven dat ze vuil spel speelden. Hoe onomstotelijk het bewijs ook was.
Ook niet toen er 100% bewijs was, dat ze benchmarks aanpasten zodat de benchmark niet volledig uitgevoerd werd en daardoor hogere scores haalden, die in de praktijk bij een spel nooit mogelijk zouden zijn. Dat was geen optimalisatie maar puur bedrog. Dat was het 3DMark schandaal, maar je bent waarschijnlijk te jong om daar weet van te hebben.

Dus vragen om bewijs dat Nvidia toegeeft dat ze vuil spel spelen is vragen om het onmogelijke.
Dat zal Nvidia pas doen als pasen en pinksteren op één dag vallen.

De tesselation truuk is een kwestie van 1+1 = 2, ook al bevestigt Nvidia niet dat het 2 is. We kunnen zelf ook rekenen. Als je weet wat tesselation is, dan zie je ogenblikkelijk welke truuk Nvidia gebruikte en dat dat alleen maar schadelijk was voor de eindgebruiker.

ATI is in diezelfde tijd ook beschuldigd dat ze vuil spel speelden. Die hadden een optimalisatie specifiek voor Quake die een uiterst minimale vermindering van beeldkwaliteit veroorzaakte. (vrijwel onzichtbaar tenzij je met specifieke tools aan de slag ging) maar een flink betere prestatie.
Het werkte niet alleen in de benchmark, maar ook gewoon in het spel.
https://www.theregister.c...5/dont_give_a_frag_about/

ATI heeft toen toegegeven dat ze dat deden, en dat het de schijn tegen had. Ze hebben toen beloofd voortaan nooit meer zo iets te doen. Als er een optimalisatie mogelijk was, dan zou het altijd de keus van de gebruiker zijn en nooit stilletjes toegepast worden.
Dlss werkt vervolgens de reviewes beter en dat laten ze ook zien met beweis. Gamernexus TPU, in deze heb ik het niet van Nvidia.

Overder de rest, geen bewijs is geen feit punt uit. Nvidia is er ook nooit voor veroordeeld.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

in deze heb ik het niet van Nvidia.
Nu verander je het onderwerp. De reviewers weten niet hoe moeilijk DLSS te implementeren is, en doen daar dan ook geen uitspraken over.
Overder de rest, geen bewijs is geen feit punt uit.
Iedereen die snapt wat tesselation is, en ziet hoe de tesselation daar is toegepast heeft het spel als objectief bewijs. Punt uit!
Nvidia is er ook nooit voor veroordeeld.
Op basis van welke wet zouden ze dan veroordeeld moeten worden?
Ze hebben samen met een fabrikant een spel kunstmatig zodanig gemaakt dat het alleen op hun nieuwste generatie kaart goed werkt, en die van de concurent en hun eigen vorige generaties niet goed werkt.
Dat is onethisch en slecht voor ons als klant, maar er is geen wet die dat verbied.

Het is ook volstrekt onmogelijk om alles in wetten te regelen. Het is nogal naief om dat te verwachten.
Maar jij zegt dat Nvidia dit doelbewust deed, het kan net zo goed de gamedeveloper zijn die gewoon niet goed optimaliseerd, verder is er 0 bewijs ook dat dit bewust is gedaan. Ook is het niet stelselmatig want er is een keer gekeken naar tesselation in Crysis 2 waar niemand direct kon aan tonen dat Nvidia dit doelbewust heeft gedaan ook al is het niet aanpasbaar.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

Nee dat kan absoluut niet het geval zijn.
Dit is geen kwestie van niet goed optimaliseren, dit is overduidelijk een kwestie van heel bewust de zaak verzieken.

Het is absoluut onmogelijk dat de persoon die dit heeft gedaan dat niet doelbewust heeft gedaan. Dat is zonneklaar voor iedereen die iets van tesselation begrijpt.

Dat is vergelijkbaar, met dat jij vanmiddag 200 km/h op de snelheid rijd en wanneer je word staande gehouden door een agent dan vertelt dat je dat onbewust deed. Dat je dacht dat je maar 100 km/h ging.
Kan er bij een rechter bewezen worden of jij het bewust deed? Nee, maar een rechter zal absoluut concluderen dat je dat niet onbewust kan hebben gedaan en je daarvoor veroordelen.
Nee dit is helemaal niet vergelijkbaar want er is geen bewijs van jou bewering dat Nvidia of de gamedeveloper dit doelbewust heeft gedaan. Dit is niet meer dan een conspiracy theorie.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

De agent heeft jou geklokt op 200 km/h en in het spel hebben we het bewijs van de tesselation op 200km/h niveau.
Het zijn beide objectief vast te stellen situaties die onmogelijk onbewust gedaan zijn.
Onzin dat er zo veel tesselation word gebruikt kan worden aangepast want het is een plug in iets. Het hoeft dus niet bewust te zijn gedaan en kan puur luiheid zijn. Maar zoals jij maak je er ook je eigen verhaal van zonder dat er bewijs voor is dat het ook zo is.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

Nee, dat was geen plugin.
En nogmaals, 200 km/h rijden op de snelweg is geen luiheid dat je niet vaak genoeg op je teller keek.

Voor iedereen die kennis heeft van Tesselation is het zonneklaar dat dit onmogelijk onbewust kan zijn gedaan.
Maar als jij perse je kop in het zand wil steken, dan doe je dat maar lekker. Ik zal er niet wakker van liggen.
Ik lig er ook niet wakker van want ik weer dat je zelf de keuze heb als devloper de hoeveelheid tesselation is aan te passen. En niemand weet wie er achter zit om overbodig veel tesselation toe te passen.
Niemand die ooit heeft beweerd dat de developer die keuze niet heeft. Juist het feit dat de developer bewust voor een belachelijke hoeveelheid tesselation heeft gekozen, is het cruciale punt hier.
En niemand weet wie er achter zit om overbodig veel tesselation toe te passen.
Alleen hele naieve mensen weten niet wie of wat er achter zit om overbodig veel tesselation toe te passen.
De rest van de wereld met meer dan 2 hersencellen weet het wel.
Dus zonder bewijs wil jij iemand aanwijzen hoe dit tot stand is gekomen. Kun je wel gaan trollen maar daar heb je mij niet mee zielig figuur.
Helemaal niet zonder bewijs. Het bewijs is het spel zelf.
Wederom: Het bewijs is dat jij 200 km/h reed dat objectief vast te stellen is.
Het bewijs is dat tesselation op het niveau 200 km/h zat dat objectief vast te stellen is.

Je kunt bij een rechter claimen dat je het onbewust deed, maar er is geen enkele rechter die daar in trapt.

Het bewijs is overduidelijk. Alleen doe jij een andere interpretatie van dat bewijs.
Jij ziet 200km/h en denkt: nou dat kan prima waar zijn dat iemand volledig onbewust 's middags op een Nederlandse snelweg 200 km/h reed.
En daarom noem ik je dus naief.
Het is geen bewijs omdat niemand de intensie weet of dat het perongeluk is omdat het een pakket is. Dat er niet geoptimaliseerd is ligt bij de developer. Of heb jij bewijs dat Nvidia de developer een zak geld geeft en de hoeveelheid tesselation extreem toe te passen.

Nvidia zit hier niet achter tot dat het tegendeel kan worden bewezen en dat bewijs is er niet.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

Je bevestigt precies wat ik al eerder zei:
Jij ziet 200km/h en denkt: nou dat kan prima waar zijn dat iemand volledig onbewust 's middags op een Nederlandse snelweg 200 km/h reed.

We verschillen dus van mening over de wijze waarop het bewijs geinterpreteerd moet worden.
Bewijs moet tastbaar zijn vind ik anders kan ik er niks mee. Sorry.
Het bewijs is tastbaar.
Het is de interpretatie van het bewijs waar we van mening verschillen.
Snap gewoon niet waarom ze FSR en DLSS en XeSS toepassen, dan is iedereen toch blij?
Ik snap ook niet waarom ontwikkelaars niet gratis willen werken en waarom testers hun werk niet kunnen doen zonder dat het tijd kost. De grote mysteries van dit universum waar we waarschijnlijk nooit achter gaan komen 8)7

[Reactie gewijzigd door rbr320 op 22 juli 2024 18:36]

Ja want met upscaling technieken moet je per techniek je hele engine opnieuw testen 8)7 8)7
Uhm context? Wat nou met het artikel te maken? Is toch volledig off-topic?
Ben bang dat dit weer een typisch gevalletje wordt van wacht een paar maanden na release met spelen.

Alle Bethesda rpgs spelen nogal beroerd zonder de unofficial patches en tegen die tijd zal iemand DLSS er wel in hebben gemod.
Denk dat dat wel meevalt. De voorgaande games van Bethesda waren echt haastig op de markt gebracht, met als toppunt Fallout 76 waar ze maar twee jaar de tijd voor kregen en vervolgens kregen we voor de release al een excuus over de staat van de game 8)7

Dat was ook het plan voor Starfield - Zenimax zou de game oorspronkelijk in 2021 al hebben uitgebracht, tot Microsoft de boel overnam en ze twee jaar extra gaf.

Wat betreft een DLSS mod, dat komt vrijwel direct.
De mod is alleen wel betaald. Ik snap dat PureDark er tijd insteekt en hij/zij daarvoor compensatie mag vragen. Hij/zij heeft hetzelfde voor andere games zoals Jedi Survivor & the Last of Us gedaan. Het is alleen jammer dat we nu tijdperk ingaan met 'upscaler exclusives' waarbij dat vaak bij AMD sponsort games het geval is.
Hoezo? In tegenstelling tot DLSS is FSR ook te gebruiken met Nvidia GPU's. Er is dus niks exclusiefs aan
Hoezo? In tegenstelling tot DLSS is FSR ook te gebruiken met Nvidia GPU's. Er is dus niks exclusiefs aan
In tegenstelling tot DLSS draait FSR op Cuda cores op een nVidia kaart. Dus je levert relatief veel meer performance in, in vergelijking met een kaart waar je DLSS op de Tensor cores kan offloaden.

Dat het bruikbaar is wil niet zeggen dat het ook de preferente oplossing is. Het is vooral iets dat mensen met oudere kaarten of low-end kaarten nodig hebben. En als je op een RTX2060 draait, dan is FSR substantieel trager dan DLSS, puur doordat het op Cuda cores draait, niet op Tensor cores.

Dus wat mij betreft is het leuk voor AMD eigenaren waar het een stuk beter werkt dan op Intel of nVidia kaarten.
Ik ben het met je eens dat DLSS op dit moment een betere techniek is. Maar ik hoop dat FSR het gaat winnen qua ondersteuning. Puur om het feit dat het een open standaard is.
FSR zou ook goed doorontwikkeld kunnen worden waardoor GPU’s er beter mee om zullen gaan.

NVIDIA kan er voor kiezen hun drivers zo te ontwikkelen dat de Tensor cores FSR kunnen afhandelen, ze kiezen er echter voor dit niet te doen om zo hun eigen techniek aan game ontwikkelaars te kunnen forceren zonder dat daar andere GPU makers op mee kunnen liften.

FSR zal mits goed doorontwikkeld dus uiteindelijk hetzelfde kunnen bieden, zonder afhankelijk te zijn van de monopolie die een GPU maker heeft.

Ps ik wil niet de techniek van Nvidia afkraken of de goede kaarten die ze maken. Ik heb alleen een hekel aan het forceren van technieken waar andere merken niet om mee mogen liften.
Ik zeg hiermee niet dat dit gratis moet zijn, maar net zoals AMD en Intel licentie’s van elkaar afnemen zou ik dit ook graag zien voor GPU technieken die in mijn ogen redelijk essentieel zijn.
Tuurlijk betalen de grote GPU ontwikkelaars al licenties aan elkaar, maar daar waar AMD veel technieken “open” maakt, verbied Nvidia bepaalde technieken zelfs aan concurrenten. (Waar deze zelfs tegen betaling niet mogelijk zijn)

Met de grote bedoel ik ook
-Nvidia
-AMD
-Intel
-Apple
-ARM
-Qualcomm
-Samsung
-Matrox
-VIA
-Unilever (ja dit bedrijf blijkt ook aardig wat te ontwikkelen en hiervoor patenten te bezitten, daarnaast brengen ze ook GPU’s uit onder de “EVGA” merknaam. Maar dit staat los van de patenten waar anderen weer gebruik van maken)
Ik denk dat je Evga S.A en EVGA hier door elkaar haalt. Dat zijn twee zéér verschillende bedrijven die niets met elkaar te maken hebben.
Nee, EVGA blijkt echt in bezit te zijn van Unilever.

EVGA is a graphics card manufacturer based in California, United States. It’s a subsidiary of Unilever PLC, the multinational consumer goods company headquartered in London, United Kingdom.

Bron: https://history-computer....e-world-and-what-they-do/

Edit: ze zijn na hun vertrek uit Nederland wel bezig om alle bedrijfsactiviteiten die niks met eten, verzorging of huishouden te maken af te stoten. Dit in opdracht van de aandeelhouders die hebben besloten dat Unilever zich meer op de kernactiviteiten moest gaan focussen.
Wat hiervan de status is kan ik alleen niet terugvinden.

[Reactie gewijzigd door JBVisual op 22 juli 2024 18:36]

EVGA is gestopt met videokaarten, moederborden en wat ik begreep vanuit intervieuws tussen gamers nexus en kingpin(die er weg is) is dat heel EVGA aan het afbouwen is. Mogelijk zie je iemand anders straks de merknaam EVGA op hun eigen producten slingeren.
Ik snap dat ze gestopt zijn met het maken van videokaarten, Unilever heeft alleen nog wel veel patenten in handen voor videocompressie en verwerking.
Ze zijn misschien gestopt met het maken van videokaarten.
Maar het maken van videokaarten en het ontwikkelen van technologie hiervoor, zijn natuurlijk 2 verschillende businessmodellen.

Op het moment van schrijven bezit “Unilever” maar liefst 451 patenten gerelateerd tot videocompressie en verwerking.
EVGA is a graphics card manufacturer based in California, United States.
Dan nog is dit dus niet waar natuurlijk.
Dat terzijde is het bezitten van patenten natuurlijk ook iets anders dan het ontwikkelen van technologie. Al weet ik niet hoe het daarmee staat op dit moment.
Dan denk ik dat iemand bij de site die je benoemt als bron een foutje gemaakt heeft. Unilever heeft, in 2010, Evga S.A overgenomen, niet EVGA. Zie ook https://www.unilever.com/...s/acquisitions-disposals/ (naar 2010 scrollen).
Bedankt voor je aanvulling.
Ik nam de bron voor waarheid aan omdat Unilever maar liefst 451 patenten bezit voor video compressie en bewerking.
Het gaat om patenten die daadwerkelijk onder naam van Unilever staan op het gebied van technologie en gepubliceerd zijn op epo.org.
Volgens mij bezit Unilever nog een hele boel patenten voor het bewerken van video en compressie er van ;)
Een unsourced artikel die een onrealistische claim doet? Ik hoop dat je dat niet serieus meent.
Ik hoop eerlijk gezegd niet dat FSR het gaat "winnen". Tenzij AMD zich de moeite gaat nemen om FSR zo te implementeren dat het de boel vertaalt naar DLSS en XeSS calls.

Ik zou veel liever zien dat er hetzelfde gebeurt als bij raytracing. Laat MS en Khronos maar een implementatie maken in hun middleware, in plaats van dat we afhankelijk zijn van een fabrikant specifieke implementatie.

FSR mag dan een open standaard zijn, het is ook wel de minst effectieve en efficiente van de drie. Ik zou veel liever een optie in games hebben waar gewoon bij staat "enable upscaling bla bla bla" en dat Vulkan of DirectX de boel verder afhandelt met de driver. FSR voor AMD kaarten, XeSS voor Intel, en DLSS voor nVidia.

Ik zit als Intel/nVidia gebruiker helemaal niet te wachten op een AMD oplossing die nog niet half zo goed werkt als de native oplossing. En op dezelfde manier zullen AMD gebruikers niet zitten te wachten op games die alleen XeSS of DLSS implementeren.
Haal dat gewoon weg uit de games en verplaats het naar een HAL, waar het thuis hoort.

Dit hele gedoe doet mij denken aan games in de jaren 90, waar je 6 verschillende executables kreeg, omdat je voor elke 3D accelerator zo ongeveer een aparte compile moest doen.
Of bijvoorbeeld een game als Need For Speed 2, waar je per-se de Special Edition moest kopen om hardware support voor je Voodoo kaart te krijgen. Of je gewoon dikke pech had als je een KyroVR of S3 Savage had, want dan moest je het doen met software rendering.

Dit soort implementaties hoort gewoon niet in de game zelf thuis, het hoort in een HAL thuis, zodat iedereen gewoon de voor zijn GPU optimale techniek kan gebruiken.
Vergeet niet dat Fsr en Dlss twee compleet verschillende technieken zijn. Fsr is niets meer dan een software matige upscaler en downsampler. Dlss daarintegen maakt gebruik van super computers die bij Nvidia staan waar een ai op draait die echte game beelden annalyseerd die vaak 64x upsampled zijn en de data die daar uit komt wordt mee geleverd met de Nvidia drivers en de tensor cores op de Nvidia kaarten klaren het klusje.

Ga daar maar eens een open standaard van maken.
Het lijkt mij ook wel duidelijk dat Dlss veel betere resultaten levert dan Fsr.
Dlss daarintegen maakt gebruik van super computers die bij Nvidia staan waar een ai op draait die echte game beelden annalyseerd die vaak 64x upsampled zijn en de data die daar uit komt wordt mee geleverd met de Nvidia drivers en de tensor cores op de Nvidia kaarten klaren het klusje.
nVidia marketing, dit is allang ontkracht en zo diep is DLSS echt niet

DLSS werkt bijna precies zoals FSR 2.0, ze gebruiken wel AI maar alles gebaseerd op een template, er is echt geen Super computer die alles aan het berekenen is

[Reactie gewijzigd door Sinester op 22 juli 2024 18:36]

Waarom moet een techniek het winnen implementeer gewoon een library die alle 3 doet. Meerdere games doen dat al. Blijkt gewoon de intel werkt beste op hun cpu zelfde voor nvidia.
Dit is niet waar. Beiden geven even veel performance. Dit is al lang bewezen door hub enzo. Het enige wat dlss wel beter doet is de kwaliteit van de beelden. Maar de meeste mensen zullen dit never nooit merken als ze gewoon gamen. Misschien als ze stil staan en 2 beeldschermen naast elkaar hebben staan 1 met fsr en 1 met dlss. Dan ja. Maar performance is hetzelfde. Een geeft je niet meer fps dan de ander want beiden doen precies hetzelfde. De game draaid op een lagere resolutie en wordt geupscaled. De een is gewoon beter in het upscalen gedeelte dan de ander.
Weet niet of HUB recent nog een update hier over heeft uitgebracht maar voor zo ver ik weet verzin je nu je eigen conclusies terwijl HUB wel degelijk de voorkeur uitsprak voor DLSS.

Er waren ook voorbeelden van problemen die je zeker ziet terwijl je aan het spelen bent.
dat is alleen waar als je het over beeldkwaliteit hebt. NIET over de performance van de upscaler. Zowel fsr en dlss geven je hetzelfde boost in fps. dit is bewezen keer op keer. want ze doen precies hetzelfde. als het gaat om de downscalen en upscalen. het verschil is dat de een alleen beter is met het beeld weer correct te faken dan de ander.

En qua image quality is dlss idd beter maar zoals hub ookal heeft aangemerkt in 2/3 spellen is het een beetje beter. en dat je het niet zal merken als je gewoon je spellen speelt. dit zie je in hun 26 games summery gedeelte.
waar 2 spellen veel beter eruit zien met dlss. 7 wat beter met dlss. 12 een klein beetje beter met dlss. en 5 die hetzelfde zijn tussen dlss en fsr.
Ik denk dat je misschien ook onderschat hoeveel niet-RTX kaarten er nog worden gebruikt? En FSR is qua performance niet ideaal maar werkt wel overal. Lijkt me geen vreemde concessie. Ideaal is natuurlijk als alle technieken beschikbaar zijn :)
Als ik kijk naar mijn ervaring (n=1) met FSR op een zwaar OC'd GTX970 was niets dan een teleurstelling. De grafische kwaliteit ging veel meer achteruit dan ik verwachtte en ook de framerate was beduidend minder.
En dan testte ik dat in games waarin ik op native 1080p met medium-high settings 50FPS haalde, en met FSR 720p met dezelfde medium-high settings verwachtte dat ik dan wel 60+FPS zou halen kwam ik eerder uit op 30 dan op 60. Blijkbaar was het voor mijn 970 zwaarder om FSR upscaling te doen, dan te renderen op een hogere resolutie.

Met mijn huidige 4070 is het totaal niet interessant al die upscaling, zeker niet gezien mijn 1080p60 monitor. Deze kaart draait tot nu toe, op een enkele slechte PS5 port na, gewoon alles op ultra en vaak ver boven de 60FPS.

En ik denk dat het wat dat betreft dus ook knap kan tegenvallen als je FSR op een 2060 of 3050 wil gebruiken. Je bent dan veel beter af met DLSS, omdat je dan niet een derde van je GPU links laat liggen.
Zou dit niet eerder kunnen liggen aan de 970's ram opstelling van 4gb wat meer 3.5gb is? Vooral omdat het bij fsr en upscaling het de framebuffer moet - lijkt mij - kopiëren? Daarnaast is FSR niet echt bedoeld voor 720p/1080p native gemaakt, en meer voor 1440p/2160p, dat is vaak ook de conclusie van reviewers.
Wss, meeste spellen tegenwoordig zelf op 1080p gebruiken meer dan 3.5gb op medium+. En zelfs op low in veel spellen
Nog veel beter is het wanneer we beide technieken niet nodig hebben en gewoon native resoluties gebruikt worden.
Tsja ik wil ook graag kunnen spelen met mijn antieke 1070 Ti ;-)

Maar idd een videokaart uit het midden of hogere segment heeft waarschijnlijk geen DLSS of FSR nodig om lekker speelbaar te zijn.
Klopt, maar het maakt mij niet uit of het nu partij a, partij b of partij c is. Ik denk dat AMD wel degelijk de developers van Starfield ervan hebben weerhouden om Intel Xess en Nvidia DLSS te implementeren. AMD weet dat laatst genoemde technieken vaak beter is dan hun eigen techniek.

Als PC gamer objectief win je hier niks mee. Dit soort dealtjes/beperkingen zijn natuurlijk niet nieuw, Nvidia is net zo schuldig aan dit soort praktijken toen met geloof ik Crysis 2 die onnodig veel tesselation in games had omdat AMD daar destijds veel minder is was.

En de recente ports naar PC dit jaar zijn al vrij matig, dit maakt het niet veel beter. Naast dat sommige developers upscalers nu gebruiken om spellen überhaupt speelbaar te krijgen.
Als het exclusief DLSS was, was er wel een mod naar FSR gekomen, zie de community mods voor GTA5 en RDR2 die met aangepaste DLL's gewoon DLSS naar FSR2 omleiden terwijl de game dacht dat je DLSS gebruikte. Niet heel snel daarna kwamen er officiele updates die native ondersteuning voor FSR toevoegden.

Xess schijnt de nog betere variant te zijn, echter is de FSR1 iets heel anders dan FSR2 en het aankomende FSR3, en ben ik best te spreken over FSR2 in 4K vs DLSS2

DLSS is echter een Nvidia Vendorlock omdat non-nvidia componenten het niet kunnen gebruiken. Het is wel de beste standaard, maar dat houd niet in dat die het wint(net zoals VHS het won van Betamax en VCC). Gezien de consoles op AMD hardware draaien die ongetwijfeld ook een vorm van FSR benutten, is het niet onwaarschijnlijk dat dit tijdens het porteren naar PC de voorkeur heeft want snelste klaar, XeSS en DLSS kun je dan later nog toevoegen.
Denk eerder dat conspiracy bs is.
Starfield is Xbox windows exclusive dus denk eerder dat grote MS bepaald wat er gebeurt.
En XboxX dat deze zware game 30fps moet draaien zal het upscaling gebruiken.
En dus XboxFSR voor RDNA2xb en dan is de stap naar FSR voor windows stukje kleiner, kleiner dan dlls er in bakken wat al klein is maar niet crusial is om game op windows met nv te kunnen spelen.
AMD? Dat heb ik al jaren bij Nvidia. Dat logo vloog bijna altijd voorbij bij het starten van games. Heftig spatie of esc drukken om sneller door de opstart filmpjes heb te komen hielp helaas bijna nooit maar ik ben blijven proberen.
Het gaat niet om logo filmpjes maar om het weerhouden van het gebruik van technieken van de andere partij... Niet dat Nvidia daar onschuldig is maar zeuren over welk filmpje er getoond wordt is wat mij betreft dus, eh, gezeur :+
Zeuren? Zulke games runde dus dan vaak beter op nvidia kaarten dan op AMD kaarten. Dat is vervelend voor de consument.
Tja, dan moet je dat zeggen in plaats van dat je het filmpje niet kon skippen...
Die mod gaat gewoon gelekt worden.
Zelfde als jedi survivor
Tja Microsoft is er ook niet vies van half gebakken games uit te brengen zoals Halo Infinite of Redfall.

En Bethesda heeft gewoon geen goede track record met game launches.
Zelfs rereleases van Skyrim sloopte mod support en waren buggier dan de originele release met fan patches.
Redfall is ontwikkeld door Arkane Austin, die onderdeel is van ZeniMax studio's, die sinds 2021 onderdeel is van Xbox Studio's.

En iedereen weet dat Bethesda Softworks ook onder ZeniMax valt. Bethesda Softworks brengt niet alleen Starfield uit, maar ook Redfall.

Dus met andere woorden, Bethesda heeft Redfall in een belemmerde staat uitgebracht. Misschien heeft Microsoft wel liggen pushen, maar het is en blijft nog altijd Bethesda Softworks die Redfall in een belemmerde staat heeft uitgebracht.

En ja, je hebt gelijk. ZeniMax heeft echt goede games, alleen is de afwerking van hun games altijd in een belemmerde staat. Hetzelfde met CD Projekt Red, zéér goede games maar altijd bugged en unpolished, dit was niet alleen met Cyberpunk 2077 maar ook met The Witcher. Beide uitgevers en ontwikkelaars maken zo'n goede games, maar altijd in een belemmerde staat.

[Reactie gewijzigd door Toonen1988 op 22 juli 2024 18:36]

Ja Redfall is begonnen met ontwikkelen voordat Microsoft Zenimax had gekocht maar uitenlijk is het wel uitgebracht onder Microsoft met hun goedkeuring.

Als Phil Spencer echt gaf om de kwaliteit van de games had hij gewoon gezien dat Redfall zo niet de deur uit kan gaan en hier wat aan gedaan.

Het feit dat de xbox series x versie 30fps wordt geeft me nou ook niet echt veel goede hoop zeker als je ziet dat de graphics er niet heel next gen uitzien.

[Reactie gewijzigd door phray op 22 juli 2024 18:36]

Wat een gekken zeg, 30FPS op de Series X. Ze zijn mij gelijkt kwijt als klant.
Je kon er vergif op innemen dat we later in de gen 30fps weer zouden zien.
Elke generatie sinds gen 7 deed dit. Met de reveal zeggen dat ze 60 willen en dan halverwege weer terug naar 30.

[Reactie gewijzigd door Xander.M op 22 juli 2024 18:36]

Nou helemaal niet strafield is complexere game met verre draw distance dus APU is mogelijk kwa rauwe power toch te licht oo PC geen probleem. Gezien dat game gfx hoge ogen gooid is daar niet in gehakt en moet de fps omlaag en zo ook geen native resolutie rendering wat al heel lang in console branch wordt gedaan dus is FSR voor de xbox versie een requierment in de productie. En windows fork/branch neemt dat ook mee.
Voor publsiher is hoge gfx belangrijker dan hoge fps. Omdat gfx marketable is en FPS niet. Op PC heeft gamer de keus meer gfx of meer fps en ander upgrade naar wat beters. Op console is die keuze op publsiher/dev niveau al gedaan.
FPS is ook marketable en dat gebeurt net zo goed, zelfs op de consoles. Daar gaat het hier niet om, GFX is hier ook niet van een torenhoog niveau of zo, dus dat argument begrijp ik uberhaupt niet voor Starfield. Het ziet er OK uit. En je ziet ook dat dit nog altijd door Creation Engine gedragen wordt, in sommige scenes waan je je in Fallout.

Daar zit dan ook de crux. Creation is altijd al een ramp geweest qua CPU load en ook hier is het zelfs in de trailers al herkenbaar. Choppy camera en character mocap, bedroevend slechte blur/bokeh (shot in cockpit bijv.), wazige particles met bloom en meer van dat fraais. Nieuwe API, same shit, het voelt nog altijd alsof je een game uit 2005 ziet. Best knap :)

Maar goed, Bethesda verkoopt met dit soort games ook geen graphics, het verkoopt een lekker grote sandbox met wat RPG-light eroverheen.

[Reactie gewijzigd door Vayra op 22 juli 2024 18:36]

Wat had je verwacht? Iedere 'nieuwe' engine is gebaseerd op een oude engine. In principe zal de 2022 CoD:MW2 versie nog steeds id Tech 3 code bevatten. Doom en Doom Eternal zal ook steeds id Tech 3 code bevatten. Toch zijn het totaal andere engines. Dit kan ook zo zijn met creation. Misschien is er wel een flinke herziening geweest.
Misschien wel, maar het track record zegt ons van niet, net zomin als de typische elementen die je terugziet van oudere games. Mocap is belachelijk slecht bijvoorbeeld, en zo zijn er nog wat van die zaken die je verwacht in games uit 2005. Als je Bethesda daarin het voordeel van de twijfel gunt dan heb je niet echt opgelet de afgelopen tien, twintig jaar.

[Reactie gewijzigd door Vayra op 22 juli 2024 18:36]

Het ziet er gewoon goed uit. Ik weet niet wat je met next-gen bedoeld, deze generatie is nu al bijna 3 jaar aan de gang. Het ziet er gewoon goed uit voor een game deze generatie.

Het is 30 fps omdat ze een bepaalde grafische kwaliteit willen garanderen. Het vreemde vind ik dan wel dat je op de PC waarschijnlijk wel gewoon low kunt kiezen. Dus daar kunnen ze die kwaliteit ook niet garanderen. Geef Xbox-spelers dan gewoon ook de keuze.
De facial animations zien er gewoon niet uit. Games van 10 jaar terug deden dit beter. En verder zien we ook geen vorm van Raytracing.
Je wilt RayTracing? Misschien zit het er in een milde vorm wel in gezien de 30fps. Hoewel de kans klein is, omdat dit een AMD-game is en die GPU's niet geweldig zijn met RT. Persoonlijk hoeft het voor mij niet. De performance hit is het voor mij nog niet niet waard en al helemaal niet op de consoles.

De gezichtsanimaties kunnen inderdaad beter, maar ik kan het ze vergeven omdat de resources gewoon anders zijn in gezet en de nadruk in deze game totaal ergens anders op ligt.
Exact, Bethesda verkoopt geen graphics. Maar laten we dan ook niet doen alsof er nu iets radicaal nieuws uit gaat komen. Je moet jezelf niet voor de gek houden omdat je een game op je wensenlijst hebt staan vind ik. Je kunt op je klompen aanvoelen dat dit weer een groot bugridden shitfest wordt, zeker op launch, en dat de performance waarschijnlijk om te janken zal zijn. Daarmee kan Starfield nog steeds de moeite van het spelen waard zijn ;)

'Het ziet er gewoon goed uit'... sorry maar met die animatie kwaliteit toch echt niet. Dit is Fallout 5.1 in de ruimte, meer niet.

[Reactie gewijzigd door Vayra op 22 juli 2024 18:36]

Denk dat je belabberde bedoelt ;)
Klopt, mijn dialect nam het even over. :D
Nouja. Halo Infinite draaide tenminste gewoon en crashte niet en andere rare issues zoals dat je save word gedelete. Dat is bij Bethesda nog weleens anders op launch geweest; vooral op last gen (PS3/X360) waarbij je gewoon letterlijk had dat je saves vaak corrupt werden en je opnieuw kon beginnen.
Infinite heeft problemen op Windows 11. Ook bij mij crashed het spel heel vaak zodra hij klaar is met laden van een level. Ik had graag jouw ervaring gehad.
Tja, toch hebben beide games extra tijd gekregen - wat bij Zenimax nooit het geval was. De problemen van Halo Infinite en Redfall lagen toch eerder bij de ontwikkeling zelf.

Overigens was Halo Infinite ook zo slecht weer niet. Redfall hadden ze beter kunnen annuleren.
Beide games waren denk ik een geval waarbij meer ontwikkeltijd de game niet beter hadden gemaakt. Daar spelen andere problemen.

Phil heeft tussen lippen door toegegeven dat het hem daar in het geval van Redfall in ieder geval in heeft gezeten. Het was gewoon tijd om het uit te brengen en door te gaan naar iets anders. Ben het met je eens dat annuleren beter was geweest.

Halo Infinite heeft echter wel een hele solide campaign. Ook de MP is in de basis niet slecht. Ik denk dat daar het management rommelt waardoor ze de boel niet op de rit kregen.
Het probleem van productie tijd niet halen is dat je lange periode van crunch tijd krijgt. Dit is op source code niveau nemen van shortcut dus grote kans op introductie van bugs. Op assets is dat er weinig tijd over is om assets ook te optimaliseren en dus onnodig zwaar kunnen zijn. Naast logische bugs zoal knel punten die speler kunnen blokkeren wat dat niet zou moeten. Of vast hangen in hoekje. Of zakken door de grond etc.
Wat ook beteken zeer korte q&a traject en polish kan je helemaal vergeten.

Als er dan uitstel is dan heb je dan te maken met puinzooi die gecreëerd is. Meerdere delen van de game zijn in wip status en verdere iteraties kunnen invloed hebben op andere en dus bugs op duiken. De overvloed aan bugs kan ook ding zijn. Er is dan voornamelijk tijd voor de meest critical bugs. Wat ook mogelijk is dat ms grote invloed op de productie had mogelijk features dus change eisde en je dan uitstel krijgt om dat de implementeren en met uitstel van meerdere jaren is dat die invloed zeer groot kan zijn. Maar als je daarvoor de tijd krijgt is dat geen probleem.
Wat groter probleem is slechte productie planning , maar publisher change eisen zonder compensatie met bijbehorende productie tijd zo ook dat ingepland wordt en niet doen we effe erbij.
Niet ieder bedrijf gaat crunchen op het moment dat de deadline niet gehaald is. Daarnaast betekent crunchen niet direct een inferieur product. Enkele van de beste games allertijden hebben te maken gehad met crunch (GTA5).

Waar het meer op lijkt is dat in het geval van zowel Halo Infinite als Redfall de studio al de deadline over is gegaan maar er geen zicht is op een beter product door meer ontwikkeltijd. Redfall heeft MS zich nog redelijk afzijdig gehouden (hebben ze zelf ook toegegeven). Vermoedelijk hadden ze het (onterechte) beeld dat die studio (toch al wel wat moois afgeleverd..) de zaakjes wel op orde had.

Bij Halo is een solide campaign gebouwd en heeft men extra tijd gekregen om deze zo bugvrij mogelijk op te leveren. Daarnaast was de MP in de basis ook solide, maar lijkt de studio niet in staat zaken als matchmaking en netcode op orde te krijgen. Geen hoeveelheid tijd had dit kunnen verbeteren denk ik. Getuige ook het feit dat het nog steeds niet goed genoeg is.

Ik denk dat MS hier wel harde lessen van heeft geleerd en vanaf nu veel meer QA gaat afdwingen. Hoop ik althans..
Games krijgen meer tijd omdat het waarschijnlijk eerder nog vol met blocking issues zat, maak je geen illusies. Ze releasen het dan en patchen de rest er na de release uit, of niet.

[Reactie gewijzigd door Vayra op 22 juli 2024 18:36]

Inderdaad, maar ik ben bang de meeste mensen niet hun eigen games begrijpen waar je de meeste plezier eruit kan halen, Cyberpunk is gezien als een van de slechtste games uitgebracht. maar(als je de bugs negeerde) was het een geweldige game. Het voelde bijna tegen aan of ik Skyrim aan het spelen was, maar dan in the Toekomst. Had gehoopt meerdere mensen dat kon inzien. maar de nieuwe generatie let daar niet meer erop :/
Veel bugs is ook wel een beetje inherent aan het RPG genre. Baldur's Gate 3 is ook echt niet helemaal soepel.
Ik heb geen zin om weer de klassieke tirade in te gaan, maar als je denkt dat Cyberpunk 2077 een goede game was zonder de bugs dan denk ik niet dat je helemaal begrijpt in hoeverre het een RPG moest zijn, wat er beloofd werd, en wat er daadwerkelijk was voor de 1.5 patch. En zelfs daar na is de game met heel veel duwen en trekken misschien een voldoende waard.

Klinkt alsof ik jou aanval, dat bedoel ik niet helemaal, en ik heb geen zin om op maandag morgen in de Tweakers comments een essay van 3 pagina's te typen, maar Cyberpunk zit dichter bij Far Cry dan Skyrim, en lichtjaren weg van een 'goede RPG'.
Cyberpunk is gewoonweg een steengoede RPG. Dat was al zo bij launch, en is alleen maar verbeterd met de patches.

En indien je Cyberpunk dichter bij Far cry vindt, dan mag je ook The witcher geen RPG meer noemen. Want daar kan je ook alleen maar Geralt spelen met z'n "winds howling".
In mijn beeld is Cyberpunk flinterdun, zelfs nu nog. Er is een grote stad waar nog altijd geen bal te doen is dat meer is dan een paar collectibles verzamelen en wat random combat wat steevast leidt tot bizarre situaties en immersie-brekende interactiviteit (gedrag van politie en omgeving op geweld bijvoorbeeld). Het is nu iets beter, maar het blijft behelpen. De 'RPG' is alleen aanwezig binnen een verhaallijn die niet heel bijster lang is en buiten wat 'branches' niet echt heel diep gaat qua keuzevrijheid; uiteindelijk gaat het om enkele alternatieve slotscenes en that's it.

Het ziet er leuk uit, maar de game erachter is van een matige kwaliteit als je het mij vraagt. Skill trees / balance zijn ook na de revamp nog steeds een dramatisch geheel. Heel veel systemen werken matig of zijn een weinig interessante toevoeging aan de game. Crafting is nog steeds belachelijk net als de hele economie in het spel. Progressie voelt nog steeds niet lekker. En zo kan ik nog wel even doorgaan. Nee... ik heb Cyberpunk uitgespeeld en ben enkele keren teruggekomen, maar een echt goede game vind ik het niet. TW3 is van een totaal andere orde. Die game is af. Cyberpunk speelt en voelt als een project met een veel te grote scope en slechte uitwerking.
Ik consider The Witcher 3 inderdaad geen RPG, dus blij dat mijn standpunt blijft staan.
Cyberpunk een steengoede RPG noemen is wel haast satire in mijn ogen.
Dat was ook het plan voor Starfield - Zenimax zou de game oorspronkelijk in 2021 al hebben uitgebracht, tot Microsoft de boel overnam en ze twee jaar extra gaf.
Dat gaat echt helemaal goed komen, Bethesda en Microsoft, twee bedrijven die beide bekend staan om hun stabiele en bugvrije software, die de handen ineen slaan. /s
Fallout 76 heb ik pas na 3 jaar opgepakt om die reden (fantastisch spel, echt de moeite waard). Cyberpunk moet ik ook nog gaan spelen. Een delayed backlog is een goede game ervaring, zeker omdat er zoveel games zijn zit ik niet zit te wachten op 'het nieuwste'.

[Reactie gewijzigd door StarWars op 22 juli 2024 18:36]

Tip voor als je Cyberpunk gaat spelen en je hebt het nog niet, binnenkort komt de DLC expansion uit. Dan zal de mail game wel weer ff in de sale zijn bij Epic of GOG voor €15 of zo.
En voor de allerbeste ervaring, ga naar Nexusmods, neem een subscription van 1 maand (meteen opzeggen) en download één of meerdere van de beste mod collecties (THING is de beste, tevens "opvolger" van Welcome to Night City, maar beiden erg goed). Kost je €5.
Neem even de tijd om uit te zoeken hoe je dat goed installeert met Vortex (opnde discord staan uitgebreide instructies), en je hebt een AMAZING ervaring. Die modspacks maken de game zo veel beter nog dat ik niet meer zonder speel.
Daar hoef je geen abonnement voor te nemen bij nexusmods je kan ook zonder abonnement downloaden bij ze
Zekers, maar zijn een paar honderd mods. De auto install + hogere DL speedster schelen je een paar uur voor je pc zitten en klikken. Voor mij zeker de moeite waard.
Dat begrijp ik ik gebruik zelf maar een paar mods van nexusmods en dat is alleen voor MechWarrior 5 heb die toen via gamepass gekocht normaal koop ik via Steam mijn games vind het dan zonden van het geld om een abonnement te nemen voor 1 game
Dank voor de tips allemaal!
Volledig mee eens. Ik ben zelf ook een "patient gamer" geworden vanwege de vele haastig afgewerkte games, slechte ports en exclusiviteitsdeals die we de voorbije jaren hebben moeten slikken op PC. Voor mij heeft dat niets dan voordelen: ik betaal uiteindelijk een pak minder voor beter afgewerkte games.

Fallout 76 heb ik afgelopen lente gespeeld en is inderdaad een pareltje geworden.
Het ding is dus, dat lijkt juist enorm mee te vallen als je reviewers mag geloven:
"Also, 15 hours in and not a single bug"
https://twitter.com/OutThaacut/status/1692595939540660598
Als je reviewers mag geloven inderdaad.. Enige reviewers die ik geloof zijn de 100-1000dn mensen die na release de game reviewen. Gewoon een jaartje wachten is goud waard.
Nou, wat voor bug Ronny of Janus op hun rommelhardware krijgen is voor mij helemaal niet relevant, dus dat soort reviews mogen dan ook onmiddellijk de prullenbak in.
Ik ga nu iets zeggen wat compleet irrationeel is en volledig losgezongen van de werkelijkheid: gek genoeg heeft dat bij Bethesda ook z'n charme. Ik speelde eerdere Bethesda games ook bij release, en het was vaak ook wel erg grappig. Terwijl ik Skyrim nu nooit meer zonder mods zou willen spelen, zou ik ook die eerste playthrough zonder mods en met bugs voor geen goud hebben willen missen.

Ik snap mezelf ook niet.
Die achteruit vliegende draken waren stiekem erg grappig.
Dikke kans ja.
Vannile Skyrim en Fallout 4 draaien voor geen meter op PC, gezien de track record van ze wordt dat de Nexusmods maar weer in de gaten gaan houden (of een half jaartje wachten...) ;)
Ik ben optimistisch em hoop juist dat het betekent dat de game beter geoptimaliseerd is. Zodra een game DLSS ondersteunt kun je de game vrijwel niet zonder spelen, ontwikkelaars worden lui.
Indit geval dus FSR dus je zit met het zelfde probleem.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

Dat is inderdaad het geval. een jaartje wachten dan kan je er weer tegen aan. En dan weet je ook of het wat is of dat het helemaal niets is tegen die tijd.
Op dit moment heerst er een bijna cultische hype over dit spel. Kan me niet voorstellen dat het aan de wensen van deze mensen gaat voldoen.
Ik twijfel enorm ... Niet alleen vanwege de (té grote) scope (en de angst dat het misschien nog wel eens big on hype / promise, low on execution kan gaan worden), maar tevens vanwege de angst dat het op pc een locked 60 fps gaat zijn. Fallout 4 was ook een 'locked 60' waarbij een fps uncap kon leiden tot crazy physics / timings, want Creation Engine. |:(

De bevestiging dat de 'AMD sponsorship' de prevalerende upscaling techniek van Nvidia (DLSS / Frame Generation) doet ontbreken benadrukt het bovenstaande alleen maar. :S

Ik wacht rustig de reviews af en kijk dan wel of ik 'm via Game Pass zal spelen. Ach, tot die tijd vermaak ik mij nog prima met Baldur's Gate 3. (y)
Alsof 60 fps slecht is… je speelt geen competitive shooter oid he
Niet slecht, maar het heeft ook niet de voorkeur. Waarom? De ervaring leert dat een locked framerate wel eens onder de grens kan duiken, dus locked 60 kan 59-58 fps in de praktijk zijn. Daarnaast oogt en speelt een 60 fps game niet vloeiend op mijn LG C9 (4K/120Hz, G-Sync); dat was laatst ook het geval met Street Fighter 6.

Ik heb liever uncapped, zodat ik zelf kan bepalen of ik wel of geen fps cap toepas.
Daarnaast oogt en speelt een 60 fps game niet vloeiend op mijn LG C9 (4K/120Hz, G-Sync)
Begin eens met het selectief uitzetten van alle ‘beeld-verbeteraars’ :)
Dat doe ik altijd. :)
Het niet uitzetten is (soms) nou juist het probleem. Ik heb zelf een CX en de schermovergangen zijn veel harder dan op een LCD, omdat LCD veel minder harde overgangen kent(je zou het een soort ghosting kunnen noemen). Dus als je motion smoothing uit wil laten, en dat wil ik in elk geval voor games, dan is een hogere framerate (liefst boven de 60) zeer wenselijk. Anders heb ik het gevoel naar een diashow te kijken en helaas is dat bij 24fps films met veel beweging voor mij ook zo...

Hier een video met verschillen tussen een OLED en een LCD. https://youtu.be/Oy3cKwq6vEw Natuurlijk zal je bij verschillende modellen andere resultaten krijgen, maar het is maar om aan te geven waarom OLED, voor sommigen in elk geval, ook de FPS vereisten ook(flink) hoger maken.
58-60fps is nog steed stabiel.
Als flink dipt naar 30 ga je flink merken.
En dan ook voornamelijk in bunny hop situaties online.
Slowpace is 30fps zat al zal 60fps stuk fijner zijn.
Ja, aangezien ik 144hz gewend ben is 60hz zeer zeker slecht.
Hij heeft het over 60 FPS, niet over 60 Hz.
Hoewel het verschillende dingen zijn werken ze wel samen aan de totale ervaring van een vloeiend beeld
Oke goed, aangezien ik ook 144fps gewend ben is 60fps zeer zeker slecht.
Als 14 jaar bent en 5de sequel cod online speelt.
Voor 50+ als ik zal stalker cop of Metro op 60fps zat zijn en game monitor is eerder optie dan hard nodig.
Farcry1 op 19” tft 25ms gespeeld, ja ghosting is beetje storen , maar niet zo dat meteen naar de winkel ren.
Naast dat sandbox game met verre draw-distance altijd zwaarder zijn dan kleine online maps van shooter.
Fallout 76 heeft al geen FPS lock meer, dus ik ga er vanuit dat Starfield dit ook niet zal hebben.
De zorg die ik heb is vooral dat het 30FPS op Series X is, en ook niet op al te hoge interne resolutie (iets meer dan 1080p).
De Series X is misschien drie jaar oud, maar qua hardware nog best krachtig. Je gaat dus aardig wat power nodig hebben om met dezelfde kwaliteit een dubbele framerate te kunnen halen.
Op PS is 30fps met BF game ruk.
60fps met cod voelt directer aan.
Starfield Een game die liever niet op console speelt.
Op PC kan ipv voor hoge gfx aan 30fps kiezen voor 1080p low/medium setting met 60fps of zelfs meer als wat meer gpu hebt.
Maar ja denk dat Vega56 aan 1850x dat ook niet trekt. Heb PS5 en geen XB-X.
Dus voorlopig sla ik deze over.
Als je gamepass hebt dan Installeer je hem toch gewoon even? Het ergste wat je kan gebeuren is dat je een half uurtje kwijt bent met het installeren en verwijderen als het niet bevalt.

Ik snap die negatieve houding niet zo goed in de comments. Je kunt voor 10 euro het spel proberen, in het ergste geval heb je dan een maand een service waar dan nog tientallen andere zeer goede games op staan.

Ik vind dit al aardig wat beter dan al die games die 70 euro kosten, battle passes hebben en vervolgens ook nog microtransacties (neem de nieuwe nba game bijvoorbeeld). En dan heb je nog steeds kans dat de game gewoon compleet ruk is.

Ik vind dit toch wel een van de betere moves van Microsoft ondanks dat ik vind dat ze de plank de laatste tijd behoorlijk mis slaan.
De "crazy physics' hadden ze gefixed in 76.
Bij de recom specs staat gewoon dat je het spel ook op 120fps kan spelen.

Komt goed ;)
Gelukkig is het wel mogelijk om DLSS als mod te implementeren en de modder die dit al voor meerdere games gedaan heeft, inclusief andere creation engine games, Elden Ring en DX12 games zoals Starfield zegt dat hij dit hoogstwaarschijnlijk binnen een dag voor elkaar kan krijgen.
toont tcoh aan dat het puur AMD is die dit tegenhoud.
Er is geen reden dat ze developer dit zelf niet zo implementeren buiten dat er een soort afspraak is om dat niet te doen.
Dat is ook wel algemeen bekend dat AMD betaald om geen DLSS aan te bieden in games die hun sponsoren. Zie ook hier: https://i.imgur.com/Bz4zGqx.png
Ik vind het juist goed dat AMD dit doet. Nvidia zou mee moeten doen met de open standaarden, maar ze kiezen ervoor om features closed source en exclusief te houden zodat ze er een heftig prijskaartje aan kunnen hangen (zie bijv. G-Sync).

Edit: Ik heb beide, AMD en Nvidia kaarten. DLSS is mooi maar ik ben geen fan van game developers die proprietaire en vendor exclusieve features in een game pleuren. Moet je gewoon niet willen. Had liever dat AMD, Intel en Nvidia gingen samenwerken op dat gebied, en als ze die technologie willen acceleraten met hardware om een edge te krijgen op de competitie, dan heb ik daar geen problemen mee.

[Reactie gewijzigd door Memori op 22 juli 2024 18:36]

DLSS is over het algemeen beter dan FSR. Er is weinig goeds aan het pushen van een inferieure standaard en het buitensluiten van andere, betere technieken.
Nvidia zou de tech achter DLSS ook kunnen implementeren in de open standaard van FSR. Maar dat doen ze niet omdat het nu een goede reden is om een Nvidia kaart te kopen.
Maar de end game van DLSS als Nvidia only tech is niet rooskleurig voor jou en mij als consument. Je ziet nu al dat DLSS3 al alleen op Ada draait. Wat is het volgende? Nvidia maakt je afhankelijk van technologie die ze actief gebruiken om je dure aankoop van afgelopen generatie waardeloos te maken... Dat is een behoorlijke prijs voor iets betere upscale als je het mij vraagt. En... niet eens overal beter; alleen als Nvidia de per-game support levert is het ook echt beter. Dus daar zit een dubbele afhankelijkheid; zowel software als hardware support. Terwijl je FSR nog op Pascal kan laten lopen bij wijze van.

[Reactie gewijzigd door Vayra op 22 juli 2024 18:36]

Er is geen open upscaling standaard. En nee een stuk opensource software van AMD maakt nog geen open standaard.

Nvidia heeft geprobeerd met streamline een open standaard te introduceren, maar AMD wil niet meewerken. Omdat speciek de Nvidia upscaling software niet opensource is, en die van AMD wel. Dat FSR dan wel weer gebruikt maakt van close source dirvers en firmware is blijkbaar niet relevant.

[Reactie gewijzigd door cnieuweboer op 22 juli 2024 18:36]

Omdat je geen nvidia kaart hebt zeker? Dlss is beter en als onwrikkelaars willen toevoegen zouden ze dat meten kunnen.

Net hetzelfde voor fsr trouwens.
Ja, en Nvidia is er ook niet vies van om dit te doen, sterker nog in hun support programma is dat nog veel meer aanwezig/geweest.

Dan gebruikt of biedt AMD tenminste nog open standaarden.

@k995 ik heb het niet over deze specifieke technieken, maar in het algemeen.

[Reactie gewijzigd door _Dune_ op 22 juli 2024 18:36]

Nee hoor, veel games die diss ondersteunen doen dat ook voor fsr. Omgekeerd is het bijna nooit het geval.
Ik weet niet van alle games, maar ik weer dat Cyberpunk in eerste instantie alleen maar DLSS had, FSR is pas later toegevoegd.
FSR is ook later uitgekomen
Het is ook algemeen bekend dat nvidia dit ook doet en bij veel meer games.
Implementeren is 1 ding in productie moet ook alles getest worden op meerdere hardware. Dlls is ook anders voor elke nv gen.

AMD misschien al is conspiracy denken van nv fans.
Denk eerder MS omdat Xbox 30fps game meestal upscaling doet omdat de game eigenlijk maatje te zwaar is voor de hardware. Naast dat FSR en game engine hier native met preoriteit voor geoptimaliseerd wordt.

De verwachte invloed dat AMD de console APU bediend werkt ook hun vruchten af.
Dat zal bij xbox en windows exclusive grotere mate meespelen.
Nvidia heeft er zelf voor gekozen om een exclusieve functie te implementeren ipv een open versie zoals AMD dat heeft gedaan.
DLSS heb ik nooit vaak gebruikt. Ik heb een hekel aan blurry graphics of onscherpte. AA gebruik ik dus eigenlijk ook bijna nooit en ik gebruik zelfs vaak een reshade om een en ander scherper te maken en kleurrijker.
FSR en de ingebouwde sharpener werkt trouwens beter in mijn ervaring. Voor het eerst in 20 jaar heb ik weer een AMD gpu en FSR is grafisch mooier dan toen ik DLSS wel eens probeerde. Wellicht iets minder fps gain maar ook minder image degrading. In mijn ervaring dan maar zoals ik al zei, ik gebruik het echt zo goed als niet dus echt oordelen daarover kan ik niet.
FSR werkt ook gewoon op Nvidia kaarten. Dit is geen probleem.
Ook kan je niet zomaar aannemen dat de implementatie van DLSS heel makelijk is. Dit is afhankelijk van de gebruikte grafische engine en starfield maakt gebruik een nieuwe engine.

Ik heb echt jaren vast gezeten aan extra dure schermen toen Gsync alleen nog via een hardware module werkte. Dat komt niet door fabrikanten die schermen zonder module maakte maar door de keuze van Nvidia om dit zo te doen. Dit is het nadeel van hardware gebruiken van een fabrikant die je "opsluit" in een exclusief ecosysteem.

[Reactie gewijzigd door NosferatuX op 22 juli 2024 18:36]

DLSS kan helaas niet op andere videokaarten dan RTX werken omdat er bepaalde hardware voor nodig is. DLSS is beter dan FSR maar het verschil merk ik zelf niet op. DLSS3 FG kan wel heel veel verbetering in speelbaarheid toevoegen is mijn ervaring.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

Ja maar dat is een keuze van Nvidia.
Net als dat ze voor Gsync een hardware matige module hadden verzonnen waardoor gebruikers vast zaten aan extra dure schermen.
Het is een bekende strategie van Nvidia. Exclusiviteit gebruiken om gebruikers te vergaren en te behouden.
Maar dat weet ik en ik gebruik hun producten bewust dus klagen doe ik er niet over maar dus ook niet wanneer bv DLSS ontbreekt.

[Reactie gewijzigd door NosferatuX op 22 juli 2024 18:36]

Maar het voordeel is wel dat het beter werkt en daarom zou het standaard in iedere game aanwezig moeten zijn want het kost geen moeite om het aan een game toe te voegen. Nvidia bied de mogelijkheid aan om ook FSR makkelijk toe te voegen en huid het niet tegen met een zak geld, iets wat AMD in deze wel schijnt te doen. AMD had in het verleden ook hardware features wat niet werkte op Nvidia zoals asynchrone compute.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

Inderdaad. DX10.1 ondersteuning voor betere AA performance in Assassins Creed. Welke vervolgens op last van Nvidia werd uitgebouwd met een patch met de smoes “stabiliteit”, omdat het slecht overkwam dat een Nvidia titel slechter op hun hardware presteerde die deze standaard niet ondersteunde.

Oude }:O }:O natuurlijk. Maar goed, zo werkt kapitalisme nu eenmaal. Voor zowel AMD als Nvidia zijn wij als consument een noodzakelijk kwaad om de kassa te laten rinkelen.
Zoveel beter werkt het helemaal niet. Het is allebij lelijk. En als dat wel zo zou zijn is dat alsnog geen reden dat het in elke game zou moeten zitten.
Ook is het niet zomaar aannemelijk dat DLSS heel simpel te implementeren is icm iedere grafische engine. Starfield gebruikt creation engine 2.

Sinds ik een gsync compatible scherm gebruik zonder hardware module werkt dat minstens net zo goed op Nvidia kaarten als met module. Had er in elk scherm een module moeten zitten? Nee. Heb ik er als consument last van gehad? Ja. Door wie? Nvidia. Klaag ik daarover? Nee.
Zouden anderen mensen moeten klagen dat een game geen exclusieve functie implementeert die specifiek voor een bepaalde fabrikant geld? Nee.

[Reactie gewijzigd door NosferatuX op 22 juli 2024 18:36]

Als een game standaard TAA aan heeft staan word het beeld beter met DLSS dan native. En tuurlijk moet DLSS wel standaard in iedere games aanwezig zijn net als FSR want de meeste mensen hebben geen snelle videokaart.
Een game met TAA en DLSS heeft beter beeld dan native?
No way :) Misschien vind je het mooier, dat kan op persoonlijk gebied.
Persoonlijk walg ik van zo goed als elke vorm van AA, dat is ook persoonlijk.
Maar geen elke vorm van DLSS ziet er beter uit als Native.

Mensen met geen snelle kaart kunnen FSR gebruiken, FSR is de standaard dat werkt op alle kaarten.
Geen reden dus dat DLSS er ook in moet zetten.

[Reactie gewijzigd door NosferatuX op 22 juli 2024 18:36]

DLSS kan er zeker wel beter uitzien dan native, vraag maar een aan GamerNexus of TPU die dat zelf ook zeggen en bewijzen in hun tests, deze feiten kun jij niet ontkennen. De beelden spreken voor zich want het is minder blurry en en er zijn minder kartels.

Verder is wel een redenen dat alle games DLSS moeten ondersteunen omdat het beter werkt dan FSR en mensen met een nvidia GPU de voordelen heeft. Helemaal als ook FG word toegevoegd. Dat jij persoonlijk niets hebt met upscale technieken doet er verder niet toe.

[Reactie gewijzigd door 3DEXP op 22 juli 2024 18:36]

Kan er beter uit zien, wanneer bv TAA slecht is geïmplementeerd. Betreft uitzonderlijke gevallen dus en heeft een andere oorzaak.
Ook dan alsnog is het altijd persoonlijk.
In essentie is native grafisch mooier dan met upscaling, dat is logisch en een feit.

Misschien kan jij Bethesda betalen en helpen met het implementeren van DLSS in Creation Engine 2? :+
Dat gaat een beetje ver, vind je zelf niet?
Misschien, ik zou het wel als negatief punt aanhalen in een review. Ik snap trouwens niet wat ik gedownvote word want alleen een idioot zou dit goedkeuren.
Niemand keurt dit goed. Maar dit is duidelijk een beslissing van AMD en niet van Microsoft. De game boycotten gaat me daarom te ver, maar ik heb op sociale media mijn ongenoegen over deze beslissing wel al laten merken.
Nee het werkt beter omdat nv extra hardware op kwakt waar pro task wat aan hebben
Dus je betaal er ook dik voor want gpu zijn flink stuk groter en DLLS is manier om toch enigzins van die AI/ML hardware gebruik kunnen maken in games.
Dus je betaald nv daar ook dik voor. Maw als dat oh zo belangrijk vind vind je de keuze van nv voor die dure procede die ze bij tsmc afnemen zodat al die surplus aan logic op chip past. Had dus ook kleiner gekunt. Nu met AI gekte pakt het goed uit voor nV. Zelfs te goed dat nextgen high-end naar de ai markt gaat.
Voor DLSS 3 is er specifieke hardware nodig als ik me niet vergis. In dat geval lijkt het me logisch dat dit geen open standaard is.

Maar goed, ik heb nu toevallig een RTX4070 dus voor mij is het jammer dat er geen DLSS 3 ondersteuning is. De kwaliteit daarvan ligt naar mijn mening beduidend hoger dan bij FSR.
Ik denk dat je met een 4070 uberhaupt geen DLSS of FSR nodig hebt?
Mijn scherm is 1440p@144hz. Vooral bij games met ray tracing zoals Metro Exodus verbetert DLSS 3 de framerate toch van 60-65fps naar 90-100, met beduidend minder dips.
Ik snap je. Zal uiteraard ook per game verschillen. Ik ben tegenwoordig blij met mijn antieke videokaart als ie 60fps op 1080p doet ;-) met FSR ;-)
Meer moet dat ook niet zijn. Ik speel tegenwoordig vaak op de Steam Deck, vooral omdat ik dan gewoon bij m'n vrouw op de bank kan zitten ipv een eindje verder aan mijn bureau. Maar sommige games spelen toch nog beter op een groot scherm en/of met muisbesturing.
DLSS kan helaas niet op andere videokaarten dan RTX werken omdat er bepaalde hardware voor nodig is.
Het kan wel (Control doet 't) maar dat heeft veel minder effect.
DLSS is beter dan FSR maar het verschil merk ik zelf niet op.
Zie je nu zelf waar dit mis gaat? confirmation-bias, much? _/-\o_
Iedereen wil toch het beste voor het gevoel.
Je stelt echter iets in een objectieve vorm en onderbouwt het enkel subjectief, door zelfs te stellen dat je het verschil niet kan opmerken/voelen.

Dus je stelt belang te hebben bij iets waarvan je tegelijkertijd aangeeft dat je het zowel niet wil meten als kan voelen.
Hardware XeSS is ook exclusief voor Intel ARC kaarten.

NVIDIA kan DLSS ook software matig maken, en dan ziet het er net zo slecht uit als FSR, waarom zouden ze dat willen?
Zouden ze moeten doen, zo aanpassen dat het zo wel softwarematig als hardwarematig werkt. Dit kan alleen maar voordelig zijn voor Nvidia omdat dan de hardware beter uit de bus komt.
Het ziet er allebij slecht uit, daarom gebruik ik beide niet.
In dit geval gaat het gewoon omdat AMD meebetaalt.
Link naar bron? Dit is een aanname die je en vele andere doen.
De daadwerkelijke reden is niet bekend.

[Reactie gewijzigd door NosferatuX op 22 juli 2024 18:36]

Naast dat AMD niet de cash reserves heeft om MS te betalen die ruim cash zit.
En MS is die bepaald. En gezien het xbox windows exclusive is moet eerder daar zoeken. Dan wilde conspiracy’s. Het zou zonde zijn van resources om dev te betalen voor zoiets subtiels. Denk dat consistentie in het leveren van top high-end meer goodwil brengt. En rete duur is. De algehele software stack op niveau nv brengen.
Gezien AMD meer inzet op productie efficient . Zo ook rdna 3 4 met ook meer chiplets.
Is verspillen van geld aan dev eigenlijk niet in straatje. Je kan dan beter investeren in driver team dat je aan alle hoge priority games je team op kan zetten die drivers verbeterd. Denk dat AMD niet de luxe heeft om dev te betalen.
Is dit weer zo’n geval dat AMD een game bundeld met hun gpu en dat het dan ook gelijk andere upscalingmethoden weghaalt of verplicht alleen FSR te gebruiken
Gebeurt andersom toch ook! Nvidia is ook niet heilig hoor.
Wat ik liever zou zien is wat meer standaardisatie bij hardware. Al die aparte programmaatjes en drivertjes voor zo goed als de zelfde hardware maakt mij doodziek. Maarja volledige standaardisatie in de techniek zal altijd een utopie blijven!
Veel verwarring over wat dit nieuws nu precies betekent zie ik.
Even wat zaken op een rij.

- DLSS is algemeen beschouwd de beste upscaling tech die tegenwoordig gangbaar is voor games, vergeleken met upscaling technieken van AMD en Intel.
- DLSS is een deep learning AI upscaling techniek, wat automatisch inhoudt dat alleen op hardware met tensor cores (vanaf de RTX 20X0 kaarten) werkt.
- DLSS implementatie wordt aangemoedigd door Nvidia en Nvidia helpt ook bij deze implementatie, wat in de meeste gevallen betekent dat een bedrijf relatief weinig tijd en geld hoeft te steken in de implementatie ervan en Nvidia support geeft bij het finetunen. Bij een groot bedrijf als Bethesda zijn de kosten en uren overhead voor DLSS implementatie relatief laag.
- "FSR is open dus kunnen ze die beter implementeren" is geen argument, een bedrijf hoeft namelijk helemaal niet te kiezen, en kan gewoon meerdere verschillende upscaling technieken naast elkaar supporten, voor elke hardware een passende oplossing.

Ik beschouw mezelf fan van AMD, omdat ze historisch gezien als underdog altijd hebben moeten opboksen tegen de reus Intel, en dit goed gedaan hebben met innovatie, nieuwe ideeen en goede producten.
Intel heeft geprobeerd in het verleden de innovatie van AMD in de kiem te smoren door OEM's zoals Dell te betalen (dmv speciale discounts) als ze geen zaken deden met AMD.
Dit heeft AMD dichtbij de afgrond gebracht, maar door diverse boetes en mega schadevergoedingen is Intel uiteindelijk gestraft voor deze anti innovatieve en soms dus illegale acties, en heeft AMD mede door het geld verkregen uit deze aftermath de R&D voor Ryzen kunnen bekostigen, en met Ryzen de innovatie in de CPU market flink kunnen versnellen. (dat is goed voor iedereen geweest)

Mede door deze historie is het nu extra teleurstellend dat AMD de partij lijkt te zijn die geld besteed aan het blokkeren van een innovatieve, uitzonderlijk goed werkende technologie van competitie.
Hard bewijs is er nog niet, maar zoals al uitgebreid uitgelegd en besproken op het youtube kanaal van Hardware Unboxed, was de korrelatie tussen AMD sponsoring en missende DLSS/XESS ondersteuning al langer verdacht, en wil AMD tot nu toe de situatie niet toelichten.

Nu blijkt dat 1 van de grootste upcoming AMD sponsored games van 2023 aan dit lijstje kan worden toegevoegd, kunnen we ervan uitgaan dat AMD sponsoring betekent dat een developer zich moet houden aan regels om trend de support voor tech van competitie, en dit is natuurlijk niet OK.

Geen enkele gamer heeft er baat bij dat bedrijven geld stoppen in het blokkeren van andersmans tech in plaats van geld stoppen in verbeteren van hun eigen tech. Als bedrijven niet worden aangepakt voor zulk soort acties, betekent dat, dat in het ergste geval een superieure technologie zoals DLSS een vroege dood kan sterven alleen maar omdat andere bedrijven door veel geld ertegenaan te smijten gamedeveloppers "omkopen" om iets niet te supporten.

Echt wel jammer van AMD dus, ik ben teleurgesteld.
AMD conspiracy is aanname van nv aanhangers. Dat hun vaak roepen maakt het geen feit. Al kan je het ook niet uitsluiten.
De beste upscaling is geen upscaling en dus native.
Die DLLS is er om AI units wat meer profeatere is ook voor games toe te passen. Je betaal er voor al bigger chip deel gespendeerd aan tensor cores. De reden dat beter is omdat hardware feature is en geen cuda software ding. En er flink wat tensor cores toegepast zijn.
Kan ook keuze zijn van de dev of hun publisher of moeder bedrijf MS.
Om DLLS niet toe tepassen. Waarbij FSR noodzakelijk is km die zware game op 30fps op xbox-x mogelijk te maken. Dlls is niet noodzakelijk voor windows gamen.
Zo te zien dlss al beschikbaar via een mod op dag 1
Hopelijk ook bij de gamepass versie.
https://wccftech.com/star...launch-confirms-puredark/
Weet niet waar die 126gb vandaan komt voor Xbox, dit klopt domweg niet.
100.18gb exact.
Met andere preorder bestanden zoals premium edition en artbook/soundtrack, komt het uit op 100.2Gb.

Die 126 zie ik eigenlijk alleen herhaalt worden door vage sites die ver voor de 17/30 augustus datum zaten te raden wat de omvang zou worden.
Wellicht een verschil tussen "de hoeveelheid data" en "ruimte ingenomen op de ssd/hdd"?

Op dit item kan niet meer gereageerd worden.