Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia introduceert officiële DLSS-plug-in voor Unreal Engine

Nvidia introduceert een officiële DLSS-plug-in voor Unreal Engine 4, die ondersteuning voor de rendertechniek toevoegt aan deze engine. Hiermee kunnen ontwikkelaars gemakkelijker DLSS 2.0 in hun UE4-games implementeren.

De plug-in verscheen deze week in de Unreal Engine Marketplace en is als zip-bestand beschikbaar via de website van Nvidia, inclusief instructies voor installatie en een quick-start guide. Gebruikers van Unreal Engine 4.26 of hoger kunnen de functie met deze plug-in direct in hun projecten implementeren, zonder dat daar losse applicaties of aparte Unreal Engine-branches voor nodig zijn. In theorie kan iedere komende UE4-game de rendertechniek hierdoor ondersteunen.

Ontwikkelaars die de plug-in willen gebruiken, dienen een systeem met Windows 10 64-bit en een RTX-videokaart met de GeForce 461.40-driver of nieuwer te hebben. De functie werkt met Vulkan en DirectX 11 en 12. De rendertechniek is dankzij de plug-in volledig beschikbaar vanuit de Unreal Editor-interface, meldt Nvidia. Gebruikers kunnen via de Unreal Editor kiezen uit verschillende DLSS-prestatiemodi, die de renderresolutie en hoeveelheid upsampling aanpassen. Daarmee kunnen ontwikkelaars direct bekijken hoe DLSS werkt in hun games.

DLSS in Unreal Engine 4.26. Afbeelding via Nvidia

DLSS staat voor deep learning super sampling. Deze techniek werkt alleen op GeForce RTX-videokaarten. DLSS rendert games in een lagere resolutie en vult de ontbrekende details aan met behulp van kunstmatige intelligentie, wat voor hogere framerates moet zorgen. De techniek gebruikt hiervoor de Tensor-cores in RTX-gpu's. Bij de eerste DLSS-versie moesten ontwikkelaars voor iedere game een apart algoritme trainen, aan de hand van gameplaybeelden op 16k-resolutie. Sinds de introductie van DLSS 2.0 is dit niet meer nodig. In plaats daarvan gebruikt de tweede versie een standaard neuraal netwerk, dat door alle DLSS-games wordt gebruikt.

Het is al langer bekend dat Nvidia aan een Unreal Engine 4-plug-in voor DLSS werkt. Het bedrijf meldde in december al dat er een dergelijke plug-in aan zou komen, hoewel de gpu-fabrikant toen alleen repte over een gesloten bèta. Er zijn al Unreal Engine-games met DLSS-ondersteuning. Zo heeft Fortnite, dat draait op Unreal Engine 4, al ondersteuning voor de rendertechniek.

AMD heeft nog geen antwoord op DLSS, hoewel het bedrijf wel aan een soortgelijke techniek werkt. Het bedrijf werkt naar eigen zeggen aan een FidelityFX Super Resolution-feature, maar heeft nog weinig concrete details gedeeld. Hongaarse techsite Prohardver publiceerde eerder deze maand een gerucht, dat stelt dat de techniek mogelijk deze lente wordt geïntroduceerd, schrijft ook VideoCardz. De techniek zou verder gebruikmaken van Microsofts DirectML-api. AMD heeft deze claims nog niet bevestigd.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

13-02-2021 • 17:14

106 Linkedin

Reacties (106)

Wijzig sortering
Is het verschil tussen native 4K en DLSS 4k te zien of is dit lastig te onderscheiden?
Soms wint dlss het zelfs van native door betere anti aliasing.

Het maakt gebruik van motion vectors die het spel moet doorgeven, dus het is geen simpele 2d upscale ('deep learning' of niet). De paar keer dat je het verschil ziet, is in statische screenshots als je aan het pixelpeepen bent. Tijdens het spelen, lijkt het me erg stug dat je iets merkt.

Enige uitzonderingen zijn de Dlss 1.x varianten, of als het spel het niet lekker implementeert (gears of War tactics is rot geloof ik), of als je een target resolutie hebt van 1080p of lager (dan is de source resolutie van DLSS wel erg laag om aan veel detail te komen)

En zoals anderen al zeggen :als je de mogelijkheid hebt, zet het standaard aan.
Ook DLSS 2.0 heeft nog wel eens last van rendering artifacts waarbij dingen flitsen of knipperen. Het is minder erg als bij 1.0 maar nog niet perfect.

Het is wel de toekomst. Uiteindelijk zal er nog een beter algo komen wat minder / geen fouten meer maakt. Kwestie van tijd.
Dit treedt vooral op bij "performance" presets met DLSS. Verdwijnt bij bijv. Cyberpunk vanaf Quality (ray tracing /rendering).
Misschien blaas ik zo hoog van de toren dat het lijkt alsof het perfect is. Dat is het natuurlijk niet inderdaad :).
Dan weet ik niet welke reviews jij gelezen hebt alle grote reviews sites geven aan dat het niet perfect is. Ik geloof gamers nexus en hardware unboxed als ze dat zeggen.
Ja het is een mooie feature die men aanraad te gebruiken als je extra fps kan gebruiken.

Maar nu moet je niet doen of het perfect is. Die mensen weten beter waar ze het over hebben dan wij.
Het woord native zegt toch genoeg uiteindelijk is het een (geavanceerde) filter.

Het blijft gewoon iets meer blurry dan native zeker zichtbaar bij 1440p of lager. Bij 4k valt het met momenten op.

Mij valt het op tijdens het spelen.
"Soms wint dlss het zelfs van native door betere anti aliasing."

Sorry hoor, maar dat klopt absoluut niet. Native zijn gewoon een x aantal pixels zoals ze door de ontwikkelaar zijn gemaakt. DLSS is een lager aantal pixels aangevuld tot de gewenste kunstmatige aantal pixels.

Anti aliasing is een techniek die je daarna er op los laat om de ruwe randjes eraf te halen. Lees of kijk maar wat reviews van Linus of Gamer Nexus over DLLS. Als je Native kan draaien, bijvoorbeeld 4K of 8K dan moet je dat altijd doen. Kan je systeem het niet aan, dan is DLLS een hele mooie techniek om met mindere hardware toch hoge resolutie te spelen. Beter dan de instelling naar medium te zetten.
Door het temporal gedeelte van dlss heeft het automatisch ook het effect van temporal antialiasing zoals dat in veel spellen van de afgelopen jaren al gebruikt wordt.

Daarbij gaat hij niet puur van 1080p of 1440p naar 4k (als voorbeeld) maar eigenlijk iets van 6.5k of 8k, en downsampled vervolgens weer naar de target resolutie. Het geeft daarmee een supersampled image, wat alleen maar goed is en voor goede 'natuurlijke' AA zorgt.

Als je appels met appels vergelijkt, is het dus iets van dlss VS een native resolutie, eigenlijk gerendered boven je scherm resolutie en vervolgens downscaled naar je scherm resolutie.

Dan wint 'echt' altijd. Natuurlijk.

Als je dlss gaat vergelijken met iets wat rendered op scherm resolutie, en daar zelf een simpele TAA op loslaat... Ja, dan 'wint' DLSS soms. Heel soms. But it does happen.
TAA heeft de neiging sowieso een wat meer softer beeld op te leveren. En spellen kunnen de TAA dus achterwege laten als DLSS aanstaat.

Nee, dlss gaat niet altijd winnen van native. Nog sterker, bijna nooit. Laat ik daar heel eerlijk over zijn.

Maar het feit dat het af en toe kan winnen, zegt voor mij meer dan genoeg op een vraag 'hoe goed is DLSS eigenlijk?'.

En ja,ik praat over dlss2. Dlss 1.x heeft geen bestaansrecht om hem maar even dom en hard in te koppen.

Edit: found it, goede uitleg in geschreven woorden over wat dlss (2) is : https://www.eurogamer.net...-death-stranding-face-off


En kleine toevoeging : ik kijk LTT ook, en ik ergerde me best wel aan de opmerkingen eerder die het 'a simple form of ai upscaling' noemde, en inderdaad zoiets had van 'waarom zou je'.

Ondertussen hebben ze ook daar door hoe goed het is, en merk je aan de filmpjes van de afgelopen maanden dat er heel anders naar gekeken wordt.
Al is het maar omdat hij uiteindelijk de hele 'Radeon 6xxx' VS 'rtx 3xxx' vergelijking een 'non relevant discussion' vindt, omdat AMD nog geen alternatief voor dlss heeft.

[Reactie gewijzigd door dipje2 op 15 februari 2021 20:28]

Als je DLSS-Quality mode gebruikt (4k vanaf 1440 renderen) is het moeilijk te onderscheiden.
Als je DLSS-Performance mode gebruikt (4k vanaf 1080p renderen) dan zie je het verschil wel vrij duidelijk.

Maar goed daar staat een significante performance boost tegenover.

In dit filmpje wordt het goed uitgelegd.

https://www.youtube.com/watch?v=ScAQ5Of1LfE&t=3s
Maar is DLSS 4k echt veel beter dan 1080p native renderen en dan door de TV /Monitor laten upscalen (wat meestal gewoon billinear is)?

[Reactie gewijzigd door NotCYF op 13 februari 2021 19:30]

Ja dat is stukken beter. Traditioneel upscalen moet het doen met de informatie die er is en doet vervolgens een redelijk eenvoudige lineaire interpolatie. DLSS kan kleur en ‘detail’ toevoegen vanuit training.
En door die training die het live toepast vraag ik me af of je idd wel bvb over 80fps kunt spreken met van alles wat er in het beeld popt op 50fps.
Ja, significant beter.
Het verschil is heel lastig te zien (zo lang je de daadwerkelijke render resolutie niet te laag zet) en naar mijn mening is er geen enkele reden om geen DLSS te gebruiken.
Het verschil is heel lastig te zien (zo lang je de daadwerkelijke render resolutie niet te laag zet) en naar mijn mening is er geen enkele reden om geen DLSS te gebruiken.
Ja vind het heel erg jammer dat de Radeon RX 6000 serie kaarten dat niet heeft, maar AMD werkt aan hun eigen versie van DLSS, hoop dat die er dan is en verschillende spellen die dan al gebruiken als eindelijk de Radeon RX 6000 serie kaarten te koop zijn volop.

https://www.eteknix.com/a...s-competitor-this-spring/
https://videocardz.com/ne...gy-may-launch-this-spring

[Reactie gewijzigd door AmigaWolf op 13 februari 2021 17:49]

het is vooral hopen of de AMD-oplossing in de buurt gaat komen..
ze liggen zoiezo 2 versies achter, dus ze moeten eerst met een oplossing komen dan paar jaar later met een correcte oplosing komen,

verwacht dus geen wonderen volgendejaar.
Dit zou het geval zijn in een lineaire ontwikkeling maar het is een ander bedrijf en andere benadering van de techniek (Nvidia patenten kunnen ze niet gebruiken). Dus het is echt af wachten.....
Maakt niet uit welke ontwikkeling je doet V1 is nooit enorm goed. kan wel een hele stap in de goede rinchting zijn maar niet perfect.
Ik ben van mening dat je DLSS moet gebruiken als de game niet vloeiend draait. Tot tussen 30 en 60fps werkt het het best, daarna is het wellicht niet meer nodig. Wil je Cyberpunk om ultra draaien, dan is het aan te raden, maar voor een potje rocket league kun je hem gerust uit laten
Rocket League kan je het dan ook niet gebruiken. Noch andere games waar je al "meer als zat" frames hebt.

Ik had een te uitgebreide artikel erover gelezen laatst maar TLDR: er zit een latency in de verwerking, en die latency gaat dus niet op bij zulke hoge framerates; je haalt dan performance naar beneden weer.
Vandaar idd, zoals je aangeeft dat je het in spellen moet toepassen waar ervanuit gaat dat je lage framerate hebt. Cyberpunk 2077 en Black ops met RTX aan bijvoorbeeld.

Goed, behalve DLSS 2.x en raytracing loopt Nvidia ook voor op mesh shaders wat te gebruiken valt voor elke game in DX 12 ultimate. Weer iets wat Nvidia mee begonnen was in 20xx kaarten en nu weer goed uitpakt in hun long-term strategy.
Ben heel erg benieuwd hoeveel de mesh shaders gaan helpen in games etc.

Lijkt me geweldig als we zelfs al een X2 boost gaan zien in de praktijk
Goed, behalve DLSS 2.x en raytracing loopt Nvidia ook voor op mesh shaders wat te gebruiken valt voor elke game in DX 12 ultimate. Weer iets wat Nvidia mee begonnen was in 20xx kaarten en nu weer goed uitpakt in hun long-term strategy.
Het artikel is het met je eens maar hun test resultaten zeggen wat anders:
3DMark Mesh Shader feature test Mesh Shaders Off Mesh Shaders On Difference
RTX 3080 67.32 fps 584.09 fps 767.6%
RX 6800 XT 28.09 fps 468.77 fps 1,568.8%
De Mesh Shader implementatie van AMD is blijkbaar 2x zo goed als die van nVidia. Als je trouwens terug kijkt naar de Fermi architectuur dan had die extreme ondersteuning voor tesselation wat nooit is gebruikt in spellen. Crysis2 liet zien hoe je tesselation kan gebruiken om AMD slecht eruit te laten komen. Het gaat er niet om wie de meeste polygonen kan verwerken aangezien je dat dynamisch kan later varieren met Mesh Shaders.
Ik speel Cyberpunk @ 100'ish en Black ops met RTX tegen de 130 FPS aan.
Merk niks van enige penalty door latency.
Als je in 4k of hoger op ultra 144fps wilt halen in zware games kan het ook helpen hoor 😁. De beeldkwaliteit met dlss 2.x vind ik best indrukwekkend. Volgens mij was er eerder op Tweakers een artikel over.
Het verschil is heel lastig te zien (zo lang je de daadwerkelijke render resolutie niet te laag zet) en naar mijn mening is er geen enkele reden om geen DLSS te gebruiken.
Op 4k, met de quality preset, ja.

Op lagere resoluties, of lagere quality levels gaat de image quality toch wel behoorlijk achteruit.
In een aantal gevallen is het slechter. Denk vooral aan in reflecties op oppervlakken zoals glas of een motorkap. Op andere delen is het beter als native. Denk bijvoorbeeld aan text die scherper word dan de native textures.

Al met al is het stuivertje wisselen maar met als bonus veel hogere fps.
Op andere delen is het beter als native.
Is het beeld beter als native (dus als origineel), of beter als opgeschaald?
Beter als native. Meest bekende voorbeeld is dead stranding waar 1440p naar 4k upscaling scherper was als native 4k.
Dit omdat de textures waarschijnlijk gewoon niet goed genoeg waren voor native 4k en dus helpt DLSS die textures verbeteren met betere textures als native al resultaat.
hmm, er zijn dus geen '4k textures' pack(s) beschikbaar voor Death Stranding?
Ik weet nl. dat dit voor meer dan genoeg andere spellen wel gedaan wordt waar de 'originele' textures ondermaats zijn.

Is overigens wel erg grappig dat je op zo'n manier ook hetzelfde effect kunt hebben als een 'upscaled textures pack'. 8-)
Geen idee of die er zjn maar eerlijk is eerlijk ze zijn altijd gecomprimeerd en en uitgerekt en dat geeft bijna altijd een ietwat wazig beeld. DLSS kan dat dus verbeteren.

Overigens denk ik dat HD texture packs nog niet eens volledige kwaliteit zijn van de textures die ze hebben maar gewoon het maximale wat de kaarten momenteel kunnen verwerken.
Ik denk dat we een gpu met 64 GB vram nodig gaan hebben als we allemaal volledige kwaliteit textures willen op 4k.

Maar hoe dan ook een mooi staaltje techniek. ondanks dat het nog niet perfect is en hier en daar artifacts voor kunnen komen. Maarja liever artifacts hier en daar (die je toch wel heb in veel games) en veel betere fps en kwaliteit op de rest dan bagger fps en ook nog eens graphics naar beneden moeten zetten.
als je 4K native renders met minder dan 4k kwality textures, dan vergelijk je dus geen native met DLSS,

Dan vergelijk je dus upscale met DLSS.

met Native moeten alle textures, lightmaps , etc allemaal op 4K kwaliteit gerendered worden anders kan je niet van native spreken.
Tuurlijk wel dat is hoe de game op native 4k is. Dat hij geen pure 4k textures heeft is niet relevant.
Ik denk dat er trouwens niet 1 game is met native echte 4k textures.
die zijn er volgensmij zeker wel,

meschien definieren we bijde iets anders bij 4K textures maar unreal laat mij veel hoger gebruiken als ik wil.

Een 4K texture is 4096 x 4096px

En een texture streched ?? dat zou echte niet mogen in een moderne game. Dat is als vloeken in de kerk, Elke model tris of quad word tegenwoording uit de texture gesneden na een unwrap ipv zoals vroeger dat je een texture op een quad plakte.
Laatste keer dat ik een texture pack gebruikte is Final Fantasy 15 geweest maar zelfs die textures waren ondanks de whopping 60+ GB nog ver van native 1080p laat staan 4k.

En 4096x4096 kan de max res zijn van de texture maar ik kan een 128x128 afbeelding ook rescalen naar 4096x4096 en dat maakt het nog geen native 4096 afbeelding. er worden dan wel pixels toegevoegd maar geen extra informatie.

Ik denk gewoon dat er geen textures zijn die echt hoge kwaliteit zijn. of dit door vram of andere limitaties komt weet ik niet maar echt hoge kwaliteit moet ik nog tegen komen in games.
4096x4096 is considerd hoge kwaliteit,

veel hoger en je game gaam exponentieel groot worden / laad tijden gaan omhoog
je snapt mijn punt totaal niet denk ik.

De afmeting van de image zegt niets over de inhoud. het is simpelweg een pixel afmeting. Een 1024x1024 kan vele malen beter uit zien als een 4096x4096.


https://ibb.co/L0VwXpp

Hier een voorbeeld. die afbeelding is 4096x4096 maar de data op de afbeelding is maar 196x196.
Resolutie is irrelevant als je geen native resolutie in die file zet. En dat is denk ik zeer vak het geval in games en dus zijn games niet optimaal.
Op andere delen is het beter als native.
Ik zal mezelf maar even verklaren: je bedoelt hier waarschijnlijk "beter dan native". Stellen dat het beter is als native betekent: "het is beter als het native is".
Volgens mij is het dan 'beter als het native is' en dat is een rare zin in deze context.

Het is beter als native. Het is in dit geval het onderwerp (DLSS). En dus is DLSS beter als native. Snap niet dat jij dat anders leest.

Maarja ik ben ook tegen het gebruik of moet ik zeggen misbruik van het woord 'omdat' op een manier die ik gewoon lui vind.

Bijvoorbeeld : Ik kocht die rode omdat goedkoper.

Dat vind ik een slecht luie zin en ik zou er niet eens op in gaan. Voor mij is het namelijk gewoon : Ik kocht die rode omdat het goedkoper was.

Maargoed de taal lijkt de laatste decennia wel steeds luier te worden dus geen idee wat mensen tegenwoordig op school leren maar ik hou het lekker ouderwets met volledige zinnen. En zinnen die logisch zijn.

Misschien is het een Belgisch dingetje? Die zie ik ook wel eens rare zinnen maken.

[Reactie gewijzigd door computerjunky op 17 februari 2021 13:16]

En dus is DLSS beter als native. Snap niet dat jij dat anders leest.
Ik raak verward hier. In de zin "Op andere delen is het beter als native.", bedoel je dan dat DLSS beter is dan native? Of dat het er beter uit ziet als het native is?

In deze zin:
Meest bekende voorbeeld is dead stranding waar 1440p naar 4k upscaling scherper was als native 4k.
bedoel je hoogstwaarschijnlijk dat upscaling beter was dan native 4k. Maar in deze zin
Denk bijvoorbeeld aan text die scherper word dan de native textures.
Gebruik je heel correct wel dan voor de vergrotende trap. Dus is het mij niet duidelijk of je het verschil tussen als en dan gebruikt of, om jou maar even te citeren, het woord als misbruikt.

[Reactie gewijzigd door 84hannes op 17 februari 2021 14:52]

Ik vind het het lastig te onderscheiden. Daarom hele mooie techniek, want de framerate schiet omhoog. Ik vind het wel alleen goed bij 4K. 1440p met DLSS vind ik wel een stuk lelijker dan 1440p native. Ik heb beiden getest in Cyberpunk en Death Stranding.
Ik zie geen verschil met Cyberpunk ongelooflijke techniek.
Zet ik de game op native 4K bijna niet speelbaar.
Als je er niet op let zul je het waarschijnlijk nooit zien, hou je het naast elkaar dan wel.
Maar als je dan de framerates naast elkaar zet is dat snel vergeven :)
Dlss versie 1 is slecht. Alle positieve reacties moeten wel over versie 2 gaan.
In beweging ja. Balanced of quality ziet er bijna of net zo goed uit als native. Maar als je stille frames naast elkaar zet is het wel te zien. Tijdens het spelen is er geen reden dlss niet te gebruiken
Waarschijnlijk bij doorsnee gebruik zul je geen verschil zien (zeker niet omdat je toch geen direct vergelijkingsmateriaal hebt). Hooguit misschien als je er echt op gaat letten, maargoed, dan ben je al niet meer met de game zelf bezig (zo is dat vaker bv ook met SDE en VR, als je eenmaal in de game zit dan is bij de nieuwe headsets de SDE echt verwaarloosbaar, zeker bij de HP Reverb G2, maar als je echt er op gaat letten dan zul je het wel zien ja).
Ik game zelf op 1440p en in cyberpunk 2077 op de quality preset is het verschil niet te zien. enige waar je het kan zien is bij de zee en in de ramen dan gaat dlss soms helemaal ham eigenlijk wel grappig :P

alle andere presets is het verschil wel duidelijk te zien, maar merk dan niet heel veel meer fps dan met quality.
Maak eens screenshots om te laten zien wat je bedoeld. Want van praktijk ervaring, en elke deep dive en elke demo ervan die ik zie, denk ik: 'bullshit'.

[Reactie gewijzigd door dipje2 op 14 februari 2021 09:15]

Jij zegt dat het blurry is… iedereen hier zegt van niet.
Dus ik vraag om wat screenshots als voorbeeld te geven.

Lijkt me weinig 'iets van te snappen'.

Anyway, - aangezien er duidelijk niet te praten valt met jou - zijn dit mooie voorbeelden voor mensen die WEL meer er van willen weten (vooral in vergelijking met rendering tricks op de PS4, maar een mooi voorbeeld van statische plaatjes en in motion, soms vergelijking vs native, etc..)

https://www.youtube.com/watch?v=9ggro8CyZK4

Deze is nog beter (vergelijking vs de oude DLSS en de nieuwe, zelfs in 'performance mode' is het geweldig): https://www.youtube.com/watch?v=YWIKzRhYZm4
Zit hier ook al ondersteuning in voor VR?
Assetto corsa competizione met vr dlss zie ik wel zitten in elk geval. Schijnt dat er een dlss 2.1 is met vr ondersteuning (meen ik gelezen te hebben)

[Reactie gewijzigd door mr.babek op 13 februari 2021 18:29]

DLSS 2.1 ondersteunt inderdaad VR
DLSS SDK 2.1 is out and it includes three updates:

New ultra performance mode for 8K gaming. Delivers 8K gaming on GeForce RTX 3090 with a new 9x scaling option.

VR support. DLSS is now supported for VR titles.

Dynamic resolution support. The input buffer can change dimensions from frame to frame while the output size remains fixed. If the rendering engine supports dynamic resolution, DLSS can be used to perform the required upscale to the display resolution.
En hoe zit het met Unity? De andere grote engine..
Het Unity Graphics team heeft op 27-01-2021 geantwoord op de vraag of DLSS naar HDRP komt. "Yes it is planned, I do not have an ETA to share but we are working on it".

Er is recent een DLSS card bij "under consideration" op de Unity HDRP product board toegevoegd. Je kunt hier je stem laten horen of deze feature voor jou critical, important of nice-to-have is. (https://portal.productboa...p-learning-super-sampling)

[Reactie gewijzigd door RPS13 op 13 februari 2021 18:32]

Zover ik snap hoe dlss werkt. Moet nvidia het spel toevoegen aan zijn eigen machine learned profielen voordat dlss überhaupt iets doet voor je spel. Zal voor veel kleine indie game developers niet haalbaar zijn.
Misschien is DLSS 3.0 goed genoeg om de gemiddelde Unity game goed te laten draaien :+
Dat ligt meer aan de developers dan de engine.
Or lack off ;) Once they go ham in de *assets* store, it's on. =]
Het is wel zo dat Unity's workflows vaak slechte performance aanmoedigen. Sommige features zijn niet eens bruikbaar omdat ze de main-thread volledig tot stilstand brengen. Dan mag je een oplossing van de asset store gaan halen.
Niet zo gek dat een onervaren ontwikkelaar dan geen constante 60FPS weet te behalen.

Dyson Sphere Program laat zien dat het wel kan. Natuurlijk kan het. Maar die gebruiken enorm veel eigen oplossingen. Hopelijk komt DOTS dit jaar een keer uit z'n permanente beta, want dat zal alles een stuk makkelijker maken.

[Reactie gewijzigd door Wolfos op 15 februari 2021 09:50]

Het zelfde geld voor UE4 als je dingen gaat halen van de asset store. Dat ligt niet aan Unity.
Genoeg first time developers die gebruik maken van Unity hebben een game gemaakt die soepel draait zoals.
https://en.wikipedia.org/wiki/Aragami_(video_game)
https://en.wikipedia.org/wiki/Firewatch
https://en.wikipedia.org/wiki/Hollow_Knight
https://en.wikipedia.org/wiki/Ravenfield_(video_game)
https://en.wikipedia.org/wiki/Ghost_of_a_Tale
https://en.wikipedia.org/wiki/Outward
Allemaal games gemaakt door een kleine groep/1 persoon en draait allemaal soepel.
In Unity is het juist de ingebouwde functies die vaak slecht presteren, terwijl de Asset Store oplossingen bied. Bijvoorbeeld het systeem voor gras (terrain details), is volledig onbruikbaar. Koop Nature Renderer op de asset store en ineens heb je wel goede prestaties.

[Reactie gewijzigd door Wolfos op 15 februari 2021 12:07]

Hoe goed ik DLSS ook vind hoop ik dat het een snelle dood sterft en er een variant komt die niet implementatie afhankelijk is en dus via drivers op iedere game is toe te passen.

Er gaan zat geruchten dat de volgende versie dat zal zijn maar persoonlijk zie ik het helaas niet snel gebeuren.
Tot die tijd vind ik DLSS dus een topper en AMD moet zij. Gpu dus echt flink goedkoper neerzetten wil ik dat pluspunt af kunnen strepen.
Erg onwaarschijnlijk dat het ooit een driver toggle wordt. DLSS heeft motion vectors nodig, en die informatie heeft een driver niet. Min of meer de zelfde reden dat TAA geen driver toggle is.

Er is een tijdje geleden een gerucht geweest dat de informatie die de game engine geeft voor TAA, door de driver gebruikt kan worden voor DLSS. Dat zou een leuke upgrade zijn voor alle spellen die TAA gebruiken. Maar dat was alleen een gerucht, en erg onwaarschijnlijk gezien de moeite (tijd) die het heeft gekost om DLSS in EU4 goed werkend te krijg.
Nouja, als het dadelijk dus gewoon standaard in de game-engine is ingebouwd, zoals nu eigenlijk het geval zal zijn met nieuwe UE4 games (want de 4.26 heeft wel heel veel meer voordelen waardoor het zeker aan te raden is om van een lagere versie toch te upgraden als je je game voorlopig toch niet uitbrengt, EN je niet dus een custom versie bent gaan gebruiken).

Ik zie zelf al (als developer) steeds minder het nut om nog zelf een eigen (3D) engine te gaan bouwen/onderhouden want de grote kun je toch nooit voorbij gaan en die engines zijn gewoon battletested waar jij nooit aan kunt tippen, vooral niet als je multiplatform wilt gaan (wat je tegenwoordig toch echt wilt om je investering zo goed mogelijk terug te krijgen).
Een game engine er zijn helaas 5-10 game engines dus is de kans dat we echt brede adoptie krijgen is nog land niet zeker.

En als ik kijk naar alle games en game engines dan is er nog zeer zeker wel een reden om andere engines te gebruiken. Niet iedere game is geschikt voor ieder type game engine.
DLSS is afhankelijk van z'n Deeplearning model dat toch echt gemaakt moet worden anders heb je nog niks.
Zou mooi zijn als Nvidia een speciale DLSS postprocessing chip kan inbouwen, om het zo snel en low-latency mogelijk te maken.
Doen ze soort van al, het heet Tensor. Die cores staan los van de gewone shader units.
Die worden nu toch ook voor ray tracing gebruikt ik denk dat hij doelt op een 3de chip.
Ik denk dat Tensor voor AI wordt gebruikt. Raytracing cores zijn ook apart.

Overigens kan het zijn dat DLSS van meer gebruikt maakt dan een 2d plaatje, zoals de Z buffer of vertex locaties. Of ze doen supersampling op bepaalde delen. In dat geval is het maken van aparte cores moeilijk omdat het geintegreerd is met het renderproces.
Tensor-cores kunnen ook voor AI gebruikt worden, maar uiteindelijk zijn het matrix-vermenigvuldigers die met iets grotere matrixen kunnen omgaan dan de 4x4 matrixen van 3D rendering. Dat is dus nuttig voor allerlei soorten bewerkingen.
Klopt, maar meestal werken ze apart van de shader units. Ook zijn de raytracing cores apart van Tensor.

Ik geef toe dat een aparte chip voor DLSS voordelen biedt. Echter, ook nadelen.

Tensor programmas zijn herschrijfbaar, en als er verbeteringen zijn kunnen ze via software of driverupdates geleverd worden. Bij fysieke hardware is dat lastig. Een aparte chip(deel) kost extra productiecapaciteit. Ook moet zo'n extra chip ondersteuning en onderzoek krijgen. Ook is het ongeschikt voor andere taken waar de GPU wordt gebruikt.
Een extra chip voor tensor-operaties is geen gek idee hoor. Die worden nu al commercieel gemaakt (TPU's). Dat blijft programmeerbaar.
Als je lang meeloopt in de gamewereld dan weet je dat je 2 dagen lang denkt: Wow, mooi. Daarna is het "normaal", overigens heb je een vergelijkbaar effect met zwartwit TV en de overgang naar kleur, hoewel dat nog wel wat voordelen had. Echter resolutie en effecten stompen vrij snel af. Wat dat betreft maakt de physics engine voor mij bij games veel meer verschil dan wat eyecandy.
Maar juist ook door gebruik van DLSS zorgt er voor dat er weer ruimte vrij komt voor de Physics zonder in te hoeven boeten op de visuals, mensen met een 4K scherm willen nu eenmaal graag hun spel kunnen spelen op 4k zonder dat ze de doorsnee upscale artifacts hebben van 1080p/1440p naar 4K.
Hoe hoger de resolutie waarop je speelt, hoe meer detail de physics dan ook berekend moeten worden.
DLSS en "mooi" hebben niet echt rechtstereeks iets met elkaar te maken.
Het allergrootste verschil met oudere games vindt ik de Quality-of-life features. Graphics wennen snel, nieuwe gameplay features hebben invloed, maar de QoL mis je echt als je teruggaat naar oude games in dezelfde serie.

Denk aan fast travel in rpgs. RTS unit selection maximum. De Running Shoes in Pokemon. World of Warcraft Heartstone cooldowns. Quest markers, minimaps. Die dingen merk je het minst, maar mis je het ergst.
Ik vind DLSS in 9 van de 10 gevallen echt niks. Ja, de performance is beter, maar je ziet het er vaak ook wel aan af. Het is een beetje alsof je de renderscale op 85 procent zet. Het is het gewoon net niet allemaal. De games waar de implementatie echt goed gedaan is zijn op 1 hand te tellen.
Dit is afhankelijk van de resolutie waar je op speelt.
Zo merk ik dat heel veel users hier minder last van hebben indien je op 4k speelt ?
Ik game op 1440p en merk wat meer blurriness als ik dlls inschakel. Liever native en alles ingeschakeld houden maar die frames die je ervoor krijgt in de plaats.
Vraag me af of games hun engine niet apart moeten kunnen laten bijwerken voor deze technieken. Dan ben je niet afhankelijk van de uitgever.
huh? dat is nu toch ook, de engine moet bijgewerkt worden om gebruik te kunnen maken van DLSS, in dit geval gaat het om de UnrealEngine (die door heel veel developers gebruikt wordt) die nu simpele integratie krijgt waardoor het voor de doorsnee developer nu dus zo goed als een toggle omzetten is om het te gebruiken.
Als het echt goed plug en play werkt dan is DLSS vanaf nu officieel een gamechanger. De enige reden dat DLSS hiervoor niet heel belangrijk was was vanwege het selecte aantal titels en exclusieve integratie. Wanneer DLSS ook bij de Unity Engine te gebruiken valt kunnen we binnenkort eindelijk betere framerateskrijgen op een RTX2060 dan een 1080TI
1440p DLSS vind ik nog steeds een beetje blurry. Op 4k zal het vast beter zijn.
Wat bedoel je??

Je gebruikt DLSS toch vaak met een source resolutie van 1080p of 1440p en een target van 4K?


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True