Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Call of Duty: Warzone krijgt ondersteuning voor Nvidia's DLSS

De makers van Call of Duty: Warzone voegen ondersteuning toe voor Nvidia's deep learning super sampling-techniek aan Call of Duty: Warzone. Bezitters van Nvidia RTX-kaarten kunnen daarmee hogere framerates halen.

DLSS was al beschikbaar in Call of Duty: Black Ops Cold War en deze techniek komt nu ook naar Call of Duty: Warzone, het losstaande battleroyale-onderdeel uit de reeks. In de aankondiging maakt Nvidia niet duidelijk of het gaat om de eerste versie van DLSS of de in maart van vorig jaar geïntroduceerde versie 2.0; deze laatste versie biedt volgens Nvidia een hogere beeldkwaliteit dan de eerste generatie en de kunstmatige intelligentie hoeft niet langer per game getraind te worden.

Er zijn nog meer games die ondersteuning voor DLSS krijgen, waaronder Five Nights At Freddy’s: Security Breach, een game die dit jaar moet uitkomen. Ook de horrorgame The Medium krijgt DLSS als de game op 28 januari uitkomt. Een andere game die ondersteuning voor de techniek krijgt, is Outriders. Dit is een co-op-thirdpersonshooter van ontwikkelaar People Can Fly en uitgever Square Enix, die onlangs werd uitgesteld tot april.

Nvidia's DLSS-techniek rendert games in een lagere resolutie en vult de ontbrekende details vervolgens aan met behulp van kunstmatige intelligentie. De techniek werkt met de Tensor-cores van Nvidia's RTX-videokaarten.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Joris Jansen

Nieuwsredacteur

13-01-2021 • 10:26

60 Linkedin

Submitter: Jelledenkik

Reacties (60)

Wijzig sortering
Bij de huidige implementatie moet Nvidia daarvoor per game een algoritme trainen aan de hand van gamebeelden die op een 16k-resolutie zijn gerenderd.
Eh, nee, vanaf DLSS 2.0 hoeft er niet meer per game worden getraind. Wat de implementatie vereenvoudigt voor developers. Alle nieuwe DLSS implementaties sinds een half jaar zijn DLSS 2 of hoger.
Sterker nog, DLSS 1.0 is al sinds augustus 2019 niet meer gebruikt. Control was de eerste game met een WIP versie van 2.0 ("1.9") en alle games die sindsdien zijn uitgekomen met DLSS ondersteuning, gebruiken 2.0. Er zijn zelfs een aantal games die DLSS 1.0 hadden geüpdated naar 2.0.

Het grote verschil tussen 1.9 en 2.0 is dat 2.0 op de Tensor Cores draait, terwijl 1.9 een prototype was dat gewoon op de shaders draaide.

1.0 was gewoon niet rendabel. Dat vergt te veel trainen, gigantische drivers en tot overmaat van ramp ben je zelfs met zo'n specifiek model alsnog niet in staat alle mogelijke bewegingen van spelers te vangen, waardoor je zelfs meer artifacts krijgt dan met een generiek model zoals dat nu gebruikt wordt.
Dat zeggen ze wel maar waarom is het dan geen universele klik aan button die game onafhankelijk is?

Games moeten wel degelijk nog steeds specifiek optimaliseren voor hun eigen titel. Nvidia zat flink op te scheppen over DLSS2.0 als universele oplossing maar eindstand hebben nog vrij weinig games het eigenlijk. Sterker nog ik herinner me dat het op BF5 rare effecten gaf en dat het bij release niet eens beschikbaar was

Misschien dat developers vroeger het hele netwerk van scratch moesten trainen, en tegenwoordig transfer learning kunnen gebruiken (dus het bestaande model een beetje bijtrainen) maar ondanks dat ik het goede stap vooruit vind, blijft de implementatie barriere nog vrij hoog. Pas wanneer DLSS standaard geimpleneteerd kan worden in Unity en/of UE4 als een vinkje is het echt universeel.

[Reactie gewijzigd door Osiummaster op 13 januari 2021 11:44]

Dat zeggen ze wel maar waarom is het dan geen universele klik aan button die game onafhankelijk is?
Omdat het geen post-processing filter is.
Games moeten wel degelijk nog steeds specifiek optimaliseren voor hun eigen titel. Nvidia zat flink op te scheppen over DLSS2.0 als universele oplossing maar eindstand hebben nog vrij weinig games het eigenlijk. Sterker nog ik herinner me dat het op BF5 rare effecten gaf en dat het bij release niet eens beschikbaar was

Misschien dat developers vroeger het hele netwerk van scratch moesten trainen, en tegenwoordig transfer learning kunnen gebruiken (dus het bestaande model een beetje bijtrainen) maar ondanks dat ik het goede stap vooruit vind, blijft de implementatie barriere nog vrij hoog. Pas wanneer DLSS standaard geimpleneteerd kan worden in Unity en/of UE4 als een vinkje is het echt universeel.
Nee, één van de inputs voor het model is motion vector data. Daarom kan het geen universeel vinkje in de driver zijn, want die informatie krijgt de driver nooit. Het model wordt niet bijgetrained door de game, maar vereist wel input die enkel de game (of beter gezegd: de engine) kan geven.

Waarom het dan niet standaard in Unity en UE4 zit? Nvidia.

Die geven het simpelweg niet zomaar vrij. Pas vorige maand is er een bèta plugin voor UE4 vrij gegeven, waar men zich voor aan kan melden.
Werkt DLSS nu alleen icm RT? Of kun je deze techniek ook zonder RT gebruiken?
Het werkt ook zonder RT.

Hoewel de techniek vet is en verrassend goed werkt, is het wel gewoon een lapmiddel. Basically verlaag je nog altijd de render resolutie, en upscale je de output dan wat intelligenter dan gewoon de pixels te vergroten (nl door ook een dieptebuffer te gebruiken). En het opschalen is wel wat slimmer en voegt wel wat detail toe dankzij hun "AI", maar het blijft zo dat je originele textures aan een lagere resolutie worden gerenderd en dat zie je toch terug in het resultaat. Dat zie je niet in YouTube-compressed flitsende beelden maar wel in het echt.

Wat nog beter zou zijn is dat moderne games wat efficienter gebruik maken van de GPU en gewoon zonder lapmiddelen betere performance neerzetten. Je ziet de laatste tijd een heel aantal games (ik geef er eentje als voorbeeld: Watch Dogs Legion) die gewoon echt ranzig slecht geoptimaliseerd zijn, en dan met DLSS (aka, render het kleiner en schaal het terug up) net-speelbare performance leveren. Ik vind dat gevaarlijk. Een game als GTA V die al heel lang bestaat ziet er grafisch fantastisch uit als je alle instellingen omhoog gooit. En performance is dik OK want de game benut je GPU gewoon goed. Maar een moderne game als WD:L ziet er niet beter uit, omdat je gewoon de standaard zaken (render resolutie, textures) niet hoog genoeg krijgt zonder zwaar in FPS in te boeten.
'Lapmiddel' doet geen recht aan de techniek. De performance die je wint met DLSS 2.0 is echt niet op te vangen met enkel efficiënter gebruik maken van de GPU. En je geeft DLSS nu bijna de schuld van het feit dat Ubisoft de kantjes er vanaf loopt. Het is een techniek wat zich nog verder moet ontwikkelen maar als je naar de resultaten en potentie kijkt is het een bijzonder interessante techniek. Denk bijvoorbeeld handhelds (Switch).
maar het blijft zo dat je originele textures aan een lagere resolutie worden gerenderd en dat zie je toch terug in het resultaat. Dat zie je niet in YouTube-compressed flitsende beelden maar wel in het echt.
In Cyberpunk was dit het geval door een verkeerde texture lod setting. Als je deze op -1 zette in Nvidia inspector waren de textures gewoon weer goed. Je ziet juist meer details in de textures en algemene geometrie, maar minder rondom zaken als bijvoorbeeld hekwerken in games.
Je ziet juist meer details in de textures en algemene geometrie, maar minder rondom zaken als bijvoorbeeld hekwerken in games.
Dat van de hekwerken is inderdaad wat ik bedoel. Je ziet uiteindelijk niet meer details, je ziet het resultaat van een neural network dat wat nepdetail toevoegt door het toevoegen van al dan niet slim gegenereerde ruis en sharpening.
Het doet veel meer dan dat, het is geen sharpening algoritme, maar raad wat er de missende pixels aan kleur moeten bevatten, mede gebasseerd op de vorige frame. Dat is geen nepdetail maar slim renderen. Totaal wat anders dan gewoon lage interne resolutie en dat upscalen met wat sharpening. Op die manier kan je nooit meer detail terug krijgen, je kan alleen het contrast versterken waardoor het scherper oogt.
Hoezo zie je méér details met DLSS?
Omdat de AI invulling details weet te raden welke op native resolutie ook gerendered zouden worden en daarnaast ook de blurryness uit verschillende anti aliasing technieken weet te ontlopen.

Downsides zijn dat je soms trails zien bij kleine high contrast particles. Het is nog niet perfect, maar in ruil voor meer performance en toch near native tot native kwaliteit images lijkt mij een goede ruil.
En in sommige situaties ook gewoon noodzakelijk.. Ik speel Cyberpunk 2077 b.v. op 3840x1600 resolutie met een RTX 2080 en die trekt dat gewoon niet op hoge getweakde settings zonder DLSS.. Met DLSS op Quality heb ik echter wel goede fps en het ziet er nagenoeg hetzelfde uit..

Het is inderdaad niet te hopen dat game-ontwikkelaars door DLSS te lui worden met hun games goed te optimaliseren.. Eigenlijk zou een game als Cyberpunk 2077 ook zonder DLSS beter moeten draaien.. Vergelijkbare open world games als Red Dead Redemption 2 en The Division 2 etc doen dat namelijk ook met slechts wat kleine tweaks hier en daar in de settings..
DLSS is wel meer dan een lapmiddel. Digital Foundry toonde zelfs aan dat DLSS soms een beter resultaat geeft dan de hogere native resolutie. Knap staaltje werk. Wat mij betreft ook hét UPS van Nvidia tov AMD. Nvidia zet met DLSS, met praktisch dezelfde beeldkwaliteit, zomaar een dubbele performance neer tov AMD. DLSS is een techniek die ik heel graag in mijn PS5 had gezien.

[Reactie gewijzigd door Hulleman op 13 januari 2021 15:03]

Ik heb de video een aantal keer op pauze gezet, je kunt het ook in de youtube video prima zien. Aliasing en ruis (weet even niet hoe ik het moet noemen) zijn duidelijk zichtbaar.
Met ruis bedoel ik de vage pixelige omlijning bij randen, die de aliasing aansterkt, en textures die modderig worden. Laat ik de video weer afspelen dan valt het helemaal op bij beweging.

Nog steeds erg indrukwekkend gezien de extra framerates, maar 'lapmiddel' vind ik wel degelijk een toepasselijke term. Het valt wat tegen eigenlijk, vond DLSS toch het grote voordeel van een nvidia GPU.
De huidige tegenhanger van AMD is wel ronduit k.u.t naar verhouding. Misselijk makend heb ik zo ervaren.

Aangezien raytracing nog te hongerig is, je moet echt zoeken naar het effect ervan, worden de nieuwe AMD gpu's een stukje interessanter. Tegen de tijd dat het allemaal gemeengoed is, kijk ik dan weer wel.

[Reactie gewijzigd door Luke Skyballer op 13 januari 2021 11:31]

YouTube compression helpt niet bepaald mee.
Uit ervaring kan ik zeggen dat DLSS 2.0 echt prima is. Zolang je meer richting de quality dan de performance DLSS zit is het verschil vrijwel onmerkbaar tot zeer weinig tijdens het gamen.

DLSS is een lapmiddel op dezelfde manier dat iets als Screen Space Ambient Occlusion (SSAO) een lapmiddel is.
Het is een techniek om iets te doen waarbij het 'echt' berekenen gewoon zwaarder is. Games gebruiken zo veel technieken voor licht, reflectie, refractie, schaduw e.d. die best goed performen, maar dingen niet 'echt' realistisch berekenen. Dat zou je allemaal lapmiddelen kunnen noemen omdat full ray tracing / path tracing (nog) niet een rendabele oplossing is.
Dat is waar, enige verschil is dan dat DLSS hardware matig gerendered wordt.

Heb een beetje bias richting AMD, en zoek naar argumenten om straks ook voor de GPU in het rode kamp te snuffelen 8)7
Maar de meeste nvidia gebruikers zijn erg enthousiast over iig de quality instelling van dlss. Zou zo maar mijn eerste nvidia gpu gaan worden wanneer ze leverbaar zijn en de prijzen correct.
Van de nvidia website:
"DLSS is powered by dedicated AI processors on RTX GPUs called Tensor Cores."
Dus voorlopig alleen beschikbaar op RTX kaarten.
Het werkt losstaand van RT, maar je hebt er wel een RTX-kaart voor nodig (gezien de Tensor-cores op die kaarten nodig zijn voor DLSS).
Werkt zonder RT!

Lijkt me dat 1440p > 1080p nu voor warzone in ieder geval! Met mijn 3080 haal ik tussen 150-200 fps op 1440p! Imagine met dlss :9

[Reactie gewijzigd door laurens362 op 13 januari 2021 10:36]

Werkt zonder RT, niet zonder RTX.
Alleen RTX-kaarten hebben Tensor cores waarmee DLSS AI-upscaling wordt gedaan.
Welke kaart heb je?

Ik haal op 1440p met mijn 3080 Ventus OC nog maar net 120 fps met drops naar 99 fps.

Heb geprobeerd alles op low te zetten in COD, maar dan blijf ik nog steeds maar rond de 130 fps hangen.

Valt er nog wat te tweaken in Afterburner of in de Cod settings?
5900x incm 3080 suprim x
Cpu oC en ram xmp
Verder bijna alles op low
Kijk eens naar je GPU gebruik tijdens het gamen. Als je je settings omlaag zet en je GPUbelasting daalt terwijl de FPS niet of nauwelijks toeneemt, heb je een bottleneck ergens in je systeem. Het kan zijn dat je CPU niet snel genoeg is om de GPU efficiënt van nieuwe data te voorzien, of je RAM is niet snel genoeg om de CPU van data te voorzien, waardoor de CPU dus de GPU weer niet kan voorzien.

Waar de bottleneck zit is wel te achterhalen door gewoon taakbeheer open te trekken en te kijken naar de belasting van de componenten. Als CPU en GPU beide niet voluit draaien (let er wel op dat de game waarschijnlijk niet alle CPU cores belast, kijk dus naar de core-belasting en niet de totaalbelasting) dan zit de bottleneck waarschijnlijk in je werkgeheugen.

Sommige games met grote levels maken gebruik van streaming, waardoor delen van de speelwereld continu in- en uitgeladen worden. Als je HDD of SSD dit niet kan bijbenen zul je dit merken door een hoge belasting op de schijf en kleine stotteringen als je je omdraait of je snel voortbeweegt door de speelwereld.
Ga ik doen, bedankt!

Weet niet of mn CPU een bottleneck is. Ik heb een i7 10700K en 16GB ram. Wellicht dat ik kan uitbreiden naar 32, maar ik dacht dat dat altijd een beetje overkill was voor gaming?
Ik heb een 9700k en haal ook ongeveer 120fps gemiddeld met m'n 3080 iChill x4.
M'n broertje heeft de iChill x4 en haalde net 110fps gemiddeld met z'n 6700k, nu hij een 5600x heeft haalt hij makkelijk 170fps gemiddeld. Ik ga dus binnenkort m'n CPU upgrade. 10700 had ik verwacht meer fps te geven.
Niet alleen de grootte maar ook de snelheid en latency is belangrijk. RAM moet in de bios geconfigureerd worden alvorens deze op de geadverteerde snelheid draait. Koop je bijvoorbeeld 3600MHz geheugen, zal dit gewoon op 2133 draaien totdat je in de BIOS het XMP profiel activeert of het geheugen handmatig configureert.

Veel mensen zien dit over het hoofd, terwijl het performance verschil tussen 2133 en 3000+ behoorlijk significant is!

[Reactie gewijzigd door Rickkamminga op 13 januari 2021 17:43]

Ik hoor daar sowieso wisselende verhalen over, 2 collega's bijna tegelijk een identiek systeem gekocht (de ene heeft een 3700x de ander een 3800x dus marginaal sneller), waar degene met de 3800x alles op high heeft en 120isch fps haalt haalt de andere 90fps met alles op low.

Dat is op 3440*1440, zelf zit ik met een 3080 Suprim (icm 5950X) met alles op high en in multi is die vrijwel strak 144 (capped) en in warzone tussen de 120 en 144.
Huh dan moet er iets niet goed zijn, ik haal met een RX5700XT met vrijwel alles op high die waardes, een 3080 zou daar rondjes omheen moeten lopen. (met een Ryzen 5 3600 en 16GB 3000Mhz RAM).
DLSS is niet heel nuttig als je al zulke hoge framerates haalt, want de DLSS upscaling kost een ook een paar miliseconden per frame. Als je al 200fps haalt is je frametime ongeveer 5ms. Op 1080p renderen haalt dat naar beneden naar ongeveer 3 ms, en daar voegt DLSS weer 1 of 2 ms aan toe dus kom je uit op 4 of 5ms frametime.
Mooi, kan ik beetje fatsoenlijk gebruik maken van mijn 144hz 1440p scherm.
Tof dat ze dat inbouwen!

Nu de game nog fixen, sinds het spel in beheer van Raven is blijft er niks van het spel over. Voor de 3e keer een stim glitch, freeze tijdens openen van loadout, OP wapens die na 6 weken half gepacht worden. IW zat ook soms te klooien, maar dit is wel echt drama hoor
Gisteren ook meerde DEV errors gehad waardoor de game crasht en servers die spontaan disconnecten. Lol is er sinds Cold War implementatie wel beetje van af aan het gaan.
Tof dat ze het inbouwen, ja... Alleen, zoals je zelf ook al een beetje aangeeft, vind ik dat ze nu niet hun resources moeten inzetten op het implementeren van DLSS 2.0 maar op het fixen van hun game. Het gaat echt een beetje me hart aan, dat ze nu komen met dit nieuws... en dat ze niet komen met een aanstelling van een community manager, het erkennen van de fouten die ze hebben gemaakt en dat ze er alles aan doen om het te fixen oid. Sinds de Cold War update is de lol er totaal vanaf. Voor de beruchte update had ik 12 (!!!) volle dagen gameplay, gigantisch veel als je het mij vraagt. Sinds de update heb ik niet meer dan 7/8 uurtjes aan het spel verspeeld. Mijn vrienden en ik zijn weer lekker overgestapt op het oude vertrouwde BFV, met zo nu en dan een potje BF1 of BF4 tussendoor :)

Ik hoor het wel van de community wanneer er weer gelachen kan worden in Warzone!
Het één sluit het ander natuurlijk niet uit. Dat ze nu bezig zijn met het implementeren van DLSS , betekent niet dat ze niet tegelijk aan de game aan het werken zijn. Dat het een frustrerend spelletje begint te worden met dev errors, stim glitches, grote aantallen hackers en OP guns, ben ik dan wel met je eens! :)
'Het een sluit het ander niet uit', inderdaad. Echter zal je altijd priotiseren. Door enkel te communiceren over het ondersteunen van DLSS 2.0 geven ze hun community een duidelijk signaal waar hun prioriteiten liggen.

Ah fijn, de discussie interesseert me ook niet zo. Ik heb al genoeg gehad van Treyarch en consorten. Zoals ik al zei: Warzone hebben wij al links laten liggen. Als er weer iets leuks te beleven valt zullen we het weer eens een kans geven.

Ergens in maart weer toch? Schijnt dat er dan een nieuwe map komt?
En nog steeds geen 120FPS support of FOV slider op de PS5.
Ik vraag me af wat de toegevoegde waarde is van DLSS in een game als COD:Warzone.

Als je een RTX kaart hebt, heb je over het algemeen al vrij goede performance zonder DLSS (ik doe met mijn 3070 op 1440P al 120 FPS) met dlss heb je dan misschien 180 fps (gokje), heb je dat nodig?
DLSS werkt ook op de 20 serie van nvidia. Een Geforce 2060 kan elk hulpmiddel gebruiken.
Precies dit. Voornamelijk ook omdat het volgens mij best verschilt wat nou geupscaled gaat worden. Bij dit filmpje van LTT zie je dat alles op korte afstand er goed uit ziet maar in de verte drama.

https://youtu.be/kK45BxjSLCs?t=1222

Lijkt me niet echt dat je hogere FPS prefereert boven het feit dat mensen op daken op 200m oid een stuk meer blurry lijken. Maargoed, we shall see.
Als je en 360Hz monitor hebt voor bijv. Counter strike, en ook Warzone wilt spelen is meer FPS altijd beter.

En bekijk het van de andere kant. Je krijg nu waar voor je geld omdat ze eindelijk DLSS toevoegen.
Ik heb zelf een 3060Ti maar als ik alles op ultra zet en raytracing aan zet gaat mijn FPS veel heen en weer. DLSS lost dat hopelijk op.
Ik game met een RTX2060 Mobile en tenminste bij Control is DLSS 2.0 echt een super goeie toevoeging aangezien ik game op een 1440p scherm die 144Hz ondersteund. Ik kan daardoor met RT aan spelen op High settings op 90 FPS, op een 2060!!!
Ultrawide monitors kunnen dit wel goed gebruiken, ik zit nu rond de 100fps op 5120x1440 en de monitor kan tot 240hz weergeven. Welkome toevoeging dit.
Nu nog een techniek vinden die Microsoft Flight simulator kan redden in VR :+
Ik vraag me af waar de modellen zitten die hiervan gebruik maken. Dus een neuraal model neemt een reeks frames op samen met positional encoding en diepteinformatie, en upscalet dan. Vanuit een neuraal perspectief is dat best een zware operatie om continu te doen en ik ben dus erg onder de indruk dat ze dit zo kunnen optimaliseren op de tensor cores om het in real-time te laten werken. Maar mijn vraag is dus vooral: waar zijn die modellen opgeslagen? Als er per game een model moet worden gemaakt, dan vermoed ik dat het per-game aangeleverd wordt door de uitgever van de game. Dat wil dan ook zeggen dat mensen die DLSS niet (kunnen) gebruiken onnodig deze DLSS modellen moeten downloaden. Dat is niet ideaal. Ik ben erg fan van modulaire games waar users enkel moeten downloaden wat ze nodig hebben. DLSS modellen zijn voor velen dus niet nodig. Ultra high textures ook niet. Ik ben ervan overtuigd dat de som van data die je als average user niet gebruikt, je wel wat GB kan sparen.
Nvidia gebruikt nu een generiek model welke direct op de GPU welke door middel van driver updates wordt geupdate. Eerst was er inderdaad een model per game welke eerst door Nvidia gecreeerd moest worden.
Aha, te snel gelezen. Mooi dat het dan met een driver kan meegeleverd worden al ben ik ook hier benieuwd naar hoe groot dat is respectievelijk tot de driver zelf. Maar ik vermoed dat je dezelfde vraag kan stellen over specifieke game-optimalisaties die in drivers zitten. Als je een game niet speelt, is dat dus niet zo nuttig - maar ik begrijp dat ze liever alles-in-een packagen en distribueren, dat is vast wat gemakkelijker.

Wel des te indrukwekkender dat ze met een generiek model toch zulke hoge kwaliteit kunnen bekomen.
De modellen zitten volgens deze pagina van Nvidia in de drivers.
Dus een neuraal model neemt een reeks frames op samen met positional encoding en diepteinformatie, en upscalet dan.
Wat ik het het artikel ook lees, is dat ze alleen de vorige hi-res frame pakken, het huidige low-res frame en dit samen met movement vectors en op basis daarvan de voorspelling maken voor het volgende frame. Dit is relatief niet heel veel data en als het model getraind is ook niet zo zwaar meer om een voorspelling te maken.
Relatief gezien niet heel veel data, maar toch nog steeds indrukwekkend om dat real-time meerdere keren per seconde te doen met de hoge kwaliteit die ze nu leveren. Bij versie 1 van DLSS schrok ik niet dat de kwaliteit zo slecht was - dat was wat ik verwachtte en ik vond het gek dat ze zoiets zelfs probeerden. Ik was overtuigd dat ze zoiets nooit efficient in real time zouden kunnen bereiken. En toch is het zo goed gelukt, impressive!
Veronderstel dat je daar de laatste drivers voor nodig hebt of ook met oudere ?

Gisteren eens 461.09 update gedaan, na uninstall met DDU via safe mode, battlefield liep al niet lekker en hunt showdown deed ook maar raar, na een blijven vasthangen scherm toch maar weer naar 451.48 en problem solved.

RTX 2070 Super Gaming X Trio
Denk niet dat je per se nieuwe drivers nodig hebt, maar natuurlijk wel de laatste update van de game
(DLSS is op dit moment overigens nog niet beschikbaar in Warzone)
Kijk nu wordt het interessante overweging om naar de RTX modellen te gaan kijken.
Ik wacht nog zeker tot de 3080TI wordt aangekondigd en dan haal ik die wel. De 3080 met 10GB VRAM is het voor mij niet waard, draai momenteel nog met een 1080.
Valt COD MW 2019 nou ook onder de warzone naam? Ik hoop dat die namelijk dan ook ondersteund wordt door DLSS!
Ja helaas hebben ze cod:mw (iig in de battlenet app) omgetoverd naar cod:warzone en vanuit daar kan je weer mw starten (en dan blijf je binnen die applicatie dus dat is idd cod:warzone).

Snap het ook niet helemaal en nogal zonde dat ze mw zo onder laten sneeuwen door warzone wat gewoon een gamemode is van mw (in dit geval).
Het is Activision
Daar gaat het de laatste jaren al slecht met de logica
Ze bannen constant hackers/cheaters (zeggen ze) maar ze weigeren een goede anti-cheat te implementeren
Ze zijn van Steam naar hun eigen Battle.net gegaan, waarschijnlijk voor het geld, maar daardoor ben je nu wel de Steam workshop kwijt, dus hebben de nieuwe games ook geen mods
Op BO3 vond ik custom Zombies een van de leukste dingen om te spelen
Daarom was ik blij dat Cold War weer Zombies heeft, maar dus helaas geen custom maps e.d.
Ook hebben ze om de een of andere reden besloten om alle Cold War wapens naar Warzone te halen, terwijl die games op verschillende engines draaien
Daarom kloppen veel van de omschrijvingen en stats van de wapens en attachments niet in het Warzone menu
Het draait echt alleen maar om het geld helaas en ze luisteren niet meer naar de fans zolang het geld blijft binnenstromen
Het half integreren van Warzone met hun andere games is daar ook een voorbeeld van


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True