Youtuber speelt God of War met 30fps op Radeon 660M-igpu dankzij FSR 2.0

Youtuber TechEpiphany heeft God of War weten te testen op een systeem met een AMD Radeon 660M-igpu. Dankzij de meest recente versie van AMD's FidelityFX Super Resolution kon de game met rond de 30 frames per seconde in 1080p-resolutie gespeeld worden.

De grafische instellingen van God of War lopen uiteen van de laagste tot de hoogste instellingen, al blijkt FSR vooral de onderscheidende factor te zijn. Zowel de Performance- als Balanced-presets van AMD's upscalingtechniek maken een framerate van tussen de 30 in open omgevingen en 40 fps binnen mogelijk. Overigens komen er tijdens de test van TechEpiphany geen vijanden of grote openwereldomgevingen voorbij, wat eventueel nog een effect op de framerate zou kunnen hebben.

De igpu wordt tijdens de test continu volledig gebruikt, wat niet zo gek is gezien God of War normaal aanzienlijk meer vereist dan een nederige Radeon 660M-igpu om op deze resolutie te spelen. De grafische processor maakt gebruik van AMD's RDNA2-architectuur en heeft een tdp van slechts 15 watt. De maximale kloksnelheid van de igpu is 1900 MHz. Naast de Radeon 660M gebruikt de youtuber een Ryzen 5 6600H als cpu.

FSR 2.0 is net als Nvidia's DLSS een upscalingtechnologie waarbij games in eerste instantie op een lagere resolutie gerenderd worden, waarna beelden opgeschaald worden naar een hogere resolutie. Het idee achter de techniek is om een game er grafisch goed uit te laten zien, terwijl daar relatief minder rekenkracht voor nodig is. Beide technieken maken voortaan gebruik van temporal upscaler-technologie, waarbij ook informatie van voorgaande frames gebruikt wordt om een beter beeld te genereren. Het voornaamste verschil tussen FSR en DLSS is het feit dat AMD's techniek geen gebruik maakt van kunstmatige intelligentie om beelden op te schalen en open source is.

Door Yannick Spinner

Redacteur

06-06-2022 • 13:30

107

Reacties (107)

107
95
66
1
0
16
Wijzig sortering
Pfoef.... ik ben best bekend met de nodige vaktermen in computerland, maar hier komen zoveel kreten voorbij dat ik geen idee heb wat deze youtuber nou gepresteerd heeft. :?

Hij heeft een spelletje gespeeld op een "nederige Radeon 660M-igpu".

Okay... maar wat heeft hij nu gedaan waarom dit een artikel waardig is ? En hoe kan de lezer dit nadoen of met deze kennis zijn of haar voordeel doen ?
God of War normaal aanzienlijk meer vereist dan een nederige Radeon 660M-igp
Mijn conclusie na het lezen van dit artikel: techdemo/pitch voor AMD's FidelityFX Super Resolution.
Hoewel late to the party werkt deze techniek nu ook voor AMD (naast NVidia)
Leuk voor huidige AMD bezitters om naar uit te kijken naar mate meer spellen dit implementeren.
Handig voor toekomstige Videokaart kopers om in het achterhoofd mee te nemen.
Het idee achter de techniek is om een game er grafisch goed uit te laten zien, terwijl daar relatief minder rekenkracht voor nodig is.
Aka je games zien er beter uit en je kaart gaat mogelijk langer mee en omdat omdat AMD geen AI gebruikt hebben meer generaties er iets aan.
Hoewel late to the party werkt deze techniek nu ook voor AMD (naast NVidia)
Leuk voor huidige AMD bezitters om naar uit te kijken naar mate meer spellen dit implementeren.
Handig voor toekomstige Videokaart kopers om in het achterhoofd mee te nemen.
Alleen heel belangrijk; Nvidia maakt technologie die alleen op hun kaarten werkt, die dus enkel en alleen nuttig is voor Nvidia kopers en dan vaak ook nog alleen op Windows (omdat de Linux drivers over het algemeen achter lopen of niet volledig zijn, al begint dat inmiddels ook wel beter te worden).

AMD maakt dit soort dingen vaak later, maar wel op een manier die voor iedereen nuttig is. Iemand die een Nvidia kaart gebruikt kan ook gebruik maken van de functionaliteit van AMD wanneer die in een spel is verwerkt.

Daarnaast heeft AMD een optie om op GPU-niveau op te schalen, waarmee je dus het hele spel inclusief interface op een lagere resolutie rendert en je GPU omhoog schaalt. Minder mooi omdat je interface er dan niet zo fijn uit ziet, maar daarmee kun je in theorie ieder spel op de planeet upscalen naar 4K, dus ook hele oude spellen die oorspronkelijk maar net op 640x480 gespeeld konden worden.

Dus ja, AMD is een beetje laat, maar het feit dat AMD dit doet is vele malen nuttiger dan wat Nvidia doet. Nvidia doet een voorzetje uit eigen belang, AMD maakt het af voor het plezier van de hele wereld.
Ohhh die oude spellen upscalen had ik nog niet bedacht! Wat vet. Alleen was het niet zo dat de developer ook iets moest doen om dit te aan te zetten? Zo niet dat fuck yeah! Ik heb laatst thuis wat oude dvd’s met vakantie filmpjes geupscaled en dat maakt echt een serieus verschil, als dit de helft zo goed is gaat genoeg klassiekers nieuw leven in blazen
De ene versie heeft actie van de developer nodig, waarbij je de mogelijkheid krijgt om alleen het spel zelf te upscalen en daarna de interface daar weer overheen te renderen (wat geen probleem is want een interface renderen kost niet zo veel). Deze heet FSR (FidelityFX Super Resolution).

De andere is op driverniveau, en werkt dus wel alleen op een AMD-kaart. Deze upscalet gewoon het hele beeld, maakt niet uit wat het is. In theorie dus ook een filmpje van 480p naar 4K, maar dus ook een spel van lagere naar hogere resolutie. Hierbij wordt het volledige beeld als één geheel meegenomen, dus je interface kan er wat raar door uitzien, maar als je gewoon op lage specs een spelletje wil spelen kan dat zeer acceptabel zijn. Deze heet RSR (Radeon Super Resolution), en zit dus in de Radeon drivers.

Verder was er voorheen nog het grote verschil dat FSR geen temporal data gebruikte, en dus per frame ging upscalen (zonder naar vorige frames te kijken) waardoor je rare flickering kreeg in sommige situaties, maar dat is inmiddels ook niet meer het geval. Het enige waarin Nvidia nog voorloopt is het gebruik van AI cores voor het upscalen, want AMD gebruikt geen AI, maar AMD's oplossing zou op termijn dus wel robuuster moeten zijn omdat het gebaseerd is op 'platte' logica, en niet de keuze van een if-else-machine.
Altijd dat framen alsof nvidia anderen een hak wilt zetten. De methodiek is heel anders. Nvidia maakt gebruik van een techniek dat draait op specifieke tensor cores en een deep learning model hierop draait om het beeld te upscalen. AMD met Fsr 2 iets wat lijkt qua resultaten maar hierbjj worden framerate improvements niet meegenomen, de oplossing van AMD wordt niet geaccelereerd.
Wat bedoel je precies met wordt niet geaccelereerd? Het zijn shaders.

Btw, dit is wat die speciale tensor cores je aan performance winst oplevert: https://www.youtube.com/watch?v=u6wYOIs1Jxw . 2 tot 5fps meer, niet bijzonder indrukwekkend.
Generieken CU's versus core's welke ervoor bedoeld zijn. 1 game zegt neit alles maar in jou aangehaalde link zie je wel dat DLSS merkbaar scherper is. Dus beter beeld met marginaal meer frames.
Ik denk niet dat tensor cores specifiek bedoeld zijn voor het verbeteren van beeld, maar kunnen er wel voor ingezet worden in dezelfde zin dat CUs dat kunnen (minder goed, dat wel). In beide gevallen is het weldegelijk hardware acceleratie dus.

Je deed net alsof FSR softwarematig is, maar dan zou het verschil in performance veel groter zijn.
Nvidia wordt op de hak genomen omdat ze er een handje van hebben om alles dicht te houden, zoals bij g-sync. Bij AMD is het vaker open source, en dat creëert goodwill.

Edit: fair points @ hieronder. Ik moet ook bekennen dat ik zelf voornamelijk ervaring met Nvidia-kaarten heb, dus mijn statement was geenszins een sneer naar Nvidia, enkel een constatering naar de verschillen. En blijkbaar is goodwill alleen inderdaad ook niet alles :)

[Reactie gewijzigd door A Lurker op 23 juli 2024 08:43]

Het is vaak ook de mindere oplossing al komt die later. Freesync heeft tot de dag van vandaag nogsteeds niet dezelfde product ervaring tussen schermen onderling terwijl Gsync altijd super consistent was en nog is. Ene Freesync scherm heeft vblank issues, de andere weer flikkeringen etc. Je kan het "alles dichthouden" noemen maar uiteindelijk zijn ze wel diegene die de technologie hebben gepushed en de ervaring zo compleet mogelijk willen hebben.
Zal vast met de eerste generatie freesync monitoren zijn want mijn beide schermen doen het goed (freesync premium).
Ook met zeer recente monitoren. Heb er zelf overigens ook last van, De ervaring is gewoon minder.
En als blijkt dat dat niet zo is, gaan we daarover klagen. Misschien zijn de rollen dan weer omgedraaid en moedigen we juist NVidia toe. Zo gaat dat nou eenmaal, we moeten om ons (de consument) belang denken, niet dat van hun, dat doen zij zelf wel.
Je ziet ook nu dat AMD zijn prijzen meer omhoog gooit op CPU gebied nu ze de performance kunnen bieden. Ze zijn net zoals Nvidia inderdaad gewoon een bedrijf wat gaat voor winstmaximalisatie, aandeelhouders verwachten helaas niets anders.
Heeft dat te maken met dezelfde techniek die het mogelijk maakt om bijv. Horizon Zero Dawn op een Nvidia GeForce GT 710 2GB DDR3 te spelen op 144p en 72p?
https://youtu.be/-z9PEZLJTjc?t=506

[Reactie gewijzigd door jdh009 op 23 juli 2024 08:43]

Ik denk niet dat hij in het filmpje ook upscaling aan heeft staan, het ziet er allemaal wel érg blokkerig uit. RSR heeft ook z'n limieten, maar in mijn ervaring is 720p -> 4K te doen, daaronder begint het een beetje twijfelachtig te worden..
Het geeft budget systemen met slechts een APU (waar sommige VEGA's heel, HEEL goed te overklokken zijn) en geen discrete GPU de mogelijkheid om ook gaming-"geschikter" te zijn. Gewoon simpelweg fijn voor de low-end gebruiker toch? ;)
Wat denk je van de laptopjes met een leuke ry6000 chip dan heb je ineens gamingprestaties op de versie zonder extra gpu. Doet het waarschijnlijk goed voor laptops die ook mobiel moeten zijn bij werk of studie bijvoorbeeld
Het is een beetje een mijlpaal, dat we nu door verschillende verbeterde technieken een AAA titel op een geïntegreerde GPU kunnen spelen.
Ik heb witcher 3 in 1080p de eerste keer uitgespeeld op een nvidia 760m in 2015…
De definitie van triple A is raar, immers Quake 1 uit 1995 is ook een triple A titel, die doet het prima op een igpu
De term "AAA" was in die tijd nog helemaal niet van toepassing. Het kwam tot stand ergens rond 2007 toen games ineens veel groter werden.
De term AAA werd al in de jaren 90 gebruikt.
Daarnaast is het gewoon een term die wordt gebruikt voor games van grote uitgevers. Die term kan je dus prima gebruiken voor games voor die tijd.
https://en.m.wikipedia.org/wiki/AAA_(video_game_industry)

Je hebt verder wel gelijk dat de term weer populair is geworden na 2007.
Vast te maken om dat deze uitgevers ineens flink geld konden verdienen met gratis/goedkope games doormiddel van micro transacties.
Dat was toen zo goed als alleen mogelijk voor een AAA uitgever in verband met een hogere budget.

[Reactie gewijzigd door Christoxz op 23 juli 2024 08:43]

Niet voor een titel met 10 ontwikkelaars zoals Quake 1 8)7

Final Fantasy VII (zoals je bron aangeeft) kan ik inkomen ja.
Niet voor een titel met 10 ontwikkelaars zoals Quake 1 8)7
Ik verwacht dat je nog niet zo oud bent. Maar Quake 1 was op het moment van release de meest vooruitstrevende game ever.

Het is raar om te zeggen dat 10 developers ooit geen AAA game konden creëeren.

[Reactie gewijzigd door Veneus op 23 juli 2024 08:43]

Het is raar om te zeggen dat 10 developers ooit geen AAA game konden creëeren.
10 developers kunnen geen AAA games maken. 10 developers kunnen wel één van de meest vooruitstrevende games ooit maken. AAA geeft de omvang van het (enorme) budget, team en vaak uitgever aan. AAA is ook geen kwaliteitsstandaard. Een klein team kan best veel betere games maken dan AAA teams.

Tegenwoordig is dat allemaal wel lastig natuurlijk, waardoor AAA bijna een randvoorwaarde is om een goede en vooruitstrevende game te maken.
Nou ja. Het zal vast dat Quake geen AAA titel is volgens de "officiële" definitie. Maar mijn punt was vooral dat het aantal developers wat er aan werkt sowieso geen indicatie is en dat het vooral ook in een perspectief van een tijdperk geplaatst moet worden.
Als er bijvoorbeeld (hypothetisch) in een bepaald tijdperk de norm is dat games door een enkele developer gemaakt worden, dan is 10 developers ineens een grote game.
AAA gaat over het onderscheid tussen een klein ontwikkelteam en een grote productie. Dus nee, 10 ontwikkelaars kunnen bij definitie geen AAA game maken, anders verliest de term alle betekenis.

Uit het Wikipedia artikel:
One of the first video games to be produced at a blockbuster or AAA scale was Squaresoft's Final Fantasy VII (1997),[4] which cost an estimated $40–45 million (inflation adjusted $68–76 million) to develop
Hoe is dat vergelijkbaar met Quake 1?

Accepteer nou maar gewoon dat games van vroeger meestal kleine producties waren. Niet alles was AAA, ook al was het populair. Pong was ook vooruitstrevend.

[Reactie gewijzigd door Wolfos op 23 juli 2024 08:43]

Wat AAA is veranderd natuurlijk ook met de tijd. Toen Quake 1 kwam was het misschien geen AAA game (omdat in die periode ook FFVII kwam die een veel groter budget had), maar in de jaren 80 was het Quake budget misschien wel AAA.
En Doom doet het op een zwangerschapstest :Y)
Om het simpel uit te leggen. Je hebt een tekening bv op een resolutie van 1920x1080. De videokaart doet dan eerst de tekening verkleinen. Daarna tekent de kaart de tekening om hem daarna weer te vergroten tot de oorspronkelijke resolutie waar bij de tekening dan nagenoeg gelijk lijkt op de originele tekening door een algoritme wat dan de ontbrekende details invult . Wat dit inhoud is dat je op een zwakkere videokaart dan toch zwaardere spellen kan spelen door dat de videokaart minder hoeft te tekenen. Dit kan dus een performance winst betekenen in zekere zin.

[Reactie gewijzigd door Speeder op 23 juli 2024 08:43]

Of nog simpler:
Q: Can AMD Radeon 660M-igpu run Crysis?
A: We dont know this yet, but it can run God of War...
Jorgen Moderator Beeld & Geluid @86ul6 juni 2022 14:44
Haha, de befaamde "but can it run Doom" / "but can it run Crysis" 😁
als je ziet naar de specs en relatieve performance tov andere kaarten, dan is dit wel indrukwekkend te noemen voor een igp die nog geen 10% verbruikt van wat dedicated kaarten verstoken en toch nog een aanvaardbare framerate oplevert. Voor zover ik kan zien ondersteunen zowel het spel als de igp FSR2.0 dus zou je het zelf ook moeten kunnen spelen.

het enige nadeel dat ik zag was dat de beeldkwaliteit nogal blurry was
Dit artikel geeft vooral aan hoe temporal upscaling technieken zoals DLSS en FSR 2.0 kunnen gebruikt worden om hardware die anders erg verouderd is is een tweede leven te kunnen geven en kunnen gebruikt worden om de games die deze technologie implementeren speelbaar te maken voor meer spelers. Zeker voor spelers die oudere hardware hebben en deze niet kunnen upgraden is dit een grote troef.
Dat gaat natuurlijk alleen als de drivers die oude hardware supporten. DLSS op iets lager dan een RTX kun je bijvoorbeeld vergeten, want de non-RTX kaarten hebben daar gewoon de chip niet voor.

GPU drivers blinken vaak niet uit in backwards compatibility.
DLSS op verouderde hardware momenteel misschien niet, maar binnen een jaar of 3 4 misschien wel, en ook op meer budgetgerichte hardware zoals de 2060 en de 3050.
Verwijderd @T-men6 juni 2022 13:57
15W GPU.

Een AAA+ game speelbaar krijgen middels software technieken wat normaal gezien "onmogelijk" zou zijn tenzij je op 640x480 gaat zitten spelen ofzo.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 08:43]

Je vergeet het allerbelangrijkste: het is geen videokaart, maar de in de processor. Dat hij maar 15W is zegt niks voor iemand die vragen heeft over dit artikel, maar dat het dus in feite 30FPS zonder losse videokaart is wel, want dat is wat er zo knap aan is.

[Reactie gewijzigd door Oon op 23 juli 2024 08:43]

Het is wel een gpu, maar integrated.
Zonder gpu zou het via een software rasterizer op de cpu moeten draaien.
Heb mijn bericht aangepast, zonder GPU is inderdaad niet juist
Verwijderd @Oon6 juni 2022 17:08
En men vergeet het feit dat dit gaat over de 6600H, dat 6CU@1.9Ghz heeft, daartegen draait de 6800H/U met 12CU@2.2Ghz. Dubbel de performance voor de iGPU.

De 6800H/U kan God of War op 1080p draaien op 40FPS ( FSR 1.0 ).
Eigenlijk jammer dat ik net een paar weken terug mijn 4650G Pro heb verkocht, had ik ook moeten gaan proberen. De Vega 7 loopt ook op 1.9 GHz. Alhoewel ik 3766@CL14 loop met mijn sticks, zou het een mooie vergelijking zijn geweest.

Eerlijkheidshalve zou ik Tweakers willen vragen eens een rij APU's erbij te pakken en dit aan de tand te voelen. Hier kan FSR 2.0 zich toch even heel goed ten gelde maken.
Stoer. En je kan je totaal niet voorstellen dat voor het meerendeel van de gamers 30fps prima is? :?
Het is je toon en manier van spreken, niet zozeer je mening. Ik wil je op zijn minst een antwoord proberen te geven op je vraag waarom.
Persoonlijke voorkeur =/= definitie van speelbaar.

Alles boven de 30FPS is voor 99.99% van de mensheid gewoon dikke prima, en als je dan op medium of hoge settings kan spelen ziet het er heel mooi uit. God of War met de laagste settings is nog steeds gewoon een heel mooi spel.

Als je niet tegen minder dan 60FPS kan dan moet je naar een oogarts of neuroloog, want alles daarboven is gewoon luxe en totaal onnodig voor een spel dat om de visuals en het verhaal gaat. Dat 120/144FPS fijner is bij een arcade twitch shooter (zoals bijv. CS:GO of Fortnite) snap ik, maar bij een spel als dit maakt het geen reet uit.
Hoewel ik het zeker met je eens ben dat het voor ongeveer iedereen wel speelbaar is vind ik voor 99,99% van de mensen dikke prima nog net een beetje overtrokken. Ik kan wel 30fps spelen maar het voelt nog wel als een redelijke consessie. Vanaf 40fps voelt het voor mij pas alsof ik niet echt meer iets inlever voor mijn ervaring. Op 30fps verlies ik bijvoorbeeld wel eens een beetje mijn orientatie in fast paced games. Iets op 165fps spelen is natuurlijk wel een luxe ervaring idd.
Het is misschien luxe op dit moment, maar over een paar jaar niet meer. Gamen op 480p was ooit ook een luxe, en nu zouden we er niet aan willen zitten. Ik game heel graag op 165 fps (Overwatch) en zie het graag heel erg snel normaal worden.
Ik game nog regelmatig op 480p en zelfs op 240p. Toegegeven hier zit dan nog wel een upscaler tussen, maar dit is in wezen een linedoubler. Dus het wordt niks scherper dan native 480p scherm maar resultaat is echt dikke prima hoor. Dat de PS5 van mij veel mooiere plaatjes op het scherm tovert staat boven kijf overigens maar neemt niet weg dat die oude consoles/games niet nog een hoop fun kunnen geven ;).

En wat betreft fps, tja blijft een lastige. Denk dat niemand zal ontkennen dat 60 of zelfs 120 fps wat lekkerder speelt, maar ik heb totaal geen moeite om op 30fps te spelen. Als daardoor de game er mooier uitziet heeft dat voor mij de voorkeur. Let wel ik speel alleen single player games. Voor multiplayer heb je gewoon voordeel bij meer fps, dus daar is het een nobrainer.
Het wordt een beetje filosofisch, maar ik vind het prachtig dat je daar genoegen mee kant nemen en het zo bewondert. Uiteindelijk zit geluk in het kunnen tevreden zijn met de dingen die je hebt, en niet het verlangen naar meer. Ik heb zelf nog een Nintendo 2ds XL (400x240p) en ik kijk regelmatig Youtube filmpjes op m.youtube.com van 360p, en hoewel ik het vroeger mooi vond merk ik dat dat me niet meer lukt. Maar ik moet ook toegeven dat ik zelf wat lastiger ben hoor met graphics, ik heb de ps2 en ps3 nooit echt mooi gevonden terwijl iedereen de graphics bij sommige spellen mooi vond en bij de ps4 sommige spellen. De ps5 lijkt er meer op en ik merk dat ik doordat de spellen grafisch mooier worden, meer betrokken (immersed) raak in de vele spellen die ik speel. De SNES was wel weer prachtig, maar ik vind 2D gewoon sneller mooier met lekkere felle kleuren:)

Ik wil dus absoluut niet zeuren dat alles snel mooier moet zijn, maar ik ben wel blij met elk klein stapje naar mooiere graphics (bvb Unreal Engine 5) en naar meer FPS (na 100+ fps merk ik zelf niet heel veel verschil op dit moment). Uiteraard heb ik ontzettend veel respect voor game-ontwikkelaars, videokaart-enginieurs en iedereen die meewerkt aan het mooier maken van alle kunst en media.
Na een tijdje ps4 gespeeld te hebben en de 30 FPS voor lief nam. Maar op de ps5 met de performance mode ben ik echt weer van overtuiging dat 60 fps een must is.

De 30 fps is ook waar ik mij aan stoor in films als een camera panned. Ik zie het gewoon echt stotteren. Daarom vond ik the hobbit in hfr ook echt een verademing.
Films zijn typisch in 24 frames per seconde geschoten. Als je dat wil displayen op iets anders dan 24fps, dan krijg je dat niet iedere frame even lang getoond wordt en ervaar je dat vooral bij het pannen van het beeld. Dit heeft dus niets te maken met een lage frame rate, maar met het afspelen op een andere frame rate (hoe kan je 24 beeldjes evenredig getoond krijgen in 30/60/120 delen van een seconde). Zie https://www.reddit.com/r/...24p_stuttering_explained/
Tl;dr: Als je afspeelt op 120 fps/hz dan is je panning probleem opgelost
Oh ja, hobbit was dan ook niet 60 maar 48 fps, sommigen vinden het verschrikkelijk want het wordt ook wel soap opera effect genoemd
ik ben het zeker met je eens dat 30fps wel als maatstaaf voor 'speelbaar' aangehouden mag worden. Echter heb ik zelf wel gemerkt dat wanneer je eenmaal gewend bent op een stabiele 60+fps te spelen (vooral met freesync/gsync), een instabiele +-30fps wel weer flink wennen kan zijn en eerst ook wel voor hoofdpijn kan zorgen. Dit probleem is wel een stuk minder wanneer de 30fps echt een stabiele 30fps is, maar dat is bijna nooit het geval.

Beweren dat het puur een luxe is om op hogere framerates te spelen is simpelweg bullshit verspreiden. Hogere framerates spelen prettiger doordat het de ogen minder vermoeit en de speler minder desoriënteert. bij snellere bewegingen. Daarnaast is alles in gamen alleen maar luxe, niets aan gamen is echt nodig, dus het hele argument van luxe slaat nergens op.
tegenwoordig gaat de gemiddelde console gamer hier ook geen genoegen meer meenemen want alles draaid op de console nu ook op 60fps.

120fps is de new 60 FPS, hiervan is de meerwaarde inderdaad klein. de gemiddelde Tweaker kan nu zijn spaarrekening weer gaan plunderen om te kunnen patsen met hun veel te dure hardware. 8)7
Game inhoud en gameplay > FPS. Ik heb liever een goed uitgedacht verhaal en goede game mechanics met 60FPS dan een schitterende drol met 120
Minecraft? En wat @Oon hieronder zegt:
Persoonlijke voorkeur =/= definitie van speelbaar.
Ik zeg toch exact hetzelfde? Er word alleen gekozen om over een key woordje van mijn post heen te lezen en het daardoor anders te interpreteren. Maar ik zeg duidelijk dat dat mijn mening is niet dat yet voor iedereen zo is. Dat mensen dat zo opvatten en vervolgens ermee aan de haal gaan zegt alleen wat over die personen en niets over wat ik zeg.
Muah, ik heb je post meerdere keren gelezen en zo komt het toch echt niet over. Misschiens eens proberen het anders te verwoorden?
Het is maar net wat je speelt. Als je gaat racen in VR is 90 fps de richtlijn waarbij het vloeiend/realistisch voelt; bij 60/70 fps zie je in VR racegames duidelijk stotteringen en dat is gewoon irritant.

Maar bij een spel als dit, wat je gewoon op je monitor speelt, geeft 60 fps een mooi vloeiend beeld. Ik denk dat 99% van de gamers in dit spel hartstikke tevreden is met 60 fps.
Dat het niet fijn spelen is daar kan ik je gelijk in geven. Niet speelbaar? Dat vind ik pure aanstellerij. Je zult dan nog niet zo heel lang gamen gezien vrijwel alle consoles tot aan de eerste PS4 en Xbox One de games op 30 FPS afspeelde.

Dat is hetzelfde als zeggen dat je een Nokia 3310 niet bruikbaar vind voor telefoongesprekken omdat de kwaliteit daarvan minder is dan huidige telefoons.
Dus nogmaals jij gamed pas een paar jaar? Want alles van jaren geleden is dus onspeelbaar voor je.

Edit: ik vind dat niet, dat is gewoon. Ik zeg ook niet dat het fijn is en ik zou er zelf ook niet graag mee spelen, maar onspeelbaar is bs.

[Reactie gewijzigd door jimzz op 23 juli 2024 08:43]

Dat is geen bizarre conclusie, de conclusie is dat alle consoles tot 10 jaar terug games op 30 fps afspeelden. Dus je wilt zeggen dat jij voor 2012 nooit op een console gespeeld hebt.

Heb je dat wel? Dan is het dus speelbaar. Heeft niets te maken met t feit of je het prettig vind of niet. Ik vind het ook niet prettig, maar onspeelbaar is gewoon aanstellerij.
Hoewel ik het niet eens ben met de inhoud van je bericht, is het wel weer een mega moderatie-fail van Tweakers als je het mij vraagt. Het is toch gewoon On-Topic om je persoonlijke mening over dit onderwerp te plaatsen.

Het wordt echt tijd om naast een on/off topic ook een Eens/Oneens knop toe te voegen. Nu wordt jouw bericht verborgen alsof het een beledigende scheldtirade is (wat naar mijn idee ECHT ongewenst is) terwijl je op zich terecht opmerkt dat 'speelbaar' een relatief begrip is.
Hoewel ik het niet eens ben met de inhoud van je bericht, is het wel weer een mega moderatie-fail van Tweakers als je het mij vraagt.
Nee hoor, het staat gewoon in de ModFAQ onder het kopje "Klachten over moderaties", die ieder gelezen moe(s)t hebben voordat die ging reageren. Als @computerjunky niet zijn reactie had aangepast met beklag over de moderaties, had het op dat vlak een aantal Ongewenst moderaties gescheeld.
Het is toch gewoon On-Topic om je persoonlijke mening over dit onderwerp te plaatsen.
Een onderbouwde mening wel ja. En een positieve/neutrale toon van de reactie wil ook wel eens helpen :)

[Reactie gewijzigd door RoestVrijStaal op 23 juli 2024 08:43]

Daar heb je het dud TOTAAL fout. Die 'klacht' over de exit kwam pas NA dat er al 40x plus een -1 stond.het was dus al zeer absurde mismoderatie voordat er wat van gezegd werd.

En toon is ook deels interpretatie. Iets dat met het tere volk van tegenwoordig vaak fout gaat.
Hier heb je zeker een punt. Helaas geld dit niet alleen op Tweakers maar overal.

We leven in een wereld waar communicatie 1 richtingsverkeer is geworden. 1 kant is goed, de andere maak je monddood.
Het is gespeeld op een HP laptop, het voordeel wat de lezer ermee kan doen is dat als je een nieuwe laptop koopt je ongeveer weet wat je kan verwachten als je zwaardere games wil gaan spelen.
Waarschijnlijk gaat het om deze laptop: https://www.hp.com/us-en/...ptop-16-e1747nr#techSpecs van april dit jaar (met 16 GB ram).

[Reactie gewijzigd door Soldaatje op 23 juli 2024 08:43]

Je ziet in de video hier en daar wel een soort tearing, is dit het gevolg van de upscaling? Het ziet er zeker wel speelbaar uit iig!
Nee scaling zorgt niet voor tearing. Het feit dat Vsync uit staat en de fps zo laag is dat het buiten de freesync range valt is de oorzaak. voor freesync heb je minimaal 48 fps nodig en die word bij lange na niet gehaald.
Met gsync ultimate kan het wel maar dat werkt dan weer niet met deze gpu en heb je een speciale monitor voor nodig.

[Reactie gewijzigd door computerjunky op 23 juli 2024 08:43]

Freesync ondersteund gewoon low framerate compensation . Dus framerates die onder het minimum komen krijgen dubbele beeld verversing. Dus 30fps word op 60hz vertoond. Freesync staat waarschijnlijk niet aan omdat de youtuber misschien geen vrr monitor heeft.

[Reactie gewijzigd door ashwin911 op 23 juli 2024 08:43]

Dat is het gevolg van vsync uit zetten.
God of War is ook zeer goed speelbaar op de Steam Deck met FSR 2.0!
Niet echt vergelijkbaar.

Als steam deck het niet zou kunnen zou ik me zorgen maken.
Hoezo niet vergelijkbaar? De Steam Deck heeft ook een AMD RNDA 2.0 igpu met specs die helemaal niet zoveel verschillen van de 660m...

Prima te vergelijken.
Dezelfde performance in de praktijk... De 6600H/U heeft 6CU @ 1.9GHz, de Steam Deck heeft 8CU @ 1.6Ghz, wat gelijkaardige performance aanbied. De betere versie is de 6800U met 12CU @ 2.2Ghz, dat God of War op 1080p afspeelt op 40fps(fsr), tegenover 720p op 30fps(fsr) voor de 6600H/U en Steam Deck.
God of War draait wel iets beter dan dat op een Steam Deck (iig op de mijne). Op 800p met FSR aan doet hij 40fps +(original settings).
Is de Deck zijn geheugen. Dat draait op 5500. De 6600H in de filmpje boven draait op 4800. Heb al gezien hoe het verschil tussen 4800 en 6400 een 7 tot 20% verschil heeft in FPS. Jammer genoeg zijn iGPU's nog altijd enorm bandbreedtegevoelig.

Ook al gezien dat bepaalde producenten vreemde bios issues hebben dat de iGPU kan beperken.

https://www.ultrabookrevi...us-zenbook-s13-review/#a5

Snap niet waarom ze die 680M (en Steam Deck) niet uitgerust hebben met 8 of 16MB Infinity cache. Waarschijnlijk schrik dat de iGPU's dan te veel zouden concurreren met de dGPUs... Is zoals die nonsense waar ze dGPU beperken tot 2/4GB ram.
Ik denk dat je de Steam deck overschat. Het is qua flops een PS4 in handheld formaat. Echter, de game draait op de PS4 ook op 30 fps max 1080p en met moeite 4k 30fps op de pro. https://www.eurogamer.net...-god-of-war-tech-analysis
Dus op native resolutie moet de Deck het zeker aankunnen. Maar op een groter scherm is het een ander verhaal.
Zo'n fantastische hardware heeft die steam deck nou ook weer niet hoor.
God of War is ook zeer goed speelbaar op de Steam Deck met FSR 2.0!
Zelfde iGPU ... De 6600H/U heeft 6CU @ 1.9GHz, de Steam Deck heeft 8CU @ 1.6Ghz, wat gelijkaardige performance aanbied.

De echte krachtpantser is de 6800U met 12CU @ 2.2Ghz, dat God of War afspeelt op 1080p/40FPS/FPS1.0.

Steam Deck en 6600H/U, draaien God of War op 720p/30FPS/FSR.
Ben benieuwd of ze nog meer uit deze techniek kunnen halen, dit is in ieder geval al een mooi vooruitzicht :)
De 680m die in een ryzen 7 6800h(s) zit was ook al gebenchmarkt door 'unboxers' om eigenlijk net wel/niet op het niveau van een gtx1060 desktop te zitten.

Nu is dat ook niet meer de modernste kaart , maar nog altijd veel mensen gebruiken hem voor 1080p gaming . En iets als dat als 'ingebouwde gpu bij een processor' vind ik toch altijd erg leuk om te zien.

(Soms moet je voor vooruit gang in de tech wereld niet kijken naar hoe snel het nu kan, maar met hoe weinig stroom ze dezelfde resultaten weten te halen als jaren daarvoor een top prestatie was :))
Mooie prestatie van AMD...deze softwarematige oplossingen zullen blijkbaar nodig zijn om ooit 120fps@4K mogelijk te maken met de huidige hardware.
Nu nog in veel meer games implementeren.

[Reactie gewijzigd door EMR77 op 23 juli 2024 08:43]

Ik zou all in gaan als sbc's uitgebracht zouden worden met deze apu. Het zouden echt geweldige hobby projecten teweeg kunnen brengen. Denk hierbij aan steam deck alternatieven etc.
Uhhhh, wat is hier nou zo bijzonder aan dan? :? Hij draait een goede PC-port van een game op hele crappy hardware met extreem lage settings en gebruikt FSR 2.0 om het vanaf een hele lage resolutie op te schalen.... Ziet er naar mijn zien vooral erg blurry uit. Is wel geinig dat het spel draait op recente crappy hardware, maar met bijna elke game die upscaling ondersteund kan je dit toch doen en in principe renderen als 1080p? Als je alles maar op de laagste instellingen zet en vanaf een lage resolutie rendert, draait bijna alles wel richting de 30fps... Behalve als de game slecht is geport of niet goed geoptimaliseerd is (bedoel dan dat de laagste settings niet laag genoeg gaan om genoeg performance-boost te geven.) Ook zonder FSR 2.0 had hij de game op 540p kunnen draaien met meer dan 30 fps, alleen zag het er dan wat slechter, maar wel minder blurry uit...

Wat ik dus bedoel: dit is een algemeen iets in gaming-land? (kijk maar naar het verleden werk van LowSpecGamer) Snap dus niet wat hier zo bijzonder aan is... Als ik hetzelfde zou doen met Horizon Zero Dawn, is dat dan ineens ook nieuwswaardig? :P
Toch niet zo vreemd aangezien de gebruikte iGPU iets meer Tflop performance heeft dan de oude AMD GPU in de originele PS4 waarvoor deze een 30FPS target had idem ditto 1080P.
Betekent dit dat we God of War binnenkort op de Switch kunnen verwachten? J/k

Op dit item kan niet meer gereageerd worden.