Vermeende 3DMark-scores van AMD Radeon RX 6800XT verschijnen online

Verschillende bronnen hebben 3DMark-resultaten van een vermeende AMD Radeon RX 6800XT gepubliceerd. De websites tonen benchmarkresultaten op een 4k-resolutie. Deze resultaten worden onder andere vergeleken met de RTX 3080 van Nvidia.

Verschillende websites claimen vermeende 3DMark-resultaten van de komende RX 6800XT-videokaart in handen te hebben, zo schrijft VideoCardz. Deze resultaten zijn echter nog niet bevestigd en kunnen ook beïnvloed zijn door drivers. Neem dit dus met een korrel zout. Onafhankelijke praktijkresultaten, zoals gameprestaties, zijn nog niet beschikbaar. AMD zelf toonde eerder al wel gameprestaties van een RX 6000-videokaart. Het bedrijf noemde echter niet welke Big Navi-gpu werd gebruikt.

Onder andere Igor's Lab, een Duitse techsite, publiceert vermeende 3DMark-resultaten. De website claimt zich te baseren op twee 'compleet verschillende' bronnen van board partners die 'zowel AMD- als Nvidia-videokaarten aanbieden'. Dat zouden bedrijven als ASUS, Gigabyte of MSI kunnen zijn. Igor's Lab deelt onder andere resultaten uit de Firestrike Extreme 4K-benchmark, waar de RX 6800XT ongeveer 22 procent beter presteert dan de RTX 3080. Omgerekend zou dat neerkomen op een score van 13066 voor de AMD-gpu, waar de RTX 3080 van Nvidia 10688 punten haalt. Het gaat hierbij wel om de combined-scores, waarbij ook de gebruikte cpu een rol speelt. De exacte specificaties van het testsysteem zijn niet bekend.

Vermeende RX 6800XT-benchmarkresultaten van Igor's LabVermeende RX 6800XT-benchmarkresultaten van Igor's Lab

Vermeende RX 6800XT-prestaties in percentages (links) en omgerekende scores. Afbeeldingen via Igor's Lab

In de Time Spy Extreme 4K-benchmark is het verschil volgens Igor's Lab kleiner. De RX 6800XT presteert daar ongeveer 3,2 procent beter dan de tegenhanger van Nvidia. In Port Royal, een raytracingbenchmark, presteert de RTX 3080 juist 22 procent beter dan de vermeende RX 6800XT. De Radeon-gpu lijkt met raytracing wel iets beter te presteren dan de RTX 2080 Ti.

Wccftech claimt ook 3DMark-resultaten van de RX 6800XT in handen te hebben. Wccftech publiceert vaker informatie over onaangekondigde hardware, maar de juistheid daarvan is wisselvallig. De resultaten van deze website komen wel overeen met die van Igor's Lab; Wccftech claimt ook dat de RX 6800XT tot 22 procent beter zou presteren in Firestrike Ultra 4K. In TimeSpy lijkt het verschil wederom kleiner en in raytracingbenchmarks lijkt de RTX 3080 beter te presteren dan AMD's komende videokaart.

AMD Radeon RX 6800XT-benchmarkresultaten van Wccftech
Meer vermeende 3DMark-resultaten van de RX 6800XT. Afbeelding via Wccftech

Twitter-gebruiker KittyYYuko heeft naar eigen zeggen ook benchmarkresultaten van een Navi 21 XT-gpu. Die chip wordt volgens geruchten in de RX 6800XT gebruikt. De Twitter-gebruiker stelt hierbij echter dat de gpu in kwestie 80 compute units heeft. Dit komt niet overeen met eerdere geruchten, die stellen dat de chip 72 cu's heeft. De resultaten die KittyYYuko publiceert, komen wel redelijk overeen met die van Igor's Lab en Wccftech, zo schrijft Videocardz.

AMD onthult zijn komende videokaarten op woensdag 28 oktober tijdens een livestream. Volgens geruchten introduceert het bedrijf dan een RX 6900XT, RX 6800XT en RX 6800. Volgens geruchten krijgen de RX 6800-videokaarten van AMD onder andere 16GB aan gddr6-geheugen. De RTX 3080 beschikt over 10GB aan sneller gddr6x-geheugen. De presentatie van AMD wordt om 17:00 uur Nederlandse tijd gehouden.

AMD Radeon RX 6000
Teaser van RX 6000-prestaties. Het is onbekend om welk model dit gaat

Door Daan van Monsjou

Nieuwsredacteur

24-10-2020 • 15:06

205

Reacties (205)

205
195
118
14
0
63

Sorteer op:

Weergave:

Ik ben i.i.g. heel content met mijn RX 5700xt's. Ik game op 1440p, 144hz Freesync en heb tot nu toe geen noodzaak om te upgraden. Maar een andere en snellere AMD kaart voor een schappelijke prijs kan ik waarschijnlijk niet weerstaan. Net zoals ik de 5700xt kaarten voor om en nabij de €400 voor de geleverde performance niet kon weerstaan. Bijzonder hoe een aantal hier blijft volhouden dat een minder presterende gtx 2070 voor €150 meer blind te prefereren was boven een custom rx 5700xt en hun aankoop tot de dag van vandaag blijven goedpraten met gezwets over AMD-drivers.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 14:25]

Ik heb 3 builds gemaakt met een RX 5700XT in, waarvan ik er 2 heb terug gezonden door driver issues bij klanten. Gewoon puur om deze problemen te voorkomen heb ik dus geen 5700XT's meer besteld en of aangeraden bij klanten.

De problemen waren uiteenlopend en niet op te lossen met settings en de enige optie was: Wachten op updates.

De laatste was ondertussen +- 3 maand geleden, hoe is de situatie momenteel?
Heb het vaker gezegd, maar de vermeende driverissues zijn (ook) voornamelijk - tot op de dag van vandaag - te herleiden naar performance in "oudere" DX11 titels, waarbij teruglopende clocksnelheden en voltages / lage gpu-usage gewoon gebruikelijk zijn, met (zeer) ondermaatse performance tot gevolg.
Absoluut een beperking als je op een high-refresh paneel speelt en een wat oudere game op hogere frames wil spelen maar de kaart maar 50/60% performance perst zonder logische verklaring (cpu bottleneck oid).

Dat AMD dit na een +1 jaar nog niet opgelost heeft vind ik zelf trouwens onacceptabel en ook zeer vreemd, of het driver issues zijn of wellicht suboptimalisatie is tov DX11 in de architectuur, daar zullen vast mensen ideeën over hebben.
Maar goed, met moderne DX12 & Vulkan API titels geen problemen. Dan zijn het nog steeds prima NAVI beestjes.

Heb zelf een NON-XT btw.

[Reactie gewijzigd door SpoSword op 22 juli 2024 14:25]

Ik onderschrijf dit probleem, veel 5700XT kaarten hebben gedoe met stabiliteit (gehad). Heb er na een hoop ellende eentje die het perfect doet (Sapphire Nitro+), niet meer aankomen dus ;)
Normaal gesproken bestel ik videokaarten (en moederborden) eigenlijk altijd van Asus. Voor de 5700XT heb ik deze keer een uitstapje gemaakt naar Sapphire en inderdaad ook de Nitro+ editie aangeschaft. Tot zover 3 stuks geïnstalleerd en deze hebben met de huidige drivers geen issues meer.
Op dit moment heb ik twee systemen in huis met een RX 5700XT. Basis: 2 Z490 mobo's + een i5 10600 / i5 10600k . Hiervoor hadden wij twee Z390 mobo's met een i5 8600 resp. 9600kf. In geen van die systemen heb/had ik issues. Toevallig vandaag Windows 10 20H2 geïnstalleerd op een van de systemen. Gestoeid met drivers 20.4.3 en de laatste 20.10.1. Rotsvast. Guess I'm a lucky dude.
Ps. Overigens heb ik wel een tijdje issues gehad, waarvan ik dacht dat die aan de videokaart lag. (De Sapphire) Bleek uiteindelijk dat mijn gloednieuwe MSI Z490 mobo niet altijd overweg kon met de RAM. Deze zou ondersteund moeten zijn op 4400MHz, maar de combo bleek alleen stabiel te zijn als ik de RAM op 3600 MHZ instelde. Grappige is dat alleen COD MW crashte met een of andere DEV error. Op een Asus-bord: geen issues. (Dat verklaart nu dus ook waarom ik twee Z490 systemen heb :P .

[Reactie gewijzigd door Verwijderd op 22 juli 2024 14:25]

Ja is ook meer een Modern Warfare dingetje merk ik. Als je de game geinstalleerd heb kan je maar beter niks meer wijzigen aan je systeem, denk hierbij overclock of undervolt. Anders wordt het enorm instabiel, heb ik nu met 2 systemen mee gemaakt, zowel AMD als Intel cpu's.
Wat ik dan vreemd vind is dat Conses geen problemen heeft met zijn RX5700xt en jij wel.
Hij gebruikt toch dezelfde drivers.
Of heb je te kleine voeding gebruikt, of Powercolor kaarten?
Voeding altijd ruim voldoende 650 / 750W, minstens bronze rated.(Seasonic, be quiet, ...)
Geteste merken; Asrock, Asus en gigabyte.

Ik ben bijlange na niet de enige, internet staat boemvol. Alook heb ik aangegeven dat de laatste keer ik iets gedaan heb met een 5700xt ondertussen al een goeie +- 3 maand geleden is.
Dat zou de reden kunnen zijn.
Hopelijk gaan de drivers niet weer de achilleshiel zijn van de nieuwe AMD 6000 serie
Dat is altijd het probleem met AMD,het wachten op drivers.
Dit is al jaren een issue en verwacht niet dat ze dit gaan oplossen. Tenzij ze ervoor gaan zorgen dat er regelmatigere updates gaan verschijnen.
Als dit waar is, ziet dit er heel goed uit, had niet verwacht dat hij het net zo goed of beter doet dan de GeForce RTX 3080 in 3DMark, behalve als je raytracing gebruikt, dan is hij ongeveer net zo snel als de GeForce RTX 2080 Ti, maar dat is voor mij nog steeds een waardige upgrade tegenover de GeForce GTX 1080, als de prijs een stuk lager is.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 14:25]

Waarom niet verwacht? De reden dat AMD achter liep is omdat ze verkeerd gegokt hebben met welk soort architectuur je in de toekomst beter kunt scoren. Het duurde even om dat om te gooien voor RDNA2 en development moest ook naar de nieuwe consoles gaan. Die waren belangrijker. Maar ook in Vega en GCN zat al techniek die Nvidia voor het eerst toepast bij de 3080 serie om sneller te zijn dan de 2080 serie.

Als je naar de techniek kijkt en niet naar prestaties in spellen heeft AMD een hoop in te brengen, maar door verkeerde ontwerpbeslissingen kwam dat even niet zo lekker tot uiting in spellen.
Waarom niet verwacht? De reden dat AMD achter liep is omdat ze verkeerd gegokt hebben met welk soort architectuur je in de toekomst beter kunt scoren. Het duurde even om dat om te gooien voor RDNA2 en development moest ook naar de nieuwe consoles gaan. Die waren belangrijker. Maar ook in Vega en GCN zat al techniek die Nvidia voor het eerst toepast bij de 3080 serie om sneller te zijn dan de 2080 serie.

Als je naar de techniek kijkt en niet naar prestaties in spellen heeft AMD een hoop in te brengen, maar door verkeerde ontwerpbeslissingen kwam dat even niet zo lekker tot uiting in spellen.
Ik had verwacht dat de Radeon RX 6900XT de snelheid ongeveer zou halen van de GeForce RTX 3080, en dat de Radeon RX 6800XT tussen de GeForce RTX 3070 en GeForce RTX 3080 zou wezen, of meer richting de GeForce RTX 3070 zou wezen.
Je praat voer de 6900 en 6800 alsof dat bestaande dingen zijn, maar is er dan al bevestigd welke RX 6000 uitvoeringen er komen?

Voor zover ik weet niet, dus aannames maken over dat deze "6800 XT" nog een grotere broer zou hebben in een vermeende "6900XT" lijkt mij voorbarig: de 5000 serie had maximaal de 5700XT.
Je praat voer de 6900 en 6800 alsof dat bestaande dingen zijn, maar is er dan al bevestigd welke RX 6000 uitvoeringen er komen?

Voor zover ik weet niet, dus aannames maken over dat deze "6800 XT" nog een grotere broer zou hebben in een vermeende "6900XT" lijkt mij voorbarig: de 5000 serie had maximaal de 5700XT.
Zo als Belgar al zij, alles is al uitgelekt.

Videokaart - Streamprocessors - Vram - Geheugensnelheid - Geheugenbus - Tdp
Radeon RX 6900 XT - 5120 - 16GB GDDR6 - 16Gbit/s - 256bit - 300W
Radeon RX 6800 XT - 4608 - 16GB GDDR6 - 16Gbit/s - 256bit - 200W

En dat zou erg mooi wezen, dan verbruikt de Radeon RX 6800 XT maar 200w, maar +/- 20w meer dan me GeForce GTX 1080, maar is hij wel een enorm stuk sneller, en dat vind ik een grote pluspunt.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 14:25]

En toch geloof ik nog niet dat AMD een kaart zou hebben die (volgens de gelekte benchmark) toch een stukje sneller is dan de 3080 , en meer dan 100 watt minder verbruikt. als het zo is dan is het super, maar dan vraag ik mij wel af welke afslag Nvidia gemist heeft.

Let wel , ik zou niets liever zien dan AMD die Nvidia te grazen neemt , maar ik neem het voorlopig ff met een paar kilo zout.
ipv dat nvidia overstapt naar een betere techniek (7 nanometer proces) zijn ze alleen maar grotere gpu-dies aan het maken, dat verklaard waarom AMD veel zuiniger is.
Je bedoelt 2 afslagen gemist. Turing en ampère.
Het hogere wattage is toch echt wel Nvidia die afwijkt van de norm. Vanwege de warmteontwikkeling zou ik de huidige bvb. niet kopen..
Je maakt een reken fout de 6800XT krijgt naar verwachting 4608 stream processors en de 6800 krijgt er 4096.

Geheugen bus wordt na verwachting ook niet afgeknepen en is ook 256Bit on die cache grote zou het verschil moeten maken.

Maar het zijn en blijven geruchten ben hele benieuwd woensdag :)
Je maakt een reken fout de 6800XT krijgt naar verwachting 4608 stream processors en de 6800 krijgt er 4096.

Geheugen bus wordt na verwachting ook niet afgeknepen en is ook 256Bit on die cache grote zou het verschil moeten maken.

Maar het zijn en blijven geruchten ben hele benieuwd woensdag :)
Volgens de laatste nieuws hier op Tweakers 21-10-2020, klopt het niet helemaal wat ik zij, maar ja dat zou misschien nog kunnen veranderen, heb het al verandert naar de laatste uitgelekte nieuws.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 14:25]

Dat zou alleen kunnen veranderen als blijkt dat de Navi 21 Die bv max 64 CU's heeft.
Maar als de XTX 80 CU's heeft gaan de XT en XL er 72 en 64 hebben. Anders wordt het gat tussen het topmodel en het model daar onder veel te groot en kunnen ze niet met de 3070 concurreren.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:25]

Dat zou alleen kunnen veranderen als blijkt dat de Navi 21 Die bv max 64 CU's heeft.
Maar als de XTX 80 CU's heeft gaan de XT en XL er 72 en 64 hebben. Anders wordt het gat tussen het topmodel en het model daar onder veel te groot en kunnen ze niet met de 3070 concurreren.
We zullen het allemaal zien over 2 dagen.
Dat is allemaal al gelekt door de fabrikanten. maximale snelheden, cores, versies, geheugentypes en bus. etc.
Volgens geruchten hebben de fabrikanten de 6900XT niet en is dat een kaart die alleen amd gaat leveren en waar dus ook alleen amd de specs van weet.
Dat is waar, qua precieze informatie. Maar er zijn al sinds een jaar geruchten dat er een 80 CU versie komt. We weten ook dat de 6800xt niet de 80 CU's heeft. Dus dat is zeer waarschijnlijk de 6900xt

We "weten" ook van uitspraken van AMD dat alle topkaarten uitgerust gaan worden met 16GB. Uit een gelekte BIOS en engineering is ook op te maken welke snelheden er mogelijk zijn gerelateerd aan het aantal CU's.

Er is dus al redelijk veel informatie die je kan afleiden:

- 80 CU's
- 2 to 2,3 GHz clock (hier zijn ze waarschijnlijk nog het meest aan het schaven)
- 16 GB
- 256bit bus
- 350 W TDP (een inschatting van Igor gebaseerd op andere SKU's) ook zeer afhankelijk van hoever AMD dit wil pushen

Clock en TDP zijn natuurlijk de belangrijkste variabelen die nog open staan. Volgens de een gaat AMD hier "no holds barred" proberen een 400W 2,4 GHz monster neer te zetten. Volgens de ander is het verslaan van de 3080 voldoende.

Het is leuk dat er weer wat te kiezen is en als AMD hier echt wat neerzet het deze keer ook aan strategische keuzes van NVIDIA zal liggen. Dat maakt voor interessant nieuws, drama en vuurwerk. Ik ga vast wat extra popcorn in huis halen :)
Voor zover ik weet niet, dus aannames maken over dat deze "6800 XT" nog een grotere broer zou hebben in een vermeende "6900XT" lijkt mij voorbarig: de 5000 serie had maximaal de 5700XT.
Wat is dit voor logica? Omdat de RX 5700XT hoogste kaart van de generatie was betekent dat 6800 en 6900 voorbarig is?

De logica is dat de kans groter dan kleiner is dat er hoger geposisioneerde kaarten komen. De RX 5700XT was immers een mid-range kaart, geen high-ends als je dat misschien verwarde. Radeon heeft wel eens vaker als 2e nummer hoger dan een 7 gehad zoals:

4830, 4850, 4870, 4890, 4870x2
5830, 5850, 5970
6850, 6870, 6930, 6950, 6970, 6990
7850. 7870, 7950, 7970, 7990
8730, 8760, 8770, 8870, 8950, 8970, 8990

....kans vrij groot dat er RX 6800 of hoger komt. Het is Radeon niet vreemd :+
De 8000 serie is nooit voor desktop uitgebracht.
Deze werd vervangen door rx280 rx290 etc
klopt, dank voor correctie! Maar de kern verandert niet. De 2e nummer is ook hier hoger dan 7. Iets wat Tweaker "kiang" over het hoofd zag of nog heel jong is en niet verder terug kan kijken dan de RX 5700.
5830, 5850, 5970
Hey, de 5870 niet vergeten!
AMD heeft met de 5700 XT expres die naam gekozen, vergelijkbaar met de 2070. Daarvoor was dat anders; ik ben blij dat ze de numering vergelijkbaar met Nvidia hebben gemaakt dat is makkelijker voor de consument en ook voor mindshare.
Als ze de 5700 XT de 5900 XT hadden genoemd en deze niet eens een 2080 kon verslaan dan was dat een hele domme zet geweest.
Waarom niet verwacht? De reden dat AMD achter liep is omdat ze verkeerd gegokt hebben met welk soort architectuur je in de toekomst beter kunt scoren.
De reden dat AMD achterliep is omdat ze een jaar na overname van Ati systematisch in het R&D budget zijn gaan snijden tot aan het punt dat er allerlei rare compromissen moesten worden gesloten in de vorm van het mixen van rebrands en mixen van gaming en pro architecturen. Hier is niets van overdreven, tussen 2009 en eind 2015 is het onderzoeksbudget systematisch afgebouwd. Het eind resultaat was letterlijk een halvering. Ook schijnt dat destijds o.a. Apple veel talent aan het wegkapen was. Radeon moest echt roeien met de riemen die ze hadden (of beter gezegd kregen).

Ondertussen zit het R&D budget weer flink in de lift en zitten ze bijna op het oude niveau. De effecten daarvan zijn natuurlijk altijd pas te merken met een vertraging van 2 tot 5 jaar. Dus eigenlijk moet het mooiste nog komen.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:25]

Mede dankzij Lisa Su. Wat een topvrouw.
Ik denk niet dat het een verkeerde gok was. Ze hadden een beperkt budget dus Hawaii en Vega waren alles kunners en ze konden compute en gaming maar vervolgens blinken ze in beide niet uit maar slecht doen ze het ook weer niet.

Met RDNA is amd gaan kijken hoe ze de gaming prestaties kunnen verbeteren daarnaast komt dit jaar of volgend jaar CDNA uit welke puur gericht is op compute.

Daarnaast gaat het financieel beter met amd vega stamt uit een tijd dat AMD dicht langs de afgrond liep en er relatief weinig R&D budget was. Dat is wel anders zie ook de keuze om twee verschillende gpu architecturen naast elkaar te ontwikkelen. En meerdere cpu design teams.

Mijn persoonlijke verwachting is wel dat ze de 3080 konden evenaren of minimaal dichtbij kunnen komen. (gezien Ampère de in de beloftes in de slides van de presentatie in de praktijk niet helemaal waar kan maken) heeft AMD nu de kans om in te lopen. Maar als dit klopt presteerde RDNA2 ook boven mij verwachtingen want ze hebben ook nog een 6900XT kaart die boven de 6800 XT moet komen en wellicht tussen de 3080 en 3090 in kan komen te zitten.
6900XT beats/equals RTX 3090/24GB
6800XT beats/equals RTX 3080Ti/20GB
6800 beats/equals RTX 3080/10GB
6700XT beats/equals RTX 3070Ti
6700 6700 beats/equals RTX 3070

Zoiets kan het wel worden als dit klopt ;)
Ik zou nog niet te veel op de nog snellere hypre train springen 3090 verslaan zou heel mooi zijn maar persoonlijk ga ik daar niet van uit.
Zeg ik ook niet, maar als je naar de naamgeving kijkt met de nummers krijg je wel het idee dat dat is wat amd bedoeld..
Lijkt er nu toch echt wel op :p
Ja idd had dit niet durven dromen!
Geweldige prestatie kan niet wachten tot de revieuws.
verkeerd gegokt
en
maar door verkeerde ontwerpbeslissingen
AMD zat in torenhoge schulden en had nauwelijks budget. Men heeft toen met bewuste keuze een GPU architectuur ontworpen die zowel goed genoeg was in compute én gaming (game console), soort van "Jack of all trades, master of none".

Voor de rest helemaal mee eens. Het is ironisch dat Nvidia nu met compute kaarten in de vorm van de RTX 3080/3080 aan komt zetten.
De enige wat mij interreseert is dat AMD zijn belofte waarmaakt over raytracing.
Dat zij pas implementeren als de presaties op IEDERE prijsklasse acceptabel is. Niet zoals de RTX 2060.

bron:https://www.tomshardware....md-ray-tracing,38056.html
AMD's David Wang said that, in his personal opinion, AMD definitely has a response for DirectX Raytracing (DXR). But the meantime, AMD is focusing on improving and promoting offline CG production environments centered around the graphics card maker's Radeon ProRender rendering engine. From a personal perspective, Wang believes that ray tracing won't become a mainstream feature unless the technology is supported from the lowest tier to the highest tier of graphics cards.
EDIT: ok mischien niet belofte maar wel een goede implementatie. Hoeft niet 60fps te halen maar 30 fps op FHD is al beter dan hoe Nvidea het deed op 2060 op release.

[Reactie gewijzigd door WildWilly op 22 juli 2024 14:25]

Gelukkig werkt raytracing op een andere manier dan de traditionele manier van beelden renderen. (25 jaar gelden veel met POV-ray gespeeld)

Het is zeker zwaarder, maar daarnaast voornamelijk afhankelijk van resolutie. Het maakt voor raytracing volgens mij amper wat uit of je nou 100 of 100000 objecten hebt. Een Ray scattered door de scène een x-aantal keer en dat moet berekend worden.
Sommige materialen zijn iets lastiger maar de meesten zijn vrij straight forward

Als partijen nou gewoon aangeven bij een bepaalde resolutie en diepte welke hoeveelheid frames getraced kunnen worden per seconde. Geeft dat al een beter idee van de max FPS met raytracing aan.
Dit klopt grotendeels,
Rasterization begint goedkoop maar de kost neemt enorm snel toe nasrmate je meer geometrie toevoegt,

Raytracen heeft een heel hoge instapprijs, maar als je die bvh af hebt, en je kan de prijs betalen om realtime te tracen, dan maakt het amper uit of er 1 miljoen of 1 miljard triangles zijn,

Het maakt echter wel weer uit hoe complex de materials zijn ed, maar mogelijk kunnen we volgende generatie echt “oneindig” veel geometrie gebruiken,

Al lijkt epic ook een manier te hebben gevonden om die met software rasterization te doen.

Ook leuk is dat je met pathtracing gewoon zo lang kan tracen als je wil, langer tracen is minder noise.
Maar dat betekent dus dat je in theorie exact elke framerate kan hebben die je wil, want als de tijd op is houd je op met tracen. Mischien soms iets meer noise, maar perfect strakke frametimes :)

[Reactie gewijzigd door freaq op 22 juli 2024 14:25]

Nou, je citaat beschrijft een persoonlijke visie/mening van 1 persoon. Geen belofte. Al helemaal geen belofte van AMD zelf. Sterker nog: Wang verwacht dat Ray Tracing pas een mainstream feature kan worden als iedere prijsklasse er support voor heeft. Hij zegt überhaupt niks over implementatie ervan.

Dus volgens mij heb je het niet helemaal begrepen :P

Nu consoles raytracing aankunnen, zal het in games ingebakken worden, en is het mid- tot high-end interessant om kaarten met support te leveren. Dat zal AMD dus wel gaan doen.
"Nu consoles raytracing aankunnen"

Is een beetje een vage stelling. Raytracing deden we al in de jaren 90, en realtime raytracing demos waren er in overvloed rond 2010. Je hebt er geen speciale hardware voor nodig, een CPU of GPGPU (of beide) kan prima werken - afhankelijk van hoeveel rays je wilt schieten in ieder frame.

En daar zit het hem in. Hoeveel.

De RT cores zijn er beter in, maar nog verre van goed genoeg om volledige pathtracing te doen op een 1080p resolutie (laat staan 4k). Dus raytracing blijft voorlopig beperkt tot specifieke effecten (een shadow cascade, of specifiek gekozen reflectieve oppervlaktes, of een ruwe vorm van GI) - en dat is waar we eigenlijk al waren voordat de RTX kaarten uit kwamen. We kunnen het nu op iets hogere resolutie doen, of 2/3 van zulke effecten tegelijk doen waar dat vroeger beperkter was omdat dat teveel van je shader cores zou belasten. Maar aan de kant van de software moet het dus in ieder geval scalable blijven.

En als je implementatie scalable is, kun je het met iedere gpu van de afgelopen 10 jaar doen (in verschillende mate, en met "fallback" opties zoals SSR en cubemap reflecties). De nieuwe consoles hebben (bij mijn weten) ook geen dedicated raytracing cores maar supporten raytracing in de API. Dat doet de Crytek "Noir" demo overigens ook, via DX12/Vulkan.
Consoles hebben evenveel CU's als een verwachte 6500 klasse kaart, uitgaande van de huidige specs.. Dat is een range die traditioneel in de 150 euro zit. Mocht er een 150 euro RT kaart komen, kun je toch wel spreken van een "instapklasse"
Meer vergelijkbaar met de 6700 non XT.
De 6700 XT krijgt er vermoedelijk 40.
Er komt volgens de huidige geruchten een cu gat tussen Navi 22 en 21.
Navi 22 zou er max 40 hebben en 21 80-72-64.

Maar goed als ze Navi 22 hoger kunnen clocken (Bv 2400-2500MHz) dan kan je het gat toch nog aardig dichten.De 21XL zou eerder rond de 2000MHz clocken de XT/XTX 2200-2300.

Woensdag zullen we er in ieder geval achter komen of de 21 geruchten ene beetje kloppen.

Maar goed de series X heeft wel meer CU's (56) maar dan op lagere clocks. Dus qua rauwe rekenkracht zal hij iets boven de PS5 uit komen en waarschijnlijk rond het niveau van de 6700/6700XT zitten.
Klopt, maar een 6500 kaart zou je dus verwachtten op 32(?) CU's. geklokt op 2.3 zit je op 75% van de consoles.

Dat is nog steeds een goede instapkaart en ongeveer op het niveau van de huidige 5700 serie. Als dat voor een goede prijs uitkomt heb je een goedkope kaart die presteert als een 1070 in klassieke rendering en als de 2060 (originele) in RT. Allemaal even koffiedik kijken, maar een RT kaart voor 150-225 zou, met deze getallen, mogelijk moeten zijn.
Voor 32 verwacht ik eerder een 6600XT of zo.

6500 en lager wordt denk ik Navi23.
Dit is niet de enige keer dat ik zoiets hebt gehoord van AMD. Ik hoop alleen voor ze dat zij idd het kunnen implementeren op acceptabele prestatie. Niet zoals de bij nvidea dat je op z'n minster een 2080(of was het 2080ti?) nodig had voor full HD. En ik praat niet over 60/144 FPS op full hd. Maar op z'n minst toch wel 30 fps in spellen waar hoge fps niet nodig is. Spellen met zulke hoge FPS blijf je toch niet still zitten om de genieten van raytracing effects.

[Reactie gewijzigd door WildWilly op 22 juli 2024 14:25]

Wat heb je aan raytracing?
Maar een handjevol spellen die dat ondersteunen en dan zijn de prestaties prut.
Ik snap niet waarom iedereen daar zo hyperderpiep over is en er de nadruk op legt.
https://m.youtube.com/watch?v=w4UHrM0LzYo

Ik kan niet wachten tot die techniek mainstream wordt.

Na de trailers van games voor zowel de XBSX als de PS5 valt terug gaan naar de switch wel meer dan een beetje tegen. Echt, wat geweldig.
Ik weet niet wat ze daar gedaan hebben maar dit overtuigd niet.

Bij het voorbeeld met het kampvuur zou over de gehele boom welke er pal naast een rode gloed moeten zitten, die ontbreekt compleet.

Het lijkt voornamelijk extra contrast in combinatie met een beetje meer saturatie, geeft meer drama aan een scène, weten we vanuit de schilderkunst, maar ik denk niet dat dit een intentie was in de beeldvorming.
Rond 4:20 richting de zee ook niet? Voor een game waar ze geen sourcecode van hebben? Gewoon door een enthousiast?

Het is maar een Switch game, hè, niets heftigs voor een PC.
Bu niet zo veel,
Over 2 jaar? Kan de game niet zonder draaien.

Raytracign zit in beide consoles en wordt gewoon een deel van de minimum spec. Net als programmable shaders dat werden.

Tis een nieuwe tool voor rendering die dingen mooier kan maken, zoals reflecties and AOetc, maar ook nieuwe effecten kan doen, zoals realtime global illumination, en dat kan dus weldeglijk nieuwe gameplay mogelijk maken, want je kan dan dus in realtime bijv gaten in de muur maken,

En het kan ook bijv gebruikt worden om AI checks snel te doen,
Je kan bijv heel goedkoop een 50x50 pixel camera maken boor hun view welke de bestaande bvh gebruikt, en daarmee dus dingen checken zoals wat ze kunnen zien, En vele andere niet zo obvious usecases.

Kortom is nog niet overal, maar over een jaar of 2 wel.

[Reactie gewijzigd door freaq op 22 juli 2024 14:25]

Ok maar hoeveel Tweakers gaan hun kaart meer dan 2 jaar houden ... tenzij je echt de duurste kaart koopt en zegt nu ben ik 3-4 jaar zoet. Het meeste gaming gebeurd nog altijd op kaarten van 200-300 euro. Ikzelf koop geen high end kaart meer, maar ben aan het overwegen om eventueel volgend jaar 4K monitors aan te schaffen en dan zal een upgrade wel nuttig zijn uiteraard.
Meeste Tweakers die dure high-end kaarten kopen zijn juist de gene die snelst weer een nieuwe kopen. Het zijn juist de low en mid-rangers die het langst doen over hun aankopen. Die kijken juist erg goed naar prestatie/kosten/periode.
Ja DirectX 11 is ook al helemaal uitgefaseerd.....
2 jaar? Ik gok eerder op 10 voordat je niet meer zonder RT je games aan de praat krijgt.
Lol, ik heb zoveel comments gezien over raytracing schmaytracing. Beetje zelfde als 4k, ja het kon in 2015 met de 980ti, maar niet op max settings en op een acceptabele "gemeengoed" 60 fps.

Echter, is het nu pas na 5 jaar in 2020 mogelijk met de 3080 (welke bijna niet te krijgen is omdat iedereen het eindelijk een waardige upgrade vind om de grote stap te maken). En dan nog hebben 2,64% van de steamcharts versus de 65% tegenover full hd monitoren.

Enorme niche en ik zie het nog geen minimum spec requirement worden voordat alle hardware het aankan en alles wat het niet kan zo goed als uitgerold is over de gehele prijslinie. Come on guys, get a grip.

2 jaar, misschien als optie in alle games en dat het goed werkt op huidige hardware op dat moment.

[Reactie gewijzigd door dindr op 22 juli 2024 14:25]

Hou toch op typisch iets wat gpu bakkers of consolefabrikanten u willen doen geloven .
Is gewoon marketing niets meer niets minder .

Kan me nog de emotion engine herinneren van Sony realtime emoties zien veranderen op de gezichten van je characters 😴

Of de reso hype
Of de hz hype
Direct X10
Enz...
Allemaal redenen om toch maar te upgraden wat anders ben je niet meer mee 🙄

Binnen 2 jaar gaat elke mid-range gpu dit ondersteunen en zal elke gamer dit uitschakelen omdat zen fps anders ruk zijn 😉
Bu niet zo veel,
Over 2 jaar? Kan de game niet zonder draaien.

Raytracign zit in beide consoles en wordt gewoon een deel van de minimum spec. Net als programmable shaders dat werden.
Dit is niet zoals tesselation waar je het aan of uit zet, het is zeer goed mogelijk dat mensen games gaan maken die alleen maar reflecties doen dmv raytracing. Omdat cubemap plaatsen enorm artist tijd intesief is.

Ook het vervangen van cascaded shadow maps voor raytraced shadows heeft letterlijk performance voordelen. Dus het zou me niet verbazen als er iig een aantal games zijn die dit gaan vereisen.
Ik zie wel mogelijkheden voor raytracing. Maar zeker niet in snelle/korte spellen. Spellen waar je de wereld op je gemak kan ontdekken. En dan praat ik niet alleen over single player RPG's. Spellen zoals Firewatch zou ook kunnen. Deze soorten spellen hebben geen 144fps nodig om ervan te kunnen genieten. Maar multiplayer fps/racing spellen heb je idd niet veel aan.
Uiteindelijk deed de 2060 het al snel beter naarmate de implementatie in games beter werd. Helaas zit de initiële launch vooral in het geheugen.
Dit is ook wat ik bedoel. Als de implementatie beter is dan bij Nvidia in het begin dan hebben ze een hele goede kans. Dan wordt het alleen maar beter naarmate drivers beter (en hopelijk minder buggy) worden.

Zowiezo blijf ik bij AMD. Ik upgrade vanaf RX580. Enige keer dat ik echt problemen kreeg was toen ik een ander scherm kocht. (blank screen bij freesync) maar dat was na 1 maand bij mij opgelost.
AMD zijn belofte waarmaakt over raytracing.
Dat zij pas implementeren als de presaties op IEDERE prijsklasse acceptabel is.
[...]
AMD's David Wang said that, in his personal opinion
From a personal perspective, Wang believes that ray tracing won't become a mainstream feature
Wel goed lezen voordat je allerlei beloftes aan AMD ophangt die ze nooit hebben gemaakt. Als bedrijf überhaupt niet en David Wang gaf in het interview enkel zijn mening en verwachting over eventuele standaard implementatie in games in de toekomst.

[Reactie gewijzigd door Jan1337 op 22 juli 2024 14:25]

Dan kun je nog heel lang wachten.
Voor mensen die geen gebruik maken van raytracing is het idd een waardige upgrade. Zelf nog met een 1080Ti.
gezien de verschillen in de hardware kan dit ook zo maar eens een navi voor enterprise zijn met betere performance door andere hardware
Hier dezelfde benchmarks gedraaid met een Gigabyte RTX 3080 Gaming OC 10GB

Firestrike Ultra 4K 11.013 -14%
Timespy Extreme 4K 8154 -1%
Port Royal 4K 5527 +26%


Ik vindt raytracing meer dan een gimmick.
Geen reden om mijn kaart voor AMD om te wisselen. Wie mij niet gelooft. Ik heb screenshots van mijn scores.

[Reactie gewijzigd door DutchRookie007 op 22 juli 2024 14:25]

Uhm ja? Het enige wat je laat zien is dat je dezelfde range van scores krijgt als in het artikel worden aangehaald.. Mooi toch? (Er staat duidelijk dat het allemaal non-OC versies zijn, dus als je een OC kaart hebt, verwacht je toch ook een paar procent meer?)

En waarom zou je gaan wisselen voor een kaart van dezelfde generatie? Het enige wat dit aangeeft is dat de verwachtte 6800xt van AMD ongeveer even snel gaat worden als een 3080. Nogal wiedes dat als je een 3080 hebt niet exact dezelfde kaart van de concurrent gaat kopen toch?
Begrijp mij niet verkeerd ik ben geen fanboy. Ik heb ook AMD kaarten gehad en nu nog in mijn 2e systeem. (RX580) Trouwens nooit problemen gehad met drivers in tegenstelling tot wat ik nog wel eens hoor. Maar ik zal nooit zeggen dat de RX580 niet een keer zal worden vervangen door een 6800XT. 😉
Ben ook geen fanboy maar amd trek mij nu weer, na de teleurstellende vega en de drivers die ruk zijn/waren. (Dit kan je gewoon objectief zeggen als meeste onafhankelijke bronnen het zelfde zeggen)
Voor iedereen is het beter als amd een goed product neerzet maar ik verwacht wel betere prestaties met raytracing aangezien amd nog veel meer driver optimalisatie zal doen aangezien dit vrij nieuw is voor amd en Nvidia al op gen 2 zit. Maar ik wil een antwoord zien op dlss. Want het is gewoon een hele goede upscale techniek die echt dicht bij 1:1 resolutie komt en Nvidia heeft laten zien met 2.x dat ze veel verbeteringen brengen met de toegenomen technische kennis (voorsprong op machine learning).
Ik denk ook niet dat AMD zijn marketing gaat richten op mensen die al een 3080 hebben 😅
Niet helemaal Ramon in mijn geval. Mijn 2e systeem heeft een Sapphire Radeon RX580 en die zou ik in de toekomst willen vervangen door een 6700 of 6800.
Jammer van die lage rt performance.
Een next-gen kaart koop ik toch echt wel voor een goede rt performance.
ben ik de enige die geen enkele reet geeft om RT? Als de nieuwe navi kaarten beter presteren op 1440p non RT en ietsje goedkoper zijn, zal ik echt voor die gaan denk ik
Nee, ik vind het echt totaal nog een meme nu. Zolang er geen betere oplossing voor is en er nog steeds een enorme performance hit zal dat ook nog wel even zo blijven. Ook in games die het hebben vind ik het er vooral anders uit zien en niet perse beter. Het zou ook software matig moeten worden opgelost en geen speciale cores voor nodig zijn. Tevens is de hoeveelheid games zeer laag. Mijn schatting is dat het nog zeker een jaar of 2 duurt voordat je er echt iets aan hebt. Met RDNA2 in de consoles waarbij ook gebruikt gaat worden gemaakt van een bepaalde vorm van raytracing verwacht ik dat de bal harder gaat rollen. Maar als iemand er nu zijn aankoop op baseert dan geloof je in marketing sprookjes wat mij betreft.

Je ziet ook dat Nvidia rookgordijnen opgooit, nu moet je videokaart ineens allerlei nutteloze features hebben en de een na de andere gimmick wordt uit de kast getrokken. Straks zie je dat Navi de snelste kaarten zijn en dan hoor je de aanhang over dat dlls beter is, Nvidia low latency heeft en raytracing veel beter werkt en blablabla. Ik maak een buiging voor de Nvidia marketingmachine, die is fantastisch.

[Reactie gewijzigd door hrichard op 22 juli 2024 14:25]

Het zou ook software matig moeten worden opgelost en geen speciale cores voor nodig zijn.
De DX12 RT API is al zo ingericht dat je niet hoeft te "weten" of en hoe de kaart speciale cores gebruikt om het voor elkaar te krijgen. Door de manier waarop het moet werken is het alleen niet realistisch om een driver te maken waarmee het met "iedere" kaart kan, tenminste niet als je geen diavoorstelling wil. Er is/was overigens wel een software emulatielaag, maar die is alleen bedoeld om mee te testen en niet om RT mogelijk te maken zonder HW ondersteuning.
Nee het is zo'n marketing feature.
Ik geef er ook niks om, jammer als ze dedicated hardware in een chip stoppen om het te ondersteunen.
Ik geef er wel om op den duur maar ik speel niet veel triple A games. Kan nog wel 4 jaar wachten.
Ray Tracing is nog niet van toepassing, wat er nu aan Ray Tracing in een paar games zit is zo gigantisch weinig dat je goed moet kijken om een verschil te zien. Tijdens het spelen zie je het sowieso al niet.

Daar kijk ik wel naar over een jaar of 15, dan zal het wat meer moeten zijn al is dat nog kort dag.
Control oogt anders dankzij raytracing en is een goede case voor het gebruik ervan. Cyberpunk wordt hetzelfde van verwacht.

Nu de nieuwe consoels het gaa timplementeren zal het verwacht ik in een stroom versnelling terecht komen.
In control is dat vooral zo omdat de graphics zonder ray tracing zo'n belabberd zijn. Ik bedoel er zijn niet eens cube maps voor reflecties in ramen, iets wat al meer als 15 jaar gebruikt wordt in games. En aan control merk je heel erg dat ze al hun omgeving heel erg simple moesten houden om alle ray tracing technieken te laten werken op een fatsoenlijke framerate.

Beide gaat niet het geval zijn voor cyberpunk. en dat betekende dat de ray tracing implementaties noodzakelijkerwijs veel minder ver gaat als bij control.
Cube maps zijn niet erg effectief als je een reflectie in een reflectie wilt zien en dat is iets wat Control doet.

Omgeving simpel? het is 1 van de meest gedetailleerde omgevingen in gaming de afgelopen jaren. Tafels dat vol liggen emt objecten die ook nog eens beinvloedt kunnen worden met physics en vaak kapot. Het komt op mij over alsof je COntrol niet aandachtig gespeeld hebt om eerlijk te zijn, de graphics zijn JUIST het middelpunt.
Ieder zijn eigen dingetje natuurlijk. Control is een zeer vermakelijke game en mét RT een genot voor het oog en goede showcase. Begrijp me niet verkeerd maar zonder RT is het een middelmatig grafische game door de slechte (screen space) reflection, shadows optimalisatie. Color/contrast filtereing maskeert veel. Wat dan over blijft is op het eerste oog leuke physics. Maar zelfs de physics is behoorlijk "canned". Zoals de "destructieve" muren en randen en eigen niets baanbrekend.

En ja, voordat je weer te snel iemand oordeelt, ik heb de main game, The Foundation en AWE gespeeld THE BOARD: < happy/approval to the director >.

Over indrukwekkende physics gesproken, wat dacht je van Half-Life 2 (2004), FlatOut 1 (2004), Portal (2007), Crysis (2007), BeamNG (2013), Wreckfest (2014) etc etc. veel indrukwekkender physics dan Control.
Ieder zijn eigen dingetje natuurlijk. Control is een zeer vermakelijke game en mét RT een genot voor het oog en goede showcase. Begrijp me niet verkeerd maar zonder RT is het een middelmatig grafische game door de slechte (screen space) reflection, shadows optimalisatie. Color/contrast filtereing maskeert veel. Wat dan over blijft is op het eerste oog leuke physics. Maar zelfs de physics is behoorlijk "canned". Zoals de "destructieve" muren en randen en eigen niets baanbrekend.
Zoals ik ergens eerder in dit draadje opmerkte is screen space reflection geen goede oplossing binnen het design van Control. Je character obfusceert de reflecties zodanig dat de artifacts enorm gaan opvallen. De architectuur is natuurlijk super rechthoeking in de game (Brutalisme) en als je character recht voor een reflecterend raam staat dan zie je doodleuk een sillhoeutte van artifacts omdat de spiegeling niet gemaakt kan worden. De materialen zijn vooral erg veel beton daaromheen dus daar heb je sowieso weinig aan reflectie. Naar mijn mening heeft juist met name de ambient occlusion door middel van raytracing ervoor gezorgd dat een betonnen gebouw toch sfeervol kan ogen.
En ja, voordat je weer te snel iemand oordeelt, ik heb de main game, The Foundation en AWE gespeeld THE BOARD: < happy/approval to the director >
Te snel oordeelt? Dat je game hebt gespeeld en duidelijk leuk vind (vond het zelf een ijzersterke game ook), vind ik het een beetje goedkoop om een mening op deze manier te bestempelen als deze onderbouwt wordt.
Over indrukwekkende physics gesproken, wat dacht je van Half-Life 2 (2004), FlatOut 1 (2004), Portal (2007), Crysis (2007), BeamNG (2013), Wreckfest (2014) etc etc. veel indrukwekkender physics dan Control.
Denk niet dat je kan zeggen dat die games betere physics hebben. De particles zijn extreem gevarieerd, de hoeveelheid materialen dat kapot kan enorm en aan elke particle zit gewicht. Ik heb weinig titels gezien die zo ver gaan.

https://www.youtube.com/watch?v=ox5NOqOkg64

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 14:25]

Je hebt helemaal volkomen gelijk! Mijn excusses!!!
Dank je! excuses aanvaard :o
Cube maps zijn niet erg effectief als je een reflectie in een reflectie wilt zien en dat is iets wat Control doet.
En laat dat nu precies niet nodig zijn om toch veel beter ogende graphics to creëren.
Nee het is niet prefect, maar dat is ook het punt niet. Door gebruik te maken van gewoon bestaande technieken en met iets meer aandacht hadden de graphics er zonder RTX VEEL beter uit kunnen zien.

Nu lijkt het bewust gedaan om RTX goed uit de verf te laten komen.
het is 1 van de meest gedetailleerde omgevingen in gaming de afgelopen jaren.
Dit is gewoon nog niet eens een beetje waar. De textures zijn van hoge kwaliteit, maar de polygon count van de omgeving is gewoon opvallend laag.
En laat dat nu precies niet nodig zijn om toch veel beter ogende graphics to creëren.
Nee het is niet prefect, maar dat is ook het punt niet. Door gebruik te maken van gewoon bestaande technieken en met iets meer aandacht hadden de graphics er zonder RTX VEEL beter uit kunnen zien.
Dat kon het niet, naast rasterization is nu een doodlopend spoor, wil je betere belichting, dan zal er gekeken moeten worden anar mogelijkheden om dit correct te renderen en niet te faken.
Nu lijkt het bewust gedaan om RTX goed uit de verf te laten komen.
Dat is het voor jou al snel wanneer het niet AMD gerelateerd is......
Dit is gewoon nog niet eens een beetje waar. De textures zijn van hoge kwaliteit, maar de polygon count van de omgeving is gewoon opvallend laag.
Je kan het ontkennen wt je wilt, realiteit is anders. Tenzij je gewoon een andere game hebt zitten spelen. Vrijwel elke gerenomeerde reviewers noemt de game uitermate mooi waaronder de character models en jij hier beweerd van niet, wie heeft er meer credbiliteit?
Control is eigenlijk juist best een slechte use case aangezien die game dingen doet met RT die ook met rasterization kunnen, maar het dan expres niet doet. Rasterization reflecties zijn "nep" vergeleken met RT maar nog altijd beter dan matte oppervlaktes en zeker voor simpele spiegels goed te doen; toch zie je bij Control regelmatig dat met RT on de hele boel spiegelt dat het een lieve lust is en met RT off ineens niks reflecteert. Dat nog even afgezien van het feit dat het in de wereld van Control blijkbaar heel belangrijk is dat alle vloeren spiegeltjeglad geboend worden, vraag me af of dat in alle werelden zo gaat zijn. :+

Control is wel weer een heel goed voorbeeld van hoe je nieuwe technologie het beste voor het voetlicht kunt laten treden als nieuwe must-have, maar niet echt als voorbeeld van hoeveel dingen per game gaan verschillen met RT aan en uit. Dat kan ook niet omdat RT zo duur is en de huidige kaarten eigenlijk ontzettend underpowered als je echt van (volledige) RT wil genieten. Van RT op de consoles moeten we ons eigenlijk ook niet veel voor gaan stellen, ben ik bang, behalve dat het er is.
Screen space reflection zou niet mooi ogen met het typen reflecties binnen Control, omdat zij juist spiegelingen in spiegelingen willen tonen zodat je een endless spiegel loop hebt binnen kantoor ruimte etc. SSR werkt vooral goed voor reflecties waar jij op loopt maar niet die recht voor je neus staan omdat je character dan de spiegeling doorbreekt en je de typische artifacts ziet. Daarnaast gaat het niet alleen om spiegelingen maar ook om correcte shadows, ambient occlusion etc. Dat rasterization in de buurt komt neemt niet weg dat het impressive is hoe het geimplementeerd is en op degelijke framerates draait in Control.

De 2070 Super kon op 1440P over 60fps de gehele game draaien met DLSS aan en ALLE RTX effecten. Daar is niks mis mee, de 2080TI etc doen dit natuurlijk beter. De 3080RTX doet dit gewoon op 4K.
Voor de duidelijkheid, als ik zeg dat RT duur is en de huidige kaarten underpowered bedoel ik natuurlijk niet dat ze Control niet kunnen draaien, maar dat Control's gebruik van RT juist beperkt blijft zodat het uberhaupt nog kan draaien. Voor we alle of het merendeel van de lighting "gewoon" met RT kunnen doen (en dat zal er dan heel erg fraai uit gaan zien in spellen, met minimale inspanning van de makers) zijn we heel wat verder.

Eindeloze spiegelingen zijn allemaal mooi en zo maar toch wel echt typische "kijk eens" gimmicks wat mij betreft. Stoer om een keer te zien maar je kunt moeilijk alle spellen volstoppen met spiegelpaleizen. "Correctere" belichting zoals bij schaduwen is vaak al helemaal moeilijk te zien tenzij je de screenshots zorgvuldig naast elkaar gaat ontleden, iets waar je niet mee bezig bent als je in het spel zelf rondrent. Zolang het er niet al te rafelig en vaag uitziet zijn je ogen/hersenen al snel overtuigd.

Is het een goede demo? Zeker. Toont het aan dat je RT moet hebben om optimaal te mogen genieten van de volgende generaties spellen? Nou, zover zou ik echt niet durven gaan. Het mag meewegen maar als je gelooft dat kaarten voortaan gekocht moeten worden op wat Control nu laat zien dan heeft de marketing van Nvidia zijn werk iets te goed gedaan.
Eindeloze spiegelingen zijn allemaal mooi en zo maar toch wel echt typische "kijk eens" gimmicks wat mij betreft. Stoer om een keer te zien maar je kunt moeilijk alle spellen volstoppen met spiegelpaleizen. "Correctere" belichting zoals bij schaduwen is vaak al helemaal moeilijk te zien tenzij je de screenshots zorgvuldig naast elkaar gaat ontleden, iets waar je niet mee bezig bent als je in het spel zelf rondrent. Zolang het er niet al te rafelig en vaag uitziet zijn je ogen/hersenen al snel overtuigd.
Control si erg geliefd vanwege de art direction en style, ik denk dat RT zeker hierin een aandeel heeft gehad. Ik zelf vond het een game waarbij vrijwel alle puzzelstukken op de juiste plek vielen. Dat rasterization erg goed zaken kan faken doet daar niet aan af lijkt mij. Dat is end of the road technologie en dit is de overstap.
Is het een goede demo? Zeker. Toont het aan dat je RT moet hebben om optimaal te mogen genieten van de volgende generaties spellen? Nou, zover zou ik echt niet durven gaan. Het mag meewegen maar als je gelooft dat kaarten voortaan gekocht moeten worden op wat Control nu laat zien dan heeft de marketing van Nvidia zijn werk iets te goed gedaan.
Het is de eerste generatie, ik denk dat Cyberpunk bijvoorbeeld de echte vuurdoop zal gaan zijn. Game skan je niet meer oneindig mooier gaan maken door meer triangles, hogere resolutie textures, belichting is de next thing en daar is RT voor nodig om dat beter te gaan doen.
Het is de eerste generatie, ik denk dat Cyberpunk bijvoorbeeld de echte vuurdoop zal gaan zijn.
Precies dat, het is nu nog zodanig beperkt dat ik het niet heel zwaar mee zou laten wegen bij de aankoopbeslissing. Op dit moment zou je bij wijze van echt RT moeten kopen op basis van met hoeveel FPS je Control kunt draaien en dat was het dan eigenlijk wel, want dat is de best case. Ik heb meer iets van "maak me maar wakker over 2 of 3 generaties" en dan is het toch al standaard.

Mocht Cyberpunk het nu weer naar een heel ander niveau tillen dan zou dat mooi zijn (de setting leent zich er op zich wel voor, met alle neon en wolkenkrabbers), maar gezien de beperkte toevoeging die de huidige hardware nu nog kan leveren ben ik daar toch sceptisch over. Maar we gaan het zien, evenals wat AMD gaat bieden. Ik heb niks tegen RT an sich maar het zou fijner zijn als het nu al 10x krachtiger was tegen dezelfde prijs, zeg maar, in plaats van dat je iedere twee jaar zou moeten upgraden want iets betere RT. :+
De 2070 Super kon op 1440P over 60fps de gehele game draaien met DLSS aan en ALLE RTX effecten. Daar is ninietsks mis mee, de 2080TI etc doen dit natuurlijk beter. De 3080RTX doet dit gewoon op 4K.
Mijn ervaring is toch net ietsje minder, maar nog steeds erg positief. Control durft op mijn 2070 Super op 1080p toch onder de 60pfs zakken. Het probleem is ook dat control heel vaak indoor is, maar dat je soms dan zo'n extreem grote abstracte ruimte hebt. Vandaar dat de FPS niet altijd gelijk zal lopen.

(Verder, toffe game en met RTX zeker een aanrader)
Control mist belangrijke klassieke rasterization optimalisatie ten koste van RT. Je wordt zowat gedwongen om RT te gebruiken anders ziet het echt niet speciaal mooi uit. De reflections rasterization implementatie is gewoon verbazingwekkend troep in Control met exponentieel veel GPU vebruik ten opzichte van andere games met hetzelfde effect.
Dit is omdat Control veel reflecties recht van voren heeft, om dit te laten werken nog enigzins met SSR moet de masking veel scherper om zoveel mogelijk artifacts te voorkomen.
Hoezit het dan met de Games die op de PS5 uitkomen
zoals Spiderman Miles Morales die laatste trailers lijkt toch mooie RT te hebben
Ook in Demon Souls zie je volgens mij RT
en in Ratchet and Clank zag je duidelijk RT
is dit dan geen Ratracing of wat ?

en ik vind dat het ook alleen zichtbaar moet zijn op plekken waar je het zou moeten zien.
Dus niet een game maken waar de hele weg refecteerd en alles van chrome is gemaakt.
De reflecties van Spiderman miles morales op de ps5 draaien in een kwart resolutie en reflecteren ook niet letterlijk alles. Er missen bijvoorbeeld bladeren van een boom waardoor die boom in herfst stand lijkt te staan in de reflecties van ramen terwijl die in de "echte" wereld nog vol in blad staat.

Digital foundry heeft daar een weekje of wat geleden een video van gemaakt.
Ik bedoelde meer het stukje in de trailer waar hij die kat terug brengt naar die winkel en net voordat hij de winkel in gaat zie zijn reflectie in de deur en ook andere reflecties zie je langskomen.

Maar goed ik vind dat dus al mooi en dat word dus op vrij normale hardware gedaan in vergelijk met top kaarten in PC's
RT is absoluut niet relevant nog tenzij jij een van de paar games bijna altijd speelt als je gamed. Voor het gros van de mensen is RT een bijzaak op z'n best en gaat het meer om de rest van de performance.
RT komt steeds vaker kijken in de game wereld, als ik cyberpunk ga spelen wil ik wel fatsoenlijk performance van rt op 4k of 1440p, met een 2080 gaat dat helaas niet werken op max settings.
Op moment van schrijven zijn er 15 games die ray tracing ondersteunen.

https://www.digitaltrends...pport-nvidia-ray-tracing/

Ja het komt steeds vaker langs, maar absoluut niet vaak.
En hoe denk je dat dat er over een tijdje uitziet als er ook daadwerkelijk kaarten zijn die efficient kunnen raytracen? :) Het is een beetje een kip en ei verhaal
Zoals je zegt - het komt steeds vaker langs - als je op dit moment het grote geld gaat geven voor een topkaart, wil je wel even ok zitten voor de volgende 2-3 jaar, niet?
Uiteindelijk zijn dit ook geen game-benchmarks, dus hopelijk volgen die komende week bij release...voorlopig laat ik mijn op 17september bestelde 'pre-order', 'wordt verwacht' ed RTX3080 nog even staan....mochten de Big Navi's meteen leverbaar zijn zal het moeilijk worden te kiezen...zijn er al prijzen bekend trouwens?

[Reactie gewijzigd door TZB op 22 juli 2024 14:25]

Ik tel er 34 in je link.
En je hebt ook duidelijk het artikel niet gelezen, de eerste 15 zijn games die uit zijn. De overige zijn games die er nog aan zitten te komen.

Zoals ik zij in mijn comment
Op moment van schrijven zijn er 15 games die ray tracing ondersteunen.
Op 4K niet, op 1440p wel, met dlls. Ik baseer me op Control.
Of je speelt het gewoon met prerenderd lighting. Grafisch maakt het geen ene reet verschil. Het is vooral voor developers prettig, omdat het ze een hoop tijd kan schelen. In game merk je echt geen verschil. Alleen op die bewerkte marketing plaatjes van Nvidia zie je verschil.

Een goede developer kan met een fractie van de rekenkracht hetzelfde op je scherm toveren.

[Reactie gewijzigd door Seth_Chaos op 22 juli 2024 14:25]

Het goed doen van de belichting zonder rt kost zoveel tijd dat het nooit in de buurt komt van rt, niet haalbaar.

En mits goed gedaan is het verschil echt wel te zien.
Ik snap de reacties niet dat Raytracing nergens op slaat. Ik ben juist van mening dat het wel van toegevoegde waarde kan zijn, zeker nu consoles ook Raytracing support hebben. Het wachten was juist op AMD met Raytracing want als ontwikkelaar zit je niet te wachten op vele uren implementatie werk voor 3 gebruikers die toevallig een RTX kaart hebben. Dat worden er nu natuurlijk meer nadat de tweede generatie RTX kaarten er zijn. Maar nog veel meer nu ook consoles en de nieuwe AMD kaarten er zijn.

Ik vraag me af hoe representatief de RT performance van de benchmarks zijn voor de toekomst. Sowieso is al bekend dat Nvidia voordeel heeft in Timespy vanwege de gekozen implementatie die vooral beter werkt op Nvidia kaarten maar niet perse representatief zijn voor ruwe performance. De vraag is of dit ook het geval is in Port Royal gezien 3D mark uberhaupt geen kans heeft gehad om het op andere hardware te testen.

Daarnaast zijn er misschien nog (kleine) winsten te behalen met verbeterde drivers aan AMD's kant. Kort gezegd ben ik wel erg aangenaam verrast door de performance die AMD weet te halen in deze synthetische benchmarks.
Voor de 3D modelling enthiousiasten is raytracing een zegen! Renderen met raytracing wordt nu zoveel sneller.
Ik ben vooral benieuwd of AMD een goede concurrent heeft voor DLSS. Ray tracing is leuk, maar goede downscaling zoals DLSS 2 geeft soms al mooier beeld dan native resolutie, terwijl het ook een stuk beter draait.

Natuurlijk zijn er nog maar een paar titels die dit soor technologie gebruiken, maar waar het goed is toegepast, geeft het hele mooie resultaten: bijv. in death stranding zien haren er voor het eerst fatsoenlijk uit zonder shimmering of kartelrandjes (hoewel er elders weer artifacts optreden). Ook zijn raytracing effecten wat goedkoper op lagere resoluties, wat het alleen maar interessanter maakt.
Yup, als AMD geen goede tegenhanger van DLSS 2.0 (niet DLSS 1.0!) heeft dan is Radeon voorlopig done. Nvidia all the way.

Maar we moeten vanuit gaan dat AMD niet op z'n achterhooft is gevallen:
- optimalisatie voor Microsoft Direct ML is het meest voor de hand liggende door XSX-Windows-GamePass combinatie.
- Radeon Image Sharpening RIS upscaling is al een tijdje behoorlijk degelijk. Gamen op 1440p met RIS is behoorlijk bruikbaar op 4K schermen zonder teveel artefacten.

Hoe mooi DLSS 2.0 is, sommigen vinden juist dat het te kunstmatig uit ziet, soms onnatuurlijk te scherp, uitsmering bij snelle beweging, DLSS "raadt" soms verkeerd bij bepaalde contrast/kleuren omstandigheden, oftewel het is er (nog) niet. Maar geeft ons wel een teken hoe goed de DLSS 3.0 wel niet gaat worden.
Maar als AMD met iets komt dat dicht genoeg komt aan DLSS 2.0 maar open source is en makkelijk toegepast kan worden over breed scala aan games, kan het toch goed genoeg zijn, al is het niet allerbeste upscaling techniek.
zover ik weet is FideltyFX de tegenhanger van DLSS? https://www.youtube.com/watch?v=ME71f4h3Jxs
Kort door de bocht zou je kunnen zeggen dat het een tegenhanger van DLSS is. Maar DLSS is een AI upscaler en FidelityFX een Sharpening filter, toch wel een groot verschil. Je bewandelt verschillende wegen naar hetzelfde Rome waar DLSS 2.0 nu duidelijk de bovenhand in eindresultaat heeft maar duidelijk veel werk kost in de implementatie daarvan.

FidelityFX CAS is makkelijker te implementeren. RIS is een onderdeel van FidelityFX die je in de driver kunt inschakelen. FidelityFX kan alleen in de specifieke game ingeschakeld worden waarbij RIS automatisch wordt uitgeschakeld in de driver level omdat het al in FidelityFX zit.
Hm... het is niet helemaal vergelijkbaar, maar bij TVs wordt je al jaren dood gegooid met AI up scaling en hele mooie demo’s over hoe geweldig dat is.... en alle reviews raden aan de “filmmaker’s mode” te gebruiken, omdat je er altijd rotzooi bij verzint - per definitie. Bij games kun je vanwege de performance eisen best een verlies aan beeldkwaliteit op de koop toe nemen, maar het blijft behelpen.
Ik zeg ook nergens dat A of B niet goed genoeg is. Verschillende mensen hebben dus ook verschillende voorkeuren. Ik kraak ook DLSS 2.0 niet af wat sommige denken, integendeel zelfs. Ik geef alleen de algemene standpunt dat hoe goed DLSS 2.0 nu al is, er nog behoorlijk wat verbeterpunten liggen.

Nogmaals benadruk ik want sommige lezers nemen het erg snel negatief op: DLSS 2.0 is nu al fantastisch! En ik kan niet wachten op 3.0 die de gebrekken van 2.0 oplost. En AMD heeft waarschijnlijk in december of januari een driver update voor de DLSS tegenhanger. Waarschijnlijk iets minder goede kwaliteit dan DLSS maar met goede performance. Precies zoals jij al aangaf met ."bij games kun je vanwege de performance eisen best een verlies aan beeldkwaliteit op de koop toe nemen".
Sorry, maar m.i kan downscaling nooit beter beeld produceren dan Native. en de voorbeelden die ik tot nu toe heb gezien stemmen mij ook weinig positief. Het kan er "redelijk" vergelijkbaar uitzien, op sommige vlakken, maar je levert altijd wat in . Hogere fps staat daar dan tegenover, maar ik denk dat ik toch liever kies voor betere beeldkwaliteit , en dus geen DLSS.
Snap ik helemaal. Daarom geef ik ook het specifieke voorbeeld van het renderen van haren in death stranding. Dat ziet er met DLSS echt beter uit dan native resolutie. Op andere gebieden laat het nog steken vallen in hetzelfde spel.
(n.b. gebaseerd op de digital foundry uitleg hier (rond 17:00): https://www.youtube.com/watch?v=ggnvhFSrPGE )

Omdat fatsoenlijke ray tracing momenteel nog behoorlijk veeleisend is, is een optie om op lagere resolutie maar mét ray tracing te doen aantrekkelijk (afhankelijk van welke concessies er gedaan moeten worden en wat de speler belangrijker vindt uiteraard).

Daarnaast, wat als je de native resolutie (net) niet aankan met je hardware? Van wat ik heb gezien ziet DLSS er beter uit op 4k dan bijv 2560x1440 of 1080p upscaled op hetzelfde scherm. Ik kan me best voorstellen dat iemand graag een 4k scherm heeft voor zaken náást gaming, maar niet bereid is om de enorme investering te maken om alles fatsoenlijk op native 4k te draaien.

[Reactie gewijzigd door GromuhlDjun op 22 juli 2024 14:25]

DLSS is heel beperkt en een mooier beeld dan native maakt het echt niet. Je kan gerust nog artefacts zien logisch he is maar een AI gegenereerde benadering.
Daarom zei ik ook "soms" (en het specifieke voorbeeld). Uiteraard zijn er nog behoorlijk wat beperkingen, maar als ik zie wat nu al mogelijk is, maakt het voor mij interessant.
Als de keuze is om voor een fatsoenlijke fps op een 4k scherm 1080p of 1440p te draaien of een DLSS naar native 4k, vind ik die laatste toch echt interessanter (van wat ik tot nu toe gezien heb).

On topic, de sharpening filter van AMD haalt het niveau van DLSS bij lange na niet op dit moment. Daarom hoop ik dat AMD hier verbetering brengt.

[Reactie gewijzigd door GromuhlDjun op 22 juli 2024 14:25]

Het verschil is dat dit per spel specifiek door nvidia moet aangemaakt worden.
Ik heb 4k scherm en 1080ti en game in alles op 4k en dat is goed te doen. Je haalt de zaken door elkaar trouwens. Wat DLSS doet is een 1080p upsampelen naar iets hoger. Het is dus een veel verbeterde versie van AA waardoor je de prestatie van 1080p hebt maar de beeldkwaliteit van een hogere resolutie.

"Native 4k" is dus wat je zonder DLSS zou hebben.
Je begrijpt me verkeerd, ik snap dat DLSS upscalen is. Ik bedoelde dat een 1440p DLSS naar 4k output op een 4k scherm er beter uitziet dan "normaal" 1440p op datzelfde 4k scherm, ook al is het vs upscaling met DLSS.

Had het woord native anders kunnen/moeten gebruiken ja :)
Verassend, ben benieuwt hoe dicht dit bij de realiteit ligt, maar dit kan een async compute achtige situatie in 2020 worden. Gaat raytracing wel gemeengoed worden dan heeft Nvidia een voorsprong, blijft het bij puur rasterization dan heeft AMD de voorsprong. Als de firestrike nummers daadwerkelijk kloppen en een reflectie zijn van in-game situaties. Wat ik niet denk is dat AMD deze GPU's voor minder gaat verkopen dan dat Nvidia dat doet. AMD heeft weer wat zelfvertrouwen in hun lineup en dit zie je ook bij Zen3 terug welke op hetzelfde prijsniveau als Intel en soms zelfs hoger liggen.

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 14:25]

raytracing gaat niet meer weg. Maar nu de nieuwe consoles allemaal een AMD gpu hebben zal vrijwel iedere game rekening houden met de restricities van AMD (zou je toch denken?)

Ik denk dat AI upscaling het toverwoord is bij deze nieuwe generatie GPU's. Als AMD dit niet voor elkaar gaat krijgen dan gaat het prijsniveau gelijk trekken met nvidia ook niet door (als GPU's tenminste een beetje leverbaar zijn)
Wat bedoel je precies met dat "iedere game rekening houdt met de restricties van AMD"? De vorige generatie consoles hadden ook allebei een AMD GPU en toendertijd werden er exact hetzelfde soort dingen gezegd. Heeft het toen opgeleverd wat je nu voorspeld?
Naja, ik dact als AMD minder performance heeft met raytracing, dat nieuwe games hier rekening mee gaan houden.

Bij de vorige PS4 hebben ze er een oude GPU ingestopt (iets wat lijkt op de 7870) die toen al 2 jaar(?) oud was. Ik denk omdat ze nu de laatste gpu tech in de consoles stoppen dit wel effect gaat hebben.

Je kan gelijk hebben hoor, dat het niets gaat opleveren. Ik zit ook maar wat uit mn nek te lullen.
De games die nu RTX ondersteunen zijn games met nV support. Denk ook niet dat AMD daar goed in gaat presteren. Aangezien de ratracing volgens nV guidlines is op gezet. Omdat AMD heerst op de consoles en RT daar ook hardware ondersteund wordt. Zullen dev de RT guidlines voor de console APU standaard volgen voor console main target titels en is RTX optimalisatie eerder optioneel. Daar moet nV namelijk voor lobbien. Maar dat duur even, mogelijk na 2de wave rdna2 console ports.

[Reactie gewijzigd door SG op 22 juli 2024 14:25]

Hier is toch de Vulkan API uit ontstaan. Dichter op het bare metal programeren, zoals bij consoles gebeurd, maar dan voor losse videokaarten.
Niet dat ik dat AI upscaling niet mooi vind, maar voor 4k zal het niet zo nodig zijn (genoeg raw power aanwezig) en 8k is nog echt ver weg. Hell, 4k content is nog niet eens de standaard.
Je kan ook upscalen naar een hogere resolutie dan je monitor en dan en weer downscalen naar de resolutie van je monitor (geeft een mooier plaatje).

Maar 4k + raytracing gaat nog niet lukken met de nieuwe GPU's. Met AI upscaling kun je dat dan weer wel doen. Nog even afwachten hoe snel games met raytracing er echt goed uit gaan zien.

Ook low-end GPU's kunnen profiteren van AI-upscaling. Stel je voor een GPU van 100 Euro die net 720p aan kan op high settings, maar met upscaling 1080p op high kan draaien.
Ligt aan de videokaart die je hebt en welk spel je speelt. Ik denk dat als je (nattevingerwerk) de 3060 hebt, AI Upscaling een mooie oplossing kan bieden voor 1440p en 2160p.
Als de nieuwe AMD gpu moeite hebben met raytracing dan zal Nvidia elke ontwikkelaar met een grote game geld aanbieden om er raytracing in te verwerken.
Iets wat ze denk ik toch al gingen doen
Die dan vervolgens niet lekker werken op de consoles, waar de meeste pc-games ook op verkrijgbaar zijn.
Natuurlijk, het zal misschien mooier zijn op de pc (altijd al, zeker na een paar jaar), maar de console-markt is enorm.

[Reactie gewijzigd door DropjesLover op 22 juli 2024 14:25]

Zal ook gewoon goed werken op console aangezien ze te vaak de console versie poorten naar de PC.
Het zal dan gewoon zoals je al aangeeft iets mooier zijn op de PC zolang je een Nvidia kaart hebt.

Mocht de raytracing performance van de consoles minder goed zijn zullen de ontwikkelaars features weg laten, welke nadat Nvidia geld overgemaakt heeft terug komen in de PC release.
Dus eerder de RDNA2 optimalisatie voor Consoles en dan PC port optioneel RTX nV support.
Ik lees vooral heel veel voorbehoud en twijfel over de bronnen. Waarom publiceert Tweakers zulk onbetrouwbaar 'nieuws'?
Ik lees vooral heel veel voorbehoud en twijfel over de bronnen. Waarom publiceert Tweakers zulk onbetrouwbaar 'nieuws'?
Omdat heel veel tweakers, net als jij, het lezen en commentaar geven. Een lezer die commentaar geeft is tientallen malen meer waardevol in marketing dan een lezer die leest en geen commentaar geeft.

Tweakers en AMD danken je.
Een paar van de bronnen zijn behoorlijk solid, die hebben vaker bij releases juiste info gelekt.
Als die 22% sneller is dan een 3080, dan klopt hij dus ook een 3090?
Klopt, en dan zou dit nog niet eens de snelste kaart zijn van AMD, dat moet de 6900XT worden.

Maar hoe dit alles zich vertaald naar echte game prestaties is nog afwachten...
Denk eerder dat dit de 6900XT is. Veel sneller dan dit gaan ze niet zijn. Nog steeds een prima prestatie. Echter weten we dat pas als we de prijs zijn. Zen 3 is in ieder geval erg duur dus ik verwacht van de GPU geen weggevertjes qua prijs. Je mag denk ik al snel 800-900 euro neerleggen. We zullen het zien volgende week.
De 6900XT zou "AMD only" zijn voorlopig, en deze getallen komen van board partners af. Die zouden maximaal de 6800XT kunnen maken...
Juust, en daarom is dit artikel nogal met een grote vrachtwagen zout te nemen.
Blij dat ik even geduld heb gehad.
Bijna elke 3080 koper is ook gedwongen geduld te hebben ;).
Misschien ook de reden dat Nvidia perse eerder wilde releasen?
En minder duur was dan verwacht. Hopelijk geeft AMD nu goede concurrentie.
Ja en waarom ze de 3070 hebben uitgesteld tot 29 okt (1 dag na AMD event)

Op dit item kan niet meer gereageerd worden.