Nvidia brengt GeForce-driver uit met raytracingondersteuning voor Battlefield V

Nvidia heeft een driver uitgebracht die raytracingondersteuning voor Battlefield V toevoegt. Om daar gebruik van te maken is een GeForce RTX-videokaart nodig. Ook moet EA de game nog van de benodigde update voorzien om raytracing in te schakelen.

Battlefield V wordt de eerste game waarbij raytracing daadwerkelijk te gebruiken is. Nvidia bracht zijn RTX-videokaarten in september uit, maar tot nu toe waren er nog geen games beschikbaar die de RT-cores van de nieuwe architectuur gebruiken.

Na het installeren van de nieuwste Game Ready Driver, versie 416.94 WHQL, werkt raytracing nog niet in Battlefield V. Eerst moet uitgever EA een patch voor de game uitbrengen. Volgens Nvidia zal dat gebeuren rond de periode dat de Battlefield V Deluxe Edition uitkomt. Die versie van de game is vanaf donderdag te koop.

Volgens de aankondiging blijven uitgever EA, ontwikkelaar Dice en Nvidia na de release de implementatie van raytracing optimaliseren. Daarvoor zullen geregeld updates verschijnen. Wanneer andere games ondersteuning voor raytracing krijgen, is nog niet bekend. Nvidia kondigde eerder aan dat de techniek naar onder andere Shadow of the Tomb Raider komt, maar de benodigde updates zijn daarvoor nog niet beschikbaar.

Door Julian Huijbregts

Nieuwsredacteur

14-11-2018 • 13:29

173

Lees meer

Reacties (173)

173
165
68
17
1
67
Wijzig sortering
https://www.techpowerup.com/img/xrYUUUhhEbIsk3b8.jpg

Performance meer dan gehalveerd, en dat op 1080p 8)7 :X

[Reactie gewijzigd door Rocky28 op 25 juli 2024 00:59]

De bottleneck is dus duidelijk: de RT cores. Deze zijn dus niet krachtig genoeg om de huidige hybride raytracing goed te trekken: een GPU van 1300€ die niet meer dan 1080p aan kan vind ik niet echt ok. Persoonlijk vind ik het erg dat nVidia GPUs aan die prijzen verkoopt met als enige argument ray tracing (want zonder raytracing biedt de 10 serie veel betere bang/buck), terwijl je aan deze performance kan zien dat deze kaarten echt niet future proof zijn qua raytracing.

Daarmee hebben we dus het antwoord op de vraag 'waarom wilde nVidia de kaarten releasen en verkopen voordat RTX getest kon worden?'. Het vermoeden dat de RT cores niet krachtig genoeg zijn wordt met deze cijfers dus bevestigd.

Ik ben daarnet nog helemaal de grond in gemod (26x"ongewenst" en 16x"off topic") omdat ik dit voorspelde, maar goed.

[Reactie gewijzigd door kiang op 25 juli 2024 00:59]

Ik begrijp je standpunt niet helemaal om eerlijk te zijn. RTX is een technologie uit de renderwereld. Een hele belangrijke zelfs en wat heel veel kracht kost om te renderen. Vergeet niet dat de kaarten van NVidia dit Realtime doen.

Daarnaast is het zo dat de technologie in de kinderschoenen staat. Ook developers zullen hiervoor moeten leren ontwikkelen en we gaan vast situaties zien waarin de performance wordt verbeterd.

Daarnaast is de RTX2080ti de snelste kaart die er is die nu echt 4k gamen op 60fps op de huidge games mogelijk maakt.

Dat RTX prestaties kost is vanzelfsprekend. Is het de toekomst? Geen idee, maar feit is wel dat als je de meest realistische graphics wil je de RTX kaarten een kans moet geven.

Zodra we zien dat de technologie aanslaat zullen we beter implementaties en performance gaan zien. Nu kritisch zijn mag maar roepen dat het niet ok is voor een kaart van 1300 die geen ray tracing kan op 4k is een beetje vreemd vind ik.

Je hebt een keuze; wil je 4k 60fps? Prima, Ray tracing uit. Wil je Ray Tracing op 60fps maar wel op 1080p. Prima dan heb je met DLSS en Ray tracing denk ik een fantastische ervaring en kan je grafisch flink aan je trekken komen ook op die resolutie.
Ik begrijp je standpunt niet helemaal om eerlijk te zijn. RTX is een technologie uit de renderwereld. Een hele belangrijke zelfs en wat heel veel kracht kost om te renderen. Vergeet niet dat de kaarten van NVidia dit Realtime doen.
Vergeet niet dat deze kaart is gemaakt voor gamers.

Het punt is dat het de meeste gamers tegen zal vallen dat deze fancy nieuwe technologie slechts op 1080p een redelijke framerate neerzet.

Dat zal Nvidia ook niet verbazen, daarom hebben ze RTX flink gehyped en geen benchmarks laten zien.
Ja klopt. Maar dat komt omdat kaarten voortdurend worden afgerekend op de prestaties en framerates die ze neerzetten. Waar 4k nu de norm lijkt te worden in benchmarks omdat ze op 1080p niet meer kunnen worden getest ivm CPU limitaties. In gamerland is 4k echter nog lang niet de norm en een significant aantal (65%) gamet nog steeds op 1080p.

zie: https://store.steampowere...e-Survey-Welcome-to-Steam

[Reactie gewijzigd door juggle op 25 juli 2024 00:59]

(65%) gamet nog steeds op 1080p.
En meer dan 65% zal geen 2080(Ti) kopen.

Gamers die evt wel zo'n kaart willen kopen zijn gewend aan minstens 1440 (ultra)wide @ 100fps.
De meesten daarvan zullen niet terug willen naar 1080 @ 60 alleen maar voor mooiere schaduwen, en dan hebben ze twee opties: 1200eu uitgeven en dan RTX niet gebruiken, of gewoon geen RTX kaart kopen.
Ze willen niet terug naar 1080p maar als je het beste van het beste wilt en het nieuwste van het nieuwste maakt denk ik juist die framerate niet uit voor Ray Tracing. Voordat Ray tracing om de hoek kwam waren er al geruchten over de framerate verlaging ervan. Diegene die sceptisch zijn wachten af maar vooral wordt de RTX gekocht om de prestaties. Dat RTX erin zit is leuk maar niet de hoofdreden voor de early adapters. Het is wel zo dat als je de keuze hebt tussen nu een 10xx kaart kopen of een 20xx kaart met ongeveer zelfde prestaties je eerder een 20xx kaart koopt vanwege Ray tracing en dus nieuwe features.

[Reactie gewijzigd door juggle op 25 juli 2024 00:59]

Ze willen niet terug naar 1080p maar als je het beste van het beste wilt en het nieuwste van het nieuwste maakt denk ik juist die framerate niet uit voor Ray Tracing.
Tuurlijk, alsof resolutie en framerate niets te maken hebben met "het beste van het beste".
Ja wel, maar niet met het nieuwste van het nieuwste :)
Het probleem dat ik aanwijs is niet zo zeer de performance van de kaarten, maar de keuze van nvidia om de kaarten te releasen nog voor de feature kon worden getest, en dan ook nog eens met RTX als enige reden om de hoofdprijs te vragen voor die kaarten.

nVidia werkte samen met de developers. De timing is 100% een bewuste keuze van nVidia. nVidia koos ervoor deze (op zijn best gezegd) matige performance voor de duurste consumer GPU ooit geheim te houden tot enkele maanden na de release.
Of die timing 100% een bewuste keuze is om zo kaarten te verkopen die eigenlijk niet presteren vind ik nog wel te betwijfelen. Er was immers al tijden "druk" en "gezeur" vanuit de markt en de consumenten om met een nieuwe generatie te komen. Daarnaast was bij release al duidelijk dat de Raytracing erg zwaar zou worden en dat deze eerste generatie RTX kaarten echt iets voor de early adopters zou gaat worden en met een beetje geluk enkel op 1080P bruikbaar. Ik vind het argument "Nvidia wilde het bewust verborgen houden" niet heel erg sterk, want eigenlijk lag alles bij launch al op tafel.

Daarnaast vraag ik me af, gezien het paperlaunch karakter van deze launch, of Nvidia hier sowieso veel aan verdiend heeft.

[Reactie gewijzigd door Dennism op 25 juli 2024 00:59]

Nvidia had vrij simpel een 2080 kaart kunnen introduceren die uitstekend 4K60 had kunnen doen, zonder alle RTX meuk, tegen dezelfde prijs als de 1080 bij launch.

Dat is de kaart die iedereen wil, en die super goed zou verkopen. Probleem voor Nvidia is echter dat mensen dan voorlopig ook gewoon klaar zijn. Veel meer performance dan dat heeft bijna niemand nodig.

Oplossing: introduceer een kreupele nieuwe techniek, qua performance onder de maat, tegen absurde prijzen, en ga weer jaren melken met incrementele updates.

Mede mogelijk gemaakt door serieus gebrek een concurrentie. :(
maar de keuze van nvidia om de kaarten te releasen nog voor de feature kon worden getest
En anders waren er games getest met technologie die nog volledig ongetest was. Kip / Ei.
Niet echt in mijn ogen: nVidia werkt samen met een boel developers, dat toonden ze ook op de keynote, er is een handvol games dat nu.binnekort uitkomt met RTX. De launch van de games en de kaarten kon perfect op elkaar afgestemd worden, of toch op zn minst met 1 game.

Dat zie je trouwens vaker: de Apple Watch werd gelanceerd met al een boel apps van third party developers.
Niet Kip / Ei.

Als je met devs samenwerkt en ze zo'n mogelijkheid gaat bieden, dan heb je alle kans om te zorgen dat je geen brakke meuk op de markt brengt voor gamers (niet devs, eind consumenten).
Tja slimme marketing van Nvidia. Feit is wel dat de meesten deze kaart niet kopen voor Ray tracing maar voor de pure snelheid die de kaarten hebben.

Nvidia zet vol in op RTX niet alleen om een hogere prijs te vragen maar ook om hun plek in het topsegment te settelen. Daarnaast is RTX een hele belangrijke techniek die heel veel wordt toegepast in CGI.

Hadden ze nog langer moeten wachten? Geen idee, het is wat je nu belangrijk vindt.
Iets van stockholmsyndroom?....

Ik krijg werkelijk de enge kriebels van jouw positieve betoog voor Nvidia RTX. Ray-tracing is niets nieuws. Dat het heel lang niet wordt gebruikt voor gameconsumenten is door één reden, wat al door bijna iedereen is aangehaald: Het kost teveel rekenkracht dat het nog geen zin heeft om consumenten, developers en kaartenmakers door de strotten te duwen.

maar feit is wel dat als je de meest realistische graphics wil je de RTX kaarten een kans moet geven
Op 1080p? meest realistische graphics, op 1080p??? Terwijl de norm richting 4K marcheert?
Waarom dan meteen niet de Path-Tracing? Dat is pas realistisch graphics! Okee, wel op 720p, cinematic 24fps :+

Weet je wat nog meer in de kinderschoenen stond? AMD's Asynchronous Compute sinds 2011. Een belangrijke rendertechniek voor extra performance waar developers moesten leren omgaan. Anno 2018 zijn er nog steeds maar handjesvol games die daadwerkelijk 100% daar gebruik van maken. Want de meeste developers zaten gevangen in de GimpWorkstm. Ironisch genoeg zijn de RTX kaarten ook de eerste Nvidia GPU met real-time Asynchronous Compute. Een techniek waar je vroeg of laat niet onderuit kan.

Ray-tracing wordt zeker de norm, mits de hardware het ook aan kan in parallel met andere ontwikkeling en trend zoals hogere resolutie beeldschermen en TV's. Laat staan hogere frame-rate's +144fps. Maar de huidige RTX2000 series zijn te zwak. TRX op 1080p/30fps, en dat voor €1.300,-? Laat me niet lachen! :+
maar feit is wel dat als je de meest realistische graphics wil je de RTX kaarten een kans moet geven
Op 1080p? meest realistische graphics, op 1080p??? Terwijl de norm richting 4K marcheert?
Waarom dan meteen niet de Path-Tracing? Dat is pas realistisch graphics! Okee, wel op 720p, cinematic 24fps :+
Ik zie dit soort redenaties al voorbij komen sinds de introductie van 1280x1024 als alternatief voor 1024x768. Is het nu echt zo lastig te begrijpen dat hogere resolutie, de beste graphics en de beste fps per definitie niet samen gaan? Het is echt niet ingewikkeld, meer beeldpunten kost je fps. Vroeger ging het dan bijvoorbeeld om 1.7 miljoen beeldpunten (1680x1050) vs 2.07 miljoen beeldpunten (1920x1080). Anno 2018 gaat die stap van 1920x1080 met 2.07 miljoen naar 8.29 miljoen, dat verschil is echt gigantisch. Er zijn grof gezegd de volgende extreme combinaties:
  • hoge resolutie + hoge grapics + lage fps
  • hoge resolutie + lage graphics + hoge fps
  • lage resolutie + hoge graphics + hoge fps
(Natuurlijk kun je ook in het midden gaan zitten)

De voorkeur voor graphics, resolutie en fps is natuurlijk 100% afhankelijk van eigen voorkeur.

Zelf geef ik de voorkeur aan FPS (tot 120) > graphics > resolutie. Ga eens Unreal Tournament 1999 in 4K spelen en daarna een nieuwe variant in full hd. Voor mij is de keuze dan snel gemaakt... Mijn Surface heeft een PPI van 220 dus ik weet hoe mooi het er uit kan zien, maar ik game toch liever op 60- 120 fps dan dat alles haarscherp is.Maar dat ben ik! Er zijn ongetwijfeld ook gamers die zonder mopperen op 30 - 60 fps spelen.

Gelukkig zijn die verschillen er! Ik herinnerde mij nog de eerste game die ik had met Ambient Occlusion; Saints Row (2?). Dat inschakelen en mijn fps kelderde van 60+ naar minder dan 30 . Dus ja, ik zet het dan lekker uit. Tegenwoordig zijn de kaarten snel genoeg om Ambient occlusion aan te laten en kan ik er dus ook van genieten.

Daaruit volgt ook dat ik zelf vermoedelijk nu ook niets met RTX zou doen. Maar om nu te stellen dat we richting 4k als norm bewegen? Voor gaming zit dat er voorlopig echt niet in. Kwam recent een 144 Hz 4K gaming monitor tegen en die moest 2499 kosten...

[Reactie gewijzigd door sdk1985 op 25 juli 2024 00:59]

Het is inderdaad lastig te begrijpen voor de meeste mensen behalve de aantal die je op één hand kunt tellen (die dus 2080TI kopen):

XBOX X is full 4K, Playstation 4 Pro probeert 4K. Video YouTube steeds meer 4K. Upload gameplay steeds meer 4K. Nieuwe XBOX en Playstation opvolgers worden allemaal 4K.

Maar waarom spelen wij dan al 10 jaar geleden niet met Path-Tracing op 320x240p?

Ik bedoel, persoonlijk kan ik gewoon niet langer meer wachten op Path-Tracing inclusief volledig physics zonder pre-animations! Kom maar op met die hap! Wel inclusief gratis brandblusser er bij aub :+
Er zijn drie RTX kaarten waarvan de goedkoopste momenteel voor 529 morgen in huis is. Dus het is wat minder extreem dan jij het hier verwoord.

Hoe dan ook zijn de consoles een heel ander verhaal dan pc gaming. Bij die consoles heb je zelf geen controle over de resolutie, fps en graphics van je game. De fabrikant maakt voor jouw de keuze. Juist de introductie van de nieuwe Xbox One X en de Ps4 Pro tonen aan dat tot nu toe de focus daar lag op speelbare framerates en niet op (4K) resolutie. Technieken als dynamic resolution bevestigen dan, daarbij gaat de resolutie omlaag wanneer je game het lastig krijgt.

De push naar 4K bij tv's komt vanuit de TV fabrikanten, die zochten na VR een nieuwe marketing strategie om tv's te verkopen. Die 4K tv's zijn ondertussen flink goedkoper geworden en de penetratie graad is in het gunstige economische klimaat aan het stijgen. Dat Microsoft en Sony daar op inspelen is niet gek. Op de pc markt gaat dat heel anders, volgens steam is het marktaandeel van 4K slechts 1.38%.
Je wilt toch niet zeggen dat RTX niet wordt gepushed??? Volgens mij is dat juist heet hangijzer.
Ik lees anders hier op Tweakers veel mensen die kunnen schieten op 1080p. Ik game singleplayer zelf vaak op 1440p, dan komt dat niet onder het lijstje van 4K op je Steam. maar wel hoger dan 1080p. Multiplayer speel ik op 1080p voor minder pracht en praal maar juist hogere frames.

Maar dan vraag ik mij af waar de discussie over gaat betreft RTX.
En misschien zijn er juist veel mensen die alleen singleplayers spelen en daadoor vaak niet op steam zitten???...
Ik zie persoonlijk RTX niet snel aan slaan in de huidige vorm. Probleem voor RTX is dat de 5 en 6 serie het niet krijgen. Het volume van de 5 en 6 serie ligt ongeveer 500% hoger dan dat van de 7 en 8 serie. De penetratie graad voor RTX is momenteel nihil en dat zie ik het komend jaar ook eigenlijk niet snel veranderen.

Bij 4K televisies speelt het omgekeerde. Daar heb je tegenwoordig al een 4K tv voor net boven de 400 euro. In 2015 was dat nog vanaf 900 a 1000 euro. Als Nvidia RTX moet pushen dan moeten ze het op de 6 serie zetten. Daarvan heeft Nvidia aangegeven dat het bij de 2xxx in ieder geval niet gaat gebeuren.

Dat alles neemt niet weg dat RTX afschrijven omdat het op 4K geen 120 fps doet onzinnig blijft, zie eerdere uitleg. Het is al heel wat dat het geen 30 fps is zoals vroeger met ambient occlusion.

2560 x 1440 zit overigens op 3.52% en 3440 x 1440 op 0.41%. Full hd zit nog op 64.29%. Steam survey krijg je meestal kort na installatie, ook als je niet online speelt.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 00:59]

Precies dit dus. Ik game zelf op een 4k TV en heb een RTX2080ti. Het gaat om voorkeuren. Ik heb de RTX voornamelijk gekocht om op 4k 60 FPS te kunnen halen. De RTX kon mij niet zoveel schelen. DLSS vond ik aan de andere kant wel interessant.

Daarnaast game ik op PC op 120fps op UltraWide. Ook dit kan perfect met de 2080ti.

Ik vind het bijzonder dat veel mensen Nvidia aanvallen op het feit dat de nieuwe techniek lagere resoluties met zich meebrengen en dat daarom de kaart niet goed is. Je kunt niet constant de resoluties blijven verhogen om de games mooier te maken.

Dat je 1300 euro moet neerleggen voor deze kaart heeft niks met Ray Tracing te maken maar met gebrek aan concurrentie van AMD en vraag en aanbod.
Je moet ergens beginnen... Lees anders even iets over Technology Adoption Circle: https://en.wikipedia.org/wiki/Technology_adoption_life_cycle

Dat JIJ niet op de boot wilt springen met deze nieuwe technologie wil niet zeggen dat er geen anderen zijn die dat wel willen waarvoor andere argumenten gelden dan jij aanhaalt. De RTX wordt vooralsnog breed verkocht en zoals ik al zei; de meesten zullen hem kopen voor de rauwe performance. Lees: 4k 60fps.

Maar het is wel een feit dat 4k nog steeds maar door een klein gedeelte wordt gebruikt, Laat staan dus 8k. Dus er worden naar andere technieken gezocht om de games mooier te maken. HDR is daar ook onderdeel van. Allemaal technieken die langzaam optrekken om tot bloei te komen.

Elke nieuwe techniek heeft zijn beperkingen zodra deze worden toegepast. Ja je kunt nog 2 generaties wachten maar dan begint de adaptation circle ook later.

Like it or don't.. RTX is on en de adaptation is begonnen :)

PS, zoals veel met nieuwe technieken, sommige slaan aan, sommige niet direct waarvan een groot gedeelte uitmaakt hoe het vermarkt wordt. Dat AMD haar Asynchronous Compute niet aan de man krijgt heeft daar mee te maken.

[Reactie gewijzigd door juggle op 25 juli 2024 00:59]

Ik heb helemaal niet over "mee op de TECHNIEK-boot willen springen". Ik juich het alleen maar toe!
Maar ik ben tegen "mee op de MARKETING-boot willen springen".

Wat ik wil zeggen is -en velen anderen mee- dat de RTX2000 serie een beetje teveel marketing bullshit is. En waar ik bang voor ben is dat RTX de volgende GimpWorks techniek wordt om alweer de markt, developers en producenten te kunnen controleren. Het voelt mij allemaal veel te gehaast uit met de RTX indroductie.

Ik bedoel: GAMINMGtm benaming alleen voor Nvidia kaarten he, en dan dit RTX dingetje wat al 10 jaar geleden ook al kon.
Maar AMD kan net zo goed ray tracing cores toevoegen, ik bedoel het is een zeer oude techniek die zeer goed bekend is, dus wat houdt ze tegen?

En ik zou niet zeggen dat RTX 10 jaar geleden ook al kon, daar kon men simpel weg de flops niet voor pushen. Ik denk eerder dat de hardware nog een generatie nodig heeft.
mwa mij lijkt het wel wat. ik haat games als gta / bf . ik spel spellen met leuke verhalen en mooie omgeving.

4k is mooi mij geen extra iets dat ik wil. maar die extra dimensie door rtx wil ik wel

144fps kan mij echt geen reet schelen. tussen 60 a 70 vind ik perfect

dus ik wil graag 70 fps 1080p met extra dingen die door rtx kan
Je hebt volledig gelijk!

Ik ben zelf enorme graphics-h^^r. Skyrim en Fallout 4 volgepropt met honderden extra grafische pracht en praal mods. En dat op 1080p met maximaal 15-25fps. I love it, jaren op deze manier "gespeeld" :+
Maar sinds een jaar geleden overgestapt naar TV gaming:

+ OLED: Ongeëvenaard realistisch contrast op 10bits HDR
+ 4K: Ongeëvenaard realistisch contrast op 10bit én op 4K is zeer realistisch ogend.
+ Ongeëvenaard realistisch contrast op 10bit én op 4K en 55" scherm lijkt zo realistisch, het lijkt wel echt!

- Ray-tracing max op 1080p met ray-tracing blur-noise voor de prijs van een OLED TV. Voor mij is de OLED TV combinatie grafisch veel en veel realistischer.....voor dit moment! Nog maals, ray-tracing en path-tracing gaat echt wel komen, mits de techniek toereikend is.
Dat hogere contrast van een OLED paneel maakt niet echt de belichting realistischer, ray tracing of liever path tracing en dus physical rendering maakt het realistischer. Jij vindt het er alleen beter uit zien op je TV. Das prima, maar is iets anders dan realisme. Beste realisme is nog steeds licht simulatie. Path tracing, jammer dat we daar nog even een flinke hoeveelheid meer RT cores voor nodig hebben.
Hier de volledige resultaten: https://www.techpowerup.c...RTX_DXR_Raytracing/4.html

Ik ben het er mee eens dat de techniek heel tof is en in de toekomst van toegevoegde waarde kan zijn, maar de manier waarop de RTX kaarten zijn gebracht en de timing ervan zijn gewoon ronduit slecht. Als je een RTX2070 hebt gekocht en raytracing wilt gebruiken heb je op medium DXR 47 fps op 1080p! Dat is voor een kaart van honderden euro's ronduit schandalig. Het zijn ook gemiddelde waardes dus de minimale fps is nog lager.

Mijn mening: de RT-cores zijn simpelweg nog niet snel genoeg en bieden niet genoeg performance om te verkopen aan consumenten. Nvidea heeft de kaarten toch uitgebracht, omdat de 20-serie zonder RT maar weinig bieden. En door de kaarten uit te brengen voordat er games beschikbaar waren om te testen hebben ze de belabberde resultaten verborgen kunnen houden.
Waarom is op 30 fps gamen op console op 4k dan wel geaccepteerd? We spelen niet allemaal competatieve shooters op 144fps.

Als singleplayer liefhebber vind ik het fantastisch dat er mooie plaatjes uitkomen. Het liefst natuurlijk op 4k 60fps maar als ray tracing in combinatie met DLSS prachtige plaatjes oplevert speel ik ook rustig op een lager fps.

Het gaat om keuzes en voorkeuren.

[Reactie gewijzigd door juggle op 25 juli 2024 00:59]

Omdat iemand die op een console gamed een hele andere doelgroep is dan iemand die alleen al 600 euro of meer aan een video uitgeeft. Dan mag je best hogere resoluties en/of fps verwachten vind ik. Als RT zo een enorme invloed heeft op de prestatie (grofweg gehalveerd), vind ik niet dat de RT-cores te rechtvaardigen zijn. Ik wacht dat liever op een nieuwe generatie waarin de RT-cores sneller zijn en dus minder invloed hebben op de prestatie's en er meer games zijn die het ondersteunen. Ik denk dat ze de technologie voor nu te snel gepusht hebben puur om wat nieuws te hebben.
RTX komt straks ook naar de consoles misschien wel.. het gaat om early adapters. Je kunt iets niet te snel pushen je moet beginnen met pushen om iedereen op de boot mee te kunnen laten komen. Zodra dat gebeurt zal de techniek verbeteren en daarmee ook de prestaties...
Ik denk dat nvidia deze kaarten heeft gereleased omdat ze ten eerst een nieuw selling point nodig hadden ten opzichte van gtx10** serie en de wacht tot 7nm kaarten daar te long voor zou zijn en ten tweede moeten video kaarten ergens beginnen om raytracing te ondersteunen, dus als de tweede generatie rtx kaarten eraan komen hebben in iedergeval al wat games ondersteuning ervoor.
Wat ik bedoel is dat nVidia makkelijk 2 maanden had gewacht zodat de GPU release samen ging met de release van enkele games die RTX ondersteunen. Indien RTX goed werkte, had nVidia dit ognetwijfeld gedaan: de release was dan alsnog op tijd voor de boom van de kerstperiode, én in alle reviews had men de kaarten kunnen aanprijzen voor de geweldige raytracing.

Het feit dat nvidia dat niet deed was voor mij een enorme red flag, en dat blijkt nu gegrond te zijn.
Wat ik bedoel is dat nVidia makkelijk 2 maanden had gewacht zodat de GPU release samen ging met de release van enkele games die RTX ondersteunen. Indien RTX goed werkte, had nVidia dit ognetwijfeld gedaan: de release was dan alsnog op tijd voor de boom van de kerstperiode, én in alle reviews had men de kaarten kunnen aanprijzen voor de geweldige raytracing.

Het feit dat nvidia dat niet deed was voor mij een enorme red flag, en dat blijkt nu gegrond te zijn.
Het lijkt er meer op dat Nvidia te ambitieus is geweest. Aangezien de RTX kaarten tot heden nog nauwelijks te koop waren hebben ze met de early launch niets kunnen winnen. Nvidia zet meer dan 3 miljard per kwartaal om en dat zit er aan RTX kaarten momenteel echt nog niet in. Dus dat kan de reden niet zijn.

De hele launch is gewoon zeer problematisch verlopen. Vanuit de AIB's kwamen geluiden dat ze al gestart waren aan de nieuwe generatie, maar de productie lijnen weer moesten terug zetten naar pascal. Het heeft daarna maanden geduurd voor de officiële launch.

Die officiële launch bleek een paper launch. Vandaag is de eerste keer dat ik een RTX 2070 op voorraad zie bij een ruim aantal shops. Om precies te zijn een RTX 2070 voor 529 bij 5 winkels: pricewatch: Gigabyte GeForce RTX 2070 Windforce.

Overigens is Battlefield 5 ook nog niet uit, dat is pas 20 november.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 00:59]

Het lijkt er meer op dat Nvidia te ambitieus is geweest.
Te ambitieus in de zin van dan Nvdia meer wilde leveren (qua performance) dan ze konden leveren, dat wisten ten tijde vd launch - en daar dus maar niets over hebben gezegd en intussen wel die kaarten de hemel in hebben gehyped?
Ze hebben overduidelijk ray tracing niet op tijd stabiel genoeg gekregen, zelfs niet met de vertraagde launch. Dus met te ambitieus bedoel ik dat ze raytracing een launch feature hebben gemaakt. Ray tracing is niet het enige dat nieuw is in deze generatie. Die hele architectuur ligt ondersteboven.
New Streaming Multiprocessor (SM)
Turing introduces a new processor architecture, the Turing SM, that delivers a dramatic boost in shading efficiency, achieving 50% improvement in delivered performance per CUDA Core compared to the Pascal generation. These improvements are enabled by two key architectural changes. First, the Turing SM adds a new independent integer datapath that can execute instructions concurrently with the floating-point math datapath. In previous generations, executing these instructions would have blocked floating-point instructions from issuing. Second, the SM memory path has been redesigned to unify shared memory, texture caching, and memory load caching into one unit. This translates to 2x more bandwidth and more than 2x more capacity available for L1 cache for common workloads.



The Turing SM is partitioned into four processing blocks, each with 16 FP32 Cores, 16 INT32 Cores, two Tensor Cores, one warp scheduler, and one dispatch unit. Each block includes a new L0 instruction cache and a 64 KB register file. The four processing blocks share a combined 96 KB L1 data cache/shared memory. Traditional graphics workloads partition the 96 KB L1/shared memory as 64 KB of dedicated graphics shader RAM and 32 KB for texture cache and register file spill area. Compute workloads can divide the 96 KB into 32 KB shared memory and 64 KB L1 cache, or 64 KB shared memory and 32 KB L1 cache.
Turing implements a major revamping of the core execution datapaths. Modern shader workloads typically have a mix of FP arithmetic instructions such as FADD or FMAD with simpler instructions such as integer adds for addressing and fetching data, floating point compare or min/max for processing results, etc. In previous shader architectures, the floating-point math datapath sits idle whenever one of these non-FP-math instructions runs. Turing adds a second parallel execution unit next to every CUDA core that executes these instructions in parallel with floating point math.
Figure 5 shows that the mix of integer pipe versus floating point instructions varies, but across several modern applications, we typically see about 36 additional integer pipe instructions for every 100 floating point instructions. Moving these instructions to a separate pipe translates to an effective 36% additional throughput possible for floating point.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 00:59]

Ze hebben overduidelijk ray tracing niet op tijd stabiel genoeg gekregen
1080p @ 60 fps heeft niets met stabiliteit te maken, het is gewoon niet snel genoeg.
Als nvidea deze koers blijft volgen gaat AMD ze voorbij in 2019. Just my 2c
Hoezo ze zijn niet krachtig genoeg?
  • Dit is vroege code.
  • Dit is op Frostbite, dus op andere engines kan de perf penalty anders zijn.
  • Raytracing support verschilt per engine. Atomic Heart bijvoorbeeld gebruikt veel meer aspecten van Raytracing, maar is ook een late 2019 game. Ik denk dat AH de ware test voor deze kaarten zal blijken.
  • Tevens wordt dit ook niet in combinatie met DLSS gebruikt. Digital Foundry heeft laten zien dat dergelijke technologie veel potentie bied. Hypothetisch gesproken kan de performance dus nog stijgen op hogere resoluties en RTX settings en mits DLSS wordt ondersteund.
  • Wat ik veel wonderlijker vind is dat performance met RTX Medium/High/Ultra nochtans hetzelfde lijkt. Dat lijkt mij een bug.
  • RTX Low heeft wel potentie om op hogere resoluties inzet baar te wezen, en ik ga er dan ook vanuit dat RTX Low en Medium de volgende tussenstappen zijn waar kaarten zich op kunnen richten.
Ik vind het wel eigenlijk een redelijke performance hebben voor een generatie nul product. Let wel: De enige andere hardware did dergelijke hybride raytracing deed voor RTX was Imagination's Wizard, en dat was slechts een jaar terug. In dat opzicht is dergelijke performance best bijzonder.

Echter zijn er ook andere vragen:
  • Wat zijn de verschillen tussen RTX Low/Medium/High/Ultra?
  • Wat is de verklaring dat Medium/High/Ultra in BFV eenzelfde performance lijken te hebben?
  • Wat is de sample size van de rays wanneer RTX is ingeschakeld?
  • Hoeveel rays worden er nu afgeschoten?
  • Wat is de performance met een GTX 1080Ti via DXR Fallback (als de game dit support)?
Dat zou ik wel willen weten. :)
Tja, mensen willen de waarheid niet geloven, die zien liever de mooi voorgehouden droom dan dat ze zelf nadenken en de feiten checken. Het blijft een apart iets.

Ik ben er nog steeds van overtuigd dat het Nvidia niet om de RTX serie gaat, maar om het verkopen van welke Nvidia kaart dan ook. Door de RTX serie werd de gtx ineens interessant terwijl dat voorheen nou niet echt het geval was. Nvidia bleef met een hele grote berg kaarten zitten en heeft een meesterlijk plan bedacht om de verkopen een enorme boost te geven. En ik vind dat ook echt een meesterlijk plan, het is ongelofelijk hoe ze het voor elkaar krijgen.

Ga maar na, overal, onder elk Nvidia bericht van de laatste tijd zie en hoor je alleen maar mensen die of de gtx serie aan raden, of kopen/hebben gekocht en een enkele een Rtx kaart. Als er daadwerkelijk Rtx kaarten worden verkocht is dat alleen maar de kers op de taart. Ik geloof ook niet dat Nvidia perse veel rtx kaarten willen verkopen, ze zijn in mijn opinie onderdeel van de marketing truuc. Ik verwacht zelf dat de volgende serie met betere raytracing etc niet heel lang op zich gaat wachten en dan slaan ze weer een enorme slag, want dan is het opeens fantastisch dat die nieuwe serie zo goed kan omgaan met raytracing, 'eindelijk'.

Ik heb zeer grote bewondering voor de Nvidia marketingmachine.
Als je denkt dat dit het plan was om meer oude GTX te verkopen, dat is een beetje ver gezocht.
Mag, ik denk dat 99% je mening deelt en mijn visie is dat het juist daarom zo goed werkt. Feit is wel dat er nu enorm veel Nvidia kaarten verkocht worden. Denk je dat het Nvidia uitmaakt waar zijn geld vandaan komt? Of je nu GTX of Rtx koopt, maakt ze geen klap uit, iedereen lijkt videokaarten te kopen ineens waar de markt een paar maanden geleden behoorlijk stil lag. Toeval? Geloof er geen biet van.

[Reactie gewijzigd door hrichard op 25 juli 2024 00:59]

De laatste maanden zaten mensen te wachten op de RTX => weinig verkoop. RTX is veel te duur / overbodig voor veel mensen, dus dan toch maar de Gtx, aangezien deze toch ook goedkoper is dan daarvoor. Dus iedereen die zat te wachten koopt nu iets => verkopen gaan omhoog

Plus dat in USA de Chinese import belasting straks ingaat, alle Amerikaanse winkels zijn flink aan het inslaan om voorraad zonder deze belasting te hebben.

[Reactie gewijzigd door gjmi op 25 juli 2024 00:59]

Wie heeft de RTX serie zo duur en overbodig (jouw woorden) in de markt gezet?
Ze hebben een dure chip gemaakt, die is daadwerkelijk ook een heel stuk duurdere dan de GTX chip. Dus die serie is zo duur.
Maar ze hebben het niet gedaan om de GTX verkoop te boosten. Zoals je zelf zei: het maakt ze niet uit wat ze verkopen.
Maar ik denk dat ze liever de RTX verkopen, meer winst.
De bottleneck is dus duidelijk: de RT cores. Deze zijn dus niet krachtig genoeg om de huidige hybride raytracing goed te trekken: een GPU van 1300€ die niet meer dan 1080p aan kan vind ik niet echt ok. Persoonlijk vind ik het erg dat nVidia GPUs aan die prijzen verkoopt met als enige argument ray tracing (want zonder raytracing biedt de 10 serie veel betere bang/buck), terwijl je aan deze performance kan zien dat deze kaarten echt niet future proof zijn qua raytracing.
Future proof is een videokaart eigenlijk nooit. Maar hoezo is een 10 serie een veel betere bang/buck? De RTX 2070 is eindelijk op voorraad en dat voor 529 euro: pricewatch: Gigabyte GeForce RTX 2070 Windforce . Voor de GTX 1070 heb ik destijds 465 euro betaald en die is nu 31% (indexatie percentage) trager. Zou je nu een 1080 kopen dan ben je ook iets van rond de 500 euro kwijt en die is dan 16% (indexatie percentage) trager. In Nederland is de performance per euro dus flink toegenomen ten aanzien van 2016, laat staan ten aanzien van de prijzen tijdens de tekorten vorig jaar. Dit zijn geen percentages om voor naar de winkel te rennen maar dit is wel het tegenovergestelde van een 'veel betere bang for buck'.


*Als je wilt weten hoeveel sneller een 2070 is dan een 1070 op basis van de techpowerup index dan doe je dus 100/71=40,8%).

[Reactie gewijzigd door sdk1985 op 25 juli 2024 00:59]

Future proof is een videokaart eigenlijk nooit.
Een GTX1080 gekocht toen die net uit kwam zal toch nog heel wat jaren mee gaan en daarbij goede performance leveren, gebruik makend van de features die die kaart ondersteunt. Hoezo is dat niet future proof?

Maar een RTX 2080 die gebruik maakt van de features die die kaart ondersteunt (RTX) heeft direct bij release al minder performance dan z'n voorganger.
Ze zijn in principe krachtig genoeg, ze runnen de game namelijk op een acceptabele framerate van 60+ fps . Dat ze niet krachtig genoeg zijn voor 4K@60fps of 1080p@140 fps, zegt natuurlijk niet dat het not done is dat NVIDIA deze kaarten levert. Volgens mij meldden ze ook al bij de eerste demo's dat de demo's op 1080p speelden, dus het is ook niet zo alsof ze misleidend waren met de performance van de kaarten.

Bovendien hebben ze bij voorhand al laten weten dat maar een handjevol games RT (gaan) ondersteunen in de nabije toekomst.

Ze doen iets nieuws, wat computationally bijzonder zwaar is. Je moet iets nemen als beginpunt om uit verder te groeien, en dit is prima. Ja, de performance is nog niet wat een PC power gamer wilt zien. Ja, er zijn nog weinig games voor. Maar dat maakt niet uit, kinderschoenen en dat soort dingen. Uiteindelijk is RT waar we naar toe willen (ik zou iig geen redenen kunnen verzinnen van waarom niet), en dit is een eerste stap voor de consument!

Wil je raytracing op 4K met hoge framerates, wacht dan lekker. Wil je meer games met RT voordat je iets aanschaft, wacht dan lekker. Dat is geen enkel probleem namelijk, gezien dit een kaart is voor de early adapters die RT willen pushen en alvast proberen. Maar ik vind het niet terecht om op NVIDIA te zeiken cause muh performance. Met een 10 serie heb je inderdaad betere bang for buck, maar de RTX is helemaal niet bedoeld als een bang for buck kaard, maar als een kaart die een nieuwe technologie pushed.

Edit: slechte zin
[quote]
Ze zijn in principe krachtig genoeg, ze runnen de game namelijk op een acceptabele framerate van 60+ fps . Dat ze niet krachtig genoeg zijn voor 4K@60fps of 1080p@140 fps,

Ze zijn ook niet krachtig genoeg voor raytracen op 1440p @ 100 fps.
zegt natuurlijk niet dat het not done is dat NVIDIA deze kaarten levert.
Het gaat er niet om of het not done is, het gaat er om of Nvidia met deze kaarten een miskleun heeft gemaakt.
Ze halen net 60 fps op 1080p, uit de verkoopcijfers zal blijken of de markt dat voldoende vindt.
Leg dan uit waarom het een miskleun is? Omdat ie RT implementeert met 1080p@60 terwijl letterlijk geen andere kaart dat uberhaupt kan? Logisch.... Wanneer je RT functions uit zet, kan je overigens prima je hoge framerates halen, het is namelijk naast de RTX cores nog steeds gewoon een krachtige kaart. Vind je RT te taxing op je performance, zet het uit. Beter nog, koop een andere goedkopere kaart zonder RTX cores, zodat je niet eens de optie hebt! En je probleem is opgelost wow zo makkelijk!

De kaart is op geen enkele manier een miskleun. Dat NVIDIA RT probeert te implementeren in games, en dat daar met de eerste itteratie nog bepaalde haken en ogen aan zitten is niet meer dan normaal (lees: lage hoeveelheid content en beperkte implementatie van RT vanwege uiteindelijk, hoe impressive het ook is, nog steeds beperkte hardware).

De kaart kan veel meer dan 60+ fps op 1080p (wat echt prima gamen is tenzij je een heel groot scherm hebt). We hebben het hier over een paar games die RT ondersteunen, in de rest van de games performed de kaart zover ik weet beter dan de 1080 ti. Nogmaals, het is een kaart voor de early adapters, geen kaart voor de gemiddelde consument. De gemiddelde consument heeft namelijk geen interesse in een paar games die RT ondersteunen. Daarom zijn er nog steeds andere kaarten zoals de 10 serie die een prima optie zijn op dit moment. Maar nogmaals: het is geen miskleun. Als je het zo noemt, kan ik enkel zeggen dat je erg bekrompen naar dit soort tech kijkt.
Leg dan uit waarom het een miskleun is? Omdat ie RT implementeert met 1080p@60 terwijl letterlijk geen andere kaart dat uberhaupt kan?
Nee, omdat het nog valt te betwijfelen dat gamers zo veel resolutie en/of framerate willen inleveren ten opzichte van wat ze gewend zijn, alleen voor wat mooiere schaduwen.

Uit een onderzoek van Gamers Nexus blijkt dat sinds release vd 20 serie, de verkoop vd 20 serie ver achterblijft bij die van de 10 serie (65% 1080ti). Dat is wellicht niet niet universeel representatief, maar het is wel precies de doelgroep vd 20 serie. https://www.youtube.com/watch?v=1RkJr80KBX4
Het ligt ook aan de game en de implementatie daarvan

Je kunt ook een game zonder RT maken en ook maar 10fps@1080p op een 2080ti krijgen. Het is maar net hoeveel textures en vertices en bewerkingen en effecten je de GPU laat doen.

[Reactie gewijzigd door gjmi op 25 juli 2024 00:59]

Je kunt ook een game zonder RT maken en ook maar 10fps@1080p op een 2080ti krijgen.
Dat kan maar dat doet niemand,
om dezelfde goede redenen waarom 1080p @ 60fps op een kaart van 1200eu voor de meeste 1080 bezitters niet een aantrekkelijke upgrade is. Dan maar geen RTX, en ook geen 1200eu uitgeven.
Dus de game en/of drivers moeten nog verder aangepast worden. De conclusie dat de RT cores niet voldoende zijn is veel te kort door de bocht. Het is normaliter een evenwicht tussen wat hardwarematig kan en wat de game te bieden heeft.
Dus de game en/of drivers moeten nog verder aangepast worden.
Om RTX performance enigszins op niveau van non-RTX performance te krijgen zou die minstens verdubbeld moeten worden. Het is erg optimistisch om te verwachten dat ze dat dmv aanpassingen voor elkaar gaan krijgen.
Of je kijkt beter waar en wanneer en hoe je rt toepast in je game.
Maar juist in de voorbeeld (BF:V) kunnen we toch juist mooi zien wat de invloed is van RT? De game draait prima zonder RT, maar zodra dat aan gaat zijn de prestaties gehalveerd. De RT-cores zijn dus duidelijk de bottleneck in dit geval.
Die Value van de 10 serie is wel een beetje aan het dalen. De 1080Ti's beginnen op te raken en het prijsverschil daalt. Check de pricewatch maar. De 2080 en 1080Ti zijn allebei voor ongeveer 750 euro verkrijgbaar. De 2070 en 1080 zitten ook zo ver niet meer uit elkaar. Komt ook aardig op hetzelfde neer behalve die paar 1080's die je voor 20 euro minder kan krijgen omdat het van die blower kaarten zijn die niemand zou moeten nemen...

Ja, de 2080Ti is achterlijk duur, maar die heeft dan ook geen competitie van de 10 serie of AMD
Ja, de 2080Ti is achterlijk duur, maar die heeft dan ook geen competitie van de 10 serie of AMD
Denk je niet dat als RTX performance vd 20 serie enigszins vergelijkbaar zou zijn met non-RTX performance vd 10 serie, er dan veel meer gamers die paar honderd extra euros of dollars er voor over zouden hebben?
natuurlijk, maar was dat haalbaar voor nvidia?
Kennelijk niet, en dat betekent waarschijnlijk dat ze minder 20's zullen verkopen dan ze hadden gehoopt.
dus niet overproduceren en verder werken aan de volgende generatie, waar ze zeer waarschijnlijk allang me bezig zijn :)
Vreemd, het is alsof je denk dat het voor nvidia niet uitmaakt of het succes van hun producten voldoet aan de verwachtingen.
ik denk niet dat nvidia veel succes anticipeerde met Turing. Als het allemaal van een leien dakje ging was Pascal niet 2 jaar lang op de markt geweest. Als jij denkt dat Nvidia nu zit van "HEH?! MAAR 50 FPS OP 1080P?!" dan heb ik nieuws voor je :)
Als jij denkt dat Nvidia nu zit van "HEH?! MAAR 50 FPS OP 1080P?!" dan heb ik nieuws voor je :)
Ik ben duidelijk geweest mbt waar het hier om gaat: wat klanten er van denken. En dan jezelf nog bijdehand vinden ook.
denk dat Nvidia ook wel wist dat het tegen zou gaan vallen in dat opzicht
Op zich denk ik dat het wel toekomst heeft in gaming, en in die zin vindt ik het mooi dat Nvidia durft te experimenteren. En die R&D moeten ze terugverdienen, daar kan ik inkomen. Maar het was beter geweest om eerlijk te zijn dat het USP niet is dat je nu fijn je games met raytracing kan spelen, maar de kaarten te positioneren als een interessante gimmick voor de echte enthousiasteling die er warm voor loopt om daar wat mee te experimenteren. En die kun je daar dan best de hoofdprijs voor laten betalen, misschien nog wel meer dan de huidge 1300 euro.

Daarnaast hadden ze dan ook wel een kaart zonder raytracing uit kunnen brengen die de volgende iteratie van de vorige generatie was voor nieuwe midrange kaarten.

Ik hoop van harte dat de gewone gamers zich niet laten verleiden tot het kopen van een 2080 van 1300 euro.
83fps zonder RTX op 4K is ook geen vette. en laten we niet blindstaren op BFV. Bitefrost is ook niet voor DX12 geoptimaliseerd.

Ik klaag niet, 1080p, raytracing en 60fps? Bring it on! Dat is minimum dat ik wil gamen. Ik speel toch op TV.

Maar zoals met elke nieuwe tech, krijgen we ook een reset van framerate. Dit gaat nog even duren voor 4K raytracing op 120fps kan. Maar dit hoort er bij.

Waar je vooral op moet wachten,is vergelijking van LOW, MED, HI, ULTRA RTX, en hoe groot het verschil is. Mss is HIGH en ULTRA verwaarloosbaar en brengt het 10fps meer...

[Reactie gewijzigd door Nees op 25 juli 2024 00:59]

Paard en wagen was ook veel meer bang voor de buck, Raytracing (-->path tracing eerder) is de toekomst en zal game ontwikkeling veel goedkoper maken.
Deze discussie is zo vermoeiend, ja zonder RT zou de kaart veel sneller geweest zijn, maar RT heeft hardwarematig compleet andere eisen dan rasterization.
Dus nV heeft een middenweg moeten kiezen tussen & rasterization & RT.
Rasterization heeft 40 jaar aan ontwikkeling gehad en huidige gpu's zijn er compleet voor gebouwd.
Raytracing is vergelijkbaar in leeftijd (~1980) maar doordat games er geen gebruik van maakte(gpu's er niet krachtig genoeg voor waren) is er altijd doorontwikkeld op rasterization.

Dus wanneer stap je over? Compleet cold turkey en meteen 100% raytracing kaart maken waarbij je helemaal geen raterization meer hebt? Zonder software kan dit niet. Het grote wachten is dus op de eerste console die compleet van RT of PT gebruik maakt, want het heeft enorm veel voordelen voor gamedevelopers en dus voor de console bouwers.

@je voorspelling, ik had hem ge -10't als het kon, als je iets meer verdiept in RT of PT zou je juichen om 30fps 1080p realtime.

De afgelopen 10 jaar (crysis) is de toename in grafische praal zeer laag geweest, noem mij de laatste titel waarvan mensen unaniem zeiden: wow dat is echt een milestone... Raterization is uitontwikkeld, nV was gedwongen een hybrid te maken en AMD kan nog wel is heel groot gaan worden in RT/PT.

Mijn voorspelling..
Link dan gelijk even naar het artikel, in plaats van enkel naar het screenshot, had wel zo netjes geweest.
https://www.techpowerup.c...-tests-performance-halved

EDIT:
En let wel, dit is met ray tracing quality op ultra, dat is sowieso altijd een instelling dat weinig nut heeft.
Ik ben benieuwd hoe de performance is op een lagere instelling, maar dat heeft Techpowerup ook nog niet getest. Ik wil niet de fanboy uithangen, maar wil het wel het voordeel van de twijfel geven.

EDIT2:
Dat schrijven ze bovenden in het artikel ook nog dat benchmarks per niveau er aan komen, maar dat dat even duurt, doordat het wat instabiel is;
These may look horrifying, given that at its highest setting, even an RTX 2080 Ti isn't able to manage 1080p 120 Hz. But all is not lost. DICE added granularity to RTX. You can toggle between off, low, medium, high, and ultra as "degrees" of RTX level of detail, under the "DXR ray-traced reflections quality" setting. We are currently working on 27 new data-points (each of the RTX 20-series graphics cards, at each level of RTX, and at each of the three resolutions we tested at). We are experiencing some instability, where the system will crash, with the screen going black and the GPU fan speed going to 100%.
EDIT3:
Kleine nuance nav bericht hieronder; dit is idd met alles op high en een variabele instelling voor ray tracing. Techpowerup is met lagere grafische settings aan het testen om te zien hoeveel impact dat heeft met de diverse ray tracing instellingen.

[Reactie gewijzigd door CH4OS op 25 juli 2024 00:59]

En let wel, dit is met ray tracing quality op ultra, dat is sowieso altijd een instelling dat weinig nut heeft.
Nee, de cifjers zijn voor alles op ultra, en dan met ray tracing uit/low/medium/high/ultra. De performance neemt drastisch af bij de stappen uit-low-medium, en blijft dan gelijk op de niveaus medium/high/ultra.
nvm, we bedoelen hetzelfde, ik zei het verkeerd.

[Reactie gewijzigd door CH4OS op 25 juli 2024 00:59]

Neuh je bedoelde het verkeerde en je had drie correcties nodig voordat het kwartje viel. Ik herinner me nog een recent draadje waarin iets soortgelijks gebeurde.

Als je wil fanboyen doe het dan goed.

In je quote van TPU staat letterlijk dat ze de RTX niveaus testen en niet de andere kwaliteitsinstellingen van de game zelf.
We are currently working on 27 new data-points (each of the RTX 20-series graphics cards, at each level of RTX, and at each of the three resolutions we tested at).
En die resultaten zijn er.

[Reactie gewijzigd door Vayra op 25 juli 2024 00:59]

Als ik Artikel lees is het nog niet actief, hoe kunnen jullie dan nu al conclusie trekken?
Het is een zero day patch, die al uitgebracht is. De drivers zijn er ook al. Windows upgraden naar build 1809 is hervat (wel toevallig allemaal tegelijk...? ;))

Het artikel van Techpowerup (zie link in mijn reactie, twee reacties boven die van jou), geeft wat meer duidelijkheid. ;)

Voor vroegtijdige toegang tot Battlefield heb je EA Access nodig. Met de basic variant krijg je dan 10 uur, met de premium variant heb je geen tijdsbeperking.

[Reactie gewijzigd door CH4OS op 25 juli 2024 00:59]

https://www.techpowerup.com/img/xrYUUUhhEbIsk3b8.jpg

Performance meer dan gehalveerd, en dat op 1080p 8)7 :X
Die 66 fps is een positieve verrassing, 100% meer performance dan van te voren gespeculeerd (30 fps op 1080p). Persoonlijk ging ook ik er vanuit dat DXR totaal nutteloos was, maar als je er 60+ fps mee haalt valt het nog te overwegen...
En als je naar dit plaatje kijkt dan zie je dat FPS op 37 staat wat wat zeker in de buurt komt van die gespeculeerde 30FPS.

[Reactie gewijzigd door Adlan op 25 juli 2024 00:59]

Die screenshot is 2560x11440. In de test zelf staan de resultaten van 2560x1440 ook vermeld: https://www.techpowerup.c...RTX_DXR_Raytracing/4.html Ik op die resolutie overigens een GTX 970 voor 38.8 fps op de lijst staan. Pittige game dus!

[Reactie gewijzigd door sdk1985 op 25 juli 2024 00:59]

Ik zag inderdaad een persoon die beweert 150+ fps te hebben zonder rtx, met rtx aan tussen de 30-80fps. mooi stuk techniek maar ik wacht liever nog wat generaties. laat staat op 1440.
Waarbij waarschijnlijk die no-RTX framerate CPU-limited is, en de RTX framerate niet.
Tja, misschien is er nog ruimte voor optimalisatie, het is pas de 1ste publieke release van zowel de RTX driver, als Battlefield V raytrace update.
En dan nog, liever op 60 fps met al die mooie (en handige) reflecties dan 140 fps zonder.. Die reflecties heb je meer aan dan die hogere framerate, want die reflecties kunnen je helpen iemand om de hoek te zien bv.
En, dus wat dan nog?

Ray tracing in realtime tot zeer kortgeleden dachten de meeste mensen dat dit waarschijnlijk nog vele jaren zou duren voor dat dit mogelijk zou zijn op een sterke workstation laat staan op een gewoon consumenten computertje.

Natuurlijk is het op dit moment nog niet 1000fps maar wat maakt dat uit? Als ik minimaal 30 en volgens jouw voorbeeld 60fps kan zien dan is dat meer dan voldoende. Vergeet niet dat de meeste displays die aan de gemiddelde game pc hangen niet veel verder komen dan 60Hz (of 60 nieuwe beelden per seconde). Wat het dus gewoon meer dan goed genoeg maakt voor de meeste gamer.

Het hele na streven van de hoogst mogelijke fps met een scherm dat nog niet kan hopen de helft van de frames weer te geven is redelijk onzinnig. Het is het zelfde als de "noodzaak" een paar jaar geleden om een CPU niet heter te laten worden dan 30 graden en als het even kan even minder, ook dat is totaal onzinnig. Het idee dat de levensduur van het ding zou verlengen als je een CPU op 30 in plaats van 60 graden draait is al zeer moeilijk te bewijzen (als het al zo is) Er is bijvoorbeeld een reden dat Goolge zijn DC's een stuk warmer laat worden dan hier voor gebruikelijk was omdat ook zij op die enorme schaal dat zij systemen gebruiken niet het verschil konden vinden tussen de levensduur bij 30 of bij 60 graden.

Dit is niet anders dan het hele 200fps verhaal terwijl je naar een 60Hz scherm zit te kijken. Het is onzin, natuurlijk kun je denken aan tearing en dat soort dingen maar als jij 61fps kan produceren dan kunnen het scherm en de gpu samen besluiten dat ene extra frame te droppen en blijft het beeld net zo goed als wanneer ze besluiten 30 of 180 frames te droppen iedere seconde.
Natuurlijk wanneer de kaarten en de schermen samen slim genoeg zijn dan zal de GPU minder werk gaan doen al naar gelang het geen dat scherm kan weergeven. Als de GPU 5000fps kan produceren maar het scherm niet verder komt dan 60Hz dan is het onzinnig om de GPU al die frames te laten produceren (met alle energie verbruik dat daar bij komt kijken) je kunt dan net zo goed de GPU lekker rustig die paar frames laten produceren (energie besparen) en het scherm voorzien van de frames op het moment dat deze ze ook echt kan weergeven.
En ook heel belangrijk(!):
Je moet Windows 10 versie 1809 (October update) hebben want alleen deze versie heeft de benodigde DirectX Raytracing (DXR) implementatie die real-time hardware raytracing toestaat.
Kijkend naar het filmpje zou ik eerder zeggen dat raytracing vooral voor de eyecandy is.
Dat geeft een dergelijke feature al gauw vooral een hoge gimmick waarde, in de praktijk denk ik niet dat veel RTX GPU eigenaren dit gaan gebruiken, omdat het teveel afleidt van de game zelf, met mogelijk ook een performance drop. Als dat het geval is, is de keuze ook gauw gemaakt lijkt me om wel of geen raytracing te gebruiken.
Niet mee eens. Als er zonder RTX achter je een flamethrower wordt aangezet, zie je er niks van als je er niet naar kijkt. Nu kun je via reflecties detecteren dat dit gebeurt en er dus veel eerder op reageren.

Het zorgt er dus voor dat de game veel meer immersive is en het kan je ook nog een voordeel geven.
Als iemand in een dergelijke situatie achter je staat, is het sowieso wel te laat natuurlijk, dus een beetje het extreme / onrealistische opzoeken is dat natuurlijk ook wel weer. Natuurlijk, er is verschil zichtbaar, maar ik denk zeker niet dat het dusdanig veel voordeel biedt dat je bijvoorbeeld zo'n aanval van achteren overleeft, terwijl je in de brand staat. ;) De kans dat het echt voordeel biedt is dus praktisch 0 en is het dus vooral voor de immersion te doen.
Als iemand in een dergelijke situatie achter je staat, is het sowieso wel te laat natuurlijk, dus een beetje het extreme / onrealistische opzoeken is dat natuurlijk ook wel weer.
Dat wat er achter je gebeurt hoeft natuurlijk niet specifiek op jou gericht te zijn om het mee te krijgen. Die knakker met zijn vlammenwerper kan namelijk ook zijn wapen op een andere speler gericht hebben, maar nog stelt het je in staat daarop te reageren/anticiperen (wat niet mogelijk zou zijn als je de reflecties helemaal niet zou zien). Of wanneer jij in de reflecties het mondingsvuur van een sniper ziet die een teammaat van je onder vuur neemt, dan biedt dat je toch hoe dan ook een taktisch voordeel ten opzichte van dezelfde situatie waarin je het mondingsvuur niet had waargenomen?
In alle gevallen ben je hoe dan ook te laat om iets te doen natuurlijk, zeker in het voorbeeld van de flamethrower, is het gewoon een kwestie van de muisknop ingedrukt houden en rond draaien geblazen als er meer enemies rondom je staan. ;) Dus in die zin is en blijft ray tracing echt een gimmick voor de eyecandy liefhebber en geloof ik niet dat het echt toegevoegde waarde heeft.

[Reactie gewijzigd door CH4OS op 23 juli 2024 16:57]

Agree to disagree dan maar, want ik denk dat het zeker wel toegevoegde waarde kan hebben.
Sowieso ga ik een nieuwe technologie niet afschieten voordat het uberhaupt beschikbaar is in games, laat staan voordat ik het zelf in de praktijk heb zien werken.
Niet om bijdehand te doen maar heb je dan niet meer aan een headset. Dan hoor je iemand die vlammenwerper opsteken en de richting waar het vandaan komt. (met een beetje gaming headset). Ik weet niet of die reflecties nu echt het verschil gaan maken.
Ik gebruik zelf geen headset, dus daar kan ik niet over oordelen.

Maar ik ga er (op basis van mijn eigen manier van spelen) wel van uit dat wanneer ik naast een auto (of een etalage-ruit, of ander spiegelend voorwerp) in dekking zit en er ineens een enorme vurige reflectie zichtbaar wordt, ik daar wel nuttige informatie uit zou proberen op te maken (in welke richting wordt geschoten, op welke afstand van mij, wat zit er tussen mij en de schutter, etc.). Om vervolgens op basis van die informatie mijn 'next move' te bepalen (dat je een reflectie ziet betekent zeker niet per definitie dat je op dat moment al in acuut gevaar bent, of zelfs maar gespot).

[Reactie gewijzigd door w00t00w op 25 juli 2024 00:59]

Reflecties en lichteffecten zitten al jaren in games. Raytracing maakt ze alleen beter.

Ik snap je punt, maar je beargumentatie is niet best.
Raytracing voegt meer mogelijkheden toe om via reflecties de o.a. locaties van de vijand te weten te komen. Daarbij hoeft het niet meteen zo te zijn dat deze vijand op je aan het schieten is (wat in bovenstaande discussie het geval is met de opmerking dat je dan "toch te laat bent"). Voor veel spelers zal deze informatie waarschijnlijk niets extra brengen ("information overload" in the heat of the battle), maar ik kan me voorstellen dat een goed getrainde speler zeker een voordeel hieruit kan halen.
Eyecandy is toch de hele functie van de videokaart? Anders kun je alle effecten net zo goed uitzetten en op 640*480 op je igp spelen.
Dit ben ik niet geheel met je eens.

Detail en framerate hebben invloed ook directe invloed op de gameplay.

Om een voorbeeld te noemen, ik schiet in games regelmatig headshots op mensen waar slechts pixels van te zien waren. Bij een lage resolutie waren hun onzichtbaar geweest.
Het zelfde gaat ongeveer op voor framerate. Met 10 FPS ben ik dood voordat ik überhaupt de vijand gezien heb.
Betreffende effecten. Waar ik iemand deels door rook zie is het op laagste settings gewoon een grijs vlak.

Het doel van videokaarten is nog altijd functioneel beeld te genereren. Eyecandy is een extra
Ehhh...high/additional graphical settings zijn toch altijd voor de eyecandy? :P Je levert altijd FPS/stability performance in voor mooiere plaatjes.
Eigenlijk ben ik het hier niet mee eens. Ookal snap ik je wel. De waarde zit hem in de ervaring, de gameplay. Net als bump mapping van cobblestone waar je overheen loopt. Of het gevoel van wat diepte door bepaalde trucjes. Deze zijn tevens beetje gimmicky, maar doen mee met het algemene gevoel etc wat je hebt tijdens het spelen. Het maakt het allemaal weer net even iets meer af. Net als het oudere Doom waar het 3d effect ondertussen toch heel anders is dan hoe battlefield v er vandaag uitziet. Stop een stapel gimmicks op elkaar en je ervaring van gamen is toch anders.
Verder draait DirectX12 al een stuk belabberder dan DirectX11 en dat was eerder ook al het geval:
https://www.youtube.com/watch?v=1x4PKh2LF3A

Mensen leveren dus dubbel performance in tot een niveau dat het momenteel weinig zin heeft en competitief te kunnen spelen.

En ja, eye-candy leidt af maar zorgt ook voor een tragere input respons.
Bijvoorbeeld draai ik Battlefield 1 tussen de 120-160fps in de meeste gevallen met 1440P en maximale FoV met enkel de eerste twee settings op Ultra ingesteld, maar zodra de rest op Ultra gaat veranderd de fps niet veel maar je merkt wel dat de input trager wordt opgepakt omdat hoogstwaarschijnlijk de frametimes omhoog gaan.

Dat is op DirectX11 met een 1080Ti, 32GB ram en i7 3930K.
Graphics is eyecandy.... Maar in dit geval wel erg belangrijke. IMHO als het goed gaat performen dé belangrijkste stap in 3D gamerendering in de laatste 15-20 jaar.
Eye-candy? heb je de reflecties niet gezien dan? daarmee kun je behoorlijk wat voordeel halen. Je kunt dus gebukt tegen de muur bv in de reflectie van die tram iemand boven je zien..
tja, als je geen eye-candy wilt, dan kun je het beste gewoon alles op low zetten (vind ik overigens bij sommige games wel heel slecht dat het kan omdat dan ook vaag vegetatie ineens weg is, en je dus zo opgemerkt wordt als je door het gras kruipt, terwijl iemand die de instellingen normaal heeft staan mij dan niet ziet.
Ik vind graphics juist belangrijker dan fps in games. Als je op 1080p met RT aan 60 fps haalt zou ik het zeker inschakelen want alles gaat er veel beter uitzien.
Ik ben geen voorstander hoe Nvidia deze generatie aftrapt met ontbrekende benchmarks voor release en te dure prijzen, maar ik vind het wel een goede zaak dat raytracing terug op de kaart staat.
Iemand moet het voortouw nemen, en hopelijk zijn we nu vertrokken voor de komende jaren.
Al geloof ik wel dat we nog een goede 5 jaar moeten wachten tot we heel mooie implementaties krijgen in games. De hardware is er net nog niet.
Ja idem, en de prijzen zijn absurd maar dat waren ze vorige generatie al.

Laten we nou de focus leggen op wat het grafisch brengt. Ben heel erg benieuwd hoe een speelsessie is op 1080p 60 hz met Raytracing?
Hah benchmarks incoming! Ik voorspel nog geen 60fps op 1080p
Klopt, op ultra tussen de 40 en 60 fps |:( |:( . Dat is met een i5 8400 en 16 gb ram.

[Reactie gewijzigd door aukenutma op 25 juli 2024 00:59]

"Ook moet EA de game nog van de benodigde update voorzien om raytracing in te schakelen."
Mis ik iets?
De update is vannacht uitgekomen.
Ja, deze update was ook al ingeladen. Daarvoor was de optie om in te schakelen ook niet.
Ik denk wel iets beter. Nu draaien de nieuwe kaarten battlefield prima. De cuda cores krijgen het straks niet zwaarder, alleen de rt cores worden belast. Het zou raar zijn als ze de rt cores zwaarder belasten dan wat ze kunnen. Waarschijnlijk komt er een quality setting
alleen de rt cores worden belast. Het zou raar zijn als ze de rt cores zwaarder belasten dan wat ze kunnen.
"wat ze kunnen" hangt geheel samen met resolutie en framerate: in dit geval dus 1080p @ 60fps. En dat op een 2080Ti, met een 2070 hoef je er niet eens aan te beginnen.
En de diehard gamers zetten alles op low.....
Nee, gewoon niet.......

Ik ben een die hard gamer, ik heb alles op hoge instellingen en speel met een 240Hz scherm. Zolang je de framerate haalt die je scherm kan laten zien hoef je niks aan je settings te doen behalve omhoog te schroeven. Of zet jij je Shadows ook uit zodat je iemand niet om de hoek kan zien komen?

[Reactie gewijzigd door Jornthonissen op 25 juli 2024 00:59]

In sommige games zit de input processing op dezelfde thread als de rendering, dan betekent 300 fps ipv 60 fps gewoon dat je input 5 keer zo snel wordt geprocessed, en dat kan net betekenen dat jij eerder schiet dan die ander.

Overigens lijkt het me niet dat als je op je eigen systeem schaduw renderen uitzet, jouw schaduw op het systeem van iemand anders ineens niet gerendert wordt :P Vaak heeft low detail meer te maken met minder visuele afleiding, hoe minder zooi op je scherm, hoe sneller een tegenstander opvalt.
Overigens lijkt het me niet dat als je op je eigen systeem schaduw renderen uitzet, jouw schaduw op het systeem van iemand anders ineens niet gerendert wordt
Dat zegt ie ook niet, het gaat erom dat je zelf anderen eerder de hoek om ziet komen.
Derp, klopt, lezen is moeilijk
Ik denk niet dat er momenteel een kaart bestaat die op BF5 240fps uitperst op high of ultra.
Tja, en het nut van 240fps is? sorry hoor, daar ga jij echt niet beter van spelen, en zeker bij onlinegaming komt er meer bij kijken dan alleen framerate..
Ik heb op 100Hz 165 en 240 gespeeld, ik merk het verschil. Ik ga niet claimen dat je er beter van wordt. Echter is het spel wel voor het gevoel vloeiender. Het is allemaal personal preference
Dan zie je geen reet in BF door alle enorme pixels op je scherm :P
Anoniem: 767041 14 november 2018 13:39
Haha mooi hoor :D, console kan dit niet na doen
Nee, voor een console werk je gewoon gelijk met werkende hardware ;-)

Waarom moet Nvidia een update uitbrengen en moet er een update voor de game uitkomen om iets met de kaart te kunnen doen, die de kaart sowieso al had moeten doen? Waarom moet er voor elke game een patch uitkomen voor de driver om die ondersteuning voor die game te bieden? Waarom niet standaard aanbieden in je API's zodat elke game er gelijk gebruik van kan maken?
Dat is toch exact wat ze nu doen...? Ze hebben nieuwe hardware uitgebracht met de mogelijkheid voor RayTracing en dit toegevoegd in hun driver. EA heeft het al geïmplementeerd alleen nog niet vrijgegeven omdat de driver support er nog niet was.

Bij een console heb je dit niet maar dat komt omdat een console zoals de One X ook niet te vergelijken is met een High end PC. Op een mid end pc zul je ook geen Ray tracing support aan treffen. Als je betaald voor het nieuwste van het nieuwste kan je in deze situatie terecht komen.
Waarom moet Nvidia een update uitbrengen en moet er een update voor de game uitkomen om iets met de kaart te kunnen doen, die de kaart sowieso al had moeten doen? Waarom moet er voor elke game een patch uitkomen voor de driver om die ondersteuning voor die game te bieden? Waarom niet standaard aanbieden in je API's zodat elke game er gelijk gebruik van kan maken?
Omdat dit gewoon de standaard gang van zaken is in GPU-land. In het verleden moesten voor de support van de feature-set van DirectX10, of specifieke effecten (bijv. bump-mapping, texture compression) ook eerst aanpassingen aan de game en/of drivers beschikbaar worden gesteld.
Nee, voor een console werk je gewoon gelijk met werkende hardware ;-)

Waarom moet Nvidia een update uitbrengen en moet er een update voor de game uitkomen om iets met de kaart te kunnen doen, die de kaart sowieso al had moeten doen? Waarom moet er voor elke game een patch uitkomen voor de driver om die ondersteuning voor die game te bieden? Waarom niet standaard aanbieden in je API's zodat elke game er gelijk gebruik van kan maken?
Consoles voegen toch ook vaak zat post-release features toe? Denk aan externe hdd support voor de PS4. Hele probleem van consoles is dat het vroeger plug and play apparaten waren met games zonder instellingen die je direct kon spelen door de cd/dvd/cardridge/enz in je apparaat te stoppen. Tegenwoordig moet het apparaat eerst updaten, je game installeren en updaten, en beginnen games ook instellingen te krijgen. Ze staan dichter bij pc's dan ooit tevoren. Enige voordeel dat nu nog resteert is dat bij consoles de instapdrempel veel lager is door de beperkte aanschaf kosten. Voor 400 euro koop je immers geen fatsoenlijke gaming pc.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 00:59]

@cynische reacties over ray tracing performance

Ray tracing is een soort van heilige graal voor het renderen van beelden, dus hulde dat nVidia dit eindelijk beschikbaar maakt en dat er hardware is met specifieke cores die dit ondersteund! Ik begrijp heel goed dat het nog redelijke beperkingen heeft en dat je met een (dure) RTX videokaart waarschijnlijk niet op 1080p gaat gamen en ray tracing op hogere resoluties vooralsnog niet speelbaar is, waardoor het nut van ray tracing eigenlijk nog ver te zoeken is. Maar ergens moet ray tracing beginnen en daar heeft nVidia de aftrap voor gegeven, anders blijven we hangen in het kip en het ei verhaal. Het zal misschien nog even duren voordat veel spellen het gaan ondersteunen en het zal waarschnlijk pas een volgende generatie GPU worden waarmee op hogere resoluties, 1440p (4K? O-) ), ray tracing speelbaar wordt. Maar het begin is er.
Dit is echter nog lang niet die heilige graal, wat nvidia hier doet is traditionele rasterized rendering combineren met wat ray traced lichteffecten, als je denkt dat performance nu een probleem is, zou je eens moeten zien wat er gebeurt als je een game als BFV daadwerkelijk geheel zou raytracen (waarvoor de hele rendering engine moet worden herschreven)

En nvidia heeft de aftrap niet gegeven, RTX is gewoon een implementatie van DXR, een onderdeel van de DirectX spec
Zoals ik ook al zei zijn er ook beperkingen en het klopt dat het een combinatie van rasterized rendering en hier en daar wat ray tracing effecten is. Verwachten dat we in één keer alles via ray tracing zouden kunnen renderen is niet realistisch als je je een beetje bewust bent van hoe rekenintensief het zou zijn om alles via ray tracing te doen. Zoals ik al zei, nVidia heeft de aftrap gedaan :) .
En nvidia heeft de aftrap niet gegeven, RTX is gewoon een implementatie van DXR, een onderdeel van de DirectX spec
Daar heb ik mij twijfels bij. Geheel toevallig zijn de aankondigingen van DXR en de nVdia RTX core gelijk gedaan. Ik denk juist dat nVidia eerder was met het idee van ray tracing, het ontwerpen van de hardware is natuurlijk al jaren geleden begonnen, en dat nVidia Microsoft heeft aangesproken voor ray tracing implementatie in DirectX.
https://www.pcworld.com/a...es-hardware-software.html
Maar wat heb je er aan als het niet praktisch bruikbaar is? Ik zou deze generatie echt niet kopen want ik hou van hoge framerates... En dat krijg je niet als je RTX aan zet. Maar als je het niet aanzet dan heb je een blok chip ter waarde van €400 of zo op je videokaart waar je geen hol aan hebt. Dat zou mij echt mateloos irriteren, dus van mij mogen ze hem houden.
Ik zie ook niet waarom je het uit moet brengen als het nog niet klaar is voor gebruik... Hou het dan nog even in de tas en breng het uit als je er wél wat aan hebt.
Zoals ik al zei weet ik dat er beperkingen zijn, die noem ik ook op zoals je in mijn reactie kan lezen, maar in mijn persoonlijk mening vind ik het knap dat er toch een hardwarefabrikant er mee is begonnen, anders blijven we zitten met het kip en het ei verhaal. Dat is het enige wat ik er over zeg. Verder kan ik me ook zeker vinden in wat jij zegt.
Ik zie ook niet waarom je het uit moet brengen als het nog niet klaar is voor gebruik... Hou het dan nog even in de tas en breng het uit als je er wél wat aan hebt.
Die vraag zou ik ook graag door nVidia beantwoord zien willen worden.

Maar eenzelfde mening en vraag kan je ook over de tensor cores hebben.

En volgens mij zijn er in het verleden wel vaker nieuwe technieken geintroduceerd die een dermate impact op de performance had dat je je ook af kon vragen wat het nut was. Maar met een volgende generatie GPU werd die performance impact weer aangepakt. Sommige vormen van anti-aliassing waren in het begin ook erg zwaar en daardoor niet bevordelijk voor je performance, maar dat is ook aangepakt.

Ik snap alle kritiek, terecht ook, maar ik blijf bij mijn mening dat ik het een goede ontwikkeling vindt dat nVidia nu met RTX cores is gekomen. Ik vraag me ook af of misschien de professionele markt er meer baat bij heeft dan voor in games waar het real-time toegepast moet worden.
Maar ik denk dus niet dat hier sprake is van een kip/ei probleem. De hardware is er gewoon nog niet klaar voor, er is niet genoeg processing power beschikbaar om het echt goed te doen. Het is niet zo dat omdat ze dat nu doen dat ze volgende generatie ineens wel genoeg processing power hebben... misschien is dat wel zo, weet ik niet, maar als het zo is denk ik niet dat het komt doordat ze het nu al er in gestopt hebben.

En wat betreft eerdere situaties waar functionaliteit vrijgegeven is wat nog niet optimaal draaide... ja, dat klopt, maar voor zover ik weet ging dat niet gepaard met zo'n enorme prijsverhoging. Het probleem is dat de chip weer veel groter en dus duurder geworden is, puur om RTX mogelijk te maken. Hadden ze dat niet gedaan dan was of de chip veel goedkoper, of had die chipruimte naar meer reguliere GPU cores kunnen gaan waardoor de performance zonder RTX veel beter was geweest.

Het probleem is dat Nvidia gewoon geen enkele concurrentie heeft op de highend en daarom komen ze er mee weg, maar dat betekent niet dat we er niks van mogen zeggen.

edit: Misschien nog ter verduidelijking... Je zou het een kip/ei probleem kunnen noemen als we hier aan het zeuren waren over het feit dat er nog geen games beschikbaar zijn om gebruik te maken van RTX. En tuurlijk, dat is ook zo, en wordt ook gezegd, maar volgens mij hebben de meeste mensen vooral een probleem met de prijs in combinatie met de lage performance zonder RTX (relatief gezien geen verbetering in prijs/performance) en het feit dat we nog niks aan RTX hebben zelfs wanneer de games wel beschikbaar zijn (omdat de performance te slecht is).

[Reactie gewijzigd door Finraziel op 25 juli 2024 00:59]

Net als jij stel ik ook mijn vraagtekens bij het nut van de RTX cores, daarom zei ik ook al in mijn vorige reactie dat we je vraag eigenlijk aan nvidia zouden moeten stellen, want welk nut hebben de RTX cores op de gaming kaarten als er alleen acceptabele framerates gehaald kunnen worden op 1080p? Want zo'n kaart van 1200+ euro voor de 2080Ti koop je niet om op 1080p te gamen en om nou te zeggen dat de effecten super mooi zijn, nee, ik vind het eigenlijk niet echt mooi nog(op HWI gelukkig iemand die dat ook vond). Daarom ook nog eens mijn opmerking/vraag of het misschien niet eerder iets voor de professionele 3D markt is waar men gewoon de tijd kan nemen om te renderen en het niet real-time hoeft, dan kunnen de shader cores ontlast worden bij ray tracing.

De prijs is zeker een ding, je betaalt ook voor de RTX cores, die je eigenlijk dus niet gebruikt, en de tensor cores heb je ook niet echt nodig, ja alleen met DLSS(deep learning super-sampling, vorm van anti-aliassing), wat ook weer ingebouwd moet worden in games, maar het extra geld ook niet waard is.
Daarbij komt dat de chip niet op 10nm, maar op 12nm wordt gebakken, dus ook al minder dies uit een wafer wat de chip duurder maakt. Ik zou inderdaad ook geen 2xxx RTX kopen, het is het niet waard. Tuurlijk is de 2080Ti weer wat sneller dan de 1080Ti, maar de prijs rechtvaardigt het inderdaad niet.
Wat is het voordeel van zulke hoge framerates? ik heb liever 60 fps en reflecties zodat ik iemand om de hoek via een reflectie van een raam oid kan zien dan 140fps zonder, die 140 fps helpen mij echt niet beter te zijn.. En beter dat er nu een start mee is gemaakt, zodat bij de volgende generatie EN meer games het al ondersteunen EN de volgende generatie ook weer beter is.. Je moet er ooit eens mee beginnen, dus liever eerder dan later.
Allereerst is dat dus op FHD he... Gaan die reflecties jou meer opleveren dan mijn hogere resolutie? Het lijkt mij nogal een edge case dat je via reflectie iemand aan ziet komen. Ik vind het twijfelachtig of dat vaker voor gaat komen dan de situaties waarin ik door hogere resolutie op afstand beter wat aan zie komen.

Daarnaast is het gemiddeld net boven de 60, dus het gaat er ook echt wel onder dippen, waarmee je dus met een standaard 60 Hz monitor tearing en gestotter krijgt. Bovendien zag ik hier ook nog ergens dat mensen melden dat de framerate af en toe tot wel 30 zakte met RTX.

En heb je zelf überhaupt een monitor die meer dan 60 Hz ondersteunt? Want ik merk het écht wel, ik kan beter richten als mijn framerate richting de 100 gaat dan als hij rond de 60 hangt (laat staan daaronder). Dat dan ondanks het feit dat het er met lagere framerate nog steeds best ok uit ziet dankzij gsync. Het hoeft van mij echt geen 144 FPS te zijn, of 165 wat mijn monitor aan kan, maar 100+ is wel zo fijn. Het kan natuurlijk prima dat jij het niet merkt en het voor jou dus geen meerwaarde is, maar ik zou het in ieder geval niet zomaar afschieten als je het niet enigszins uitgebreid geprobeerd hebt.
Laat de benchmarks maar komen.. :)
60% lagere framerate volgens HWI. Dus dan kan iedereen gaan rekenen wat het betekent voor hun favoriete game of genre in de toekomst. ;)

Link: https://nl.hardware.info/...ent-lagere-framerate-zien
de framerate daalt van 159 fps naar 65 frames per seconde als de eigenschap aangezet wordt op Ultra.
https://nl.hardware.info/...ent-lagere-framerate-zien

Ja Battlefield V draait dan heerlijk op 65fps op 1920x1080, en dat nog wel met een Geforce RTX 2080 Ti die rond de €1200 a €1300,- kost, nee zullen niet veel mensen zijn die dan gebruik maken van raytracing.

[Reactie gewijzigd door AmigaWolf op 25 juli 2024 00:59]

Was toch altijd zo met nieuwe technologie? De eerste kaarten met anti-aliasing waren ook niet vooruit te branden als je dat aan zetten deed, dus iedereen had het niet aan staan of op z'n aller laagst.
Het heeft meerdere generaties gekost voor anti-aliasing dan ook echt bruikbaar begon te worden, en vandaag de dag zetten we het allemaal aan. Zo zal dat ook met ray tracing technologie gaan in de nabije toekomst.

Kwestie van tijd en geduld zeg ik op mijn beurt.

Het is toch een kip en het ei verhaal, je moet eerst de mogelijkheden creëren om de technologie toe te kunnen passen. In dit geval laten passen door de game developers. Als je dan eenmaal de koppen de juiste kant op hebt dan kan je de techniek gezamenlijk als hardware en software makers gaan verbeteren.
Ja maar die waren niet rond de €1200 a €1300,-, je koopt niet zo een dure kaart om je FPS te halveren of zelf meer 60%.
De eerste kaarten met anti-aliasing waren ook niet vooruit te branden als je dat aan zetten deed...
Ik kan mij Fullscreen Antialiasing (FSAA, tegenwoordig supersampling anti-aliasing/SSAA genoemd) goed herinneren. Idd goeie manier om je FPS te killen.

Voor de onwetenden: SSAA rendered wat je ziet in 2x de resolutie, dus als je naar 1080p kijkt word het gerendered op 2160p (4k) en dan naar beneden geschaald om aliasing te verwijderen.
Tja, is het zelfde als iemand die dus het detail ZWAAR moet terugdraaien omdat die maar een 1050 heeft.. En net zoals vroeger bv met Crysis, de hoogste instelling kon je niet eens fatsoenlijk draaien op de op dat moment nieuwste hardware want die had er moeite mee.
Bedenk je wel dat zeker met dit soort dingen raytracing je behoorlijk wat voordeel kan geven, veel meer dan die extra fps.. Want JIJ Kunt via een reflectie van een raam dus iemand om de hoek zien staan, dat kan iemand die geen RTX heeft dus niet. Dus er zal ook wel veel meer gemauwd gaan worden over wallhacks etc terwijl het gewoon komt omdat raytracing de scene veel beter weergeeft.
Geloof er geen bal van dat mensen dat gaan gebruiken, aangezien wanneer jij ze eindelijk ziet in de reflectie ben je al dood, want de gene die jou wil vermoorden is heeft dat dan al lang gedaan, en omdraaien duur langer dan als hij zijn wapen al op je gericht heeft.

Nee sorry raytracing is nog steeds een gimmick.
Tja, dus jij speelt het spel ook op de laagste instelling, want alles hoger is ook gewoon puur een gimmick.. 8)7
Nee niet als het je 60% kost van je FPS, pas met de Geforce RTX 3080 (Ti) zal het echt bruikbaar woorden.
Tja, dus jij speelt het spel ook op de laagste instelling, want alles hoger is ook gewoon puur een gimmick.. 8)7
Dat slaat werkelijks nergens op, als een spel niet rond de 100fps loopt ja dan zet ik een zooitje settings lager in de spel (ik heb een 100Hz scherm), maar jij blijkbaar niet zij speel liever met weinig fps dan de settings lager te zetten 8)7

[Reactie gewijzigd door AmigaWolf op 25 juli 2024 00:59]

Tuurlijk slaat het wel ergens op, jij noemt RTX een gimmick omdat het zo'n impact heeft op de performance, maar elke grafische instelling die hoger is dan de laagste heeft impact op de performance en is daarmee dan dus net zo'n gimmick..

Tja, ik kan rustig op 60fps spelen, mijn Dell ultrasharp IPS U2715H kan toch niet sneller dan 60hz, en ik ben er nog steeds zeer tevreden mee. Ga voorlopig echt geen nieuwe monitor aanschaffen om wat extra hztjes erbij te krijgen (of hogere resolutie). En JA ik speel liever met mooiere visuals op 60fps dan met mindere instellingen op 120+fps..

Op dit item kan niet meer gereageerd worden.